Ingenieure und Ingenieurinnen tragen Mitverantwortung bei Entscheidungen von KI-Systemen
Die EU hat am 21. Mai endgültig das Gesetz über künstliche Intelligenz, kurz KI („AI-Act“), verabschiedet. Damit haben die EU-Staaten erstmals Regeln für den Einsatz von KI festgelegt. Es ist das erste Gesetz dieser Art weltweit und kann einen globalen Standard für die Regulierung von KI setzen, heißt es vom Verein Deutscher Ingenieure (VDI). Ein zentraler Punkt des Gesetzes ist, dass KI-Systeme möglichst transparent, nachvollziehbar und diskriminierungsfrei sein sollen. Ein wichtiger Aspekt dabei ist, dass die KI-Systeme von Menschen überwacht werden – nicht von technischen Systemen. Damit soll die endgültige Entscheidung und Verantwortung in Menschenhand bleiben.
Ethische Grundsätze beachten
In seinen „Ethischen Grundsätzen des Ingenieurberufs“ aus dem Jahr 2021 stellt der VDI fest: „Ingenieurinnen und Ingenieure sind sich darüber bewusst, dass bei der Delegation operativer und strategischer Unterstützungs- und Entscheidungsleistungen an autonome KI-basierte Systeme die Verantwortung letztlich beim Menschen verbleiben muss.“ Der VDI hatte das Aufkommen der breiten KI-Nutzung und autonomer Systeme zum Anlass genommen, seine Ethische Grundsätze daraufhin zu überarbeiten und zu ergänzen. Eine weitere technische Standardisierung für KI ist notwendig.
Unabhängig davon sieht der VDI die großen Chancen, die Technologien auf der Basis von KI bieten. Es sollen zukünftig auch weiterhin auf dem Weltmarkt wettbewerbsfähige Produkte und Dienstleistungen mit integrierter KI angeboten werden können. Deutschland liegt im Hinblick auf die Anzahl von Patenten aktuell weltweit auf dem zweiten Platz.
Strenge Vorgaben bei hohem Risiko
Der AI-Act schreibt vor, dass KI-Anwendungen nicht missbraucht werden dürfen. Ebenso muss der Schutz der Grundrechte gewährleistet sein. Gleichzeitig brauchen Wissenschaft und Wirtschaft Freiraum für Innovationen. Der AI-Act verfolgt hier einen sogenannten risikobasierten Ansatz. Das heißt, je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger sind auch die Vorgaben.
Ein inakzeptables Risiko stellen zum Beispiel KI-Systeme dar, die eingesetzt werden können, um das Verhalten von Personen gezielt zu beeinflussen und sie so zu manipulieren. Für sie gilt ein Verbot, genauso wie für KI-basiertes „Social Scoring“, also die Vergabe von Punkten nach erwünschtem Verhalten.
Es gibt außerdem eine Transparenzpflicht. Das heißt, künstlich erzeugte oder bearbeitete Inhalte (Audios, Bilder, Videos) müssen eindeutig als solche gekennzeichnet werden.
Hochriskante KI-Systeme – zum Beispiel in den Bereichen kritische Infrastruktur, Beschäftigung sowie Gesundheits- oder Bankenwesen – müssen eine Reihe von Anforderungen erfüllen, um für den EU-Markt zugelassen zu werden. Für Anwendungen mit einem geringen Risiko gelten lediglich eingegrenzte Transparenz- und Informationspflichten.
Sind wir in der EU ab sofort überreguliert?
Komplexität und Bürokratie: Die umfassenden Regelungen und Anforderungen könnten für Unternehmen, insbesondere kleine und mittlere Unternehmen (KMU), eine erhebliche bürokratische und finanzielle Belastung darstellen. Dies könnte die Innovationskraft und Wettbewerbsfähigkeit dieser Unternehmen beeinträchtigen.
Innovationseinschränkungen: Strenge Regulierungen könnten die Entwicklung und Einführung neuer KI-Technologien verlangsamen. Insbesondere in Bereichen, die als hohes Risiko eingestuft werden, könnten lange Prüf- und Genehmigungsverfahren erforderlich sein.
Technologische Neutralität: Kritiker bemängeln, dass der AI-Act möglicherweise nicht technologisch neutral genug ist und bestimmte Technologien bevorzugt oder benachteiligt werden könnten. Dies könnte zu Ungleichgewichten im technologischen Fortschritt führen.
Globale Wettbewerbsfähigkeit: Es besteht die Sorge, dass zu strenge Vorschriften europäische Unternehmen im globalen Wettbewerb benachteiligen könnten. Während die EU auf hohe ethische Standards setzt, könnten Unternehmen in weniger regulierten Märkten schneller und kostengünstiger agieren.
Fazit
Insgesamt stellt der AI -Act der EU einen bedeutenden Schritt in Richtung einer regulierten und ethisch verantwortlichen Nutzung von Künstlicher Intelligenz dar, birgt jedoch auch Herausforderungen hinsichtlich Bürokratie, Innovationskraft und globaler Wettbewerbsfähigkeit.