Verhandlungen über AI Act Wie lang die Leine für ChatGPT und Co. wird
Künstliche Intelligenz kann Aufsätze schreiben oder helfen, Krankheiten zu diagnostizieren, aber kann auch zu Desinformation und Diskriminierung führen. Die EU will KI deswegen per Gesetz regulieren.
Der Hype fing vor rund einem Jahr an, mit diesem Satz: "Wir haben ein Modell mit dem Namen ChatGPT trainiert, das auf eine konversationelle Art und Weise interagiert." Mit diesem holprigen Understatement präsentierte das Unternehmen OpenAI seinen Chatbot auf der eigenen Website. Es folgten Jubelarien, Schreckensszenarien und vieles dazwischen. Die große Aufregung um ChatGPT hat sich gelegt, gleichzeitig gehören KI-Anwendungen mehr und mehr zum Alltag.
Zu sehen ist das etwa bei "Robotspaceship", einer Mainzer Beratungsagentur, die für Kunden auch digitale Inhalte produziert. "Wir nutzen ChatGPT, um Konzepte für Podcasts zu entwickeln, oder auch Bildgeneratoren um in der Grafik Entwürfe zu erstellen", sagt Inhaber Oliver Kemmann. KI-Hilfsmittel könnten viele, darunter kreative Prozesse beschleunigen, meint der Innovationsberater.
Doch nicht zuletzt wegen Fehlern und Verzerrungen in den Daten, mit denen die KI trainiert wurde, sagt Kemmann auch: "Wir brauchen eine Regulierung. Aber das muss richtig gemacht werden, wir dürfen nicht überregulieren."
Regulierung auf EU-Ebene
Diesen Spagat versuchen seit Monaten das EU-Parlament, die -Kommission sowie die Mitgliedsstaaten hinzubekommen. Es geht um den "AI Act", die Regulierung von künstlicher Intelligenz auf europäischer Ebene. Für Mittwoch ist der (vorerst) letzte Verhandlungstag angesetzt.
Im Kern zielt der AI Act darauf ab, nicht die Technik, sondern die Anwendung von KI zu regulieren. Dafür gibt es verschiedene Risiko-Abstufungen. Verboten werden soll etwa das "Social Scoring" durch Künstliche Intelligenz, also die Bewertung von Bürgerinnen und Bürgern wegen deren sozialem Verhalten.
Als "Hochrisiko-KI-Systeme" gelten solche, die etwa im Gesundheitswesen oder beim Job-Recruiting eingesetzt werden. Zum Beispiel, indem KI hilft, Krankheiten zu diagnostizieren oder Bewerber auszusortieren. Für Anwendungen, die wiederum nur ein begrenztes Risiko darstellen, soll es Transparenzpflichten geben, für jene mit minimalem Risiko keine weiteren Verpflichtungen.
"KI darf Menschen nicht diskriminieren"
Dieser risikobasierte Ansatz sei grundsätzlich sinnvoll, sagt Sandra Wachter, Professorin für Technologie und Regulierung an der Universität Oxford. Das gelte zumindest für KI-Systeme, die zur Entscheidungshilfe eingesetzt werden. Unter anderem in den Bereichen Migration, Strafrecht oder bei Versicherungen müsse etwa sichergestellt werden, dass KI Menschen nicht diskriminiere.
In manchen Bereichen sei die "Unerklärbarkeit" von KI-Entscheidungen dagegen weniger dramatisch. "Wenn mir der Netflix-Algorithmus einen Film vorschlägt: Muss ich dann wirklich inhaltlich verstehen, warum er das getan hat", fragt Wachter. Generative KI wie ChatGPT dürfe dagegen keine "Black Box" sein. Und gerade hier gab es zuletzt Streit zwischen den EU-Institutionen.
Hier geht es um die Frage, welche Regelungen für so genannte Basismodelle gelten sollen. Dabei handelt es sich um KI-Modelle, die mit sehr vielen Daten trainiert werden und für verschiedene Zwecke eingesetzt werden können: eine Art "Allzweck-KI" also. Prominentestes Beispiel ist das Modell "GPT 4", das etwa mit Unmengen an Texten aus dem Internet "gefüttert" wurde. Auf ihm basiert die aktuelle Version des Bots ChatGPT.
EU-Parlament will Risikominimierung
Das EU-Parlament hat im AI Act vorgesehen, eigene Regeln für die Basismodelle einzuführen und sie unter anderem dazu zu verpflichten, Risiken für Gesundheit, Grundrechte und Demokratie zu minimieren. Deutschland, Frankreich und Italien hatten im Laufe der EU-Verhandlungen - wohl nicht zuletzt auf Druck von heimischen KI-Unternehmen - aber darauf gedrängt, dass für die Basismodelle keine zusätzlichen Regeln gelten sollten. Stattdessen schlagen die drei Länder eine Selbstverpflichtung vor: Die KI-Entwickler müssten demnach in einer Art Beipackzettel unter anderem die Funktionsweise und Fähigkeiten ihres Modells darlegen.
"Keine unnötigen Hürden"
Die deutsche Digitalwirtschaft spricht sich für eine solche Selbstverpflichtung aus. Eine "strikte und starre Regulierung" der Basismodelle sei dagegen aus zwei Gründen problematisch, sagt Ralf Wintergerst, Präsident des Branchenverbands Bitkom.
Zum einen machten es die vielfältigen Verwendungswecke für die Anbieter dieser Art von KI unmöglich, das Risiko effektiv zu bewerten und zu vermindern. "Zweitens sind die technischen Entwicklungen gerade auf der Ebene der Modelle rasant, so dass feste Regeln im AI Act schnell überholt wären", sagt Wintergerst. Er ergänzt: "Eine verpflichtende Selbstregulierung bedeutet gerade nicht, dass es keine Regeln gibt." Die Anforderungen müssten aber praktisch umsetzbar und dynamisch anpassbar sein, keine "unnötigen Hürden durch zu starre Regeln".
Doch einige Experten halten eine Selbstverpflichtung bei "Allzweck-KI" für nicht ausreichend. "Wenn eine Technologie so vielfältig und potentiell schädlich eingesetzt werden kann, dann fällt sie doch per Definition in eine Hochrisiko-Kategorie", sagt Technologieforscherin Sandra Wachter. Es brauche beides: Transparenz und Selbstverantwortung, aber auch klar vorgegebene Grenzen. "Das ist ein bisschen so, wie wenn man in den Supermarkt geht. Wenn ich eine Dose Suppe nehme, dann ist es wichtig, dass transparent darauf steht, welche Zutaten enthalten sind", sagt Wachter, "aber es muss auch Regeln geben, dass bestimmte Sachen eben nicht in der Suppe drin sein dürfen."
Gefahr massenhafter Desinformation
Eine besondere Gefahr sieht Wachter etwa darin, dass generative KI-Modelle eingesetzt werden, um massenhaft Desinformation erzeugen. Oder auch genutzt werden, um leichter Straftaten zu begehen. "Es braucht Settings, dass man nicht so schnell herausfinden kann, wie man eine Bombe bastelt oder jemanden spurlos ermordet", sagt Wachter. Bislang will etwa OpenAI, der Entwickler von ChatGPT, selbstständig entsprechende Antworten unterbinden.
Viel diskutiert ist auch die Frage, ob KI-generierte Inhalte mit einem digitalen Wasserzeichen gekennzeichnet werden sollen, um Täuschung zu verhindern. "Das würde nicht funktionieren", sagt Innovationsberater Oliver Kemmann. Solche Transparenzhinweise könnten womöglich zu leicht entfernt werden. Forscherin Sandra Wachter sieht das anders. "Das ist zwar eine Art Katz-und-Maus-Spiel. Aber man könnte ja auch sagen, dass das Entfernen des Wasserzeichens unter Strafe gestellt werden", schlägt Wachter vor.
Scheitern der Gesetzgebung auch denkbar
Es bleibt bis zuletzt schwer absehbar, welche konkreten Regeln die EU den Entwicklern und Anwendern von Künstlicher Intelligenz auferlegt. Zuletzt wurde auch diskutiert, ob es ein abgestuftes Verfahren bei den Basismodellen geben solle: also bestimmte Regeln nur für die größten beziehungsweise wirkmächtigsten unter ihnen. Auch ein Scheitern der Gesetzgebung sei denkbar, hieß es immer wieder.
Am Ende könne der AI Act dazu beitragen, das notwendige Vertrauen in KI-Systeme zu schaffen, sagt Bitkom-Präsident Wintergerst. Danach gehe es darum, schnell zu klären, welche Behörden die Aufsicht über die Einhaltung der Regeln übernehmen. "Nicht nur Verbote, auch Rechtsunsicherheit kann dazu führen, dass KI künftig nicht mehr in Europa, sondern anderswo in der Welt entwickelt wird", meint Wintergerst.
Die Zeit für den AI Act drängt jedenfalls, nicht nur, weil sich die Technologie rasant weiterentwickelt, sondern auch, weil nächstes Jahr das EU-Parlament neu gewählt wird.