Künstliche Intelligenz Italien sperrt ChatGPT
Italiens Datenschutzbehörde hat den KI-basierten Chatbot ChatGPT vorerst sperren lassen. Als Grund nannte sie Verstöße gegen den Daten- und Jugendschutz. Den Entwicklern der Software droht im Zweifel eine Millionenstrafe.
Die italienische Datenschutzbehörde zieht dem Chatbot ChatGPT vorerst den Stecker. Die Software des amerikanischen Entwicklers OpenAI dürfe die Daten italienischer Internetnutzer "mit sofortiger Wirkung" nur noch eingeschränkt verarbeiten, heißt es in einer Stellungnahme. Das Textverarbeitungsprogramm habe Datenschutz- und Jugendschutzregeln nicht eingehalten. Es wurden Ermittlungen eingeleitet.
Die Software ChatGPT verarbeitet Texteingaben mithilfe künstlicher Intelligenz (KI). Nutzerinnen und Nutzer können mit dem Programm wie mit einer realen Person eine Unterhaltung führen, Fragen stellen oder Befehle eingeben. Für die Bearbeitung greift ChatGPT auf riesige Datensätze aus dem Internet zurück und setzt diese eigenständig in einen passenden Kontext.
Rechtliche Grundlage für Datenspeicherung fehlt
OpenAI sei es mit sofortiger Wirkung verboten worden, Nutzerdaten aus Italien zu verarbeiten, so die Datenschutzbehörde. Sie kritisiert insbesondere, dass OpenAI keine Rechtsgrundlage für das massenhafte Sammeln und Speichern personenbezogener Daten habe. Die Datenschützer werfen dem Start-up vor, seinen Nutzern nicht mitzuteilen, welche Informationen von ihnen gespeichert werden. Darüber hinaus gebe es keine adäquaten Filter oder Sperren für Kinder unter 13 Jahren, die laut Geschäftsbedingungen die Software ChatGPT nicht nutzen dürften.
Das US-Unternehmen solle nun "innerhalb von 20 Tagen über ergriffene Maßnahmen informieren", erklärte die Behörde weiter. Andernfalls drohe "eine Strafe von bis zu 20 Millionen Euro oder bis zu vier Prozent des Jahresumsatzes“.
KI besorgt Experten
ChatGPT ist eines der erfolgreichsten KI-basierten Programme auf dem Markt. Nach der anfänglichen Euphorie über diese neue Technologie warnen Fachleute immer öfter auch vor möglichen Gefahren. Mehr als 1000 Experten aus Technik und Forschung - unter ihnen auch Elon Musk - forderten bereits eine Entwicklungspause für neue KI-Modelle, bis man Sicherheitsstandards etabliert habe.
Die Polizeibehörde Europol erklärte ihrerseits, Kriminelle und Betrüger könnten sich die Anwendungen zunutze machen. Chatbots könnten zum Beispiel Informationen geben, "wie man in ein Haus einbricht, bis hin zu Terrorismus, Cyberkriminalität und sexuellem Missbrauch von Kindern." Eine unabhängige Kontrollinstanz oder konkrete staatliche Regelungen gibt es bisher nicht.