Verstöße gegen Datenschutzgesetze
Die italienische Datenschutzbehörde Garante hat eine Geldstrafe in Höhe von 15 Millionen Euro (etwa 15,6 Millionen US-Dollar) gegen das US-Unternehmen OpenAI, dem Entwickler von ChatGPT, eine Geldstrafe in Höhe von 15 Mio. EUR (ca. USD) auferlegt, nachdem im Rahmen einer eingehenden Untersuchung zahlreiche Verstöße gegen die Allgemeine Datenschutzverordnung (GDPR) ans Licht gekommen waren.
Die Untersuchung wurde im März 2023 eingeleitet, nachdem es zu einem schwerwiegenden Datenschutzverstoß gekommen war und zahlreiche Berichte von Nutzern eingegangen waren. Der Hauptverstoß bestand in der Verwendung personenbezogener Daten ohne die Zustimmung der Nutzer zum Training des ChatGPT-Sprachmodells, was gegen die grundlegenden Anforderungen des europäischen Rechts an die Transparenz und Rechtmäßigkeit der Datenverarbeitung verstößt.
Mangelnde Transparenz und Durchsickern von Informationen
Nach Angaben des Datenschutzbeauftragten hat OpenAI den Nutzern keine klaren Informationen darüber gegeben, wie ihre Daten verarbeitet, gespeichert und verwendet wurden. Darüber hinaus hat das Unternehmen es versäumt, die italienischen Behörden über die im Vorjahr aufgetretenen Datenschutzverletzungen zu informieren, wie es Artikel 33 der Datenschutz-Grundverordnung vorschreibt, wonach solche Vorfälle innerhalb von 72 Stunden gemeldet werden müssen.
Verwundbarkeit von Minderjährigen
Ein weiterer wichtiger Aspekt der Beschwerden betrifft das Fehlen eines zuverlässigen Systems zur Überprüfung des Alters der Nutzer. Infolgedessen konnten Minderjährige ungehindert auf ChatGPT und altersunangemessene Inhalte zugreifen. Dies stellte eine potenzielle Bedrohung für Kinder und Jugendliche dar, was einen weiteren Verstoß gegen europäische Normen darstellt.
Verpflichtende Informationskampagne
Zusätzlich zu der Geldstrafe ordnete die Garante an, dass OpenAI innerhalb von sechs Monaten eine groß angelegte Informationskampagne in Italien durchführen muss. Ziel ist es, den Bürgern zu erklären, wie ChatGPT funktioniert, welche Daten verwendet werden und welche Rechte die Nutzer haben: Löschung, Berichtigung, Einschränkung oder Widerspruch gegen die Datenverarbeitung.
Antwort von OpenAI und mögliche Berufung
In seiner Antwort auf die Entscheidung der italienischen Garante erklärte OpenAI, dass es mit den Schlussfolgerungen nicht einverstanden sei und die Sanktion für überzogen und unverhältnismäßig halte. Die Vertreter des Unternehmens betonten, dass sie die lokalen Gesetze respektieren und die Absicht haben, eine offene Kommunikation mit den Regulierungsbehörden in den Ländern, in denen sie tätig sind, aufrechtzuerhalten.
OpenAI fügte hinzu, dass es sich das Recht vorbehält, die Entscheidung vor Gericht anzufechten und dabei alle gesetzlich zulässigen Mittel einzusetzen. Das Unternehmen bekundete seine Bereitschaft, den Dialog mit der italienischen Datenschutzbehörde fortzusetzen, und wies darauf hin, dass die Einführung von Technologien wie ChatGPT unweigerlich einige Herausforderungen mit sich bringt, insbesondere im Zusammenhang mit der rasanten Entwicklung der künstlichen Intelligenz.
Gleichzeitig hat OpenAI versichert, dass es die Datenverarbeitungsprozesse verbessern und die Empfehlungen der europäischen Aufsichtsbehörden berücksichtigen wird, um besser auf die lokalen Vorschriften und die Erwartungen der Nutzer eingehen zu können.
Auswirkungen auf die KI-Industrie in Europa
Dieser Fall könnte ein wichtiger Präzedenzfall für andere EU-Länder sein, die KI-Vorschriften erwägen. Er zeigt deutlich, wie wichtig es ist, die Grundsätze der Transparenz, der Rechtmäßigkeit und des Schutzes der Nutzerrechte im Bereich der neuen Technologien zu beachten.
Die Entscheidung der italienischen Garante könnte andere Staaten dazu anregen, die Regeln für die Datenverarbeitung zu verschärfen und zusätzliche Anforderungen für KI-Dienste einzuführen. Die zunehmende Aufmerksamkeit, die Plattformen wie ChatGPT zuteil wird, ist verständlich, vor allem wenn man bedenkt, dass sie im Bildungswesen, in der Wirtschaft, in den Medien und sogar in der öffentlichen Verwaltung weit verbreitet sind.
Experten gehen davon aus, dass die Entwicklung der künstlichen Intelligenz in Europa nicht nur mit technischen Innovationen einhergehen wird, sondern auch mit der Schaffung eines klaren Rechtsrahmens, der die Interessen der Nutzer schützen und die ethische Nutzung intelligenter Systeme gewährleisten soll.