BfDI startet öffentliche Konsultation zu KI-Modellen
Veröffentlicht am:Entwicklung praxisrelevanter Ansätze durch Einbindung der Fachöffentlichkeit
Pressemitteilung der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit vom 10.07.2025
KI-Modelle, insbesondere große Sprachmodelle (sog. LLMs – Large Language Modells) können personenbezogene Informationen wortgetreu und sinngemäß aus ihren Trainingsdaten wiedergeben. Ergebnisse aus KI-Systemen können dementsprechend Rückschlüsse auf bestimmte Personen zulassen. Dieses Problem beschäftigt Aufsichtsbehörden weltweit spätestens seit der Veröffentlichung von ChatGPT und der damit einhergehenden massiven Verfügbarkeit von neuen KI-Angeboten für Verbraucherinnen und Verbraucher.
„KI-Modelle revolutionieren zahlreiche Branchen und stellen uns zugleich vor große Herausforderungen in Sachen Transparenz, Sicherheit und Datenschutz“, sagt Prof. Dr. Louisa Specht-Riemenschneider. Aus Sicht der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI) ergeben sich auch im Jahr 2025 noch zahlreiche Fragen nach dem Schutz personenbezogener Daten beim Training von KI-Modellen.
Mit einem öffentlichen Konsultationsverfahren will die BfDI dazu beitragen, dass praktisches Wissen über KI-Modelle für die aufsichtsrechtliche Bewertung für alle zur Verfügung steht. Für die Entwicklung praktikabler und erfolgversprechender datenschutzrechtlicher Ansätze sollen Erfahrungen, Herausforderungen und Lösungen aus der Praxis sichtbar gemacht werden.
Einblicke aus der Praxis versetzen uns in die Lage, bessere datenschutzrechtliche Empfehlungen auszusprechen.
„Ich möchte unrealistische und unklare Regelungen vermeiden – doch dafür bin ich auf die Mithilfe der Anbieter und Forschenden angewiesen“, so Louisa Specht-Riemenschneider. Die BfDI nutzt öffentliche Konsultationen auch, um Rechtssicherheit für alle Beteiligten durch Transparenz und Dialog zu gewährleisten.
Im Bereich des Konsultationsverfahren „Schutz personenbezogener Daten in KI-Modellen“ finden Sie alle weiteren Details.