Datenschutz bei KI: Experten fordern Rechtssicherheit für den Einsatz technischer Lösungen
Datenschutz genießt in Deutschland und Europa einen hohen Stellenwert. Gleichzeitig finden sich in den Unternehmen häufig wertvolle Daten, die mithilfe von KI-Technologie im Sinne der Gesellschaft nutzbar gemacht werden könnten: Gesundheitsdaten von Patientinnen und Patienten könnten beispielsweise dafür verwendet werden, die Entstehung von Erkrankungen besser vorherzusagen; Bewegungsdaten von Personen und Fahrzeugen, um Risiken im Straßenverkehr zu reduzieren.
Der Gesetzgeber stellt strenge Anforderungen an eine Nutzung personenbezogener Daten – wobei die rechtliche Auslegung in der Praxis oft unsicher sei und die KI-Anwendung in der Breite erschwere, heißt es im Whitepaper „Datenschatz für KI nutzen, Datenschutz mit KI wahren“. Viele Unternehmen schrecken aus diesem Grund vor dem Einsatz und der Entwicklung von KI-Systemen zurück, die sensible Daten von Nutzern verarbeiten. Jedoch existieren verschiedene technische Privacy-Ansätze, die es ermöglichen den Datenschutz bei der Verwendung personen-bezogener Daten zu wahren. Die Autorinnen und Autoren des Whitepapers fordern deshalb, technische Instrumente für mehr Privacy rechtlich anzuerkennen. Die Verfahren sollten als Ausnahme in die Datenschutzgrundverordnung (DSGVO) sowie künftige KI-Verordnung der Europäischen Union aufgenommen und in anwendungsspezifischer Datenschutzgesetzgebung ausformuliert werden. Dies ermögliche eine flexiblere Nutzung personenbezogener Daten. Voraussetzung: die Nutzung personenbezogener Daten ist alternativlos und liegt im Interesse des Gemeinwohls.
Handlungsräume für KI-Entwicklung schaffen
“Einsatz und Entwicklung von KI brauchen Rechtssicherheit. Statt Verbotsräumen sollte der Gesetzgeber Handlungsräume schaffen und technische Verfahren zur Wahrung des Datenschutzes juristisch zulassen. So lassen sich aktuell bestehende Interpretationsspielräume bei der Verarbeitung personenbezogener Daten schließen und die Chancen der Schlüsseltechnologie KI für unsere Gesellschaft besser nutzen”, sagt Jörn Müller-Quade, Professor für Kryptographie und Sicherheit am Karlsruher Institut für Technologie (KIT) sowie Co-Leiter der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme.
Konkret empfehlen die Expertinnen und Experten etwa das Privacy-Preserving Machine Learning (kurz: PPML), das den Datenschutz bereits beim Design der KI-Anwendung sicherstellt. Dazu zählt die Anonymisierung, Pseudonymisierung oder Verschlüsselung personen-bezogener Daten. Weiter nennen sie technische Ansätze, die nicht direkt beim KI-Modell ansetzen, wie den Einsatz von Personal Information Management Systemen (PIMS) oder Datentreuhändern, mithilfe derer datengebende Personen die Hoheit über ihre Daten behalten und sogar selbst von deren Monetarisierung profitieren können. Erklärbare KI, also KI-Systeme, die ihre Entscheidungen und Funktionsweise transparent und verständlich machen, können den selbstbestimmten Umgang mit den eigenen Daten weiter stärken. Für Ansätze für erklärbare KI sowie für die Anonymisierung von Daten sollten Standards und Zertifizierungsmöglichkeiten eingeführt werden.
Die Autorinnen und Autoren des Whitepapers unterstreichen, dass für das Training von KI-Systemen nicht-personenbezogene Daten grundsätzlich personenbezogenen Daten vorgezogen werden sollten, sofern sie die gleiche Datenqualität aufweisen. Sie empfehlen daher, interoperable Datenräume aufzubauen, um mehr nicht-personenbezogene Daten verfügbar zu machen.
Erste Antworten zum Thema "Datenschatz und Datenschutz" liefert Dr. Detlef Houdeau, Co-Autor des vorliegenden Whitepapers, auch in unserer Video-Reihe "3 Fragen an".
Über das Whitepaper
Das Whitepaper “Datenschatz für KI nutzen, Datenschutz mit KI wahren. Technische und rechtliche Ansätze für eine datenschutzkonforme, gemeinwohlorientierte Datennutzung” wurde von Mitgliedern der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download zur Verfügung.