Fraunhofer-Institute: Erklärbare KI als Schlüssel für mehr Vertrauen

Von Robert Mucha, Foto: Ideogram/Robert Mucha

Die Zukunft der Künstlichen Intelligenz (KI) könnte transparenter werden. Ein neues Whitepaper der Fraunhofer-Institute IAO und IPA beleuchtet die Potenziale und Herausforderungen von erklärbarer KI (XAI) im Kontext der Absicherung und Zertifizierung von KI-Systemen.

XAI verspricht tiefere Einblicke in die oft als „Black Box“ wahrgenommenen KI-Systeme. Laut der am 15. Oktober veröffentlichten Analyse könnte XAI bereits in frühen Entwicklungsstadien helfen, Fehler und Verzerrungen zu identifizieren. In späteren Phasen könnte es zur Überprüfung rechtlicher Vorgaben und relevanter Normen dienen.

Trotz dieser Potenziale warnen die Forschenden vor überzogenen Erwartungen. Eine vollständige Absicherung von KI durch XAI wird als „unrealistisch“ eingeschätzt. Die Vielzahl der Methoden und die Schwierigkeit, passende Tools für spezifische Anwendungsfälle zu finden, stellen erhebliche Herausforderungen dar.

„Eine vollständige Erfassung aller relevanten Informationen, die zu einer KI-Entscheidung führen, wird als nicht erreichbar angesehen“, heißt es in der Pressemitteilung des Fraunhofer IAO. Dennoch betonen die Experten, dass XAI in Kombination mit menschlichen Prüfern einen wertvollen Beitrag zur Absicherung und Zertifizierung leisten kann.

Die Weiterentwicklung von XAI erfordert laut den Forschenden eine interdisziplinäre Anstrengung. Eine stärkere Industrie- und Praxisorientierung könnte helfen, XAI-Methoden für bisher untererforschte Bereiche wie Zeitreihendaten oder Large Language Models (LLMs) zu entwickeln.

Das Whitepaper unterstreicht die Notwendigkeit einer engen Zusammenarbeit zwischen Forschung, Industrie und öffentlichen Akteuren. Nur so könnten effektive und vertrauenswürdige Zertifizierungsstandards entwickelt werden, die den Herausforderungen moderner KI-Systeme gerecht werden und deren gesellschaftliche Akzeptanz fördern.

Mit dieser Analyse leisten die Fraunhofer-Institute einen wichtigen Beitrag zur aktuellen Diskussion um die Verantwortlichkeit und Transparenz von KI-Systemen. Die Ergebnisse könnten wegweisend für die zukünftige Entwicklung und Regulierung von KI sein.

Melden Sie sich für unseren Newsletter an!