Spenden
Im Fokus

„KI-Algorithmen sind ungeeignet für sicherheitskritische Anwendungen“

Interview mit Dr. Heidy Khlaaf (The AI Now Institute)

Christiane Weihe

Egal ob bei autonomen Fahrzeugen oder Atomkraftwerken – künstliche Intelligenz spielt für viele technische Anwendungen eine Rolle oder soll das in Zukunft tun. Dabei denken wir die Sicherheit ihres Einsatzes nicht ausreichend mit, sagt Dr. Heidy Khlaaf. Die leitende Wissenschaftlerin vom The AI Now Institute ist eine Expertin für sicherheitskritische Anwendungen. Im Interview mit eco@work erklärt sie, warum der Einsatz von Kernenergie für den steigenden Energiehunger von KI problematisch ist und welche Sicherheitslücken der EU AI Act lässt.

Dr. Khlaaf, warum werden die Risiken der KI nicht besser berücksichtigt?

Es besteht ein allgemeiner Mangel an Verständnis für die Natur von KI-Systemen selbst und ihre Unzuverlässigkeit, weswegen die politischen Entscheidungsträger*innen die ihnen innewohnenden Risiken ignorieren. Diese Probleme sind häufig auf unbegründete Behauptungen und den KI-Hype zurückzuführen. In Wirklichkeit liegt es in der Natur von KI-Systemen, Ergebnisse auf der Grundlage statistischer und probabilistischer Schlüsse zu liefern und nicht auf der Grundlage von Argumenten oder Fakten. Das bedeutet, dass KI-Algorithmen immer wieder Probleme mit der Genauigkeit haben, was sie für Anwendungen ungeeignet macht, die Präzision erfordern und sicherheitskritisch sind.

Die großen Technologieunternehmen bringen Kernenergie ins Spiel, um den steigenden Energieverbrauch von Rechenzentren zu decken. Ist das sinnvoll?

Tatsache ist, dass der zeitintensive Bau von Kernkraftwerken nicht mit dem Tempo vereinbar ist, in dem Technologieunternehmen Rechenzentren bauen und KI einsetzen. Die durchschnittliche Bauzeit von Kernkraftwerken liegt zwischen zehn und 20 Jahren. Jede sofortige Investition in die Kernenergie wird also weder jetzt noch in zehn Jahren den Energiebedarf decken, der erforderlich ist, um den Druck durch die KI-Nutzung zu mindern.

Google, Amazon und Oracle setzen auf modulare Kernreaktoren, die  SMRs. Wie sicher ist diese Technologie?

SMRs sind von ihrer Konstruktion her sicherer als größere Kernkraftwerke, aber es gibt noch einige Hindernisse, die ihr Potenzial einschränken. Erstens sind SMRs noch in der Entwicklungsphase: Über 80 Entwürfe sind in Arbeit, aber nur eine Handvoll ist in Betrieb oder im Testbetrieb. Alle erfolgreichen Entwürfe müssten dann Genehmigungs-, Zulassungs-, Bau- und Regulierungsverfahren durchlaufen. Zweitens werden auch SMRs zu einer Zunahme der nuklearen Abfälle führen. Einige Studien zeigen, dass bei ihnen sogar mehr und komplexere nukleare Abfälle pro erzeugter Energieeinheit anfallen könnten als bei Großkraftwerken.

Microsoft will einen Reaktor in Three Mile Island reaktivieren. Wie sicher ist das?

Three Mile Island soll 2028 wieder in Betrieb genommen werden, wenn die Aufsichtsbehörden dies genehmigen. Allerdings steht 2034 ein erneutes Genehmigungsverfahren an. Es besteht die Sorge, dass die Dringlichkeit des sofortigen Energiebedarfs für KI die Aufsichtsbehörden unter einen noch nie dagewesenen Druck setzen könnte und dass sie möglicherweise Risiken außer Acht lassen. Die Ironie dabei ist, dass die Ursachen für den Three Mile Island-Unfall von 1979 in erster Linie in einer fehlenden Sicherheitskultur zu suchen sind.

Microsoft bildet bereits große Sprachmodelle aus, um den Prozess der nuklearen Zulassung in den USA zu beschleunigen. Was halten Sie davon?

Die Erstellung hochstrukturierter Dokumente für sicherheitskritische Systeme ist ein Sicherheitsprozess an sich. Atomkraftwerke sind hochkomplexe Systeme. Selbst kleinste Fehler können sich zu einem katastrophalen oder risikoreichen Ereignis auswachsen. Wenn jemand diese Regulierungsverfahren als lästigen Papierkram betrachtet, spricht das Bände über das Verständnis von nuklearer Sicherheit – oder eben dessen Fehlen.

Ist der AI Act der EU in Hinblick auf Sicherheitsfragen ausreichend?

Aus Sicht der Sicherheitstechnik besteht eine zentrale Herausforderung darin, dass die Definition des „Systemrisikos“ im KI-Gesetz außerordentlich uneinheitlich und weit gefasst ist. Sie wirft Konzepte wie die Systemsicherheit mit umfassenderen gesellschaftlichen, finanziellen und wirtschaftlichen Risiken zusammen. Da diese Risiken sehr unterschiedliche Abhilfestrategien erfordern, führt die unscharfe Definition dazu, dass die in den Verpflichtungen aufgeführten Maßnahmen bruchstückhaft und oft folgenlos bleiben.

Vielen Dank für das Gespräch.

Das Interview führte Christiane Weihe.

---

Im Interview mit eco@work: Dr. Heidy Khlaaf, Chief AI Scientist beim The AI Now Institute

Weitere Informationen

Dr. Heidy Khlaaf
Chief AI Scientist
The AI Now Institute

E-Mail: hello@heidyk.com
Web:   https://www.heidyk.com 

Zur Person

Dr. Heidy Khlaaf ist schon lange von künstlicher Intelligenz und Robotik fasziniert – bereits mit 15 begann sie zu programmieren. Später erhielt sie einen Bachelor in Computerwissenschaften und Philosophie der Florida State University und promovierte am University College London in Informatik. Sie sieht viele Vorteile von KI, so bei der Ergänzung und Automatisierung von Arbeitsabläufen. Gleichzeitig befasst sie sich intensiv mit der Sicherheit des Einsatzes von künstlicher Intelligenz. So war Khlaaf in der Vergangenheit unter anderem als technische Leiterin des KI-Sicherheitsteams bei Trail of Bits sowie als leitende Ingenieurin für Systemsicherheit bei OpenAI tätig.

Die Expertin hat sich bereits mit Sicherheitsaudits für Kernkraftwerke befasst und hat die Entwicklung von Standards und Prüfungsrahmen für sicherheitsrelevante Anwendungen geleitet. Seit 2024 ist Dr. Heidy Khlaaf als leitende KI-Wissenschaftlerin für das The AI Now Institute tätig. Der Schwerpunkt ihrer Arbeit liegt auf der Sicherheitstechnik. Sie analysiert Vor- und Nachteile des Einsatzes von künstlicher Intelligenz in sicherheitskritischen Anwendungen – so etwa beim autonomen Fahren, unbemannten Luftfahrzeugen oder auch der Kernenergie.

https://www.oeko.de/