Spenden

Mehr als künstliche Sicherheit

Während wir mit Hilfe von künstlicher Intelligenz Texte übersetzen, Bilder generieren oder einfach nur nach Antworten suchen, denkt kaum jemand über die Frage nach, wie sicher KI eigentlich ist. Das liegt sicher auch daran, dass Sicherheitsfragen nur selten diskutiert und adressiert werden. Dr. Heidy Khlaaf, Chief AI Scientist beim The AI Now Institute, befasst sich schon seit vielen Jahren mit Sicherheitsfragen rund um künstliche Intelligenz. Sie sagt: Die Fehleranfälligkeit von KI wird bislang völlig vernachlässigt.

KI als Support einsetzen

Gerade der Hype um KI und damit verbundene, unbegründete Behauptungen von vielen KI-Laboren seien mit dafür verantwortlich, dass die Risiken nicht ausreichend beachtet werden, sagt Khlaaf.

 

 

In der Realität ist es aber die Natur von KI-Systemen, sich nicht auf Fakten zu stützen. Sie ziehen ihre Schlüsse aufgrund von statistischen oder probabilistischen Annahmen. Daher haben sie immer wieder Probleme mit der Genauigkeit, so dass sie ungeeignet sind für Anwendungen, die strenge Sicherheitskriterien und Präzision erfordern. Auch für Entscheidungen, die sich auf die Lebensgrundlage oder die Sicherheit von Menschen auswirken, sollte KI aus meiner Sicht nicht angewendet werden.
Dr. Heidy Khlaaf
Chief AI Scientist beim The AI Now Institute

Damit meint die Expertin zum Beispiel den Einsatz von KI-Systemen im Grenzschutz oder in autonomen Waffen. Aus ihrer Sicht sollte KI die menschlichen Fähigkeiten nicht ersetzen, sondern sie ergänzen. „Derzeit werden die Fallstricke von KI und ihre Anfälligkeit für Fehler völlig vernachlässigt – etwa auch mit Blick auf ihr Training, bei dem sie vom Menschen Diskriminierung übernimmt. Das führt zu realen Schäden.“

Eine frühe Faszination

KI und Robotik haben Dr. Heidy Khlaaf schon in ihren Teenagerjahren fasziniert. Mit 15 begann sie zu programmieren. Und noch heute betont sie die Vorteile, die diese bieten können. „Sie können zum Beispiel Arbeitsabläufe etwa in der Fertigung ergänzen und automatisieren, die für den Menschen potenziell gefährlich sind.“ Der Fokus ihrer Arbeit liegt inzwischen aber auf der Sicherheitstechnik. Sie hat den Einsatz von KI bereits in zahlreichen sicherheitskritischen Anwendungen analysiert – so in der Kernenergie, beim autonomen Fahren oder mit Blick auf unbemannte Luftfahrzeuge.

Schon wieder Kernenergie?

Um dem steigenden Energieverbrauch von KI gerecht zu werden, setzen die großen Technologieunternehmen inzwischen auf Kernenergie. Diese Technologie kann den Energiehunger künstlicher Intelligenz aber nicht nachhaltig stillen, sagt Dr. Heidy Khlaaf. „Allein schon mit Blick auf den Zeitfaktor ist der Einsatz von Kernenergie hier technisch nicht praktikabel. Der Einsatz von KI und der Bau von Rechenzentren passiert gerade in einer Geschwindigkeit, mit der Kernkraftwerke einfach nicht Schritt halten können – schließlich liegt ihre durchschnittliche Bauzeit zwischen zehn oder sogar zwanzig Jahren.“ Gleichzeitig verweist sie auf die Risiken der Kernenergie – etwa mit Blick auf die hochradioaktiven Abfälle oder die unkontrollierte Freisetzung von Radioaktivität – und betont: „Diese sind mit einem allgegenwärtigen Einsatz von KI nicht zu rechtfertigen. Es braucht hier eine Verhältnismäßigkeit zwischen den Risiken und dem möglichen Nutzen.“

Auch den Einsatz von so genannten Small Modular Reactors, kurz SMRs, den Google, Amazon und Oracle als Lösung für den steigenden Energiebedarf von KI planen, sieht Dr. Heidy Khlaaf kritisch, denn die Realisierbarkeit von SMRs ist weiterhin noch unklar. „Sie befinden sich noch in der Entwicklungsphase. Nur eine Handvoll ist in Betrieb oder im Testbetrieb. Und selbst, wenn sie diesen überstehen, müssen sie Verfahren zur Genehmigung, Zulassung, zum Bau und zur Regulierung durchlaufen. SMRs sind also möglicherweise auch erst im nächsten Jahrzehnt verfügbar. Dies ist nicht mit dem rasanten Einsatz von KI vereinbar.“ Eine höhere Menge nuklearer Abfälle spricht aus Sicht der Wissenschaftlerin ebenfalls gegen SMRs.

Mangelnde Sicherheitskultur – gestern und heute

Auch die Reaktivierung eines Reaktors in Three Mile Island (TMI), den Microsoft für 2028 anstrebt, sieht die leitende Wissenschaftlerin kritisch. „Hierfür braucht es eine Genehmigung der Aufsichtsbehörden, für 2034 steht dann zudem ein weiteres Genehmigungsverfahren an.“ Zwar könne eine erneute Genehmigung nicht garantiert werden, doch Khlaaf sieht berechtigten Grund zur Sorge, dass die Dringlichkeit des sofortigen Energiebedarfs für KI einen massiven Druck auf die Aufsichtsbehörden ausüben könnte und damit relevante Risiken außer Acht gelassen werden könnten. „Die Ironie an der Geschichte ist, dass der Unfall in Three Mile Island im Jahr 1979 in erster Linie auf eine unzureichende Sicherheitskultur zurückzuführen war. Wenn Technologieunternehmen, die keine Erfahrung mit nuklearer Sicherheit und oft keine Sicherheitskultur haben, Einfluss auf den Betrieb eines Kernkraftwerks nehmen können, wirft das zahlreiche Fragen auf – in Bezug auf die Sicherheit ebenso wie in Hinsicht auf die Machtkonzentration, die sich dadurch ergibt.“

Keine Bürokratie um ihrer selbst willen

Auch bei der Zulassung von Kernkraftwerken soll in Zukunft KI zum Einsatz kommen – wenn es nach Microsoft geht. Das Unternehmen trainiert bereits so genannte große Sprachmodelle (Large Language Models, LLMs), um diesen Prozess zu beschleunigen. „Die Erstellung hochstrukturierter Dokumente für sicherheitskritische Systeme ist aber ein Sicherheitsprozess an sich und keine Übung, bei der man irgendwelche Kästchen ankreuzt. Atomrechtliche Genehmigungsverfahren sind nicht um ihrer selbst willen bürokratisch, sondern dienen unserer aller Sicherheit. Denn selbst kleinste Fehler in einer Anlage können zu hochrisikoreichen oder sogar katastrophalen Ereignissen führen. Die regulatorischen Prozesse lediglich als lästigen Papierkram zu betrachten, spricht Bände über das Verständnis der Technologieunternehmen von nuklearer Sicherheit – oder eben einem großen Mangel daran.“

Regulierung für Sicherheit

Aus Sicht der Wissenschaftlerin braucht es daher auch eine Regulierung von künstlicher Intelligenz. Der EU AI Act ist hierfür ein erster Schritt, doch fehlt darin laut Khlaaf eine klare Definition von systemischen Risiken. „Dieses ist im AI Act sehr uneinheitlich und weit gefasst. Das Gesetz wirft Konzepte wie das der Systemsicherheit mit umfassenderen gesellschaftlichen, finanziellen und wirtschaftlichen Risiken zusammen. Da diese Risiken ganz unterschiedliche Abhilfestrategien brauchen, führt die unscharfe Definition des Systemrisikos dazu, dass die in den Verpflichtungen aufgeführten Maßnahmen bruchstückhaft und damit oft folgenlos bleiben.“

Auch eine internationale Regulierung hält Dr. Heidy Khlaaf für sinnvoll. Für die Minderung von Risiken und Schäden, die sich aus der Nutzung ergeben, aber auch zur Korrektur von systemischen Problemen. „Bei der KI-Infrastruktur gibt es eine immense Machtkonzentration, die sich nun auch auf unsere begrenzten Energieressourcen ausgeweitet hat.“

Dr. Heidy Khlaaf ist seit 2024 für das The AI Now Institute tätig. Hier liegt der Schwerpunkt ihrer Arbeit auf der Sicherheitstechnik. Sie analysiert Vor- und Nachteile des Einsatzes von künstlicher Intelligenz in sicherheitskritischen Anwendungen. Die promovierte Informatikerin hat sich zudem bereits mit Sicherheitsaudits für Kernkraftwerke befasst und die Entwicklung von Standards und Prüfungsrahmen für sicherheitsrelevante Anwendungen geleitet.

Weitere Informationen

Interview "KI-Algorithmen sind ungeeignet für sicherheitskritische Anwendungen" im Magazin eco@work, Ausgabe 01/2025

 

 

 

Keine Kommentare

Neuer Kommentar

* Pflichtfelder