Spenden
Im Fokus

Freund oder Feind?

Die Regulierung von künstlicher Intelligenz

Christiane Weihe

Künstliche Intelligenz verändert unsere Welt. Und das schon seit Jahren. Wir übersetzen Texte mit ihr und richten uns immer mehr nach den Empfehlungen KI-basierter Systeme, wenn diese uns etwa Filme oder Musik vorschlagen. Diese Entwicklung hat positive Seiten, denn sie verspricht höhere Effizienz und bringt in wichtigen Lebensbereichen ganz neue Funktionen und Verbesserungen mit sich – so bei der medizinischen Diagnostik. Gleichzeitig birgt sie unterschiedliche Risiken, man denke nur an die Diskriminierung von bestimmten Bevölkerungsgruppen, den Verlust von Arbeitsplätzen, Desinformation oder gar existenzielle Risiken, etwa beim Einsatz in Waffensystemen. Tiefgreifende gesellschaftliche Veränderungen durch KI betreffen auch Umwelt und Klima. KI könnte helfen, sie zu schützen, trägt aber bislang viel zu oft dazu bei, ihnen zu schaden.

KI-gestützte Systeme übernehmen unterschiedliche Aufgaben und das zunehmend autonom – eine S-Bahn lenken, zum Beispiel. Viele Systeme sind so ausgerichtet, dass sie sich ständig an eine sich ändernde Umgebung anpassen, sie lernen also kontinuierlich. Ein KI-basiertes System, das Konsumvorschläge macht, orientiert sich an den Präferenzen seiner Nutzer*innen, um immer bessere Vorschläge auszusprechen. „Eine wichtige Grundlage für das „Verhalten“ von KI-Systemen sind die Daten, mit denen diese trainiert und optimiert werden. Sind diese Daten in irgendeiner Weise einseitig, unvollständig oder falsch, schlägt sich das auch im Output der Systeme nieder“, sagt Dr. Peter Gailhofer, Jurist am Öko-Institut. „Das ist aber nur ein Grund, warum wir KI und ihre Anbieter nicht einfach machen lassen können, was sie wollen. Warum es klare Regeln braucht.“

Eine erste Regulierung

Im Mai 2024 hat die EU das weltweit erste Gesetz zur einheitlichen Regulierung von KI verabschiedet. „Das Gesetz soll vor allem wichtige Grundrechte schützen, missbräuchliche Nutzungen von KI verhindern und Sicherheitsrisiken entgegenwirken. Es folgt einem risikobasierten Ansatz – seine Regelungen beziehen sich vor allem auf solche Systeme und Modelle, mit denen ein besonderes Risiko verbunden wird. Also zum Beispiel wenn sie in kritischer Infrastruktur wie Stromnetzen eingesetzt oder bei wichtigen Entscheidungen über Menschen genutzt werden, etwa beim Zugang zu öffentlichen Leistungen“, erklärt Gailhofer. „KI-Systeme sind sogar verboten, wenn sie die Autonomie von Menschen bedrohen. Dazu gehören etwa Anwendungen, die Personen manipulieren oder sie beispielsweise aufgrund von persönlichen Merkmalen klassifizieren.“

Wissenschaftler des Öko-Instituts haben die Entwicklung der KI-Verordnung, unter anderem in einem gemeinsamen Projekt mit Forschern der Sonderforschungsgruppe Institutionenanalyse (sofia), dem UfU, der Jade Hochschule und dem Deutschen Forschungszentrum für Künstliche Intelligenz kontinuierlich verfolgt. Sie haben unter anderem den Vorschlag des Europäischen Parlaments im Policy Brief „The European Parliament’s Amendments to the AI Act“ insbesondere mit Blick auf Umwelt- und Klimafragen analysiert. „Eine Stärke des Parlamentsentwurfs war es, dass dieser im Gegensatz zum Vorschlag der Kommission auch ökologische Risiken in den Blick genommen und damit den vorherrschenden, auf bestimmte menschliche Interessen ausgerichteten Fokus vieler Debatten erweitert hat“, so der Wissenschaftler. Schließlich hat künstliche Intelligenz einen enormen Einfluss auf Umwelt und Klima. „So wird mittlerweile mehr über den Ressourcenbedarf für die Hardware und die ökologischen Probleme gesprochen, die mit ihrer Entsorgung verbunden sein können, oder über den Verbrauch von Wasser, das für die Kühlung der Rechenzentren benötigt wird.“ ChatGPT braucht für einen Dialog mit bis zu fünfzig Fragen und Antworten einen halben Liter Wasser. Ein prominentes Problem ist auch der hohe und stetig steigende Energiebedarf der Rechenzentren, der sogar die Energiewende gefährden könnte (siehe hierzu ausführlich Artikel „Grenzenloses Wachstum“ auf Seite 10).

Aus der Anwendung von KI-gestützten Systemen resultieren zudem indirekte Risiken für Umwelt und Klima, die allerdings noch weniger im Fokus der Debatte stehen. „Diese hängen letztlich davon ab, an welchen Zielen die Systeme ausgerichtet sind. Das lässt sich etwa an Beispielen aus der Logistik illustrieren: Sollen Lieferketten möglichst kostengünstig sein, können ihre CO2-Emissionen massiv ansteigen, wenn es keine klaren Umweltvorgaben gibt.“ Ähnliche Risiken werden auch mit Blick auf die Landwirtschaft beschrieben. „Ist das Ziel hier ein hoher Ertrag, wird sich die KI wohl für eine übermäßige Düngemittelnutzung entscheiden und nicht für den Schutz von Böden und Gewässern.“ Indirekte Effekte könnten auch mit Blick auf den individuellen Konsum auftreten, wenn die KI Verbraucher*innen von mehr oder schädlicherem Konsum überzeugt.

„Der Entwurf des Europaparlaments enthielt einige sinnvolle Ansätze für den Umwelt- und Klimaschutz, die im Vorschlag der EU-Kommission nicht enthalten waren“, sagt Dr. Peter Gailhofer. „So zum Beispiel die Pflicht, absehbare Risiken für die Umwelt zu analysieren und zu mindern. Leider wurde ein Großteil dieser Vorschläge im Trilog wieder aus der Verordnung gestrichen, die verabschiedete Fassung enthält kaum noch verbindliche Vorgaben mit Bezug auf die Umwelt.“ So sollen etwa KI-Anbieter der so genannten Large Language Models wie ChatGPT einen bekannten oder geschätzten Energie- und Wasserverbrauch angeben. „Eine einheitliche Methode und Grenzwerte gibt es hier noch nicht. Offen ist auch, welche Konsequenzen es geben soll, wenn dieser Verbrauch zu hoch ist. Insgesamt wurde eine große Chance verpasst, Umwelt- und Klimaaspekte breit zu verankern.“

Allerdings leistet die Verordnung aus Sicht des Öko-Instituts einen wichtigen Beitrag, Menschenrechte und Sicherheitsinteressen zu schützen. Hoffnung macht den Expert*innen auch, dass sich die KI-Verordnung als veränderliches Regelwerk versteht, das aus der Praxis dynamisch lernen soll. „Solche Mechanismen sollten genutzt werden, um Leerstellen bei der ökologischen Nachhaltigkeit so schnell wie möglich zu schließen.“

Entscheidendes Wissen

Denn Dr. Peter Gailhofer betont auch: Wir wissen, dass wir viel zu wenig wissen. „Wir müssen noch sehr viel über die komplexen Wechselwirkungen zwischen KI und Gesellschaft lernen und darüber, was ihre Anwendung aus Umwelt- und Klimasicht bedeutet. Dieses Wissen ist wichtig für die Frage der Regulierung.“ Diese Wissenslücken können jedoch geschlossen werden, so der Wissenschaftler. „Dafür braucht es allerdings deutlich mehr Transparenz etwa mit Blick auf die Trainingsdaten. Sinnvoll sind zudem Open Access- und Open Source-Vorgaben und ein umfassender Forschungsdatenzugang. Denn dann können Wissenschaftler*innen Problemen und Risiken auf die Spur kommen und über politische Handlungsmöglichkeiten informieren.“ 

Gefährliche Abhängigkeiten

Klar ist nach alldem schon heute: Die KI-Verordnung reicht nicht aus, um allen Risiken, die diese Technologie mit sich bringt, zu begegnen und ihre Potenziale für die Umwelt zu nutzen, sagt Dr. Peter Gailhofer. „Die realistischste Lösung liegt aus meiner Sicht in sektorspezifischen Regelungen, die viel besser auf die Herausforderungen in den einzelnen Anwendungsfeldern reagieren könnten und zudem dazu beitragen würden, das Fachwissen von Umweltbehörden mit KI-spezifischem Wissen zusammen zu bringen.“

Im Projekt „Umweltrechtliches Regulierungskonzept für algorithmenbasierte Entscheidungssysteme“ für das Umweltbundesamt haben sich die Wissenschaftler*innen gemeinsam mit UfU e.V. und sofia mit einer solchen sektorspezifischen Regulierung beschäftigt. „Überall, wo KI angewendet wird, kann sie Umweltprobleme verschärfen, aber auch zu deren Lösung beitragen. Dem muss man begegnen – was durch eine übergeordnete Regulierung erfolgen kann, aber eben womöglich besser mit einer solchen funktioniert, die sich spezifischen Problemen widmet.“ Das Öko-Institut hat hierfür eine Art regulatorischen Werkzeugkasten entwickelt, der in Zukunft Verantwortlichen aus unterschiedlichen Bereichen der Umweltpolitik dabei helfen soll, KI-Anwendungen effektiv zu regeln. Sektorspezifische Regelungen mit einem solchen Fokus sind nach der Auffassung des Teams neben der KI-Verordnung möglich.

Das Projektteam hat sich in dem Projekt vielfältigen, auch grundsätzlichen Fragen gewidmet – es hat etwa zunächst den Regulierungsgegenstand bestimmt und Konzepte zur Bewertung von umweltrechtlichen Risiken und Instrumenten für die Regulierung von KI-Anwendungen entwickelt. „Das Ziel ist es, durch das Recht dazu beizutragen, Umweltrisiken zu identifizieren und zu mindern. Aus unserer Sicht sollte es übrigens auch als Risiko begriffen werden, wenn Umweltentlastungspotenziale der Technologien nicht gehoben werden.“ Aufgrund der hohen Komplexität der Risikobewertung und der stetigen Weiterentwicklung der KI brauche es einen institutionellen Rahmen, der es ermöglicht, die Wissensbasis dynamisch zu erweitern, um so bessere Entscheidungen treffen zu können. „Das Umweltrecht, aber auch einzelne Instrumente der KI-Verordnung bieten einige Modelle, durch die unser Handlungswissen über Risiken und Potenziale erweitert und angemessen reagiert werden kann“, so der Wissenschaftler. Im Projekt werden zahlreiche Instrumente vorgeschlagen, die in diesem Sinne dazu beitragen könnten, negative Umweltwirkungen zu vermeiden und die Chancen für die Entwicklung und den wirtschaftlichen Erfolg ökologisch sinnvoller Anwendungen zu verbessern.

Jetzt hinschauen!

Dr. Peter Gailhofer bemängelt, dass die Politik bei KI nicht genauer hinschaut – auch vor dem Hintergrund bisheriger Erfahrungen. „Wir haben bis heute nicht umfassend verstanden, wie wir die gravierenden Auswirkungen des Web 2.0 und sozialer Medien auf Demokratie und Gesellschaft in den Griff bekommen. Nun steht der nächste, vermutlich noch größere Umbruch ins Haus.“ Wichtig sei eine rechtzeitige Regulierung auch, weil die möglichen Konsequenzen für unsere Gesellschaft zu tiefgehend und weitreichend seien. „Künstliche Intelligenz geht in alle gesellschaftlichen Bereiche hinein und schafft dadurch Abhängigkeiten. Das lässt sich rückwirkend nicht einfach wieder beheben.“           

---

Der Rechtsanwalt Dr. Peter Gailhofer analysiert im Bereich Umweltrecht & Governance des Öko-Instituts rechtliche Regulierungsinstrumente in der sozial-ökologischen Transformation und widmet sich deren Weiterentwicklung. Ein Schwerpunkt des Forschungskoordinators Ethik und Governance der Digitalisierung liegt dabei auf der Rolle des Rechts in digitalen Wertschöpfungsketten und Produktlebenszyklen.

Ansprechpartner am Öko-Institut

https://www.oeko.de/