EU verabschiedet Artificial Intelligence Act

artificial intelligence act

Die Frage nach der Regulierung von KI ist ein spannendes Thema, in der EU nennt sich das ganze Artificial Intelligence Act. Wer hat hier welches Interesse, welche Gefahren gehen überhaupt von Künstlicher Intelligenz aus und an welchem Punkt der Entwicklung stehen wir eigentlich? Das sind die Fragen, die ich mir in diesem Zusammenhang stelle. Da dies sehr komplexe Fragen sind, kann ich an diesem Punkt natürlich keine vollständigen Antworten darauf liefern. Trotzdem möchte ich in dem folgenden Beitrag meine Gedanken dazu mit euch teilen und die ein oder andere Perspektive einbringen, die vielleicht nicht so offensichtlich ist.


Das Wichtigste in Kürze

  • Die EU macht einen wichtigen Schritt in Richtung Regulierung von KI und verabschiedet den Artificial Intelligence Act
  • Das Europaparlament hat das Gesetzvorhaben angenommen, der genaue Text muss aber noch gemeinsam mit der EU-Kommission und den Mitgliedstaaten abgestimmt werden. Dies soll bis Ende des Jahres 2023 erfolgen.
  • Ende 2023 soll das Gesetzvorhaben dann in Kraft treten, anschließend haben Unternehmen zwei Jahre Zeit, ihre Prozesse an die neuen Rahmenbedingungen anzupassen, ähnlich wie bei der DSGVO

EU verabschiedet Artificial Intelligence Act zur Regulierung von KI

„Mit dem nun vom Europaparlament verabschiedeten Artificial Intelligence Act macht die EU einen entscheidenden Schritt zur Regulierung von KI“, hieß es in einer Nachricht von Deutschlandfunk Kultur. Erstmal positive Nachrichten, denn viele KI-Experten sprechen sich – auch global – für eine Regulierung von Künstlicher Intelligenz aus. Im Beitrag dazu werden einige Beispiele genannt, unter anderem Elon Musk. Dieser hatte sich bereits Anfang April 2023 „besorgt“ gezeigt und in einem offenen Brief dazu aufgefordert, eine Pause bei der Entwicklung von besonders fortgeschrittener Künstlicher Intelligenz einzulegen. Neben Musk hatten über 1.000 weitere Experten den Brief unterschrieben. Der Brief wurde veröffentlicht von der Organisation „Future of Life“. In ihm heißt es unter anderem:

Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind.

Eine weitere, im Artikel aufgeführte Stellungnahme mit der Forderung nach Regulation kommt von „führenden KI-Experten“ und dem OpenAI-Chef Sam Altman. Sie wurde zusammen mit allen Unterzeichnern auf der Seite des Centers for AI Safety (kurz CAIS) veröffentlicht. Darin heißt es:

„Das Risiko einer Vernichtung durch KI zu verringern sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“

Bei beiden Stellungnahmen lohnt es sich, einen Blick hinter die Kulissen zu werfen und sich zu fragen, wer sie unterzeichnet hat, mit welchem Interesse und was die Forderung letztendlich überhaupt bringen soll.

Wer warnt und warum?

Das Center for AI Safety ist eine Non-Profit-Organisation mit Sitz in San Francesco, die zu den Risiken Künstlicher Intelligenz forscht. Auf der Webseite heißt es:

„Wir glauben, das Künstliche Intelligenz das Potenzial hat, die Welt tiefgreifend positiv zu beeinflussen, wenn wir sie in ihrem Gebrauch sicher entwickeln können. Während die Entwicklung von KI dramatisch voranschreitend, sind viele grundlegende Probleme der KI-Sicherheit jedoch noch nicht gelöst worden. Unsere Mission ist es, die mit KI verbundenen gesellschaftlichen Risiken zu reduzieren, indem wir Sicherheitsforschung betreiben, den Bereich der KI-Sicherheitsforscher aufbauen und uns für Sicherheitsstandards einsetzen.“

Ein großer Auftrag, den das Zentrum jetzt mit einem einzigen Satz medienwirksam gemacht hat. Unterschrieben wurde die Erklärung  dann auch noch von führenden Forschenden – aber auch führenden Köpfen aus der Wirtschaft, etwa die Chefs der drei derzeit wichtigsten Entwickler von KI-Tools: Sam Altman, Open-AI, Demis Hassabis, Google Deep-Mind und Dario Amodei, Anthropic.

Ernsthafte Gefahr oder Marketingstrategie?

„Es ist en vogue, vor den Gefahren von KI zu warnen, auch für diejenigen, die sie entwickeln“, sagt der SWR-Wissenschaftsredakteur David Beck dazu. Insbesondere im Agieren von Open AI Chef Sam Altman sieht er aber auch eine Strategie: „Das Unterschreiben des Briefes kann als ein ein besonnener, reflektierter Umgang mit der eigenen Technologie betrachtet werden, ist es vielleicht sogar zum Teil – aber es ist auch Marketing. Vor allem bei Sam Altman ist ein Ansatz der Unternehmenspolitik zu beobachten, den es bisher in der Tech-Branche nicht gab. Statt sich auf Konfrontationskurs mit Gesellschaft und Politik zu begeben, teilt er unsere Bedenken, befeuert sie sogar. Dadurch hält er dann aber auch Open-AI und damit auch Chat-GPT erfolgreich in den Medien, auch wenn der Hype um den Chatbot vielleicht gerade wieder etwas abebbt.“

„Eine Pause beim Training von Künstlicher Intelligenz hilft nicht“

Das sind die Worte von Urs Gasser. Er ist Professor für Public Policy, Governance and Innovative Technology an der Technischen Universität München (TUM). Er hält eine Pause in der Entwicklung für unrealitisch und auch unangemessen, da sie sich global kaum kontrollieren ließe und selbst wenn – die Zeit von 6 Monaten würde nicht reichen, um entsprechende Regularieren auf den Weg zu bringen. Stattdessen plädiert er dafür, sowohl die neuen Technologien als auch dazu passende Kontrollmechanismen schrittweise parallel weiterzuentwickeln.

Der offene Brief von Musk lenke in diesem Zusammernhang nur von einer konstruktiven Diskussion über die eigentlichen Chancen und Gefahren dieser neuen Technologie ab. In einem Interview mit Focus online lehnt er die von Musk geforderte Pause aus folgenden Gründen ab und sagt:

  • Erstens malt der offene Brief erneut das Schreckgespenst einer menschenähnlichen Künstlichen Intelligenz an die Wand, einer sogenannten Artificial General Intelligence oder Superintelligenz, bei der wir noch lange nicht angekommen sind. Das lenkt von einer ausgewogenen Diskussion der Risiken und Chancen derjenigen Technologien ab, die derzeit auf den Markt kommen.
  • Zweitens bezieht sich das Papier auf zukünftige Nachfolgemodelle von GPT-4. Das lenkt davon ab, dass uns schon der Vorgänger ChatGPT vor wesentliche Probleme stellt, die wir dringend angehen sollten – beispielsweise Falschinformationen oder Vorurteile, welche die Maschinen replizieren und groß skalieren.
  • Und drittens lenkt die spektakuläre Forderung davon ab, dass wir bereits jetzt Instrumente zur Hand haben, mit denen wir die Entwicklung und den Einsatz von KI regulieren können.

Quellen zum Thema: Artifical Intelligence Act

  1.  Bericht von Deutschlandfunk Kultur zum AI Act
  2.  Offener Brief von Musk und anderen
  3.  Stellungname von Open AI Chef Sam Altman und anderen
  4.  Kommentar von Wissenschaftsredakteur Daniel Beck

 

 

 

 

Über Marion

Online Redakteurin, Schwerpunkt Datenjournalismus

Zeige alle Beiträge von Marion →