Kontakt
Abteilung für
Hochschulkommunikation
Tel +49 335 5534 4515
presse@europa-uni.de
Sitz:
Hauptgebäude
Räume 114-117, 102
Postanschrift:
Große Scharrnstraße 59
15230 Frankfurt (Oder)
Screenshot vom 23. Januar 2023 Quelle: Twitter
In Deutschland und der EU hat die Debatte um Künstliche Intelligenz, wie im Grunde auf der ganzen Welt, zwei Pole. Einerseits möchte man die spezifischen Risiken von KI (zum Beispiel Intransparenz oder Diskriminierung) adäquat regulieren. Andererseits will man natürlich die fantastischen Möglichkeiten dieser Technologie auch nutzen. Das zeigt sich besonders an Modellen wie ChatGPT. Wir erleben hier gerade in Echtzeit die Geburt einer neuen Generation von KI-Modellen, die man in der Fachwelt large generative models nennt. Anders als ihre auch schon sehr erfolgreichen Vorgänger analysieren sie nicht nur Daten und finden darin neuartige Muster, sondern sie generieren selbst Text, Bilder, Videos, oder auch Kunst auf menschlichem Niveau. Die Konsequenzen dieses Umbruchs sind im Einzelnen noch gar nicht abzusehen. Sicher ist, dass diese Technologie die Art und Weise, wie wir schreiben, kreieren und kommunizieren, aber auch unterrichten oder Prüfungen abhalten, massiv verändern wird.
Prof. Dr. Philipp Hacker; Foto: Heide Fest
Es sind drei Aspekte. Erstens sind die Regeln, die auf EU-Ebene gerade für KI-Systeme diskutiert werden, für ChatGPT nicht ausgelegt. Gerade für diese großen generativen Modelle sind sie sehr restriktiv. Letztlich würden sie wahrscheinlich dazu führen, dass nur ganz wenige, sehr große, hauptsächlich US-amerikanische oder chinesische Firmen diese Technik entwickeln und in die Anwendung bringen können.
Zweitens haben KI-Modelle ihre dunklen Seiten. Mit ihnen lassen sich in Sekundenschnelle Hasskampagnen oder Fake News produzieren, die unheimlich elegant und überzeugend geschrieben sind. Den für die maximale Vervielfältigung notwendigen Code liefern die Modelle auch gleich mit. Bislang werden die generierten Inhalte leider nur unzureichend überprüft. Das macht ChatGPT und Konsorten zum perfekten Werkzeug für die massenhafte Erstellung von hochglanzpolierten, scheinbar faktenreichen, aber zutiefst verdrehten Fake News.
Unsere Sorge ist, dass das gerade eben von der EU verabschiedete Hauptinstrument zur Begegnung von Hass und Fake News im Netz, der Digital Services Act, aus bestimmten rechtlichen Gründen auf die neuen KI-Modelle nicht anwendbar ist. Hier schlagen wir eine Erweiterung vor, um diese einzubeziehen.
Die ökologische Nachhaltigkeit. KI-Modelle und digitale Technologie insgesamt haben einen CO2-Fußabdruck, der – je nach Berechnung – den des globalen Flugreiseverkehrs schon gegenwärtig übertreffen könnte. Und die Kurve geht leider steil nach oben; gerade das Training von großen Modellen verbraucht viel Strom. Auf lange Sicht sind diese allerdings ökologisch günstiger als eine Vielzahl von kleinen Modellen. Hier muss man regulatorisch sicherstellen, dass neben der Leistungsfähigkeit des Modells auch dessen ökologische Folgen stärker in Betracht gezogen werden.
Viele Behörden bemühen sich gerade durchaus, hier Kompetenzen zu erwerben, auch wenn natürlich noch viel zu tun ist. Gerade an der Regulierung Künstlicher Intelligenz auf EU-Ebene zeigt sich aber, dass wir einen konstruktiven Dialog zwischen Wissenschaft und Politik brauchen, damit die Abgeordneten überhaupt verstehen, wo die einzelnen Probleme und Potenziale liegen. Ich versuche, in diesem Diskurs auch mitzuwirken. Ob das Ergebnis gut wird, vermag ich kaum zu prognostizieren, die Positionen von Europäischem Rat und Parlament liegen zum Teil noch sehr weit auseinander. Da werden die Verhandlungen dieses Jahr zeigen, in welche Richtung es geht, und ob das europäische KI-Ökosystem adäquat, aber nicht übertrieben reguliert wird.
Ich sehe hier drei große Herausforderungen. Zunächst ist da einmal die Definition von KI. Nicht einmal KI-Forscher sind sich da einig. Umso schwieriger ist es, eine rechtlich tragfähige Definition auszuarbeiten. Ich habe hier einige Vorschläge gemacht, die mittlerweile auch breiter aufgegriffen werden (Details in https://arxiv.org/abs/2211.13960). Insgesamt muss man die wichtigsten KI-Systeme erfassen, aber eben nicht jede Excel-Tabelle, in der ein paar automatische Summen stehen.
Zweitens geht es dann ganz konkret um die großen KI-Systeme wie ChatGPT. Für diese sind Sonderregeln angedacht. Sie sollten meiner Ansicht nach so aussehen, dass große KI-Systeme nur dann restriktiv reguliert werden, wenn sie im Einzelfall tatsächlich für kritische Anwendungen genutzt werden – zum Beispiel für die Kandidatenselektion bei Auswahlverfahren. Hier muss man wirklich aufpassen, dass man der Entwicklung von solchen Systemen in Europa keinen Riegel vorschiebt.
Drittens geht es dann um die konkreten Anforderungen an kritische KI-Systeme, zum Beispiel im Bereich Kreditwürdigkeit oder Medizin. Hier stellt sich die Frage, wie die Anforderungen im Einzelnen aussehen sollen und wie garantiert werden kann, dass sie dann auch eingehalten werden.
Die Erforschung der Regulierung von KI-Systemen, und auch anderer Technologien wie Online-Plattformen, ist notwendig interdisziplinär. Das ergibt sich ja schon aus dem Forschungsobjekt. Es ist ein Glücksfall, dass meine Kolleginnen und Kollegen an der ENS international sehr sichtbar und hochklassig aus ihren jeweiligen fachlichen Perspektiven zu KI und Plattformen forschen. Diese Expertise kann ich zum Beispiel in der Politikberatung einbringen. Aber wir schreiben auch gemeinsame Forschungsartikel, jüngst etwa zur Transparenz von KI-Systemen, zur Qualität von Daten für KI, oder zum Einsatz von KI in Smart Cities. Die ENS hat jetzt eine kritische Masse an Mitarbeitenden erreicht, sodass wir zunehmend national und international wahrgenommen werden. Das macht einfach großen Spaß!
(HST)
Abteilung für
Hochschulkommunikation
Tel +49 335 5534 4515
presse@europa-uni.de
Sitz:
Hauptgebäude
Räume 114-117, 102
Postanschrift:
Große Scharrnstraße 59
15230 Frankfurt (Oder)