„KI kann so gefährlich sein wie ein Atomkrieg“


Sam Altman

Der CEO von OpenAI warnt mit Hunderten weiterer KI-Experten vor den Gefahren einer unregulierten Maschinenintelligenz.


(Foto: dpa)

Düsseldorf Nur 22 Wörter lang ist die Aussage, aber sie hat es in sich. „Das Risiko einer Vernichtung durch KI zu verringern sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie Pandemien oder Atomkriege.“ Den Aufruf veröffentlichte die amerikanische Nichtregierungsorganisation „Center of AI Safety“ mit Sitz in San Francisco.

Die Liste der Unterzeichner liest sich wie ein Who’s who der Wissenschaft in Künstlicher Intelligenz (KI). Dort finden sich mit Demis Hassabis und Sam Altman die Chefs der mit am wichtigsten KI-Firmen der Welt, Google Deepmind und OpenAI. Auch sind dort Geoffrey Hinton und Yoshua Bengio zu finden, die 2018 den Turing Award gewonnen haben – eine Art Nobelpreis für Informatik.

Unter den 375 Unterzeichnern ist auch eine Handvoll deutscher KI-Koryphäen: Frank Hutter, Professor für Informatik an der Universität Freiburg, Joachim Weickert, Professor für Mathematik und Informatik an der Universität des Saarlandes, oder Ansgar Steland, Professor für Statistik und Wirtschaftsmathematik an der RWTH Aachen.

Auch Elon Musks Ex-Freundin Grimes unterzeichnet für KI-Regulierung

Der Aufruf erinnert an den offenen Brief vom Future of Life Institute im März 2023, der eine Forschungspause von sechs Monaten forderte und von bekannten Tech-Persönlichkeiten wie Elon Musk oder Steve Wozniak unterschrieben wurde.

Der Aufruf traf auf ein geteiltes Echo, nicht nur wegen der Warnung an sich, sondern auch, ob ein Moratorium sinnvoll sein könnte. So sehen beispielsweise KI-Start-ups den Aufruf kritisch. Sie fürchten sich vor einer Regulierung aufgrund solcher Warnungen, die sie daran hindern würde, den Vorsprung von etablierten Playern aufzuholen.

Das Risiko einer Vernichtung durch KI zu verringern sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie Pandemien oder Atomkriege. Center of AI Safety

Allerdings gibt es Unterschiede von der neuen zur alten Petition. So ist die jetzige allgemeiner gehalten. Zwar stellt der Aufruf die Gefahren von KI auf eine Stufe mit einem Atomkrieg, redet aber nicht von einem „außer Kontrolle geratenen Wettrennen“ und von KI, die „niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder verlässlich kontrollieren kann“.

>> Lesen Sie auch: „KI wird eine Intelligenz erreichen, die größer sein wird als die von Menschen“

Laut Dan Hendrycks, dem Direktor des Center of AI Safety, ist das Statement mit Absicht so gehalten worden. Das Ziel sei es gewesen, Meinungsverschiedenheiten über die Gefahr oder über Lösungen wie eine sechsmonatige Forschungspause außen vor zu lassen.

Man hätte vielmehr eine Art „Coming-out“ von Wissenschaftlern fördern wollen. „Es gibt die weitverbreitete Meinung, selbst in der KI-Gemeinschaft, dass es nur eine Handvoll von Untergangspropheten gibt“, sagte Hendrycks der „New York Times“. „Aber tatsächlich gibt es viele, die privat ihre Besorgnis äußern.“

In der Tat finden sich neben einigen Ausnahmen wie Popsängerin – und Ex-Freundin von Elon Musk – Grimes oder Jaan Tallinn, Mitbegründer vom Streamingdienst Skype, fast nur KI-Forscher auf der Liste. So sind dort mehr als 30 Mitarbeiter von Google Deepmind oder 16 von OpenAI zu finden, dazu unzählige Professoren und Wissenschaftler.

Allerdings fehlen auch einige Namen wie Yann LeCun, KI-Chefwissenschaftler von Facebook-Mutterkonzern Meta.

Mehr: Der Frankenstein-Moment – Wenn wir Künstliche Intelligenz nicht kontrollieren, kontrolliert sie uns.



Source link