Bessere KI-Kontrolle
Darum fordern Experten eine Entwicklungspause
8. April 2023, 9:00 Uhr
KI-Experten fordern, die Forschung an mächtigen künstlichen Intelligenzen für sechs Monate zu stoppen. Das steckt dahinter.
In den vergangenen Monaten sind KIs mächtig geworden. Programme, die 2022 noch interessante Spielereien waren, haben dazugelernt - und das schnell. Die Bild-KI Midjourney war vergangenes Jahr noch weit von fotorealistischen Ergebnissen entfernt. Diesen Monat ging dann ein Fake-Bild von Papst Franziskus mit Daunenjacke durch die Medien, das Millionen täuschte.
Ähnlich ist die Situation bei LLMs (large language models) wie GPT-4. Ebenfalls Ende März hat OpenAI eine Studie herausgebracht, die die Auswirkungen solcher KIs auf den Arbeitsmarkt untersucht. Eine der Kernaussagen: Programme, die ein mächtiges LLM nutzen, können in Zukunft bis zu 56 Prozent der Jobs in Amerika mit mindestens gleicher Qualität in kürzerer Zeit erledigen.
In einer anderen Pressemitteilung sagt OpenAI, dass sie in Tests mit GPT-4 erste Anzeichen einer AGI (artificial general intelligence) gesehen haben. Diese unterscheidet sich stark von einer reinen Text-KI. Denn eine generelle künstliche Intelligenz wäre in der Lage, jede Aufgabe zu lernen, die ein Mensch kann.
Das macht mittlerweile auch dem Future of Life Institute (FLI) Angst. Das FLI ist eine gemeinnützige Organisation, die sich mit den Auswirkungen von neuen Technologien beschäftigt. Das Institut hat nun einen offenen Brief verfasst. Ziel ist, alle Forschung an KIs mächtiger als GPT-4 für sechs Monate zu stoppen. Neben Elon Musk und Steve Wozniak haben ihn führende KI-Professoren, Wissenschaftler und Geschäftsführer wichtiger KI-Unternehmen unterschrieben.
Die Unterstützer sind der Meinung, dass das Rennen der fortschrittlichsten künstlichen Intelligenzen besser gesteuert und kontrolliert werden muss. Die Frage ist längst nicht mehr: "Kann KI Jobs automatisieren und in vielen Bereichen besser sein als ein Mensch?" Die Frage ist: "Sollte sie?" Das FLI ist der Meinung, dass derartige KIs erst entwickelt werden sollten, wenn Forscher sicher sind, dass ihr Einfluss positiv ist und die Risiken kontrollierbar sind.
Viele Unterzeichner arbeiten für Firmen, deren KI zurückhängen
Natürlich gibt es auch andere Meinungen. Brian Merchant, Technologie-Kolumnist bei der LA Times, hält die Ängste für übertrieben. Andere Experten merken an, dass viele der Personen, die unterschrieben haben, für Firmen arbeiten, deren KI-Technik mit der von OpenAI und Google nicht mithalten kann. So auch Elon Musk. Sie würden daher sehr von einem Forschungsstopp für die besten KIs profitieren.
Das FLI möchte, dass KI-Unternehmen die sechsmonatige Entwicklungspause nutzen, um Maßnahmen zu entwickeln, die eine potenzielle AGI sicher und kontrollierbar machen. Der Brief ist aber auch ein Aufruf an die Regierungen der Welt: Sie müssen Gesetze erlassen, die die verantwortungslose Nutzung von künstlichen Intelligenzen verhindern. Die Entwicklung von KI muss von einer unabhängigen Organisation beaufsichtigt werden und nicht von CEOs von KI-Unternehmen.
Regierungen haben bei Technologien wie ChatGPT aber noch andere Sorgen. Italiens Datenschutzbehörde hat am 31. März als erstes westliches Land ChatGPT verboten. Die KI wurde mit Milliarden von Daten aus dem Internet trainiert. Viele davon sind personenbezogen, andere eigentlich durch Copyright geschützt. Italiens Datenschützer sagen, dass das Unternehmen kein Recht hat, diese Daten massenhaft zu speichern und zu nutzen. OpenAI hat nun 20 Tage Zeit, um nachzubessern, ansonsten droht eine Geldstrafe. Ob das Programm auch in Deutschland verboten wird, ist noch unklar.
Hinweis: Dieser Text stammt aus der Freistunde, der Kinder-, Jugend- und Schulredaktion der Mediengruppe Attenkofer. Für die Freistunde schreiben auch LeserInnen, die Freischreiben-AutorInnen. Mehr zur Freistunde unter freistunde.de.