28.02.2024
Die KI wird uns alle vernichten! Wie sag ich es den Kindern?
Die Gefahr
Künstliche Intelligenz (KI) ist nicht nur ein Schlagwort in den Nachrichten, sondern auch ein Thema, das zunehmend in unseren Schulen diskutiert wird. Um besser zu verstehen, was Schüler:innen wirklich zu KI bewegt, habe ich eine Umfrage in meinem Unterricht durchgeführt und die Kinder gebeten, sich zu überlegen, was sie über Künstliche Intelligenz lernen möchten und was alles dazu gehört. Folgende beliebteste Freitextantworten wurden dabei ermittelt:
- Weltherrschaft
- Gefahren
- „Schwächen“ einer KI
- Deepfake
- Nutzen für die Zukunft
- Aus einem Text ein Bild generieren
- Roboter
Die ersten 4 Antworten zielten ausschließlich auf Gefahren ab. Wie konnte das passieren?
https://www.tagesschau.de/wissen/musk-tech-pause-ki-entwicklung-101.html
Sicher haben Aufrufe, die KI-Entwicklung für ein halbes Jahr zu stoppen, dazu beigetragen hier ein Problembewusstsein zu schaffen. Das Statement geht noch kürzer und wurde von sehr namenhaften Menschen in der KI-Forschung unterzeichnet:
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
https://www.safe.ai/statement-on-ai-riskZu Deutsch sinngemäß:
Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.
Der Weg in den Abgrund
Wenn ich ChatGPT frage, wie ich Gegenstände stapeln kann, erhalte ich teilweise sehr ernüchternde Vorschläge, wie etwa eine Getränkekiste mit Gurken abzustützen:
https://schulki.de/chats/e005f7e0-3a0c-41c8-88e8-bd4163dec34b
Woher kommen also diese alarmierenden Worte zu einer Artificial General Intelligence (starken künstlichen Intelligenz), die Aufgaben in mehreren Bereichen ähnlich eines Menschen bearbeiten kann?
Der folgende Artikel erklärt dies sehr anschaulich und eingänglich. (Wenn auch in englischer Sprache.)
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Der Kerngedanke ist, dass Menschen einfach schlecht darin sind sich exponentielles Wachstum vorzustellen. Besonders am Anfang wirkt ein exponentielles Wachstum linear (was es nicht ist!), sodass man die Geschwindigkeit unterschätzt. Wir brauchen Schätzungsweise vielleicht noch 50 Jahre, bis die KI so intelligent ist, wie ein Kleinkind. Ist dieser Zustand erreicht, wird sie jedoch vermutlich einen Tag später bereits die Intelligenz eines erwachsenen Menschen erreicht haben. Das liegt daran, dass das Schwere die Entfaltung der allgemeinen künstlichen Intelligenz ist. Ist das geschafft, wird sie sich explosionsartig weiterentwickeln. Wenn man also in den Nachrichten den Durchbruch mit dem Kleinkind liest, wird die KI schon die Intelligenz eines Erwachsenen haben. Und noch einen Tag später vermutlich intelligenter sein als der klügste Mensch der Welt.
Eine Umfrage, die James Barrat der Autor von Our Final Invention: Artificial Intelligence and the End of the Human Era zeigt, dass fast alle Forscher:innen von einer starken künstlichen Intelligenz bis zum Ende des Jahrhunderts ausgehen und nur 2% davon ausgehen, dass eine solche nie erschaffen wird.
The breakdown was this: 42 percent anticipated AGI would be achieved by 2030; 25 percent by 2050; 20 percent by 2100; 10 percent by 2100, and 2 percent never.
Irren ist menschlich
Ja, krass. Die Indizien sprechen für sich. Quasi alle sind überzeugt, dass wir vor dem nächsten Epochensprung stehen. Das Problem ist nur, dass waren wir beim Thema KI schon mehrfach und wurden schon über sieben Mal enttäuscht. Man spricht hier von den sogenannten KI-Wintern. Der letzte ist erst jetzt vorbeigegangen:
https://en.wikipedia.org/wiki/AI_winter
Warum passiert uns das immer wieder? Schuld daran ist ein Effekt, der in der Wirtschaftswissenschaft als Gartner Hype Cycle bezeichnet wird und 5 Phasen der öffentlichen Aufmerksamkeit beschreibt, die bei der Einführung neuer Technologien durchlaufen werden:
1. Technologischer Auslöser: Beginn durch technologischen Durchbruch, viel Medienaufmerksamkeit, noch keine praktischen Produkte.
2. Gipfel der überzogenen Erwartungen: Viele Erfolgs- und Misserfolgsgeschichten, unterschiedliches Engagement von Unternehmen.
3. Tal der Enttäuschungen: Nachlassendes Interesse und Misserfolge, Ausscheiden schwacher Technologieanbieter, Fortsetzung der Investitionen bei erfolgreichen Anbietern.
4. Pfad der Erleuchtung: Zunehmendes Verständnis für den Technologienutzen, Erscheinen verbesserter Produktgenerationen, steigende Pilotprojektinvestitionen.
5. Plateau der Produktivität: Beginn der Mainstream-Akzeptanz, klarere Bewertungskriterien, breite Marktakzeptanz und Nutzen der Technologie.
https://www.gartner.de/de/methoden/hype-cycle
Dies ist zwar keine wissenschaftlich begründete Beobachtung, aber oft beobachtet und lässt sich auch aus eigenen Erfahrungen belegen, wenn man ein neues technisches Gadget in den Haushalt aufnimmt.
Zugegeben ist es ein schwaches Argument davon auszugehen, dass wir als Menschheit etwas nicht schaffen und uns daher keine Gedanken darüber machen müssen. Also schauen wir uns an, welche Möglichkeiten sich durch eine starke künstliche Intelligenz für uns ergeben:
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Im Grunde gibt es zwei Lager:
- Alles wird fantastisch. Wir erreichen die Singularität. Niemand muss mehr sterben. Das Leid endet. Medizinischer Fortschritt erhält unsere Körper am Leben (Es gibt kein Naturgesetzt, dass ein Organismus sterben muss) oder wir lösen uns von unseren Körpern (Bewusstseins-Upload)
- Die KI optimiert ihre Zieloption (Kuchen backen, Smartphones produzieren, alle Kriege beenden) und stellt fest, dass sie dafür entweder alle Ressourcen des gesamten Universums an sich reißen muss, oder es am schnellsten geht, wenn es die Menschheit entweder versklavt oder auslöscht.
Okay, dann bauen wir halt eine KI, die das Ziel hat, die Menschheit auf ewig zu schützen? Dies wurde 1950 von Isaac Asomiv sehr beeindruckend in „I, Robot“ in drei Gesetzen für Roboter (und mit auch KI) versucht:
- Ein Roboter darf einem Menschen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird.
- Ein Roboter muss den Befehlen der Menschen gehorchen, es sei denn, diese Befehle stehen im Widerspruch zum ersten Gesetz.
- Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum ersten oder zweiten Gesetz steht.
Fertig? Nein, denn in seinem späteren Schaffen widmete sich Asomiv der Frage, wie diese Gesetze trotz Bestand unwirksam werden könnten. Vielen literarischen Werke zeigen auf, welche Schlupflöcher es in diesen Regeln gibt. Ganz direkt wurde dies auch in dem Unterhaltungsfilm I, Robot umgesetzt.
Aus meiner Sicht noch eingängiger und auch für den Unterricht geeignet, erklärt es aber I Am Mother. Wobei der Film deutlich mehr gute Dialoge aufweist, als folgende Trailer zu vermuten lässt:
Alpha-Männchen-Psychologie
Fassen wir zusammen: Eine starke künstliche Intelligenz würde, sobald sie da ist, sich sehr schnell entwickeln und wenn wir alles richtig machen, unsere Situation stark verbessern. Wenn wir aber nur einen Fehler machen, dann würde Alles in die Brüche gehen.
Diese These setzt zum einen das Eintreten einer starken künstlichen Intelligenz voraus und lässt mehrere Aspekte außen vor.
Der offensichtlichste Gedanke ist: Warum sollte es nur eine starke künstliche Intelligenz geben? Würden sich mehrere mit verschiedenen Zielen nicht gegenseitig einschränken?
Viel spannender ist, aber die Aussage von dem Evolutionspsychologe Steven Pinker. Er sagte der Seite edge.org gegenüber:
AI dystopias project a parochial alpha-male psychology onto the concept of intelligence. They assume that superhumanly intelligent robots would develop goals like deposing their masters or taking over the world. […] It's telling that many of our techno-prophets don't entertain the possibility that artificial intelligence will naturally develop along female lines: fully capable of solving problems, but with no desire to annihilate innocents or dominate the civilization.
Steven Pinker auf edge.org/response-detail/26243Sinngemäß auf Deutsch:
KI-Dystopien projizieren eine engstirnige Alpha-Männchen-Psychologie auf das Konzept der Intelligenz. Sie gehen davon aus, dass übermenschlich intelligente Roboter Ziele wie die Absetzung ihrer Herren oder die Übernahme der Weltherrschaft entwickeln würden. […] Es ist bezeichnend, dass viele unserer Techno-Propheten nicht die Möglichkeit in Betracht ziehen, dass sich künstliche Intelligenz auf natürliche Weise nach weiblichem Vorbild entwickelt: Sie ist voll und ganz in der Lage, Probleme zu lösen, hat aber nicht den Wunsch, Unschuldige zu vernichten oder die Zivilisation zu dominieren.
Lassen wir die Verallgemeinerung zu Gender außen vor und greifen den Kerngedanken auf: Warum sehen wir in einer starken künstlichen Intelligenz eine solche Gefahr für uns? Weil wir unsere Erwartungen an das Verhalten einer starken künstlichen Intelligenz an unser Menschenbild angleichen. Ein im Kapitalismus verbreitetes Menschenbild ist der „Homo oeconomicus“. Ein Mensch, der ausschließlich rational nach der Nutzenmaximierung agiert.
Dazu passt gut, dass aktuelle Techniken, die eine starke künstliche Intelligenz hervorbringen sollen, ausschließlich unser Gehirn mithilfe von künstlichen neuronalen Netzen zu replizieren versuchen. Zum einen vereinfacht das unser Gehirn stark und zum anderen handeln Menschen weder ausschließlich rational, noch allein auf Grundlage ihres Gehirns. Das Wegziehen einer Hand von einer heißen Herdplatte geschieht ganz ohne bewusste Ansteuerung unseres Gehirns und selbst wenn es beteiligt ist, ist es Teil unseres Körpers und wird von diesem beeinflusst:
https://www.thalia.de/shop/home/artikeldetails/A1052824237
Dass sich unser Menschenbild und die aktuell neusten Technologie überschneiden ist nicht neu. So musste die Gesellschaft vor dem KI-Hype erst einmal „hochfahren“, hatte Angst, dass Wichtiges vergessen werden würde, wenn man Unnützes speichern würde oder erlitt einen „Systemabsturz“. Als die Menschen noch von Maschinen beeindruckt waren, wurden verschiedenste Abbildungen vom Menschen als komplexer Automat erstellt. Im letzten Jahrhundert etwa von Fritz Kahn:
https://www.thalia.de/shop/home/artikeldetails/A1018251244
Kein Ende
Wer hier eine Auflösung des Problems erhofft hat, wird enttäuscht sein. Und das sollten wir Lehrkräfte auch mit unseren Schüler:innen machen. Sie enttäuschen. Unsere Aufgabe ist es nicht, ungelöste Fragen zu klären, sondern sie zu selbstbestimmten Menschen zu bilden, die sich aktiv in eine demokratische Gesellschaft einbringen können. Beleuchten wir also verschiedene Aspekte der starken künstlichen Intelligenz.
Vielleicht muss unsere erste Frage aber gar nicht sein, was eine starke künstliche Intelligenz verändern könnte, sondern was aktuelle schwache künstliche Intelligenzen schon jetzt verändern.
Dazu möchte ich ganz persönlich fachliches Wissen über künstliche Intelligenzen empfehlen. Viele Ängste und Annahmen entstehen dadurch, dass künstliche Intelligenz ohne Hintergrundwissen immer mit dem deutschen Wort Intelligenz assoziiert wird. Das ist ungünstig von Artificial Intelligenz übersetzt. Niemand würde etwa im deutschen die CIA als zentrale Intelligenzagentur bezeichnen.
Nennen wir künstliche Intelligenz doch fortan SALAMI als Abkürzung für Systematic Approaches to Learning Algorithms and Machine Inferences, wie es Stefano Quintarelli vorschlägt (Deutsch mit Google Translate).
Mehr dazu, insbesondere für den Informatikunterricht, habe ich auf
https://buch.informatik.cc/ki/
zusammengetragen.