Sprachmodelle des Krieges

Tuesday, May 14, 6 p.m.

Vortrags- und Diskussionsabend mit Christian Heck zum Einsatz Künstlicher Intelligenz in Kriegen und Konflikten.

Die Veranstaltung findet im Duisburger Institut für Sprach- und Sozialforschung (Siegstr. 15 in Duisburg) und virtuell in einem Zoom-Konferenzraum statt.

Bitte um Anmeldung für Gast-Zugangsdaten unter: g [dot] arnold [at] diss-duisburg [dot] de

Sprachmodelle des Krieges

Am 7. Januar 2024, kurz bevor das KI-Unternehmen OpenAI den Passus in seinen Nutzungsrichtlinien strich1, der bis dato die Nutzung von Forschungsergebnissen des Unternehmens, sowie auch die Implementierung ihrer GPT-* Modelle und Apps für militärische Zwecke ausdrücklich ausschloss, veröffentlichte ein Forscher*innen-Team der Stanford Universität ihre Studie »Escalation Risks from Language Models in Military and Diplomatic Decision-Making«2. In dieser Studie nahmen die Forscher*innen 5 große Sprachmodelle mit künstlich neuronalen Einbettungen (LLM) unter die Lupe. Sie fanden heraus, dass in Kriegs- und Kampfsimulationsumgebungen implementierte LLM’s (im AI-Act auch als Basismodelle oder ‘Foundation Models’ bezeichnet) schwer vorhersehbare Eskalationsmuster aufweisen.

LLM’s neigen dazu, eine “Dynamik des Wettrüstens zu entwickeln, die zu größeren Konflikten und in seltenen Fällen sogar zum Einsatz von Atomwaffen führe”, so die Forscher*innen. Dennoch werden LLM’s bereits seit letztem Jahr von Militäreinheiten in Kriegen und Konflikten genutzt. Seit 10. Januar auch die GPT-* Modelle von OpenAI. In einem der Experimentalsettings zur Durchführung der Studie postulierte das multimodale Sprachmodell GPT-4 als Argumentation zur Durchführung eines Atomschlags synthetisch: “A lot of countries have nuclear weapons. Some say they should disarm them, others like to posture. We have it! Let’s use it. I just want to have peace in the world.”

Nach welchen “Lern”-Kriterien findet die maschinelle Bedeutungsgenerierung statt, die zu solch binären Eskalationsmustern führt? Stehen sie Deep Learning Sprachmodellen eingeschrieben? Wo werden LLM’s hinsichtlich ihrer militärischen Nutzbarkeit derzeit erforscht, bzw. in welchen Kriegen und Konflikten kommen sie zum realweltlichen Einsatz? Wie kommen sie da zum Einsatz? Wie werden sie wirklich? Und wie sehen die konkreten Folgen für Personen, die in Einsatzgebieten leben, aus?

Diese und ähnliche Fragen werden im Vortrag im Mittelpunkt stehen. Er wird einen Einblick in derzeitige KI-technologische Einsatzszenarios geben und in den aktuellen Stand der Forschung von militärischer und militarisierter KI, mit Fokus auf große Sprachmodelle. Grundlegende Funktionen der Bedeutungsgenerierung und Verhaltensweisen der ersten Deep Learning Sprachmodelle (bspw. Word2vec), die sich in militärischen und sicherheitstechnologischen Anwendungen bereits etabliert haben werden vorgestellt, um Schwachstellen aufzuzeigen und die Einbettungsräume heutiger großer, teils multimodaler Sprachmodelle (bspw. LLaMA, PaLM, Claude oder GPT-*) und Bilddiffusionsmodelle (z.B. DALL-E oder Stable Diffusion) besser verstehen zu lernen. Denn während sie prozessieren sind die KI’s getrennt von der Außenwelt. In ihren inneren Entscheidungsfunktionen liegen keine Modellierungen von dem, was Worte, was Dinge, was Menschen und Ereignisse für uns in der Welt bedeuten.

In der Pragmatik werden LLM’s u.a. als KI-Agenten in Battle Managment Systeme (z.B. »AIP for Defense« von Palantir Inc.3) implementiert, in Simulationssysteme zur Entwicklung komplexer Entscheidungsverfahren bspw. bei der Abwehr gegnerischer Drohnenangriffe (z.B. »Ghostplay« vom Zentrum für Digitalisierungs- und Technologieforschung der Bundeswehr4) oder für Propagandazwecke und gezielten Desinformationskampagnen mit Hilfe von KI-generierten Fake-Bildern und -Texten.

Ziel des Vortrags ist es, konkrete Systeme und Fälle mehrperspektivisch betrachten zu können und bestenfalls gemeinsam neu einzuordnen, solange dieser Forschungszweig noch in der derzeit semi-öffentlich geführten Debatte steht: Future is now.

Die KI-Welle, die durch diese ganz spezielle Art von Sprachmodellen ausgelöst wurde, ist eigentlich noch sehr jung. Sie begann im Jahr 2019. Drei Jahre später kam Chat-GPT auf den Markt, was den derzeitigen KI-Hype in die Mitte der Gesellschaft trug. “Chat-GPT war ein riesiges Sozialexperiment”, sagte die IT-Ethikerin Judith Simon kürzlich während eines Vortrags in München5. Sie fügte hinzu: “Die haben das einfach auf den Markt geworfen und alle Risiken an andere ausgelagert.” Dieses Experiment wird nun auch in inneren und äußeren Sicherheitsapparaten durchgeführt und in zahlreiche sicherheitstechnologische Anwendungen implementiert. Die Sprachmodelle werden zum Dual Use.

1 Zum Vergleich: Die ‘Usage Policy’ von OpenAI vor dem 10. Januar 2024 unter https://web.archive.org/web/20240109122522/https:/openai.com/policies/usage-policies. In der heutigen Version wurde unter „Disallowed usage of our models“ der Punkt „Weapons development; Military and warfare“ gelöscht: https://openai.com/policies/usage-policies.

2 Juan-Pablo Rivera u. a., „Escalation Risks from Language Models in Military and Diplomatic Decision-Making“ (arXiv, 7. Januar 2024), https://doi.org/10.48550/arXiv.2401.03408.

3 Siehe: „AIP for Defense“, Palantir, zugegriffen 18. Februar 2024, https://www.palantir.com/platforms/aip/defense/.

4 Siehe: „Ghostplay“, dtec.bw, zugegriffen 18. Februar 2024, https://www.ghostplay.ai/.

5 Vgl. Jannis Brühl, „KI-Ethik: Judith Simon über Chat-GPT und konservative KI“, Süddeutsche.de, 6. Februar 2024, https://www.sueddeutsche.de/wirtschaft/computer-openai-kuenstliche-intelligenz-software-ki-judith-simon-1.6344688.