Targeted Killing oder das Versprechen die ‘Richtigen’ zu treffen
Susanne Grabenhorst und Christian Heck (2024), „Targeted Killing oder das Versprechen die ‘Richtigen’ zu treffen“, in FIfF-Kommunikation 4/2024 “Künstliche Intelligenz zwischen euphorischen Erwartungen und dystopischen Szenarien”, Hrsg. Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) e.V. (Bremen: 2024).
Artikeldownload: als PDF
Veröffentlicht in:
Die FIfF-Kommunikation ist Fachzeitschrift und Mitteilungsblatt des Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) e.V. Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) e.V. Sie erscheint vierteljährlich mit wechselnden Themenschwerpunkten aus dem Bereich Informatik und Gesellschaft.
Susanne Grabenhorst und Christian Heck
Download Artikel: als PDF
Targeted Killing oder das Versprechen, die Richtigen zu treffen
Am 2. Januar 2024 führte das israelische Militär (IDF) die erste gezielte Tötung nach dem brutalen Überfall der Hamas am 7. Oktober 2023 außerhalb der palästinensischen Gebiete durch. Ziel war der führende Hamas-Befehlshaber Saleh al-Aruri. Es kamen mindestens sechs weitere Hamas-Mitglieder (darunter zwei weitere Kommandeure) bei diesem Drohnenangriff in Dahieh, einem Vorort von Beirut im Libanon ums Leben. Zwei Tage danach, am 4. Januar, gab der israelische Verteidigungsminister Yoav Gallant die 2. Phase des Gaza-Krieges bekannt: nach den großflächigen Bombardements im Gaza-Streifen nun mit gezielteren Tötungen (vgl. Reuters 2024).
Die Anzahl der verzeichneten getöteten Personen in Gaza betrug zu diesem Zeitpunkt 22 438.
Gezielte Tötungen sind in der Praxis oft nicht das, was der Begriff vermuten lässt. Sie sind nicht gezielt auf möglichst eine Person gerichtet, ohne weitere zivile Opfer.
Am 29. April veröffentlichten der Arbeitskreis gegen bewaffnete Drohnen, die Informationsstelle Militarisierung (IMI e.V.) und das FIfF in einer gemeinsamen Pressemitteilung das Positionspapier „Targeted ? Killing“ (Arbeitskreis gegen bewaffnete Drohnen et al. 2024).
Das Papier bezog Stellung zu Yuval Abrahams Publikmachung von militärischen Einsätzen in Gaza mittels eines KI-gestützten Systems namens „Lavender“, das Mobilfunkdaten, GPS-Signale, biometrische Datenbanken der israelischen Geheimdienste usw. nutzte (Abraham 2024). Es wurde seinen Recherchen zufolge nach dem 7. Oktober von den israelischen Streitkräften eingesetzt, um Militärs der Hamas und des islamischen Dschihad zu identifizieren und eine Todesdatenbank zu erstellen. Es wurden zivile Opfer in unterschiedlichem Ausmaß in Kauf genommen. Laut den Zeugenaussagen, auf denen die Recherche beruht, würden vor allem die Wohnungen angegriffen – nachts, wenn normalerweise die ganze Familie anwesend ist, da die Gesuchten in den Wohnungen leichter zu lokalisieren seien. Dazu werde u.a. ein weiteres System „Where is Daddy?“ aktiviert, was die Verdächtigen verfolgt und nach Betreten des Hauses bombardiert. In den ersten Wochen wurde das System benutzt, im Wissen, dass es eine geschätzte Fehlerquote von 10% hatte. Des Weiteren wurden je nach Rang und Bedeutung 15 bis 100 getötete Zivilist*innen für die Tötung eines Funktionärs bzw. Militärs toleriert.
Das Papier und die folgende gemeinsame internationale Friedensarbeit zu dieser erschreckenden Operationspraxis mit zahlreichen Interviews, Vorträgen, Hearings, Diskussionsveranstaltungen und weiteren, konkreteren teils englischsprachigen Veröffentlichungen unserer Stellungnahme führten uns zur Herausarbeitung folgender Fragestellungen:
- Selbst wenn der Schutz der Zivilbevölkerung seitens der kriegführenden Parteien beabsichtigt wäre, ist er überhaupt realistisch?
- Lässt sich eine klare Trennung von menschlichem und maschinellem Handeln und Entscheiden aufrechterhalten?
- Wird der Mensch zu einer symbolischen Repräsentation, die benutzt, ersetzt oder zerstört werden kann? Und wenn ja, wie läuft diese Dehumanisierung ab?
- Was sagt die Forschung zu menschlicher Kontrolle, Verantwortung und Ethik in den derzeitigen bewaffneten Konflikten?
- Wie können Entscheidungen, die auf KI-gestützten Systemen basieren, validiert und so transparent gemacht werden, dass die Weltöffentlichkeit sie nachverfolgen kann?
- Und was können Wissenschaftler*innen tun bzw. wie können sich Zivilgesellschaft und Aktivist*innen engagieren?
Aus diesen Fragestellungen heraus entwickeln wir derzeit mögliche Handlungsansätze, um
- die Forschung und Entwicklung neuer Technologien für autonome Waffensysteme sowie die Auswirkungen von Big Data und Künstlicher Intelligenz im militärischen Kontext zu analysieren
- und aus den daraus gezogenen Erkenntnissen eine intensive öffentliche wissenschaftliche und zivilgesellschaftliche Debatte über konkrete Folgen und Konsequenzen des Targeted Killing (zu deutsch: gezieltes Töten) mittels KI-gestützter Systeme zu fördern.
Denn der Einsatz von Künstlicher Intelligenz in militärischen Targeting-Systemen wirft neue wichtige ethische und rechtliche Fragen auf. Neu, da datengetriebene Identifizierungs- und Entscheidungsunterstützungssysteme wie Lavender eine neue tödliche Qualität erreicht haben und somit Fragen der Verantwortung neu erschlossen werden müssen. Die Hemmschwelle, sich bei multidomänen Operationen auf diese Systeme zu verlassen bzw. sich auf sie verlassen zu müssen ist in den letzten Jahren stetig und drastisch gesunken.
Multi Domain Operations (MDO)
Multidomäne Operationen (MDO) erfolgen nach einem militärischen Konzept, Streitkräfte in den Dimensionen See, Land, Luft und Cyber zu orchestrieren und mit nicht-militärischen Maßnahmen zu synchronisieren. Das Kürzel MDO erreicht derzeit im Zuge der für 2026 vorgesehenen Stationierung von US-Mittelstreckenraketen in Deutschland die breite Öffentlichkeit. SPD-Verteidigungsminister Boris Pistorius spricht hier von einer notwendigen „Abschreckungsfähigkeit“ und einem Nachholen militärischer Fähigkeiten, die US-Regierung von einem „organisatorischen Herzstück“ für die „nationale Sicherheit der USA“ (Feickert 2024). Unter anderem in Wiesbaden soll ein entsprechender Verband stationiert werden: die Multi-Domain Task Force (MDTF). Auch die am 4. April vorgestellte Strukturreform der Bundeswehr baut auf dem MDO-Konzept auf und setzt auf komplexe militärische Operationen zu Land, zu Wasser, in der Luft, im Weltraum und im Cyberraum, d. h. dem Internet, auch dem der Dinge (Bundeswehr 2024).
Letzteres, das Internet of Things (IoT), eine globale Infrastruktur, die es ermöglicht, physische und virtuelle Objekte miteinander zu vernetzen und sie zusammenarbeiten zu lassen, war noch nie vom Militär trennbar. Der Begriff Internet of Military Things (IoMT) erfasst die Verschmelzung präzise und hält begrifflich fest, wie sich Drohnen, Satellitensysteme, Clouds, autonome Waffensysteme (AWS), KI-gestützte Battle-Management-Systeme (BMS) und Decision-Support-Systeme (DSS) als Ableger aus militärischer und ziviler Forschung entwickelt haben.
Ursprünge dieses „organisatorischen Herzstücks“ sind in den späten 90er Jahren in der letzten sogenannten Revolution in Military Affairs zu finden, einer Umwälzung der Kriegsführung durch das Network Centric Warfare (NCW, zu deutsch: netzwerkzentrierte Kriegsführung). Gesetztes Ziel hierbei ist die Vernetzung von Aufklärungs-, Führungs- und Wirksystemen, um Informationsüberlegenheit herzustellen und eine teilstreitkräfteübergreifende Überlegenheit in der gesamten Reichweite militärischer Operationen zu erreichen (full spectrum dominance). Dies trieb die Forschung an technologischen Innovationen in diesem Bereich voran. Der zweite Golfkrieg war das erste Testfeld für den neuen Ansatz. Zur selben Zeit wurden diese Logiken als netzwerkanalytische bzw. soziometrische Verfahren auch im Zivilen bspw. durch Algorithmen wie Google’s PageRank im Netz erforscht (Page et al. 1999). Google versuchte auf diese Weise potentielle Nutzer*innen auszumachen, ihr zukünftiges Verhalten vorherzusagen und seiner Marktlogik entsprechend zu manipulieren.
The unknown known
Nach dem 11. September 2001 wurden aus diesen Ansätzen heraus zahlreiche Methoden und Technologien zum Aufspüren des unknown known (D. Rumsfeld) entwickelt. Durch diese sollten feindliche Handlungen frühzeitig erkannt und verhindert werden. Ein „Amalgam aus kommerziellen, privaten, militärischen und technologischen Techniken“ begann sich, laut Louise Amoore, Professorin für politische Geographie, herauszubilden (Amoore 2013). In den frühen 2010er Jahren fokussierten sich Militär, Geheimdienste und nationale Sicherheitsbehörden dann vermehrt auf konkrete Lösungsansätze für das Auffinden des unknown known mittels (Big) Data Mining. „Der Traum des Einzelhändlers eines unbekannten Konsumenten (unknown known) traf auf den staatlichen Albtraum des unbekannten Terroristen“, so Amoore weiter. Die tragende Rolle großer IT-Unternehmen hat sich hierdurch gefestigt. KI-gestützte Technologien zur Identifizierung des unknown known sind seither integraler Bestandteil in Kriegen, Konflikten und zur Bekämpfung terroristischer Bedrohungen. Dies „Amalgam“ dient hierbei in erster Linie als Grundlage, um potentielle Targets mittels Datenmustern aus der Überwachung und der Analyse von Verhaltensweisen zu bestimmen. „KI und die großen Überwachungsplattformen, die riesige KI-Systeme mit Daten füttern, steigern diese Fähigkeit auf unglaublich gefährliche Weise“, so Meredith Whittaker, KI-Forscherin und CEO des Messenger-Dienstes Signal (Whittaker 2024).
(Big) data driven warfare
Zahlreiche Berichte über Tötungen mittels bewaffneter Drohnen, die von den USA nach dieser Logik durchgeführt wurden, tauchten in den 2010er Jahren in den westlichen Massenmedien auf. In erster Linie nutzten diese investigative Recherchen und Leaks von Whistleblowern als Informationsquellen. Massive Targeted Killings fanden demnach bereits in den frühen 2000ern statt, vor allem in Waziristan (Pakistan) und im Jemen.
In vielen Fällen führten damals wie heute keine konkreten Kenntnisse oder eine Gewissheit über die Schuldhaftigkeit des Targets zur militärischen Entscheidung, sondern Korrelationen zwischen alltäglichem Verhalten und „terroristischen“ Aktivitätsmustern. Mustern, die auf Datensätzen von „Militanten“ und „Extremisten“ basieren. Eine Operationspraxis, die im Militärjargon als Signature Strikes bezeichnet wird.
Diese Verhaltens- oder auch Lebensmuster dienen als sogenanntes Trainingsmaterial, um datengetriebene Vorhersagen zu treffen bzw. Targets zu erfassen und identifizieren.
Rückeroberung der Deutungshoheit
Während das russische Militär seit Februar 2022 scheinbar wahllos zivile Infrastrukturen und Einrichtungen u. a. mit KI-gestützter Waffentechnik anzugreifen scheint, bombardieren die israelischen Streitkräfte (IDF) Hamas und Hisbollah-Milizen als angebliche gezielte Tötung. Da die Unzulänglichkeiten und Ungenauigkeiten bekannt sind, erscheint dies wie ein Vorwand.
Alle Parteien missachten das humanitäre Völkerrecht und nehmen billigend zivile Opfer für militärische Ziele in Kauf, indem sie Schulen, Krankenhäuser, Hilfskonvois, Fluchtrouten und humanitäre Zonen für ihre Kampfhandlungen missbrauchen. Sie treiben Hunderttausende Menschen aus der Ukraine, Gaza, und dem Libanon in die Flucht.
Begriffe wie Targeted Killing, Surgical Strikes, also chirurgische Angriffe, Smart Bombs oder Präzisionswaffen verschleiern die wahren Folgen. Sie führen nicht, wie verheißen, zu weniger zivilen Opfern. Unter anderem, da datengetriebene Identifizierungs- und Entscheidungsunterstützungssysteme wie Lavender den Soldat*innen prädiktiv (vorhersagend), in Teilen sogar präemptiv (vorwegnehmend) moralische Entscheidungen abnehmen und zu einer Dehumanisierung auf Täter- wie auch auf Opferseite führen.
Es gilt, den Begriff der gezielten Tötung bzw. des Targeted Killing zivilgesellschaftlich neu zu definieren und bestenfalls eine zivilgesellschaftliche Deutungshoheit zu gewinnen, die außerhalb der Militärterminologie und ihres Begriffs von Zweckdienlichkeit erschlossen werden kann. Der Begriff Targeted Killing darf nicht unhinterfragt in die zivilgesellschaftliche Analyse militärischer und sicherheitsbehördlicher Praxis einfließen. Denn die zahlreichen Bedeutungswandel im Laufe der letzten zwanzig Jahre, auch der derzeitige durch die Operationen in Gaza und im Libanon, entstehen aus der Art und Weise „wie dieser Gebrauch in das Leben eingreift“ (Wittgenstein 1973).
Eines scheint sich unserer Erkenntnis nach nicht zu wandeln, und das ist der ungebrochene tödliche Eingriff in das Leben von Menschen und der Gebrauch von Gewalt mittels Waffen und Technologie.
Referenzen
Abraham, Yuval (2024): „‘Lavender’: The AI Machine Directing Israel’s Bombing Spree in Gaza“, +972 Magazine, 3. April 2024, https://www.972mag.com/lavender-ai-israeli-army-gaza/ (abgerufen am 4. November 2024).
Amoore, Louise (2013): „The politics of possibility: risk and security beyond probability”, Durham: Duke University Press, S. 2.
Arbeitskreis gegen bewaffnete Drohnen/Informationsstelle Militarisierung/Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (2024): „Targeted ? Killing”, in FIfF-Kommunikation 2/2024, Juni 2024, https://blog.fiff.de/warnung-senkung-der-hemmschwelle-durch-kuenstliche-intelligenz/ (abgerufen am 4. November 2024).
Arbeitskreis gegen bewaffnete Drohnen (2024): „Targeted Killing oder das Versprechen, die Richtigen zu treffen“, Online Hearing mit Jürgen Altmann, Tatiana Bazzichelli, Jobst Paul, Rainer Rehak, Elke Schwarz, Jutta Weber, 22. November 2024, https://blog.fiff.de/hearing_targeted-killing_22-11-2024/.
Bundeswehr (2024): „Umbau der Bundeswehr beginnt – Verteidigungsfähigkeit als Maßstab“, 1. Oktober 2024, https://www.bundeswehr.de/de/aktuelles/meldungen/umbau-bundeswehr-beginnt-verteidigungsfaehigkeit-massstab-5843472 (abgerufen am 4. November 2024).
Feickert, Andrew (2024): „The Army’s Multi-Domain Task Force (MDTF)“, Congressional Research Service, 10. Juli 2024, https://crsreports.congress.gov/product/pdf/IF/IF11797/15 (abgerufen am 4. November 2024).
Grabenhorst, Susanne/Christian Heck/Christoph Marischka/Rainer Rehak (2024): Mythos ‚Targeted Killing‘: Gegen die Rationalisierung von Krieg, in BG · berlinergazette.de, 09. Mai 2024. URL der deutschen Version: https://berlinergazette.de/de/mythos-targeted-killing-gegen-die-rationalisierung-von-krieg/ URL der englischen Version: https://berlinergazette.de/against-the-rationalization-of-war/ (abgerufen am 4. November 2024).
Heck, Christian/Rainer Rehak (2024): „The Myth of ‚Targeted Killing‘. On responsibility of AI-powered targeting systems in the case of Lavender“, 18. Oktober, AI&Warfare-Konferenz im Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) Berlin, https://www.hiig.de/events/ai-warfare/ und Panel-Diskussion im Rahmen des interdisziplinären Symposiums contestations.ai, 23. Oktober, Helsinki (FI), https://contestations.ai/ (abgerufen am 4. November 2024).
Marischka, Christoph (2024): „Künstliche Intelligenz beim Militär“, Radio Lora, 6. September, https://www.freie-radios.net/130570 (abgerufen am 4. November 2024).
Page, Lawrence u. a. (1999): „The PageRank Citation Ranking: Bringing Order to the Web.“, Technical Report, Stanford: InfoLab, http://ilpubs.stanford.edu:8090/422/ (abgerufen am 4. November 2024).
Rehak, Rainer (2024): „Die Nutzung solcher KI-Systeme muss als Kriegsverbrechen eingestuft werden“, netzpolitik.org, 13. Mai, https://netzpolitik.org/2024/interview-mit-rainer-rehak-die-nutzung-solcher-ki-systeme-muss-als-kriegsverbrechen-eingestuft-werden/ (abgerufen am 4. November 2024).
Reuters (2024): „Israeli Defence Minister Outlines New Phase in Gaza War“, The Business Standard, 5. Januar 2024, https://www.tbsnews.net/hamas-israel-war/israeli-defence-minister-outlines-new-phase-gaza-war-769702 (abgerufen am 4. November 2024).
Whittaker, Meredith (2024): „The Prizewinner’s Speech“, 15. Mai 2024, Helmut Schmidt Stiftung, https://www.helmut-schmidt.de/en/news-1/detail/the-prizewinners-speech (abgerufen am 4. November 2024).
Wittgenstein, Ludwig (1973): „Philosophische Grammatik”, 1. Aufl, suhrkamp-taschenbücher wissenschaft 5, Frankfurt am Main: Suhrkamp, S.29.
Anmerkungen
Siehe beispielsweise Artikel (Grabenhorst, Susanne et al. 2024), Interviews (Rehak, Rainer 2024; Marischka, Christoph 2024), Panels und Konferenzbeiträge (Heck, Christian & Rainer Rehak 2024; Arbeitskreis gegen bewaffnete Drohnen 2024)