Autonome Waffen mit KI: Auf dem Weg zur „Schlachtfeld-Singularität“


(Bild: Future Army / US Marines (Screenshot YouTube))
Können mit Künstlicher Intelligenz bestückte Torpedos, Drohnen oder Marschflugkörper noch verhindert werden? China habe sich in Genf zumindest gegen eine „Nutzung“ solcher Systeme ausgesprochen, hieß es im „Clausewitz-Strategiegespräch“.

Stefan Krempl | heise online

Autonomie in Waffensystemen gebe es längst etwa im Raketenabwehrsystem Patriot, befand Frank Sauer vom Institut für Politikwissenschaften an der Universität der Bundeswehr in München am Mittwoch auf dem „12. Clausewitz-Strategiegespräch“ in Berlin. Es müsse nun aber dringend darum gehen, ethische rote Linien in die Technik einzuziehen. Sonst komme die Menschheit mit der zunehmenden Entscheidungsgeschwindigkeit sich selbst steuernder Systeme „in Teufels Küche“. Diese Problematik könnte etwa im Südpazifik besonders virulent werden, wenn sich dort „Wechselwirkungen zwischen zwei Algorithmen“ in Systemen der USA und Chinas ergäben, die sich gegenseitig belauerten.

In einem solchen Horrorszenario in einem Kalten Krieg zwischen Künstlichen Intelligenzen (KI) könne das gesamte politische System destabilisiert werden, meinte Sauer. Der Mensch könnte dann nicht mehr eingreifen. Für den Forscher ist daher klar: „Wir müssen die menschliche Kontrolle über diesen Entscheidungszyklus sicherstellen.“ Nötig sei die „Verfügungsgewalt“ über autonome Waffen, wie sie auch Schwarz-Rot im Koalitionsvertrag fordere. Es müssten aber Menschen beteiligt werden, die dafür „völkerrechtlich Verantwortung übernehmen“.

weiterlesen