Autonome Systeme: „Technisches Roulette“ im Wettrüsten


Grafik: TP
Schon jetzt entscheiden Militärs meist nur aufgrund von computergenerierten Daten, weswegen ein Mensch „in the loop“ eher die Risiken von autonomen KI-Systemen verstärkt, die eine Black Box sind

Florian Rötzer | TELEPOLIS

Das Pentagon versucht, um den Anschluss vor allem gegenüber China, aber auch gegenüber Russland nicht zu verlieren, möglichst schnell und umfassend autonome (Kampf)Systeme zu entwickeln. Ziel ist es, damit effizienter angreifen oder verteidigen zu können, weil KI-Systeme schneller viel mehr Daten verarbeiten und entscheiden können. Damit haben autonome Systeme Vorteile in asymmetrischen Konflikten und können mit Gegnern, die auch autonome Systeme einsetzen, mithalten.

Doktrin des Pentagon ist allerdings weiterhin, dass letztlich ein Mensch auch bei autonomen Systemen die letzte Verantwortung haben soll, also ein „human in the loop“ sitzt. Daher werden angeblich in erster Linie Mensch-Maschine-Schnittstellen geschaffen, also Mensch-Maschine-Systeme, Cyborg- oder Zentaur-Systeme, in denen Menschen ein Teil (in the loop) sind, aber sie übernehmen nur die Aufgaben, die die Maschinen noch nicht ausführen können und treffen Entscheidungen, wenn die Zeit dafür ausreicht.

Man darf annehmen, dass mit diesem Konzept sowieso die Zukunft militärischer Systeme nicht festgelegt ist und die Behauptung, dass letztlich immer ein Mensch den letzten Drücker bedienen wird, nur dazu dient, Politiker und Öffentlichkeit ruhig zu halten und Kritiker, die autonome „Killerroboter“ verbieten wollen, zu besänftigen. Im September 2016 hatte der damalige US-Verteidigungsminister Ash Carter verkündet: „Niemals volle Autonomie für Kampfroboter“. Dabei denkt man meist an autonome Drohnen, Schiffe oder Landroboter, die mit Waffen ausgestattet sind.

weiterlesen