Suche innerhalb des Archivs / Search the Archive All words Any words

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[infowar.de] Ethik für Kampfroboter



http://www.heise.de/tr/blog/artikel/88667/

24.04.07

Ethik für Kampfroboter
Von Niels Boeing

Es sind schon harte Zeiten für das hochgerüstete Militär des Westens. Die Gegner halten sich nicht mehr an die althergebrachten Methoden der Kriegsführung, die heimische Bevölkerung akzeptiert keine eigenen Verluste mehr, und die kritische Öffentlichkeit geißelt „Kollateralschäden“ als inhuman.
Kein Wunder, dass einige Strategen künftig verstärkt Roboter aufs 
Schlachtfeld schicken wollen. Laut Economist plant das 
US-Verteidigungsministerium, schon 2015 ein Drittel seiner Waffensysteme 
durch Roboter zu ersetzen, weil die im Vergleich zu Soldaten billiger und 
leichter zu ersetzen seien. Das israelische Militär, das zuletzt im 
Libanon ein ähnliches (PR-)Debakel erlebte wie die US-Armee im Irak, will 
Terroristen mit winzigen Roboterdrohnen bekämpfen.
Kampfroboter lohnen sich in der Logik des Militärs aber natürlich nur, 
wenn sie auch möglichst autonom operieren können, also mehr sind als 
ferngesteuerte Waffen.
Das bringt zwei Probleme mit sich: Wie kann man verhindern, dass Roboter 
nicht eigene Truppenteile und zivile Ziele plattmachen? Und wie kann man – 
unter dem wachsenden Druck der Öffentlichkeit – ihren Einsatz auch ethisch 
absichern?
Isaac Asimov hatte ja 1942 mit seinen drei Gesetzen der Robotik die Latte 
hoch aufgelegt: Im Kern verlangen sie, Roboter so zu bauen, dass sie keine 
Menschen schädigen.
Diese rudimentäre Roboterethik scheint offenbar im Laufe der Jahrzehnte 
doch eine gewisse Wirkung entfaltet zu haben. Anders ist nicht zu 
erklären, dass sich gleich zwei US-Wissenschaftler Gedanken darüber 
gemacht haben, wie diese mit dem Einsatz von Kampfrobotern in Einklang 
gebracht werden könnte.
Ronald Arkin vom Georgia Institute of Technology will dieses Problem mit 
einem „künstlichen Gewissen“, wie der Economist es beschreibt, lösen. Im 
Fachjargon heißt das dann „multidimensional mathematical decision space of 
possible behaviour actions“ – ein mehrdimensionaler mathematischer 
Entscheidungsraum möglicher Verhaltensaktionen. In dem würden 
Kampfhandlungen, die der Roboter in einer Situation ausführen könnte, in 
ethische und unethische unterteilt. Der Economist bringt ein schönes 
Beispiel dafür: Eine Roboterdrohne würde den Jeep eines gesuchten 
Topterroristen dann nicht beschießen, wenn der gerade einen Schulbus überholt.
John Canning vom Naval Surface Warfare Center hat dafür die Formel 
gefunden: Lasst Maschinen auf Maschinen zielen und Menschen auf Menschen. 
In einer Präsentation schränkt er die „legalen“ Zielmöglichkeiten deshalb 
für autonome Kampfsysteme ein (Folien 15 und 16). Ein Feind hätte dann 
laut Canning die Option, im Angesicht eines angreifenden Roboters die 
Waffen zu strecken und abzuhauen und damit in Sekundenbruchteilen in die 
Klasse der unethischen Ziele überzuwechseln. Wo ein menschlicher Soldat in 
der Hitze des Gefechts draufgehalten hätte, würde der Roboter eine 
humanere Kriegführung wählen.
Das ist doch mal was. Im Vietnamkrieg hat man sich mit solchen 
Überlegungen noch nicht aufgehalten.
Bei so viel Humanismus auf dem Schlachtfeld bleibt nur zu hoffen, dass die 
US-Armee keinen Deal mit Microsoft abschließt, das Betriebssystem für das 
künstliche Gewissen zu entwickeln – Bill Gates hat ja erst kürzlich im 
Scientific American bekräftigt, dass Roboter das nächste große Ding nach 
dem PC sind. Denn mal ehrlich: Kann sich jemand vorstellen, dass „Robotics 
Studio“ in einer Version „3.0 mil“ je einen Schulbus von einem 
Terroristenjeep unterscheiden könnte?
---------------------------------------------------------------------
To unsubscribe, e-mail: infowar -
de-unsubscribe -!
- infopeace -
de
For additional commands, e-mail: infowar -
de-help -!
- infopeace -
de