Suche innerhalb des Archivs / Search the Archive All words Any words

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[infowar.de] Ethik für Kampfroboter



http://www.heise.de/tr/blog/artikel/88667/

24.04.07

Ethik für Kampfroboter
Von Niels Boeing

Es sind schon harte Zeiten für das hochgerüstete Militär des Westens. Die Gegner halten sich nicht mehr an die althergebrachten Methoden der Kriegsführung, die heimische Bevölkerung akzeptiert keine eigenen Verluste mehr, und die kritische Öffentlichkeit geißelt „Kollateralschäden“ als inhuman.

Kein Wunder, dass einige Strategen künftig verstärkt Roboter aufs Schlachtfeld schicken wollen. Laut Economist plant das US-Verteidigungsministerium, schon 2015 ein Drittel seiner Waffensysteme durch Roboter zu ersetzen, weil die im Vergleich zu Soldaten billiger und leichter zu ersetzen seien. Das israelische Militär, das zuletzt im Libanon ein ähnliches (PR-)Debakel erlebte wie die US-Armee im Irak, will Terroristen mit winzigen Roboterdrohnen bekämpfen.

Kampfroboter lohnen sich in der Logik des Militärs aber natürlich nur, wenn sie auch möglichst autonom operieren können, also mehr sind als ferngesteuerte Waffen.

Das bringt zwei Probleme mit sich: Wie kann man verhindern, dass Roboter nicht eigene Truppenteile und zivile Ziele plattmachen? Und wie kann man – unter dem wachsenden Druck der Öffentlichkeit – ihren Einsatz auch ethisch absichern?

Isaac Asimov hatte ja 1942 mit seinen drei Gesetzen der Robotik die Latte hoch aufgelegt: Im Kern verlangen sie, Roboter so zu bauen, dass sie keine Menschen schädigen.

Diese rudimentäre Roboterethik scheint offenbar im Laufe der Jahrzehnte doch eine gewisse Wirkung entfaltet zu haben. Anders ist nicht zu erklären, dass sich gleich zwei US-Wissenschaftler Gedanken darüber gemacht haben, wie diese mit dem Einsatz von Kampfrobotern in Einklang gebracht werden könnte.

Ronald Arkin vom Georgia Institute of Technology will dieses Problem mit einem „künstlichen Gewissen“, wie der Economist es beschreibt, lösen. Im Fachjargon heißt das dann „multidimensional mathematical decision space of possible behaviour actions“ – ein mehrdimensionaler mathematischer Entscheidungsraum möglicher Verhaltensaktionen. In dem würden Kampfhandlungen, die der Roboter in einer Situation ausführen könnte, in ethische und unethische unterteilt. Der Economist bringt ein schönes Beispiel dafür: Eine Roboterdrohne würde den Jeep eines gesuchten Topterroristen dann nicht beschießen, wenn der gerade einen Schulbus überholt.

John Canning vom Naval Surface Warfare Center hat dafür die Formel gefunden: Lasst Maschinen auf Maschinen zielen und Menschen auf Menschen. In einer Präsentation schränkt er die „legalen“ Zielmöglichkeiten deshalb für autonome Kampfsysteme ein (Folien 15 und 16). Ein Feind hätte dann laut Canning die Option, im Angesicht eines angreifenden Roboters die Waffen zu strecken und abzuhauen und damit in Sekundenbruchteilen in die Klasse der unethischen Ziele überzuwechseln. Wo ein menschlicher Soldat in der Hitze des Gefechts draufgehalten hätte, würde der Roboter eine humanere Kriegführung wählen.

Das ist doch mal was. Im Vietnamkrieg hat man sich mit solchen Überlegungen noch nicht aufgehalten.

Bei so viel Humanismus auf dem Schlachtfeld bleibt nur zu hoffen, dass die US-Armee keinen Deal mit Microsoft abschließt, das Betriebssystem für das künstliche Gewissen zu entwickeln – Bill Gates hat ja erst kürzlich im Scientific American bekräftigt, dass Roboter das nächste große Ding nach dem PC sind. Denn mal ehrlich: Kann sich jemand vorstellen, dass „Robotics Studio“ in einer Version „3.0 mil“ je einen Schulbus von einem Terroristenjeep unterscheiden könnte?

---------------------------------------------------------------------
To unsubscribe, e-mail: infowar -
de-unsubscribe -!
- infopeace -
de
For additional commands, e-mail: infowar -
de-help -!
- infopeace -
de