[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
[infowar.de] Ethik für Kampfroboter
http://www.heise.de/tr/blog/artikel/88667/
24.04.07
Ethik für Kampfroboter
Von Niels Boeing
Es sind schon harte Zeiten für das hochgerüstete Militär des Westens. Die
Gegner halten sich nicht mehr an die althergebrachten Methoden der
Kriegsführung, die heimische Bevölkerung akzeptiert keine eigenen Verluste
mehr, und die kritische Öffentlichkeit geißelt „Kollateralschäden“ als
inhuman.
Kein Wunder, dass einige Strategen künftig verstärkt Roboter aufs
Schlachtfeld schicken wollen. Laut Economist plant das
US-Verteidigungsministerium, schon 2015 ein Drittel seiner Waffensysteme
durch Roboter zu ersetzen, weil die im Vergleich zu Soldaten billiger und
leichter zu ersetzen seien. Das israelische Militär, das zuletzt im
Libanon ein ähnliches (PR-)Debakel erlebte wie die US-Armee im Irak, will
Terroristen mit winzigen Roboterdrohnen bekämpfen.
Kampfroboter lohnen sich in der Logik des Militärs aber natürlich nur,
wenn sie auch möglichst autonom operieren können, also mehr sind als
ferngesteuerte Waffen.
Das bringt zwei Probleme mit sich: Wie kann man verhindern, dass Roboter
nicht eigene Truppenteile und zivile Ziele plattmachen? Und wie kann man –
unter dem wachsenden Druck der Öffentlichkeit – ihren Einsatz auch ethisch
absichern?
Isaac Asimov hatte ja 1942 mit seinen drei Gesetzen der Robotik die Latte
hoch aufgelegt: Im Kern verlangen sie, Roboter so zu bauen, dass sie keine
Menschen schädigen.
Diese rudimentäre Roboterethik scheint offenbar im Laufe der Jahrzehnte
doch eine gewisse Wirkung entfaltet zu haben. Anders ist nicht zu
erklären, dass sich gleich zwei US-Wissenschaftler Gedanken darüber
gemacht haben, wie diese mit dem Einsatz von Kampfrobotern in Einklang
gebracht werden könnte.
Ronald Arkin vom Georgia Institute of Technology will dieses Problem mit
einem „künstlichen Gewissen“, wie der Economist es beschreibt, lösen. Im
Fachjargon heißt das dann „multidimensional mathematical decision space of
possible behaviour actions“ – ein mehrdimensionaler mathematischer
Entscheidungsraum möglicher Verhaltensaktionen. In dem würden
Kampfhandlungen, die der Roboter in einer Situation ausführen könnte, in
ethische und unethische unterteilt. Der Economist bringt ein schönes
Beispiel dafür: Eine Roboterdrohne würde den Jeep eines gesuchten
Topterroristen dann nicht beschießen, wenn der gerade einen Schulbus überholt.
John Canning vom Naval Surface Warfare Center hat dafür die Formel
gefunden: Lasst Maschinen auf Maschinen zielen und Menschen auf Menschen.
In einer Präsentation schränkt er die „legalen“ Zielmöglichkeiten deshalb
für autonome Kampfsysteme ein (Folien 15 und 16). Ein Feind hätte dann
laut Canning die Option, im Angesicht eines angreifenden Roboters die
Waffen zu strecken und abzuhauen und damit in Sekundenbruchteilen in die
Klasse der unethischen Ziele überzuwechseln. Wo ein menschlicher Soldat in
der Hitze des Gefechts draufgehalten hätte, würde der Roboter eine
humanere Kriegführung wählen.
Das ist doch mal was. Im Vietnamkrieg hat man sich mit solchen
Überlegungen noch nicht aufgehalten.
Bei so viel Humanismus auf dem Schlachtfeld bleibt nur zu hoffen, dass die
US-Armee keinen Deal mit Microsoft abschließt, das Betriebssystem für das
künstliche Gewissen zu entwickeln – Bill Gates hat ja erst kürzlich im
Scientific American bekräftigt, dass Roboter das nächste große Ding nach
dem PC sind. Denn mal ehrlich: Kann sich jemand vorstellen, dass „Robotics
Studio“ in einer Version „3.0 mil“ je einen Schulbus von einem
Terroristenjeep unterscheiden könnte?
---------------------------------------------------------------------
To unsubscribe, e-mail: infowar -
de-unsubscribe -!
- infopeace -
de
For additional commands, e-mail: infowar -
de-help -!
- infopeace -
de