Logo von heise online

Suche
Abonnieren

Tägliche Top-News bei WhatsApp, Facebook Messenger, Telegram & Insta

preisvergleich_weiss

Recherche in 1.508.171 Produkten

Ingvild Bode 200

Verhandlungen über Killerroboter in Genf

Verhandlungen über Killerroboter in Genf

Bild: pixabay.com

Am Sitz der Vereinten Nationen in Genf wurde diese Woche ein Thema diskutiert, das sich für große Teile der Öffentlichkeit nach wie vor wie Science-Fiction anhört: tödliche autonome Waffensysteme oder Killerroboter.

"Tödliche autonome Waffensysteme" (lethal autonomous weapons systems, LAWS) oder "Killerroboter" sind Waffensysteme, die nach der Aktivierung ohne weitere menschliche Einwirkung Ziele erfassen und bekämpfen könnten. Der potenzielle Einsatz dieser Waffensysteme wirft eine ganze Reihe an fundamentalen rechtlichen, ethischen und sicherheitspolitischen Fragen auf, über die bei den Vereinten Nationen in Genf diese Woche disktuiert worden ist: Könnten Killerroboter überhaupt jemals völkerrechtlich konform eingesetzt werden? Verletzt die Delegation der Tötungsentscheidung an Maschinen grundlegende Menschenrechte, wie beispielsweise die Menschenwürde? Verringert der potenzielle Einsatz von LAWS die Schwelle zur Gewaltanwendung, macht also den Einsatz militärischer Gewalt "billiger" und einfacher?

Anzeige

Das Thema LAWS wird schon seit 2014 informell bei den Vereinten Nationen diskutiert, aber vom 13. bis 17. November 2017 haben sich Regierungsvertreter zum ersten Mal in einem formellen Rahmen als Expertengruppe innerhalb der CCWUN zusammengefunden. Diese Entwicklung ist insbesondere auf das Engagement der Zivilgesellschaft zurückzuführen: Die 2013 gegründete Campaign to Stop Killer Robots, eine Koalition unterschiedlicher Nichtregierungsorganisationen, wie zum Beispiel Human Rights Watch, setzt sich für ein präventives Verbot solcher Systeme ein.

Bisher sind 21 Staaten, darunter Argentinien, Irak, Pakistan, Peru und Uganda diesem Appell gefolgt. Ein breiter Konsens für ein Verbot hat sich in der Debatte jedoch noch nicht abgezeichnet. Eine zunehmende Anzahl von Staaten haben sich aber für eine neue rechtliche Regulierung ausgesprochen. Trotzdem besteht noch keine Einigkeit darüber, wie sich die Staatengemeinschaft in Zukunft dem Thema widmen soll. Nicht zuletzt haben sich diejenigen Staaten, die am weitesten mit der Entwicklung von autonomeren Waffensystemen vorangeschritten sind, wie etwa die Vereinigten Staaten, China, und Russland nicht für eine neue rechtliche Regulierung solcher Systeme ausgesprochen.

Die Verhandlungen in Genf werden durch die technische Komplexität und den wandelnden Entwicklungsstand von LAWS verlangsamt. Um sich dem Thema systematisch anzunähern, hat der Vorsitzende der diesjährigen Debatte wieder eine große Anzahl Experten insbesondere aus den Bereichen Künstliche Intelligenz, Völkerrecht und Sicherheitspolitik eingeladen. Dieses Vorgehen wird teilweise kritisch gesehen: Immerhin diskutieren Regierungsvertreter schon seit 2014 über das Thema und grundlegende Fragen wurden bereits behandelt. Einige Vertreter hatten sich von der diesjährigen Diskussion eine sehr viel konkretere zwischenstaatliche Auseinandersetzung und weitere Schritte erhofft. Dennoch sind die Verhandlungen der Regierungsvertreter nach wie vor von Unsicherheit im Bezug auf wesentliche Aspekte gekennzeichnet, wie beispielsweise welche Merkmale tödliche autonome Waffensystems genau auszeichnen und ob Waffen mit solchen Charakteristiken bereits existieren oder jemals existieren werden.

Während sich die Diskussion über eine mögliche Regulierung auf der politischen Ebene nur langsam bewegt, schreitet die technologische Entwicklung schnell voran. In der öffentlichen Debatte wird der gegenwärtige Entwicklungsstand zunehmend autonomer Waffensysteme oftmals unterschätzt. Gleichzeitig werden die Entwicklungsmöglichkeiten "intelligenter" autonomer Waffensystem in der näheren Zukunft deutlich überschätzt. Die öffentliche Vorstellung von Killerrobotern bleibt eng mit dem Bild des "Terminators" verbunden.

Es ist aber fraglich, ob Militärs an der Entwicklung und dem Einsatz von LAWS, die ohne menschliche Beteiligung Entscheidungen treffen können, interessiert sind. Solche Systeme könnten grundlegenden militärischen Anforderungen an Kontrolle und Erwartungssicherheit nicht entsprechen. Es ist dabei hilfreich, sich die fortschreitende Entwicklung von Autonomie als ein Kontrollspektrum vorzustellen, auf dem sich Menschen immer weiter von der Tötungsentscheidung entfernen. Systeme, wie etwa der mit einem Maschinengewehr und Sensoren ausgestattete SGR-A1 Wachposten-Roboter (sentry gun), wurden bereits von Süd-Korea an der Entmilitarisierten Zone eingesetzt. Der SGR-A1 wird grundsätzlich von einem Menschen ferngesteuert, verfügt aber über die technischen Möglichkeiten auch autonom zu funktionieren. Auch die nächste Generation von Drohnen wird über deutlich weiter reichende autonome Fähigkeiten verfügen. Ein Beispiel ist hier die von Großbritannien entwickelte Kampfdrohne Taranis, die Medienberichten zufolge eigenständig nach möglichen Zielen suchen kann. Experten sind sich darüber einig, dass solche Systeme in nächster Zukunft eingesetzt werden. Die Entwicklung wird dabei häufig mit der zukünftigen Verbreitung selbstfahrender Autos verglichen, die vermutlich im Jahr 2025 flächendeckend eingesetzt werden.

Einige Staaten, wie etwa die Schweiz, haben in Genf die Betrachtung gegenwärtiger Waffensysteme hervorgehoben, um eine möglichst konkrete Diskussion zu ermöglichen. Dieses betrifft insbesondere die Frage, wie die Interaktion von Mensch und Maschine in Zukunft geregelt werden soll. Es hat sich Einigkeit darüber abgezeichnet, dass Maschinen immer menschlicher Kontrolle unterworfen sein sollen. Dieses gilt insbesondere für kritische Funktionen von Waffensystemen, also solche die sich auf die Zielauswahl und -bekämpfung beziehen. Wie genau menschliche Kontrolle ausgestaltet werden soll, bleibt dabei aber noch offen und lässt so Raum für verschiedenste Vorstellungen. In ihrem Abschlussbericht haben die Regierungsvertreter in Genf beschlossen, sich bei der Fortführung der Debatte im kommenden Jahr insbesondere mit den Charakteristika von Autonomie und der Interaktion von Mensch und Maschine zu beschäftigen.

Letztendlich stehen die folgenden Fragen im Zentrum der laufenden Debatte: Wie verändert die zunehmende Autonomie von Waffensystemen menschliche Entscheidungen in der Anwendung militärischer Gewalt? Wann sind Menschen so wenig in die Zielauswahl und -bekämpfung eingebunden, dass wir es als problematisch ansehen? Die Beantwortung dieser Fragen erfordert eine breitere gesellschaftliche Auseinandersetzung, die auch Regierungsvertretern dabei helfen könnte, rote Linien zu ziehen. Unabhängig vom Stand der technologischen Entwicklung könnte so eine Einigung darüber möglich sein, was die internationale Staatengemeinschaft nicht will: den Verlust menschlicher Kontrolle über die Entscheidung von Leben und Tod. (Ingvild Bode) / (ps)

200 Kommentare

Themen:

Anzeige
  1. Roboterwaffen brauchen Regeln – aber welche?

    Roboterwaffen brauchen Regeln – aber welche?

    In Berlin diskutierten Experten über autonome Waffensysteme: solche, die schon existieren und auch über solche, die es noch gar nicht gibt.

  2. Militärroboter: Wenn Terminatoren Terroristen jagen

    Terminator T-800

    Robotik und künstliche Intelligenz zum Vorteil der Menschen zu nutzen, das hoffen viele. Aber die Sorge, dass es auch anders kommen könnte, hat offenbar auch im militärischen Diskurs mehr Raum gewonnen.

  3. Horrorvideo soll Verbot autonomer Waffen voranbringen

    Horrorvideo soll Verbot autonomer Waffen voranbringen

    Ein Gremium der Vereinten Nationen berät in dieser Woche über ein mögliches Verbot autonomer Waffensysteme. Derweil versuchen Aktivisten mit einem Schockvideo für ein solches Verbot zu trommeln.

  4. FIfFKon16: Autonome Waffensysteme erlauben fehlerhaftes Töten

    FIfFKon16: Autonome Waffensysteme erlauben fehlerhaftes Töten

    Der Informatiker Hans-Jörg Kreowski warnt massiv vor selbständigen Killer-Robotern: Maschinen mit Entscheidungsverfahren über Tod und Leben auszustatten, sei "völlig pervers" und ethisch nicht vertretbar.

  1. Über das Verhältnis von Mensch und Maschine bei Killerrobotern

    In Genf suchen Experten nach der richtigen Haltung gegenüber autonomen Waffensystemen

  2. Autonome Kampfroboter: Wettrennen zwischen Ingenieuren und Diplomaten

    Um die Entwicklung autonomer Killerroboter zu verhindern, bleibt nicht mehr viel Zeit

  3. Sollte die Entwicklung von Sexrobotern verboten werden?

    Die Diskussion gleicht der über autonome Kampfroboter, die ebenfalls ein Scheingefecht darstellt

  1. Google veröffentlicht 3 Fotos-Apps: Storyboard, Selfissimo und Scrubbies

    Google veröffentlicht Fotos-Apps: Storyboard, Selfissimo und Scrubbies

    Google hat drei experimentelle Fotos-Apps für Android und iOS veröffentlicht. Die "Appsperiments" nutzen Techniken, an denen Google derzeit forscht. Bei allen Apps steht der Spaß im Vordergrund.

  2. Q#: Microsofts Development Kit für Quantencomputing mit eigener Programmiersprache und Simulator

    Q#: Microsoft stellt Preview seines Development Kit für Quantencomputing vor

    Mit der neuen, in Visual Studio integrierten Programmiersprache Q# will Microsoft Entwicklern die Programmierung von Quantencomputern vereinfachen. Die Preview des Quantum Development Kit steht ab sofort zur Verfügung.

  3. Im Test: Honda Civic 1.0 VTEC Turbo CVT

    Honda Civic 1.0 VTEC Turbo CVT

    Seit ein paar Monaten gibt es die zehnte Generation des Honda Civic auch hierzulande. Ein Test mit dem Basismodell zeigt, dass Honda der eigenwilligen Gestaltung der beiden Vorgänger weitgehend treu geblieben ist. Doch an mindestens einem Punkt muss nachgebessert werden

  4. Diversifikation: Aston Martin Project Neptune & Valkyrie

    Aston Martin designt ein U-Boot von Triton. Die technische Basis heißt 1650/3 LP und soll bis zu 500 Meter tief tauchen können. Inspiriert hat die Gestalter der Aston Martin Valkyrie, ein in seiner Gestaltung eigenwilliges Hypercar mit 1000 PS aus einem V12-Mittelmotor

Anzeige