Warum Killerroboter verboten werden sollten, ehe sie eingesetzt werden

Edition Zukunft - A podcast by DER STANDARD - Fridays

Es gibt eine Gruppe von Menschen, die versucht uns vor Killerrobotern zu schützen. Ihr Problem? Fehlende Aufmerksamkeit und oftmals ein fehlendes Bewusstsein für die Tragweite des Problems. Menschen lassen sich tendenziell nämlich leichter für eine Sache gewinnen, die aktuell schon ein greifbares Problem darstellt, als für solche, die sich noch zu veritablen Problemen entwickeln werden. Deshalb wurde es zu lange verabsäumt der Klimakrise entschieden entgegenzutreten oder Soziale Medien rechtzeitig zu regulieren. Freilich ist es aber auch schwieriger Dinge einmal zu reglementieren, wenn diese schon im Einsatz sind. Ein gutes Beispiel sind Atomwaffen. Spätestens seit der Bombardierung von Hiroshima und Nagasaki weiß die Menschheit um ihre extreme Gefahr. Einmal im Einsatz lassen sie sich Staaten aber auch nur mehr sehr schwer wegnehmen, wie die in vielen Punkten vergleichbare Kampagne für ein Verbot von Atomwaffen immer wieder schmerzhaft lernen muss. Ein möglicher Ausweg aus diesem scheinbaren Dilemma ist die Ächtung. Die Ächtung einer ganzen Waffengattung nämlich. Und im Grunde ist es das, was die Kampagne für ein Verbot von Killerrobotern erreichen möchte. Die autonom agierenden Waffensysteme – die mit dem vereinfachenden Terminus Killerroboter beschrieben werden – seien nämlich gar kein Problem künftiger Generationen mehr, sondern ein reales und riesiges Problem der Gegenwart. Davor warnt Marit Seyer, die Obfrau der Österreichischen Kampagne für ein Killerroboter-Verbot, im Edition-Zukunft-Podcast. Wir müssen sie verbieten, bevor sie vielfach Unschuldige töten, so der Auftrag. Und sie müssten sozial geächtet werden. Am Weg zur vollen Autonomie Sieht man sich die zahlreichen internationalen Beispiele bestehender und bereits in Einsatz befindlicher halbautonomer Waffensysteme an, so lässt sich dieser Eindruck tatsächlich bestätigen. Die Technik wäre wohl bereits ausgereift, um Drohnen oder andere Waffen ganz autonom handeln und töten zu lassen. Vermutlich ist die Präzision aber noch nicht ausgereift genug, sodass man einen enormen Backlash im Falle eines Unfalls zu befürchten hätte. Noch zieren sich die Staaten also, Killerroboter einzusetzen, was noch ein kurzes Zeitfenster für eine etwaige Regulierung oder ein Verbot eröffnet. Dieses zu nützen, dazu will die globale Kampagne aus fast 200 Organisationen ihre jeweiligen Regierungschefs drängen. Seyer fasst die Kernbotschaft der Kampagne so zusammen: "Es geht darum, wer die Entscheidung trifft, ob ein Leben genommen wird. Das ist entweder der Mensch, der Mitgefühl hat und versteht welchen Wert menschliches Leben hat, oder es ist die Maschine, die von einem Algorithmus programmiert wurde und davon überhaupt keine Ahnung hat." Es ist der immer wieder angesprochene "human in the loop", der nach Ansicht der Aktivistinnen und Aktivisten eben keinesfalls aus der Tötungsschleife genommen werden dürfe. Ohne das dem Menschen inhärente schlechte Gewissen beim Töten, würde die Zahl solcher Angriffe drastisch steigen, glaubt auch Thomas Hajnoczi, ehemals Österreichs Botschafter bei der Uno in Genf und später Leiter des Referats für Abrüstungsfragen im Österreichischen Außenministerium. Dass gewisse Grade an Autonomie und KI bei Waffen heutzutage nun einmal dazugehören, wollen weder Seyer noch Hajnoczi bestreiten, es gehe aber um die berühmte rote Linie. Der Mensch bilde diese. Und das Argument von Befürwortern autonomer Waffen, wonach sie keine Fehler machen würden, wie das bei Menschen immer wieder der Fall ist, und dass dadurch menschliches Leid verhindert werden könnte, will Seyer nicht gelten lassen. Das genaue Gegenteil sei der Fall, die Fehleranfälligkeit zu hoch, die Gefahr dass Kinder mit Spritzpistolen oder jeder mit einem Turban angegriffen werde, oder auch dass es zu schlichten Verwechslungen sich ähnlich sehender Menschen komme, schlicht und ergreifend zu hoch, so die Obfrau.

Visit the podcast's native language site