Jump to content

Politische Diskussionen sind hier nicht OT


Sir Doudelzaq
 Share

Recommended Posts

Was ist an Drohnen schlimmer als an anderen Waffensystemen?

Auf den Lag wurde ja schon hingewiesen. Wenn man Drohnen für mehr als Bombardierung einsetzen will braucht man entweder eine schnelle Verbindung, also jemanden in der Nähe der die Rechenkapazität und Entscheidungsfindung übernimmt, oder autonome Geräte.

In Shadowrun kann man dumme Drohnen-Pilot-Soft als Running Gag einsetzen, im realen Leben wird das schnell nicht mehr so lustig.

Das selbstfahrende Auto das einen Fußgänger umnietet sorgt ja auch deshalb für weltweite Aufregung weil es das autonom getan hat.

Autonome Killerdrohnen sind auch nicht durch Zufall ein Motiv in dystopischer Science Fiction, das ist ein ziemliches Gefahrenpotential.

Und nicht zuletzt weil es "Künstliche Intelligenz" nicht gibt, es gibt neuronale Netzwerke in Verbindung mit Lohnsklaven die sie trainieren (oder auch mal ersetzen). Und die Fähigkeiten dieser neuronalen Netze hemmungslos überschätzt werden.

 

Autonome Systeme geben dann nochmal eine extra Schicht an Nichtverantwortung. Die Afghanischen Hochzeitsgesellschaften werden aktuell noch direkt aus Ramstein bombardiert, da entscheiden echte Menschen an Hand von Videoaufnahmen ob die gezeigten Menschen getötet werden. Was liegt da näher als diese belastende Entscheidung "dem Algorithmus" zu geben?

  • Like 4
Link to comment
Share on other sites

@Sam Stonewall: Darauf habe ich bereits in meinem letzten Beitrag zu dem Thema angespielt, als ich von höheren Kosten und höherem Risiko bei bemannten Missionen sprach. Und dass die Hemmschwelle für militärische Einsätze sinken könnte, wenn kein Risiko für menschliche Verluste auf der eigenen Seite besteht, ist durchaus ein Argument.

 

Dennoch bin ich nicht sicher, dass es ein besonders schwer wiegendes Argument ist. "Wie können wir das Risiko reduzieren, dass unsere Leute umgenietet werden, wenn es ernst wird" ist eine vollkommen legitime Überlegung, die man vom eigenen Militär erwartet und voraussetzt. Künstlich sicherzustellen, dass eigene Soldaten in Gefahr sind, um unnötige Gewalt zu vermeiden, ist meiner Ansicht nach der falsche Ansatz. Die Hemmschwelle muss ins Spiel kommen, wenn es um potenzielle zivile Opfer, nicht eigene militärische Opfer geht.

 

Und an der Stelle noch ein schneller allgemeiner Rant in Bezug auf Deutschland: Ich bin absolut kein Freund der Entscheidung des Bundesverfassungsgerichtes, die Auslandseinsätze überhaupt erst ermöglicht. Weil sie meiner Meinung nach schlicht eine Umgehung des Grundgesetzes aus pragmatischen Erwägungen darstellt. In Deutschland täte es uns gut, eine ehrliche Debatte darüber zu führen, wie wir unsere militärische Rolle in der Welt sehen. Wenn wir das GG ernst nehmen, dürfte die Bundeswehr eigentlich nicht ausserhalb unserer Grenzen operieren, und daran sollten wir uns verdammt nochmal halten.

Und wenn wir der Meinung sind dass das überholt ist, sollten wir legislativ nachziehen und ehrlich damit umgehen. Die schizophrene Haltung unseres Landes in dieser Frage geht mir seit dem ersten Somaliaeinsatz auf den Sack.

 

@slowcar: autonome Systeme sind ein eigenes Thema. Und meiner Ansicht nach eine Entwicklung, unbedingt verhindert werden muss.

Edited by BruderLoras
  • Like 3
Link to comment
Share on other sites

autonome Systeme sind ein eigenes Thema. Und meiner Ansicht nach eine Entwicklung, unbedingt verhindert werden muss.

 

Je nach Zielauswahl/auftrag und Art der Drohne: nein, auch um Soldaten und Zivilisten zu schützen. Auch hier ist die entscheidende Stelle der politische Dienstherr, der eine Grundsatzentscheidung fällen muß, ob Situation X generell einen Automatismus Y erlaubt. Und davon gibt es durchaus einige.

 

Was eine ehrliche Wiedergabe der realen Einsätze im Rahmen des Grundgesetztes angeht, stimme ich zu. Wir leben in einer komplizierten, vernetzten Welt, humanitäre Interessen (genau wie wirtschaftliche etc) können in der Tat weltweit mit Deutschland verwoben sein.

 

SYL

Edited by apple
Link to comment
Share on other sites

@slowcar: autonome Systeme sind ein eigenes Thema. Und meiner Ansicht nach eine Entwicklung, unbedingt verhindert werden muss.

Bei der Verhinderung stimme ich Dir zu. Beim eigenen Thema nicht, Drohnen sind Voraussetzung für autonome Systeme und gleichzeitig auch Anforderungstreiber.

Drohneneinsatz bei totaler Überlegenheit, wie bei vielen aktuellen Konflikten, ist das eine. Da kann man ein Kontrollflugzeug über Sichthöhe fliegen lassen und hat einen deutlich geringeren Lag.

Aber was ist bei gleichwertigeren Gegnern? Ohne Luftüberlegenheit kann man den Kontrollflieger vergessen, das beschränkt Drohnen dann auf Einsätze die nicht durch Verzögerung beschränkt werden, eben Bombardierungen o.ä.

Ich sehe da einen großen Anreiz für autonome Entscheidungssysteme. Und im Zweifelsfall wird gemacht was technisch möglich ist, wenn nicht von den USA dann vielleicht von Russland oder China.

Wie autonom eine Cruise Missile jetzt schon fliegt weiß ich auch gar nicht genau, kann mir gut vorstellen dass die schon einiges an "KI" mitbringt - aber auf ein Ziel abgefeuert wird sie bislang vom Menschen.

  • Like 1
Link to comment
Share on other sites

Wie autonom eine Cruise Missile jetzt schon fliegt weiß ich auch gar nicht genau, kann mir gut vorstellen dass die schon einiges an "KI" mitbringt - aber auf ein Ziel abgefeuert wird sie bislang vom Menschen.

 

Ziemlich autonom, wenn notwendig. "Smart" im Sinen einer KI allerdings nicht. Es folgt einem vorprogramierten Wegemuster und gleich dies mit GPS Daten ab. Sensorensysteme und Taktikvorgaben geben Flughöhe, Ausweichmanöver und den letzten Zielanflug vor. Das ist aber konzeptional schon seit den ersten ICBMs und Lenkraten so, nur halt weiterentwickelt. Wenn es um autonome Systeme geht, meint man damit eher Zielerkennung, Zielidentifizierung und dann die Entscheidung, was genau gemacht wird.

 

Und da unterscheidet es sich prinzipiell eben nicht zb von den Weichen-Entscheidungsfällen für das Autonome Fahren in Deutschland, wofür der Bund ja Grundrahmen/Bedingungen bereitstellen möchte. Wenn die politische Führung so skrupellos ist und einer KI befiehlt "Mach mal Planquadrat X sauber" oder "Wir nehmen absolut in Kauf, daß es 20% Fehlerkennung und damit Kollateralschaden gibt", dann ist diese politische Führung auch so skrupellos und sagt dies zu den eigenen Piloten. Uund da die Piloten heute höchst selten Individuen erkenen, sonder auf Koordinaten, Zielvorgaben und äußerst grobe Eindrücke angewiesen sind, werden Kollateralschäden meist auch erst hinterher erkannt.

 

Das Ergebnis ist das gleiche.

 

SYL

Link to comment
Share on other sites

Die Entscheidung über Leben und Tod einem autonomen Computersystem zu überlassen kommt mir auf einer grundlegenden Ebene absolut falsch und nicht zu rechtfertigen vor. Ich schau mal, ob ich das auch noch ein wenig rationaler formuliert kriege.

  • Like 1
Link to comment
Share on other sites

Deine Sichtweise ist verständlich und nachvollziehbar - sie wird aber so oder so kommen (und wahrscheinlich verspätet in Deutschland, weil #Neuland).

 

Für das Autonome Fahren muß *zwangweise* eine Lösunge gefunde werden. Schon rein prorammtechnisch, aber auch rechtlich und versicherungstechnisch wird eine gesellschaftlich akzeptierte und politisch sanktionierte Lösung gefunden werden müssen, wenn man autonomes Fahren haben möchte).

 

Und der gleiche philosophische Grundsatz wird dann auch die Grundlage für das KI-Training von

 

81vn6loxOrL._AC_SL1500_.jpg

 

sein.

 

Damit wirst Du KI-Autonomie nicht stoppen. Wenn überhaupt, dann eher mit Argumenten wie "Bodenstation" kann gehackt werden".

 

Und ehrlich gesagt: ich mache mir weniger um die Todeszahlen von Unschuldigen durch militärische Kamfpdrohnen Sorgen, als um autonomie KI-Agenten, die meine Versicherungspolice bestimmen. DAS wird nämlich direkt und indirekt für dramatisch mehr Tote weltweit sorgen als der T800.

 

SYL

Edited by apple
Link to comment
Share on other sites

Autonome Systeme geben dann nochmal eine extra Schicht an Nichtverantwortung. Die Afghanischen Hochzeitsgesellschaften werden aktuell noch direkt aus Ramstein bombardiert, da entscheiden echte Menschen an Hand von Videoaufnahmen ob die gezeigten Menschen getötet werden. Was liegt da näher als diese belastende Entscheidung "dem Algorithmus" zu geben?

 

@slowcar: autonome Systeme sind ein eigenes Thema. Und meiner Ansicht nach eine Entwicklung, unbedingt verhindert werden muss.

 

 

Das sehe ich ganz genauso. Die Frage ist nicht autonome Drohnen sondern bewaffnete Drohnen.

 

 

 

Die Afghanischen Hochzeitsgesellschaften werden aktuell noch direkt aus Ramstein bombardiert ...

Das ist kein realistisches Szenario für den Einsatz von deutschen Drohnen. Das ist Teil der amerikanischen Doktrin im Kampf gegen Terror. Quasi staatlicher Terrorismus/Anschläge auf bestimmte Personen. Das ist aber keine Frage von Drohnen oder nicht Drohnen sondern von den Einsatzparametern. Und diese werden im Bundestag festgelegt. Diese Entscheidung trifft weder ein Drohnenpilot noch ein Soldat vor Ort.

 

Aber ja ... offensichtlich wirkt das Bild, dass in diversen Terror-Thrillern gezeichnet wird. Die bewaffnete Drohne als Killerdrohne, die durch die Gegend fliegt um unschuldige Hochzeitsgäste zu töten.

 

Ich zeichne mal ein imho realistischeres Bild: Die Bundeswehr-Patrouilie gerät in einen Hinterhalt bewaffneter Milizen und ruft nach Unterstützung. Nach Minuten ist eine bewaffnete Drohne vor Ort und liefert Feuerunterstützung.

Die Alternative ohne die Drohne  wäre das lebensgefährliche ausharren bis Verstärkung eintrifft. Der Artillerieschlag (vermutlich ob der Genauigkeit für die Soldaten ebenso gefährlich) oder ein Hubschrauber/Kampfflugzeug Einsatz.

 

 

 

Autonome Killerdrohnen ...

 

 

Sehr dramatisch. Warum nicht Killer-Panzer, Killer-Gewehre oder gar Killer-Menschen?

 

 

Link to comment
Share on other sites

Ich sehe da einen großen Anreiz für autonome Entscheidungssysteme. Und im Zweifelsfall wird gemacht was technisch möglich ist, wenn nicht von den USA dann vielleicht von Russland oder China.

Wie autonom eine Cruise Missile jetzt schon fliegt weiß ich auch gar nicht genau, kann mir gut vorstellen dass die schon einiges an "KI" mitbringt - aber auf ein Ziel abgefeuert wird sie bislang vom Menschen.

Sehe ich überhaupt nicht. Auch autonome Autos werden niemals autonom entscheiden, wohin ich fahre. Das wird immer von mir entschieden werden. Den kürzesten/schnellen Weg darf das autonome System dann ruhig auswählen.

Link to comment
Share on other sites

Hiho,

@Corpheus

zum letzten Post. Der Zielort ist auch nicht das Problem des autonomen Fahrens, sondern das sie selbst nicht zur Gefährdung anderer beitragen.

Eine Cruise Missile ist erstens eine Waffe (ein Auto nicht), muss damit auch anderen Standards genügen (militärischen nicht zivilen) und gefährdet weniger Menschen auf ihrem Weg (Menschen fliegen im allgemeinen nicht einfach so in der Luft). D.h. meiner Meinung nach ist der Vergleich wirklich schlecht.

 

zum vorletzten Post.

Ich kann dein Argument schon nachvollziehen. Es gilt allerdings nur für nicht-autonome Drohnen, wie du gesagt hast.

Eine Waffe bleibt eine Waffe, egal wie "kompliziert" sie ist, solange sie jemand "abfeuert" ist derjenige verantwortlich.

 

Allerdings dein Beispiel verstehe ich nicht. Bestimmt wirklich der Bundestag die Einsatzdoktrin für bestimmte Waffensysteme? Oder doch eher die übergeordneten Einsatzziel?

Dein Beispielvergleich stimmt mMn. damit auch wieder nicht. Es seien zwar unterschiedlich Bilder die du zeichnest, hat aber mMn. gar nichts mit deinem Argument der Waffe zu tun. Die Verantwortung für beide Szenarien trägt ja der Operator der Drohne, wie du sagst.

Was du mMn. ausser Betracht lässt ist, daß mit mehr Automatisierungsgrad auch gestiegene Sicherheitsanforderung gibt. Authentifizierung des Operators z.B., Hacking im Einsatz (hiho SR). Qualtiät der optischen Systeme, effektive Vorteile eine Drohne zu schicken, statt dem Hubschrauber voller GIs sind weitere Fragen?

Deine Aufzählung ist auch richtig: Autonome Killergewehre wären scary: wenn das G-36 auf einmal durch einen Fehler losballert weil es unbefugten Zugriff erkannt haben will. Autonome Killerpanzer genauso.

Mit (autonome) Killermenschen ziehst du aber das Bild, welches dein argument unterstreicht, selbst ins lächerliche. Ein Mensch ist etwas anderes, weil du den zu Rechenschaft ziehen kannst. Der ist Subjekt unserer Gesellschaftsordnung, eine autonome Drohne ist das nicht. Das ist ein gewichtiger Unterschied.

 

Grüße

Edited by SlashyTheOrc
  • Like 2
Link to comment
Share on other sites

Bestimmt wirklich der Bundestag die Einsatzdoktrin für bestimmte Waffensysteme? Oder doch eher die übergeordneten Einsatzziel?

 

Die politische und militärische Führung bestimmen die übergeordneten Ziele und Rahmenbedingungen. Wenn eine davon lautet "Zivilopfer sind zu vermeiden", ist das eine ganz andere Ansage als "zivilopfer sind nach Möglichkeit zu vermeiden". Im Endeffekt wird es vielleicht auf festgelegte Testszenarion für Falscherkennung kommen, so es heißt "nur wenn Drohne X mit Genauigkeit Y Testaufgabe Z erledigen darf", kann sie in bestimmten Szenarien autonom agieren. Bodenbombardierung wird wahrscheinlich lange nicht dazu gehören.

 

SYL

Edited by apple
  • Like 1
Link to comment
Share on other sites

Deine Aufzählung ist auch richtig: Autonome Killergewehre wären scary: wenn das G-36 auf einmal durch einen Fehler losballert weil es unbefugten Zugriff erkannt haben will. Autonome Killerpanzer genauso.

Mit (autonome) Killermenschen ziehst du aber das Bild, welches dein argument unterstreicht, selbst ins lächerliche. Ein Mensch ist etwas anderes, weil du den zu Rechenschaft ziehen kannst. Der ist Subjekt unserer Gesellschaftsordnung, eine autonome Drohne ist das nicht. Das ist ein gewichtiger Unterschied.

 

 

Ich befürchte wir haben da aneinander vorbeidiskutiert. Ich habe das "Killer" auf die Drohne allgemein bezogen... du beziehst das auf "autonome Drohnen". Meine Bedenken gegenüber autonome Drohnen sind vermutlich genauso groß wie deine. Aber ich kann das Szenario mit den autonomen Drohnen nicht ganz nachvollziehen.

Was macht denn die KI konkret deiner Meinung nach für autonome Sachen? Entscheiden ob der Taliban auf der Hochzeit mit den Gästen exekutiert wird? Oder nur die Wahl der besten Flugroute und Ausweichmanöver usw.??

 

 

 

zum letzten Post. Der Zielort ist auch nicht das Problem des autonomen Fahrens, sondern das sie selbst nicht zur Gefährdung anderer beitragen.

Eine Cruise Missile ist erstens eine Waffe (ein Auto nicht), muss damit auch anderen Standards genügen (militärischen nicht zivilen) und gefährdet weniger Menschen auf ihrem Weg (Menschen fliegen im allgemeinen nicht einfach so in der Luft). D.h. meiner Meinung nach ist der Vergleich wirklich schlecht.

 

 

Vielleicht kannst du das Beispiel nicht nachvollziehen weil wir unterschiedliche Aspekte sehen. Mein Beispiel zielt auf autonome Entscheidungssysteme.

 

Die KI des autonomen Autos entscheidet nicht über das Ziel der Fahrt. Genauso wenig entscheidet die KI der Drohne über die Ziele. Das tun Fahrer bzw. im weitesten Sinn der Bundestag.

In beiden Fällen wählt die KI imho nur die beste Route, weicht Hindernissen aus usw ... in diesem Zusammenhang finde ich den Vergleich passend. Was ich nicht nachvollziehen kann, ist das Argument von autonomen Autos, die einen Fußgänger überfahren haben. Wie ist das auf die Drohne zu übertragen?

 

 

 

Allerdings dein Beispiel verstehe ich nicht. Bestimmt wirklich der Bundestag die Einsatzdoktrin für bestimmte Waffensysteme? Oder doch eher die übergeordneten Einsatzziel?

Dein Beispielvergleich stimmt mMn. damit auch wieder nicht. Es seien zwar unterschiedlich Bilder die du zeichnest, hat aber mMn. gar nichts mit deinem Argument der Waffe zu tun. Die Verantwortung für beide Szenarien trägt ja der Operator der Drohne, wie du sagst.

 

 

Nein. Die Verantwortung trägt nicht der Operator oder Drohnen-Pilot, sondern der Bundestag, der zb. gezielte Tötungen von Personen per Drohnen erlaubt. Und das ist in Deutschland (im Gegensatz zu USA) nicht realistisch. Und sollte es jemals dazu kommen, dann sind nicht die Drohnen das Problem sondern unser Wahlverhalten.

 

 

 

Was du mMn. ausser Betracht lässt ist, daß mit mehr Automatisierungsgrad auch gestiegene Sicherheitsanforderung gibt. Authentifizierung des Operators z.B., Hacking im Einsatz (hiho SR). Qualtiät der optischen Systeme, effektive Vorteile eine Drohne zu schicken, statt dem Hubschrauber voller GIs sind weitere Fragen?

 

 

Das sind gute und legitime Gegenargumente. Wie sicher sind denn derzeit Drohnen? Militärisch sind die imho unumstritten.

Link to comment
Share on other sites

Wie sicher sind denn derzeit Drohnen?

 

Die Taliban hackten Pretadordrohnen, weil diese unverschlüsselten Funk hatten.

 

Entscheiden ob der Taliban auf der Hochzeit mit den Gästen exekutiert wird?

 

Unter Autonomie versteht man derzeit 2 unterschiedliche Dinge im militärischen Bereich: eigenständiges Entscheidungen von Steuerbefehlen ("wie fliegen ich denn jetzt die Patrouille") und Zielerfassung/identifierung/bekämpfung. Und gerade Erfassung/Identifizierung sind derzeit die Knackpunkte.

 

SYL

Edited by apple
Link to comment
Share on other sites

Die Drohnen hatten keinen Verschlüsselungschip + Softwarefehler. Das Pentagon hat verlauten lassen, daß dies gefixt wurde (2009). Aka: ein recht fundamentaler Fehler im Konzept. Was 2020 der Stand ist? Nun, wahrscheinlich sind solche grundlegenden Fehler gefixt, andererseits hatten alle Geheimdienste und Cybercommands auch 20 Jahre Zeit, sich alles in Ruhe anzugucken. Es ist eines der Gründe, warum für einen 6th Generation Fighter immer nicht klar ist, wie die Besatzung aussieht: normaler Fighter, Drohne, oder Hybridsystem.

SYL

Edited by apple
  • Like 2
Link to comment
Share on other sites

Guest
This topic is now closed to further replies.
 Share

×
×
  • Create New...