Die Magie der Ethikbremse

Auf Google Plus entstehen immer wieder nette Diskussionen auf dem Niveau derer des Usenet damals, was wahrscheinlich daran liegt, dass meine Filterblase hauptsächlich aus alten Usenet-Veteranen besteht. Diese Diskussionen sind also nicht zwangsläufig nett, sondern eher zwangsläufig nerdig. Zum Google-Auto gab es eine große Medienkritik, und wie zu jeder Diskussion um autonome Autos stellte sofort jemand die Frage nach der „Ethikbremse“, wie sie Kristian Köhntopp nannte. Normal intelligente Menschen gehen statistisch bemerkenswert gehäuft davon aus, dass ein Autonomobil moralische Entscheidungen treffen kann, wird, ja: muss. Diesen Sachverhalt legte ich wie versprochen bei Daimlers zweiter Diskussionsrunde „Future Talk“ Experten vor, bei der es um Mensch-Maschine-Kommunikation im Kontext „autonome Fahrzeuge“ ging.

Martina Mara dirigiert Drohne
Martina Mara vom Future Lab Linz demonstriert an einem Quadkopter Mensch-Maschine-Kommunikation über Gesten (Mensch) und farbige Lampen (Maschine).

Die vorherrschende erste Reaktion war Unverständnis. Wer sich in der Praxis mit Unfallhergängen beschäftigt, sieht aus den Daten, wie klein das Zeitfenster ist. Entscheidungen in diesen Zeitfenstern sind sehr schlicht, weil sie sehr schnell passieren müssen. Meistens geht es primär darum, so viel Energie abzubauen wie noch möglich. Das ist eine einfache Entscheidung, die auf absehbare Zeit, teilweise schon heute eine Maschine schneller und damit besser umsetzen kann als ein Mensch. Eine Bewertung der Lebenswertigkeit von Menschen kann nicht einmal ein Mensch mit aller Zeit der Welt vornehmen. Ein automatisches System versucht es deshalb erst gar nicht. Beispiele von Ethikbremsen verwenden daher gerne Mengen, weil die einfacher sind. Ein voller Schulbus versus ein einzelner Mensch in einem Kleinwagen. Sowas.

Der Glaube kann Berge versichern

Diese Situationen sind allerdings auch nur so lange leicht, wie sie theoretisch bleiben. Im konkreten Fall kann es durchaus sein, dass der Schulbus die Variante ohne Opfer werden würde, während der Kleinwagen-Insasse durch die Art des Aufprallwinkels in Verbindung mit seinem Griff zum Kaffee verstirbt. Andere Denkschulen der Ethikbremse glauben, dass Autos dann Versicherungspolicen nachschlagen, um den billigsten Unfall zu wählen. Das operative Wort hier ist „glauben“, denn in den ersten zehn Generationen solcher Autos sehe ich die Zeit nicht, schnell noch Tarife nachzuschlagen. Schon die rein mechanisch-hydraulische Reaktionszeit einer Bremsanlage liegt bei einigen Dutzend ms.

Ein Werksleiter demonstriert diesen neuen, leichten Kuka-Roboter, der durch Kraftsensoren fühlen kann. Er lässt sich vom Menschen führen. Aber er hat keine Ethikbremse, sondern ist rund. Das ist die sinnvollere Verletzungsprävention.
Ein Werksleiter demonstriert diesen neuen, leichten Kuka-Roboter, der durch Kraftsensoren fühlen kann. Er kann die Rastungen fühlend Kupplungen montieren und lässt sich vom Menschen führen. Aber er hat keine Ethikbremse, sondern ist rund. Das ist die sinnvollere Verletzungsprävention.

Wie weit letztendlich ethische Überlegungen in der Auslegung der Roboterautos in ferner Zukunft gehen, ist von heute aus nicht zu extrapolieren. Was mich an der ganzen Diskussion stört, ist die Ebene, auf der sie stattfindet, denn das ist die Ebene des Einzelfalls. Es ist letztendlich nämlich unwichtig, wie das Beispiel mit dem Schulbus und dem Kleinwagen ausgeht, denn je konstruierter das Beispiel, umso unwahrscheinlicher ist die Realität ihres Eintreffens. Ein Autonomobil muss sich nicht am Stauende hinter einer Autobahnkurve zwischen verschieden besetzten Fahrzeugen entscheiden, denn es weiß lange vorher, dass sich dort ein Stau gebildet hat. Es kann Kilometer vorher bremsen oder die Autobahn verlassen. Und bei in Zehntelsekunden eintretenden Unfällen gibt es eh praktisch keine Entscheidungsoptionen. In der Realität ist die Ethikbremse irrelevant. Sie existiert nur in weitestgehend ziellosen Diskussionen. Relevant ist nur, ob autonome Autos unser Leben insgesamt besser machen.

Fassadenverpixler, die Facebook-Lebensereignisse nachtragen

Die Ebene, auf der die Diskussion sinnvoll wird, ist deshalb die der Gesellschaft: Wird unsere Lebensqualität mit autonomen Autos höher als ohne? Fast alle Datenpunkte sprechen dafür. Wir erhalten mehr Sicherheit, mehr Vorhersehbarkeit, mehr Effizienz und vor allem mehr Bequemlichkeit, diesen größten Treiber jeden Fortschritts. Wir bezahlen das hauptsächlich durch noch mehr Datenerhebung, aber wenn ich sehe, wie selbst Fassadenverpixler ihre „Lebensereignisse“ auf Facebook aufwendig von Hand nachtragen, fällt es mir schwer, darin einen echten Dämpfer der Entwicklung zu sehen.

Die Frage, die ich daher in der Folge spannend fand: „Wieso ist die Ethikbremse so zentral in der Diskussion um das autonome Auto?“ Die Antwort der Experten aus der Forschung und Entwicklung bei Daimler waren drei Mal prinzipiell gleich: Weil die meisten Leute nicht verstehen, worum es geht. Am eloquentesten hat es Alexander Mankowsky formuliert, wahrscheinlich, weil er so viel und gern redet: „Die meisten Menschen verstehen Technik nicht, vor allem verstehen sie keine Algorithmen. Aus diesem Unverständnis sprechen sie Maschinen magische Eigenschaften fernab der Realität zu, wie zum Beispiel die Fähigkeit, in Millisekunden den Wert von Menschen und den zukünftigen Verlauf des Unfalls zu errechnen. Das autonome Auto wird dadurch in der Vorstellung regelrecht dämonisch.“

Alexander Mankowsky zeigt einen (tatsächlich kompilierenden) Algorithmus. Wahrscheinlich vergeblich.
Alexander Mankowsky zeigt einen absichtlich leserlich geschriebenen Algorithmus — wahrscheinlich vergebens.

Für Neugierige gibt es deshalb einen einfachen Weg, die Ethikbremse zu lösen: Information. Jede Maschine verliert ihre dämonische Aura im selben Maße, wie das Verständnis über sie steigt. Neugierige müssen sich jedoch damit abfinden, dass die Mehrzahl der Menschen nicht besonders neugierig ist. Aber das ist egal, denn bequem sind wir alle, und Bequemlichkeit wird letztendlich dafür sorgen, dass Roboter in alle Lebensbereiche vordringen, nach der Industrie jetzt in den Verkehr. Ich selber möchte auch die Bequemlichkeit bemühen und mich hiermit aus den stets ziellosen Ethikbremsen-Diskussion zurückziehen. Liebe Mitbequemen: Wir sprechen uns wieder, wenn dich dein Auto bei Wein und guter Literatur sanft, zügig und sicherer als jemals nach Hause bringt. Das kann uns als Gesellschaft die eine oder andere von Maschinen getötete Busladung Kinder wert sein, denn sind wir mal ehrlich: Ohne Maschinen töten wir viel mehr.

Dr. Kohler sieht nicht so aus, ist aber eine coole Sau. Sein Schlusswort ist das pragmatische: „Wir denken da alle viel zu kompliziert. Die echten Lösungen werden viel einfacher sein.“
Dr. Kohler sieht nicht so aus, ist aber eine coole Sau. Sein Schlusswort ist das pragmatische: „Wir denken da alle viel zu kompliziert. Die echten Lösungen werden viel einfacher sein.“

Bilder: Daimler

Kommentare:

ältere
  • Frank Kemper meinte am 18. Juli 2014 um 22:36:

    Für mich ist die Ethikbremse ganz simpel: Wer wird zur Verantwortung gezogen ( und ggfs. bestraft), wenn das von mir benutzte autonome Auto einen Unfall baut, bei dem ich und/oder andere verletzt werden? Im Moment machen es sich alle Autohersteller und der Gesetzgeber furchtbar einfach: selbst wenn das Auto alles automatisch machen kann, ist der Fahrer dafür verantwortlich, dass es alles richtig macht. Wenn der neue Golf mit Parkassistent beim Einparken den Hintermann anrempelt, haftet nicht VW, sondern ich.

    Bei längeren Autofahrten wäre es jedoch ein Gräuel, wenn ich einerseits zur Untätigkeit verdammt wäre, andererseits aber meine Aufmerksamkeit nicht anderen Dingen zuwenden dürfte, weil ich immer darauf aufpassen muss, dass mein Auto alles richtig macht. Bei Piloten großer Passagierjets hat man überdurchschnittlich häufig Depression und Alkoholismus festgestellt – und dafür diesen Mix aus großer Langeweile und jederzeit abrufbarer Verantwortung verantwortlich gemacht.

    Für mich ist ein autonomes Auto erst dann eine Überlegung wert, wenn es so gut funktioniert, dass ich mich blind drauf verlassen kann, so blind, dass es sogar für meine Versicherung okay ist, wenn ich mein Hirn auf Idle stelle, während die Karre die Kasseler Berge durchmisst.

    Angesichts des allgemein superlausigen Performance-Levels, das so ziemlich alle derzeit verfügbaren Google-Services zeigen (oder hast du schon mal eine Google-Translation gesehen, die auch nur näherungsweise okay war) halte ich es für ziemlich gewagt, in näherer Zukunft von Google ein Auto ohne Lenkrad zu erwarten, in das ich mich freiwillig reinsetzen würde.

    • Clemens Gleich meinte am 19. Juli 2014 um 20:44:

      Daimlers Chefentwickler für autonome Fahrzeuge will ja, dass der Hersteller haftet. Wäre ein möglicher Weg, vor allem zu Anfang, um Vertrauen zu schaffen.

  • Volker meinte am 20. Juli 2014 um 10:35:

    Hallo Clemens!

    Wie kommst Du eigentlich auf die (zugegeben: implizit vorgetragene) Idee, die Treiber des autonomobilen Fortschritts hätten „mehr Sicherheit, mehr Vorhersehbarkeit, mehr Effizienz und vor allem mehr Bequemlichkeit“ im Sinn, wenn sie forschen, konstruieren, bewerben und vermarkten? Hier gehts um Geld, hinter dem Feigenblatt der Umweltfreundlichkeit (die E-Lüge), der Sicherheit (die ganzen Fahrassis, Stichwort „Risikokompensation“) und natürlich den effizient-dynamischen Fahrspaß am Fahrerlebnisplatz.

    Folgerichtig ist die Ethikbremse ebenfalls finanziell motiviert. Man fürchtet kostspielige Fehlleistungen des Systems, die nach Gefahrenübergang am Hersteller kleben bleiben. Gaaaanz alte Beispiele: Der Elchtest. Abhebende Audi TT. Daher wirds wohl erstmal nix mit dem autonomen Fahren und wir bleiben bei graduellen Verbesserungen dessen, was man heutzutage wohl noch schmeichelhaft als „betreutes Fahren“ bezeichnen könnte.

    Auch wenn es vielleicht tatsächlich irgendwann mal einen Haufen KI geben könnte, der – pardon, ich bemühe wild alle Klischees, die gerade zu Hand sind – dem am Handy quatschenden, nebenbei in die Leberkassemmel beißenden SUV-DINK in seiner vorsätzlichen Unaufmerksamkeit das Wasser reichen könnte. Es reicht ein autonomes Hoppala und dann trifft man sich vor Gericht wieder. So wie es heute schon der Fall ist, wenn man nicht zu jeder Tages- und Nachtzeit, mit der ollsten Mühle und als bewegungslegasthenische Schlaftablette die höchstzulässige Geschwindigkeit fahren kann und deswegen verunfallt.

    Wenn nicht nur die Chefentwickler sondern auch die Rechtsbteilungen der Automobilkonzerne kein Problem mit der diesbezüglichen Haftungsübernahme und die Werbeabteilung ein Marketingmittel für freiwillige Kontrollaufgabe gefunden haben, dann los! Viel schlimmer mit der Blechlawine als im Moment kann es ja eigentlich nicht werden.

    Ciao,
    Volker

  • Clemens Gleich meinte am 20. Juli 2014 um 13:16:

    Ich komme auf diese Idee, weil sich Bequemlichkeit am allerleichtesten zu Geld machen lässt. Ein vager „Nutzen“ ist schon viel schwieriger. Aber das muss ich Dir als Verschlüsselungsentwickler ja ned erzählen.

  • Frank Kemper meinte am 22. Juli 2014 um 14:17:

    Bequemlichkeit ist es nicht allein. Die Tatsache, dass mit Google ein Unternehmen bei dem Thema weit vorn ist, das mit Automotive eigentlich nichts zu tun hat, zeigt, dass es auch um neue, eventuell disruptive Geschäftsmodelle geht. Derzeit liegt der Anteil des E-Commerce am gesamten B2C Commerce bei rund 18 Prozent. Bedeutet im Gegenschluss: Vier von fünf Sachen werden immer noch ganz oldfashioned gekauft – Kunde geht in Laden und holt Sachen ab.

    Wenn – was Firmen wie Google und Amazon ganz fest im Visier haben – der stationäre Kauf bald vom Regel- zum Ausnahmefall wird, dann werden die Anforderungen an die Logistik explodieren. Nicht nur, dass dann die Zahl der Auslieferungen explodiert, sondern auch die Konkurrenz unter den Logistikkanälen. Wenn alle kostenlos mit DHL liefern, muss man sich schon etwas Besonderes einfallen lassen. Man stelle sich einmal vor, Volker sucht im Netz nach einem neuen Motorrad – und erhält den Vorschlag, er könne es sich ja mal live ansehen. Er klickt auf den „Ja, warum nicht?“-Button, und ein Google-Auto setzt sich in Bewegung, um ihn zuhause abzuholen und zum Händler zu fahren. Während er zum Händler gebracht wird, kann sich der Verkäufer ja schon mal per Video Conference mit ihm unterhalten. Wenn man mal die Betriebskosten eines elektrischen, fahrerlosen Autos mit denen eines mit einem Fahrer bemannten Benzin-Taxi vergleicht, dann ist da schon Musik drin. In solchen Anwendungsfällen wäre es auch nicht weiter verwerflich, wenn Google wüsste, von wo Volker wohin gebracht wurde, denn das ist dann ohnehin klar.
    Allein: Das muss bulletproof funktionieren, und zwar so was von. Und das sehe ich nicht, solange keine absolut gigantischen Unsummen aufgebracht werden, um die Welt Autonom-Auto-tauglich zu machen.

  • Dominik meinte am 6. August 2014 um 19:20:

    Gude,

    ich möchte deinem Artikel generell zustimmen, aber ich habe weiterhin ein Problem mit der wohl zwangsläufig auftretenden Unfallkombination Autonomobil vs. klassisches Automobil. Selbst wenn der für Autonomobile Optimalfall eintritt und wie von Mercedes gewünscht der Hersteller die Haftung übernimmt: Ich möchte nicht in der Haut des gegnerischen Fahrers stecken. Seine Versicherung müsste sich jetzt mit Daimler streiten. Hat die Versicherung darauf überhaupt Lust, und wenn ja welche Chancen hat sie?
    Vermutlich entsteht in dieser Situation ein Automatismus: Mensch ist schuld. Ich gebe zu: Es wird meistens stimmen. Aber was wenn nicht? Kann und wird das überhaupt auffallen?
    Mein Punkt ist folgender: Wenn wir an dem Punkt ankommen, dass alles soweit vorbereitet ist und Daimler ernst macht, also Autonomobile mit Herstellerhaftung frei verkauft, wird dann noch ein ehrliches Bugfixing möglich sein? Es ist ja immer automatisch der Mensch schuld, das ist ja geradezu die Prämisse fürs System. Zugeben, dass er nicht schuld war, kann man auch in keinem Fall, sonst geht das Autonomobil wieder den Image-Bach runter.

    Alles lösbare Probleme mittels full and open disclosure, usw. Die Frage ist obs auch so kommt – ich bin halt Pessimist.

    • Clemens Gleich meinte am 7. August 2014 um 10:31:

      @Dominik: Ich denke, dass es wie immer sehr praktische Wege geben muss, wie man mit sowas klarkommt. Ich gehe zum Beispiel davon aus, dass in der Anfangszeit noch menschliche Operatoren bei den Fahrzeugfirmen arbeiten, die den Maschinen ferngesteuert kurz weiterhelfen, wenn sie mit ihrem Latein am Ende sind. Und zur Schuldfrage: Autonome Autos müssen so viele Daten erheben, dass sich die Schuldfrage besser klären lässt. Vor Gericht muss man diese Daten vorlegen, und weil sie an vielen Stellen erhoben werden, ist ein Fälschen recht risikoreich. We will see…

  • richie meinte am 3. Juli 2016 um 0:46:

    gut. Danke. Bist zu recht in meiner 😉

  • richie meinte am 3. Juli 2016 um 0:47:

    Bubble sollte da stehen

  • richie meinte am 3. Juli 2016 um 1:20:

    Die meisten Menschen verstehen Technik nicht, vor allem verstehen sie keine Algorithmen.

    Sollte es wirklich jemals zum Einsatz von KI kommen, wird es keine Algorithmen mehr geben. Dann ist es auch nicht mehr notwendig, dass Menschen Algorithmen verstehen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.