Strategische Partnerschaften sind eine feine Sache: Sie klingen vielversprechend nach planvoller Entwicklung und gemeinsamen Perspektiven. Nun gibt es eine strategische Partnerschaft zwischen Google und mehreren Autoherstellern, darunter auch deutsche. Eine etwas einseitige „Partnerschaft”, denn Google sagt wo’s langgeht, was für unsere volkswirtschaftlich relevanten Autokonzerne ein echter Tiefschlag sein dürfte.
Wer also möchte, kann mitmachen: bei der Entwicklung digital gesteuerter, selbstfahrender Autos. Und wofür brauchen wir die? Natürlich für mehr Sicherheit.
„Dirty-Dozen”: der Mensch als schmutziger Störfall
Studienergebnisse aus Industrie und Luftfahrt kommen bereits seit langem zu dem Schluss, dass bis zu 80% aller Unfälle auf menschliche Fehler zurückgeführt werden können. Die häufigsten Fehlerursachen ergeben, vielleicht zugunsten des einprägsamen Wortbildes, ein glattes „Dirty Dozen” (mangelnde Kommunikation, mangelndes Teamwork, soziale Normen, Druck, Selbstüberschätzung, Mangel an Wissen, Mangel an Aufmerksamkeit, mangelnde Ressourcen, Ablenkung, Mangel an Durchsetzungsfähigkeit, Erschöpfung, Stress). Solche Fehlerursachen gibt es bei Maschinen nicht. Sie werden nicht müde, sie streiten sich nicht und sie lassen sich nicht ablenken.
Maschinen machen keine Fehler.
Maschinen sind perfekt. Also: Fast perfekt. Natürlich gibt es mal die eine oder andere Fehlfunktion. Und dann könnte es vielleicht vorkommen, dass das eine oder andere automatisch oder autonom gesteuerte, digital vernetzte Auto den einen oder anderen störenden Passanten überfährt.
Für das Opfer kommt zum körperlichen Schaden nun jedoch auch ein beleidigender Aspekt ins Spiel: Die Maschine hat genau genommen keinen Fehler gemacht. Denn, um „Fehler zu machen”, bräuchte sie einen willkürlichen bzw. willentlichen Handlungsspielraum, freie Entscheidungsgewalt, Schuldbewusstsein und vielleicht sogar die Fähigkeit zur Reue. So wird man zwar einräumen, dass die Maschine einer Panne unterlag, man wird sie jedoch moralisch nicht verurteilen. Man wird die Maschine reparieren und bald ist sie wieder auf der Straße.
Und was ist mit Gerechtigkeit?
Ich stelle mir also vor, ich werde von einem selbstfahrenden Auto angefahren und verliere dabei beispielsweise ein Bein. Der materiell erlittene Verlust wird natürlich vom Hersteller oder Betreiber des Autos ausgeglichen, vielleicht gäbe es dafür ja sogar einen Schadenfond aller an dieser Mobilität beteiligten Unternehmen.
Doch die erlebte Ungerechtigkeit des Schicksalsschlages bliebe unbehandelt und ungesühnt. Ich könnte mich nicht mit dem Gedanken trösten, dass der Fahrer Reue empfindet, vielleicht ebenfalls mit seinem Schicksal hadert. Und wie geht es dabei dem „Fahrer“, der hier ja nur ein Fahrgast war? Sagt der „Shit happens…” und das war’s?
Gerechtigkeit ist relativ. Das liegt in der Natur der moralischen und gesellschaftlichen Ordnung. In unserem Rechtsverständnis werden die Umstände des Schadens/Verbrechens und die Haltung des Verursachers/Täters in die Gerechtigkeitsfindung einbezogen. Es macht einen Unterschied, ob eine Tat versehentlich, vorsätzlich oder sogar ohne erkennbare Reue begangen wurde. Das gilt für Maschinen nicht: Keine Moral, keine Schuld, keine Reue – und in der Folge auch keine Gerechtigkeit. Das ist bedauerlich: für das Opfer eines Maschinenversagens.
In ein automatisches Auto steige ich deshalb nicht ein.
Ganz ehrlich: Da gehe ich lieber eine Partnerschaft mit einem betrunkenen Seemann ein und lasse mich von ihm chauffieren. Das bringt zweifellos Gefahren, hat jedoch einen weiteren beruhigenden Aspekt:
Der Seemann hängt an seinem Leben – ganz genau wie ich.