Aufgrund des technischen Fortschrittes verkehren bereits selbstfahrende Autos auf unseren Straßen. Damit stellt sich die dringende Frage nach der ethisch richtigen Programmierung der künstlichen Intelligenz.
Während in Österreich die Thematik der ethischen Programmierung von selbstfahrenden Autos kaum behandelt wird, wurde in Deutschland ein Expertenkreis für ethische Fragen im Zusammenhang mit selbstfahrenden Autos eingerichtet. Unter Leitung des ehemaligen deutschen Bundesverfassungsrichters Udo di Fabio wurden verschiedene Leitlinien für die Programmierung von automatisierten Fahrsystemen erarbeitet.
Es geht also um das Thema, einem selbstfahrenden Auto und der damit verbundenen künstlichen Intelligenz in kritischen Fahrsituationen Grundlagen für die Entscheidung über das Fahrverhalten zu programmieren. Damit ist unweigerlich eine Wertigkeit verbunden, insbesondere wenn ein Unfall nicht vermieden werden kann. Es ist bei einer aufkommenden Unfallwahrscheinlichkeit der beim selbstfahrenden Auto eingesetzten künstlichen Intelligenz also im Vorhinein die Wertigkeit zu programmieren, wer oder was bei einem Unfall eher zu Schaden kommen darf. Die ersten Grundsätze sind nach dem Bericht der Experten für die Programmierung von automatisierten Fahrsystemen dabei noch relativ einfach: So scheint es verständlich, dass bei der Programmierung von automatisierten Fahrsystemen und einem mit hoher Wahrscheinlichkeit drohenden Unfall die Entscheidung herbeigeführt werden muss, Sachschaden vor Personenschaden gelten zu lassen. In einer Gefahrensituation hat damit das computergesteuerte selbstfahrende Auto jedenfalls dem menschlichen Leben höchste Priorität einzuräumen. Bevor die immanente Gefahr besteht, dass ein Mensch überfahren wird und damit potentiell verletzt oder getötet wird, ist vom Computer jedenfalls ein Ausweichmanöver einzuleiten, das mit hoher Wahrscheinlichkeit nur zu einem Sachschaden führt.
Schwieriger ist die Frage der Wertigkeit, wenn ein computergesteuertes selbstfahrendes Auto zwischen zwei Unfallsituationen zu wählen hat, bei denen mit hoher Wahrscheinlichkeit jedenfalls Menschen verletzt werden oder ihr Leben lassen. Der in diesem Zusammenhang von der deutschen Ethikkommission erarbeitete Grundsatz lautet, dass jedes Menschenleben gleich viel wert sein muss und es nicht zulässig ist, einem Computer die Möglichkeit einer Identifizierung und damit Qualifizierung eines menschlichen Lebens zu programmieren. Weder die körperliche oder geistige Konstitution, noch Alter oder Geschlecht dürfen in irgendeiner Form dazu führen, eine Bewertung oder Auswahl einer Unfallsituation zu ermöglichen. Dies gilt jedoch nur für die singuläre Identifikation des einzelnen Unfallsopfers, aber nicht für die Quantität. So ist es nach Ansicht der Ethikkommission durchaus zulässig, eine Bewertung nach Anzahl der potentiellen Unfallopfer aufzustellen. Es ist somit erlaubt, bei einer Abwägung ein einzelnes Unfallopfer zu gefährden, um im Vergleich dazu zwei oder mehrere potentiell unfallgefährdete Personen zu schützen. In der Quantität der potentiellen Opfer ist sehr wohl eine Wertigkeit zu sehen.
Noch schwieriger wird die viel diskutierte Problematik bei der Differenzierung zwischen den am Unfallgeschehen teilnehmenden Personen: So ist es selbstverständlich im Interesse der Autoindustrie gelegen, ihre Kunden und damit die Fahrer und Beifahrer von Fahrzeugen bestmöglich vor Unfällen zu schützen. Es stellt sich somit die Frage, ob es für einen Fahrzeugbauer zulässig ist, den Computer für die selbstfahrenden Autos dermaßen zu programmieren, dass das Leben des Fahrers in einer bevorstehenden Unfallsituation höher gewertet wird, als etwa das Leben eines anderen Fahrzeuglenkers oder gar eines Fußgängers. Während auf den ersten Blick eine derartige Programmierung nicht mit unseren ethischen Wertmaßstäben in Einklang zu bringen erscheint, so wird dieser Fall noch um eine Stufe komplizierter, wenn die Frage nach der vorschriftsmäßigen Beteiligung am Straßenverkehr gestellt wird.
Wenn etwa ein Fußgänger vorschriftswidrig plötzlich bei Rot die Kreuzung betritt, ist es dann für den Fahrzeuglenker geboten, ein Ausweichmanöver zu riskieren und sich selbst in Lebensgefahr zu bringen? Ohne Unterstützung der künstlichen Intelligenz bleibt diese Frage einem reflexhaften Verhalten des Fahrzeuglenkers vorbehalten und möglicherweise einer nachfolgenden Beurteilung der Gerichte. Bei selbstfahrenden Autos ist eine derartige Wertigkeit jedoch in der künstlichen Intelligenz mit zu berücksichtigen und entsprechend zu programmieren. Als eine der Thesen der deutschen Expertenrunde gilt daher der Grundsatz, dass es zulässig ist, Verkehrsteilnehmer, die sich nachweislich im Sinne der Verkehrsvorschriften richtig verhalten, gegenüber jenen zu bevorzugen, die die Verkehrsregeln nicht einhalten.
Auch wenn das Wertesystem bei der individuellen Beurteilung eines Unfalls nach wie vor eine komplexe ethische und rechtliche Frage bleibt, so ist insgesamt der Gesellschaft mit selbstfahrenden Autos jedenfalls geholfen. Die Prognosen gehen davon aus, dass die meisten Autounfälle durch menschliches Versagen verursacht werden und dass zahlreiche Unfälle vermieden werden könnten, wenn wir das Autofahren der künstlichen Intelligenz überlassen und nur mehr in Autos mit automatisierten Fahrsystemen einsteigen.