Hallo,
interessante Entwicklungen und daraus reslutierende Fragen:
[url=http://www.heute.de/Wie-programmiert-man-Gut-und-Böse-26229768.html]Wie programmiert man Gut und Böse? (Text, ZDF)[/url]
Wenn es zu einer "Autopilot"-Entwicklung bei
Autos kommt - und dazu wird es kommen - muß vor allem eines
gewährleistet sein (meiner Meinung nach):
Es müssen weniger Unfälle, und damit Schäden einschl. von
Menschenopfern, auftreten, als ohne diese Technik.
Ein wesentlicher Teil des Gesamtnutzens wäre natürlich das belastungsfreiere
Fahren der vielen Verkehrsteilnehmer. Es mag sein, daß es dann
vielleicht Dikussionen gibt, wenn es doch wieder zu
zahlreicheren Unfällen und entsprechenden Schäden kommt, daß der
Gesamtnutzen entscheidend wäre und man das in Kauf nehmen solle.
(Ein ähnliche Situation wie im Flugwesen. Dort wird beim Absturz
eines Flugzeuges auch immer wieder festgestellt, daß der Nutzen des
Gesamtsystems diese Unglücksfälle hinnehmbar macht.)
Ich bin dennoch der Meinung, daß die Technik auch in der Frage der
Schadensfälle eine Verbesserung bringen muß.
Man wird natürlich keinen Menschen zwingen können, diese Autopiloten
einzuschalten. Und schon gibt es auch eine "Mischsituation"...
Wenn man aber Technikausfälle allgemeiner betrachtet, könnte man sagen:
"Menschen fallen auch aus." Nur sollte die Ausfallrate der Technik unbedingt
erheblich niedriger liegen, als diejenige von Menschen!
Kommt es zu einer Unfallsituation, wird natürlich die Entscheidung
tatsächlich schwieriger. Soll das Fahrzeug in die Menschenguppe fahren,
oder gegen den Brückenpfeiler, oder von der Hafenkante stürzen,
oder welche Alternativen dann auch immer gegeben sind?
Ein Mensch muß und wird natürlich in einer solchen Situation eine Entscheidung
treffen - je nach Persönlichkeit und Wertesystem.
Solange die Technik nicht wirklich intelligent ist, muß man sie
programmieren, muß der Mensch sie programmieren. Und das auch für
diese Situationen. Vielleicht wäre es eine Lösung, daß der Fahrer an einer
Simulationsanlage viele Unfälle erleidet (ach Gott! - der ärmste...) und dann
der Autopilot daraus lernt, wie sich sein "Herrchen" verhält/verhalten möchte.
Denn man kann niemandem vorschreiben, daß er gegen den Brückenpfeiler
und nicht in die Menschengruppe fährt (wenn die Menschengruppe
unberechtigterweise dort steht und das Fahrzeug sich aber in korrekter Weise
bewegte bis dorthin...)
Es ist auch eine interessante Idee, wenn bei derartiger Technik so
genannte Black Boxes wie bei Flugzeugen massenhaft zum Einsatz kommen,
so daß man im Nachhinein die Unfallhergänge besser rekonstruieren kann
und auf diesem Wege sich auch Möglichkeiten zur Verbesserung der Sicherheit
zeigen (bessere Verkehrswegelösungen, bessere Fahrzeugtechnik für alle
möglichen Bedingungen, auch hinsichtlich der Witterungseinflüsse).
Fazit:
Je komplexer die Systme und Einflüsse sind, desto sicherer ist, daß es Konflikte
und Unfälle geben wird, immer geben wird. Ziel bleibt eine Reduktion und eine
allgemeine Verbesserung gegenüber den menschlichen Leistungen (bzw. Fehlleistungen).
Und diese Frage muß man jeweils genauer untersuchen, auch quantitativ
bestimmen, um dann eine fundiert begründete Entscheidung bzw. auch eine
Akzeptanz bei den beteiligten Menschen zur erreichen.

(