{'de': 'Fehlbarkeit'}
Wir Menschen sind fehlbar. Wir sind vergesslich, unaufmerksam, es fehlt uns Wissen, das Pech ereilt uns und insgesamt scheinen viele Dinge im Universum gegen unsere Existenz zu sprechen. Jedoch: Fehlbarkeit macht uns zum Menschen.
Die KI-Systeme, die aktuell entwickelt werden, sind “schwache” KI-Systeme – sie sind für spezfische Aufgaben entwickelt und sind sich ihrer selbst nicht bewusst. Fehler passieren trotzdem und dahinter stecken Programmierfehler, Sensordefekte oder Einflüsse von Außen, die zunächst nicht absehbar waren. Der Sozialwissenschaftler Charles Perrow hat in seinem Buch “Normale Katastrophen” beschrieben, dass Murphys Law garantiert zuschlagen wird. Wenn es Dinge gibt die schief gehen können, dann werden sie es auch. Es ist nur die Frage, wie schlimm die Auswirkungen sind. Ein Autounfall ist für die Beteiligten äußerst tragisch – am System Autoverkehr ändert der einzelne Unfall jedoch nichts. Kommt es aber zu einer Kernschmelze in einem Atomkraftwerk sind die Auswirkungen deutlich größer und das System Atomkraft wird in Frage gestellt.
Bei KI-Systemen kennen wir die Gefahren vielleicht noch gar nicht – wissen also nicht, ob diese große oder nur begrenzte Auswirkungen haben. Daher machen sich Forscher wie der Philosph Luciano Floridi Gedanken darüber, wer im Falle eines Falles eines Fehlers einer KI verantwortlich ist. Der Programmierer? Die Firma, die das System verkauft? Der Anwender? Die KI selbst, da sie sich ja selbständig verbessert hat? Wie viel Fehlbarkeit wollen wir einer KI zugestehen? So viel wie einem Menschen? Eine allgemeingültige Antwort ist noch nicht gefunden.
'}