Verantwortlichkeit bei Fehlentscheidungen

Was ist, wenn eine Künstliche Intelligenz falsche Entscheidungen trifft? Wer kann dafür bestraft werden? Das ist derzeit noch eine offene Grage, die beantwortet werden muss, bevor es selbstständig arbeitende KIs gibt.

Was ist zum Beispiel, wenn eine KI einen Menschen operiert und dabei einen lebensbedrohlichen Fehler macht? Kann der Hersteller dafür haftbar gemacht werden? Ist der beaufsichtigende Mensch verantwotlich? Oder kann man eine KI für solche Fehler bestrafen?

Auch ist eine Klassifizerung von Fehlerklassen, wie sie häufig bei eingebetteten Systemen vorgenommen wird, nicht möglich. So kann zum Beispiel nicht sicher gestellt werden, dass ein Fehler nur in sehr geringer Häufigkeit auftritt und die korrekte Funktion kann nicht voständig verifiziert werden.

Sollte die KI nun eine Fehlentscheidung treffen, kann diese danach dann auch nich nachgewiesen werden? Muss jede KI eine „Blackbox“ besitzen, die alle Entscheidungen protokolliert?

Zuletzt stellt sich noch die Frage was passieren soll, wenn eine KI einen Fehler besitzt und außer Kontrolle gerät? Kann man dafür Komponenten bauen, die dieses erkennen und die KI dann selbstständig ausschalten? Darf man eine Intelligenz überhaupt einfach so ausschalten?

Konkrete Antworten auf diese offenen Fragen fallen zum aktuellen Zeitpunkt noch sehr schwer, weswegen wir hier keine geben können. Die Entscheidung bleibt dem Leser überlassen.