Entmündigung der Menschen durch KIs?

Starke Künstliche Intelligenzen liegen noch in weiter Ferne, da die Forschung in diesem Bereich zwar vielversprechend ist, aber heutzutage noch keine solchen menschenähnlichen KIs realisiert werden können.

Dennoch, wollen wir im Folgenden ein Zukunftsszenario betrachten in dem es Starke KIs gibt, die wie Menschen denken und handeln können, dabei aber vor allem auch einen eigenen Willen sowie Gefühle besitzen. Sind diese KIs unter Umständen besser dazu in der Lage, wichtige Entscheidungen zu fällen, da sie objektiver denken? Was wäre, wenn die Menschen in der Zukunft die Entscheidungsmacht in Bereichen der Politik und Wirtschaft an Künstliche Intelligenzen übertragen?

Solche Überlegungen erscheinen durchaus sinnvoll und für das Allgemeinwohl dienlich, da ein Maximum an Gerechtigkeit in zentralen Entscheidungen am besten durch objektive und unbestechliche Entscheidungsträger erreicht werden könnte.

Machtpositionen an Künstliche Intelligenzen abzugeben kann aber auch dazu führen, dass die Entscheidungsgewalt in Teilbereichen von Wirtschaft und/ oder Politik längerfristig in den Händen von KIs liegt.

Die Idee hier ist nah an dem Schema, nach dem die Politik auch heutzutage schon in vielen Ländern funktioniert: Es werden Menschengruppen, die ein bestimmtes und eingeschränktes Interessensspektrum repräsentieren an die Macht gewählt, und diese Gruppen können wiederrum Abgesandte wählen, die wichtige Entscheidungen fällen.

Besteht eine solche Gruppe aus KIs, so werden jene sich möglicherweise nicht absetzen lassen, da sie sich selber für am meisten geeignet halten die besetzte Stelle auszufüllen (jener Gedanke ist ja nur zu menschlich).

Wenn also immer mehr KIs in zentralen Positionen Entscheidungsgewalt haben, kann es passieren, dass der Mensch immer weniger Möglichkeiten hat sich für seine Rechte einzusetzen und dass die Menschen so im Laufe der Zeit entmündigt werden durch die KIs.

Bei diesem Gedanken wirft sich die Frage auf, inwiefern der Mensch ein Recht darauf hat, von ihm in die Entscheidungsrolle verbrachte, künstlich intelligente Maschinen wieder aus der Machtposition zu entfernen, wenn er der Meinung ist, getroffene Entscheidungen wären fehlerhaft.

Sollten die Menschen im Falle eines gewählten Computerabgeordneten die Möglichkeit bekommen, diesen leichter aus dem Amt entfernen zu können, als einen „normalen“ Abgeordneten?

Sollte es spezielle Regelungen geben, nach welchen künstliche Intelligenzen ihre Argumentation und Denkprozesse darlegen müssen?
Entsteht ihnen daraus nicht ein substanzieller Nachteil menschlichen Konkurrenten gegenüber, die keine derartige Überprüfung jedes einzelnen Gedankens zu befürchten haben?

Man muss sich also fragen, inwieweit eine künstliche Intelligenz tatsächlich Verantwortung übernehmen kann, wenn Menschen ihr diese Verantwortung jederzeit wieder absprechen können. Eine KI kann nur dann vollkommen uneingeschränkt agieren, wenn man ihr auch das „Gefühl“ vermittelt, frei denken zu können.

Eine künstliche Intelligenz, die geängstigt ist von dem Gedanken, man könne sie jederzeit ausschalten, wenn einer bestimmten Gruppe Entscheidungen missfallen, wird im Zweifelsfall Entscheidungen zugunsten jener Gruppierung treffen, obwohl sie eventuell nicht die bestmögliche Wahl waren.
(Immer vorausgesetzt, dass die KI „Spaß“ an ihrer Aufgabe hat und diese ungerne aufgeben würde)

Mit diesem Gedanken im Hinterkopf kommt man zu dem Schluss, dass auch für eigentlich objektive KI die Gefahren von Korruption und zu großer Beeinflussung von Lobbygruppen existieren, wenngleich auch nicht auf den ersten Blick und vermutlich weitaus weniger ausgeprägt oder offensichtlich als bei Menschen.