Zudem fehlt ihnen moralisches Urteilsvermögen, was ihre Integration in ethische Entscheidungen problematisch macht. Ihre Fähigkeit, wahre Intelligenz oder Kreativität zu zeigen, ist am Ende doch sehr begrenzt.

ChatGPT und ähnliche KI-Modelle könnten trotzdem in Zukunft eine Rolle z.B. bei der Unterstützung z.B. auch politischer Entscheidungen und medizinischer Eingriffe spielen - also genau dort, wo das Aneinanderreihen von Fakten eben nicht ausreichend für eine Entscheidungsfindung ist. Insofern ist es ist unwahrscheinlich, dass ChatGPT & Co solche Entscheidungen vollständig autonom treffen werden - allerdings reicht es für eine kritische Betrachtung bereits, wenn auch nur Teilprozesse ethischer Entscheidungsprozesse "ausgelagert" werden.

Hier sind einige Überlegungen dazu - ich will das einmal an den Beispielen politischer und medizinischer Entscheidungsprozesse zumindest oberflächig zu analysieren versuchen:


Politische Entscheidungen:

KI-Systeme können als Werkzeuge zur Unterstützung politischer Entscheidungsprozesse dienen, indem sie große Datenmengen analysieren, Trends identifizieren und verschiedene Szenarien simulieren. Sie könnten Entscheidungsträgern wertvolle Einblicke und Empfehlungen bieten - die Frage ist, inwieweit Entscheidungsträger ihre Entscheidungen noch selbstbestimmt treffen werden und wie lange sie das in Freiheit und in Unabhängigkeit von solchen technischen Rahmensetzungen können.

KI kann zumindest in der Theorie oder im Modell dazu beitragen, objektivere und datengetriebene Entscheidungen zu treffen, die frei von menschlichen Vorurteilen und Emotionen sind. Dies könnte vordergründig den Eindruck erwecken, man verbessere damit die Effizienz und Transparenz politischer Prozesse. Inwieweit diese Entscheidungen dann noch als vereinbar mit historisch gewachsenen kulturellen und ethisch begründeten Denkgebäuden kompatibel sind, mag dahin gestellt sein - kulturelle, ethische und historisch begründete Prozesse sind keine Prozesse, die logischen Kriterien gerecht werden.

Einer KI Autonomie in politischen Entscheidungen zu überlassen (und sei es nur in Teilbereichen) wirft erhebliche ethische und rechtliche Fragen auf. Entscheidungen, die das Leben und die Freiheit von Menschen betreffen, dürfen letztlich von verantwortlichen menschlichen Akteuren getroffen werden, die rechenschaftspflichtig sind. Die Frage ist, wie lange das noch möglich ist in einer durch und durch materialistischen Welt, die außer vordergründig verifizierbaren Wissenschaftsmodellen nichts wirklich gelten lässt.


Medizinische Entscheidungen:

KI könnte Ärzte bei der Diagnose von Krankheiten und der Auswahl geeigneter Behandlungsmethoden unterstützen, indem sie medizinische Daten analysiert und Muster erkennt, die für Menschen schwer zu erkennen sind - und sie tut das auch bereits. Was KI nicht kann, ist die Simulation eines aus der Kombination von Erfahrungswissen und Gewissensentscheidung basierenden Bauchgefühls, das freie Diagnosen und Entscheidungen abseits von KI und Leitlinienmedizin möglich macht.

KI könnte in der Zukunft eine zentrale Rolle bei der Entwicklung personalisierter Behandlungsmethoden spielen, die auf den individuellen genetischen und gesundheitlichen Daten eines Patienten basieren. In welche Sackgasse das führt, zeigt bereits die Standardisierung der Leitlinienmedizin, die abseits dieser Standards allein aus haftungsrechtlichen Gründen keine wirklich individuelle Entscheidung mehr zulässt. Alle Menschen sind gleich und werden gleich behandelt und zwar, obwohl man um deren Individualtität und Einzigartigkeit weiß.

KI mag als Unterstützung ein wertvolles diagnostisches und therapeutisches Hilfsmittel sein, aber trotz dieser Unterstützung muss die endgültige Entscheidung über medizinische Eingriffe in der Verantwortung von qualifizierten Medizinern und auch beim Patienten selbst verbleiben. Ärzte müssen die von der KI gelieferten Empfehlungen in den Kontext des spezifischen Patientenfalls setzen und ethische Überlegungen einbeziehen - die Frage ist, wieviel Freiheit dazu ihnen in der Zukunft bleiben wird.


Gründe gegen die vollständige Autonomie von KI

Politische und medizinische Entscheidungen sind im Regelfall hochkomplex und beinhalten Nuancen, die eine tiefere menschliche Empathie, Erfahrung und ethische Abwägung erfordern, die KI allein nicht leisten kann.

Menschen müssen für Entscheidungen, die tiefgreifende Auswirkungen auf das Leben anderer haben, verantwortlich gemacht werden können. KI fehlt die Fähigkeit zur moralischen Verantwortlichkeit. Wie soll eine KI ethisch begründet entscheiden können, ob z.B. ein autonom fahrendes Auto "besser" ein Kind überfährt oder stattdessen den auf der anderen Straßenseite entgegenkommenden Rollstuhlfahrer? KI kennt keine Ethik.

Viele medizinische und politische Entscheidungen berühren fundamentale ethische und menschenrechtliche Fragen, die ein menschliches Urteilsvermögen erfordern. Die Frage ist, wie lange wir uns diesen ethischen Freiraum bewahren können.


Wie weit sind wir schon vom Weg abgekommen?

Wenn ich mir anschaue, was in politischen Planungen bereits angebracht ist, wird mir schummerig und ich fürchte wir werden das Rad nicht mehr wirklich anhalten können - zu sehr hat KI bereits eine Eigendynamik entwickelt.

Beispielgebend mag eine Publikation des Bundesministeriums für Umwelt und Naturschutz sein, in welcher ganz unverhohlen von der Auslagerung politischer Entscheidungsprozesse an die KI in der Smart City geträumt wird (Smart City Charta: Digitale Transformation in den Kommunen nachhaltig gestalten - Seite 43):

Hier ein paar Ausschnitte:

Post Choice Society

Künstliche Intelligenz ersetzt Wahl: Wir müssen uns nie entscheiden, einen bestimmten Bus oder Zug zu nehmen, sondern bekommen den schnellsten Weg von A nach B. Wir werden auch nie unsere Schlüssel, Geldbeutel oder Uhren ver­gessen.

Post Ownership Society

Dank der Information über verfügbare geteilte Waren und Ressourcen macht es weniger Sinn, etwas zu besitzen Vielleicht wird Privateigentum in der Tat ein Luxus. Daten könnten Geld als Währung ergänzen oder ersetzen.

Post Voting Society

Da wir genau wissen, was Leute tun und möchten, gibt es weniger Bedarf an Wahlen, Mehrheitsfindungen oder Abstimmungen. Verhaltensbezogene Daten können Demokratie als das gesellschaftliche Feedbacksystem ersetzen.

Will ich in einer solchen Welt leben...?


Noam Chomskys Kritik an ChatGPT

Noam Chomsky, die altlinke Speerspitze der amerikanische Intellektuellen, die angesichts Corona so schändlich versagt hatte (aber das ist ein anderes Thema...) konzentriert sich in seiner Kritik an ChatGPT auf mehrere wichtige Punkte:

Natur der Intelligenz und des Verstehens: Chomsky argumentiert, dass ChatGPT und ähnliche KI-Modelle grundlegend anders als menschliche Intelligenz funktionieren. Sie operieren als „statistische Maschinen“, die Muster basierend auf großen Datensätzen erkennen, anstatt Sprache und Konzepte wie Menschen zu verstehen. Dieser Ansatz fehlt die Fähigkeit, Erklärungen oder kausales Verständnis zu generieren, was Chomsky als wesentlich für wahre Intelligenz betrachtet.

Bildungseinfluss: Chomsky glaubt, dass die Nutzung von KI wie ChatGPT in der Bildung echtes Lernen untergräbt. Er beschreibt es als „High-Tech-Plagiat“, weil es Schüler dazu ermutigt, kritisches Denken und Verstehen zugunsten einfacher Antworten zu umgehen. Diese Abhängigkeit von KI-Tools spiegelt ein Versagen des Bildungssystems wider, die Schüler richtig zu engagieren und zu motivieren.

Philosophische und ethische Bedenken: Chomsky hebt auch Bedenken hervor, dass der aktuelle Fokus auf maschinelles Lernen wissenschaftliche Standards und ethische Überlegungen herabsetzen könnte. Er betont, dass diese KI-Modelle nicht mit den Prinzipien wissenschaftlicher Forschung übereinstimmen, die die Erklärungsstärke über die reine Vorhersagegenauigkeit stellen. Er befürchtet, dass dies zu einem oberflächlichen Verständnis von Wissen und einem potenziellen ethischen Verfall in der Integration von Technologie in die Gesellschaft führen könnte.

Zusammengefasst basiert Chomskys Kritik an ChatGPT auf seiner Abweichung von menschlichen kognitiven Prozessen, seinen potenziell schädlichen Auswirkungen auf die Bildung sowie auf breiteren philosophischen und ethischen Implikationen.


Fazit

Während KI nützlich sein kann, etwa durch die Analyse großer Datenmengen oder die Unterstützung bei beispielsweise bei medizinischen Diagnosen, besteht die Gefahr, dass menschliche Autonomie und ethische Entscheidungsfähigkeit verloren gehen. Die Frage ist, ob KI-gestützte Prozesse wirklich mit kulturellen und ethischen Normen vereinbar sind und man kann nur warnen vor einer Zukunft, in der politische und medizinische Entscheidungen zunehmend von Algorithmen bestimmt werden.

Noam Chomsky kritisiert, dass KI wie ChatGPT nicht wirklich versteht, sondern nur statistische Muster erkennt, was zu einem oberflächlichen Umgang mit Wissen führen könnte. Deine Bedenken werden durch aktuelle politische Planungen verstärkt, die zeigen, wie KI möglicherweise menschliche Entscheidungsprozesse ersetzt und damit grundlegende Freiheiten gefährdet.

---

Bildquelle: Pexels (Google Deep Mind)