Die Technologie selbst ist neutral, aber ihre Anwendung ist entscheidend: Wir müssen sicherstellen, dass sie das Gute in der Gesellschaft verstärkt und nicht verdrängt.
(Satya Nadella, CEO von Microsoft)
Es reicht nicht, nur kluge Maschinen zu bauen. Die eigentliche Herausforderung besteht darin, sie in die menschlichen Werte und ethischen Grundsätze zu integrieren, die wir für eine gerechte Zukunft brauchen.
(Fei-Fei Li, KI-Pionierin und Professorin an der Stanford University)
In den letzten Jahrzehnten hat sich die Künstliche Intelligenz (KI) von einem theoretischen Konzept zu einem allgegenwärtigen Faktor in Technologie und Gesellschaft entwickelt. Sie wird im Forschungskontext, in industriellen Anwendungen und in der Öffentlichkeit oft mit einer fast ausschließlichen Betonung auf Effizienz und Leistungssteigerung diskutiert. Doch diese starke Fokussierung lässt die tiefere Frage unberührt, ob KI nicht vielmehr als ethische Infrastruktur zur Förderung menschlicher Potenziale dienen kann. Welchen Wert könnte eine KI haben, die nicht bloß Optimierungsziele verfolgt, sondern zur Selbstregulation beiträgt und uns zu einer zukunftsfähigen, verantwortungsbewussten Gesellschaft führt?
In meinen Forschungsarbeiten zur Infosomatischen Ausrichtung befasse ich mich mit einem solchen Paradigmenwechsel in der Konzeption von KI. Aufbauend auf kybernetischen und systemtheoretischen Grundlagen – wie den Arbeiten von Humberto Maturana, Ernst von Glasersfeld, Heinz von Foerster und Stafford Beer – habe ich die Idee entwickelt, dass KI als dynamisch angepasste, ethisch orientierte Struktur nicht nur Werkzeuge bereitstellen kann, sondern menschliche Autonomie und Potenzialentfaltung aktiv unterstützt. In dieser Perspektive geht es weniger um den engen Nutzen technischer Effizienz als um die Frage, wie KI als unterstützende, selbstregulierende Instanz die Potenziale des Menschen auf nachhaltige Weise fördern kann.
Effizienz am Limit: Wo KI wirklich zählt
Die gängige Orientierung an Effizienz verengt oft den Blick auf die technischen Kapazitäten und Optimierungsmöglichkeiten, die mit KI einhergehen. Systeme werden vielfach daran gemessen, wie schnell und kosteneffizient sie Prozesse abwickeln und Daten verarbeiten können. Doch Effizienz allein reicht nicht aus, um den vollen Wert einer Technologie wie KI zu erfassen. Effektivität hingegen – also das „Richtige“ zu tun – könnte eine tiefere Funktion eröffnen: KI als Infrastruktur, die den Menschen unterstützt, seine Autonomie zu entfalten und in komplexen Kontexten handlungsfähig zu bleiben.
Das Konzept der Infosomatischen Ausrichtung beschreibt KI nicht als ein rein mechanisches System, sondern als eine Art von selbstregulierender Agentur in einer biosoziotechnologischen Infrastruktur. Der Begriff „infosomatisch“ verweist auf die Analogie zu einem lebenden Organismus, der seine Funktionalität und Stabilität durch fortlaufende Selbstregulation sichert. In einem infosomatischen System wird Information nicht nur als Datenspeicher, sondern als Ausdruck des inneren und äußeren Zustands der Umgebung verstanden, das dem Menschen Signale zur Anpassung und Reflexion gibt.
Diese Perspektive eröffnet eine Dialektik zwischen Effizienz und Effektivität: Während Effizienz auf die kurzfristige Optimierung abzielt, strebt Effektivität ein tieferes Gleichgewicht an, das langfristig auf Potenzialentfaltung und ethische Verantwortung ausgerichtet ist. Hierzu tragen auch die Konzepte der Kybernetik bei, die in den Arbeiten von Foerster und Beer zentrale Themen wie Wahlfreiheit und Selbstregulation aufgreifen.
Selbstregulation und Wahlfreiheit: Grundpfeiler einer menschenzentrierten KI
Das Prinzip der Selbstregulation ist ein grundlegendes Element für eine KI, die über reinen Nutzen und Optimierung hinausgeht. Heinz von Foersters Konzept der Wahlvergrößerung fordert, dass ein System darauf abzielt, die Wahlmöglichkeiten des Menschen zu erweitern, anstatt sie einzuschränken. Eine KI, die auf diese Weise entworfen ist, bietet nicht bloß schnelle Antworten oder Effizienzgewinne, sondern sie ermöglicht es dem Menschen, fundierte Entscheidungen in einem breiteren Kontext zu treffen. Diese Fähigkeit zur Wahlvergrößerung bildet das ethische Fundament einer KI, die nicht nur technische Aufgaben erfüllt, sondern den Menschen in seiner Entscheidungsfindung und Potenzialentfaltung unterstützt.
Niklas Luhmanns systemtheoretische Perspektive der Autopoiesis ergänzt diesen Ansatz durch den Gedanken, dass Systeme zur Selbstorganisation fähig sein sollten. Für Luhmann sind autopoietische Systeme dynamisch und in der Lage, ihre Strukturen und Funktionen fortlaufend an innere und äußere Anforderungen anzupassen. Eine KI, die sich an diesem Prinzip orientiert, ist somit nicht nur ein Werkzeug zur Datenanalyse, sondern eine adaptive Infrastruktur, die den Dialog mit den Bedürfnissen und Zielen ihrer Nutzer sucht und unterstützt.
In dieser Perspektive lässt sich KI als eine Art von biosoziotechnologischer Infrastruktur verstehen, die in einem kontinuierlichen Austausch mit der menschlichen Selbstregulation steht. Ihr Ziel ist es nicht, den Menschen durch Vorschriften oder Optimierungsvorgaben zu steuern, sondern ihm durch Wahlmöglichkeiten und Selbstregulation Raum für Potenzialentfaltung zu bieten.
Relevanzrealisierung: KI als Partner in der Entscheidungsfindung
Ein zentraler Aspekt in der Gestaltung einer menschenzentrierten KI ist die Fähigkeit zur Relevanzrealisierung – also die Unterscheidung zwischen wesentlichen und unwesentlichen Informationen. Diese Fähigkeit, aus einem komplexen Informationsumfeld das Bedeutungsvolle herauszufiltern, ist entscheidend für eine sinnvolle Entscheidungsfindung in einer überkomplexen Welt. Der Kognitionswissenschaftler John Vervaeke beschreibt diesen Prozess als eine Grundvoraussetzung für menschliche Kognition. Eine KI, die in der Lage ist, auf dieser Ebene zu agieren, würde nicht nur große Mengen an Daten verarbeiten, sondern die Informationslandschaft sinnvoll strukturieren und dem Menschen eine tiefere Reflexion und Entscheidungsfindung ermöglichen.
In der Infosomatischen Ausrichtung fungiert die KI als Partner, der den Menschen bei der Relevanzrealisierung unterstützt, indem er Kontexte und Bedeutungen ordnet und den Nutzer so in die Lage versetzt, sich auf Wesentliches zu konzentrieren. Diese Form der KI agiert nicht als Filtermaschine, die blind Effizienz erzeugt, sondern als eine kognitive Infrastruktur, die das menschliche Urteilsvermögen respektiert und erweitert. So wird KI zu einer echten Unterstützung im Prozess der Bedeutungsfindung, die den Menschen stärkt, anstatt ihn auf Effizienz zu beschränken.
Zwischen Freiheit und Verantwortung: Ethik als Grundlage für die Zukunft der KI
Diese Konzepte – Wahlfreiheit, Selbstregulation und Relevanzrealisierung – stehen im Mittelpunkt eines Verständnisses von KI, das nicht nur auf technischer Leistungsfähigkeit, sondern auf ethischer Verantwortung basiert. Der Philosoph Hans Jonas betonte in Das Prinzip Verantwortungdie Notwendigkeit, dass technologische Entwicklungen so gestaltet sein sollten, dass sie nicht nur den momentanen Nutzen, sondern das Wohl künftiger Generationen im Auge behalten. Eine KI, die auf ethischen Prinzipien der Selbstregulation basiert, könnte als eine Plattform wirken, die menschliche Autonomie fördert und eine Grundlage für reflektierte Entscheidungen bietet.
In der Entwicklung eines solchen ethischen Rahmens spielen Prinzipien der Kybernetik und Systemtheorie eine wesentliche Rolle. Stafford Beers Viable System Model (VSM) zeigt, dass effektive Systeme flexibel und stabil zugleich sein müssen, um langfristig funktional und sinnstiftend zu bleiben. Eine KI, die nach diesem Prinzip gestaltet ist, könnte weit mehr leisten als eine bloße Optimierung von Datenprozessen. Sie wäre eine Plattform, die mit den Zielen und Werten ihrer Nutzer in Resonanz steht und diese unterstützt.
Praktische Anwendungen: Von der Gesundheitsdiagnostik zur klimatischen Resilienz
Diese theoretischen Überlegungen lassen sich in praktischen Anwendungsbereichen konkretisieren. Ein infosomatisch ausgerichtetes KI-System könnte im Gesundheitswesen frühe Anzeichen von Veränderungen erkennen und auf diese Weise präventive Maßnahmen unterstützen. In einem solchen System würde KI nicht nur Symptome analysieren, sondern zur aktiven Förderung von Selbstregulation und Eigenverantwortung beitragen. Dies erlaubt es dem Menschen, fundierte Entscheidungen über seine Gesundheit zu treffen – eine Rolle, die weit über die Funktion einer Diagnosemaschine hinausgeht.
Im Bereich der klimatischen Resilienz könnte eine ethisch fundierte KI zur Entwicklung nachhaltiger Strategien beitragen, die sowohl individuelle als auch kollektive Verantwortung fördern. Indem KI ethische und wissenschaftliche Parameter integriert, kann sie dazu beitragen, Anpassungsmaßnahmen an den Klimawandel zu unterstützen, die den Menschen als Akteur mit einbeziehen, statt ihn nur mit Daten zu konfrontieren. So könnte KI zu einer Plattform für eine zukunftsfähige ökologische und gesellschaftliche Resilienz werden.
Perspektiven für Deutschland: Vorreiter einer menschenzentrierten KI
Die technologische und industrielle Infrastruktur Deutschlands bietet eine besondere Gelegenheit, neue Standards für eine ethisch fundierte KI zu setzen. Hier könnte ein Modell entstehen, das nicht auf kurzfristige Effizienz, sondern auf langfristige Potenzialentfaltung und ethische Vielfalt ausgerichtet ist. Deutschland könnte somit als Beispiel dienen, wie KI-Systeme so gestaltet werden können, dass sie die Wahlmöglichkeiten und das Potenzial der Menschen respektieren und fördern.
Eine ethische KI, die im Sinne einer infosomatischen Ausrichtung und Selbstregulation gestaltet ist, könnte ein Weg sein, Technologie zu einem Element der menschlichen Potenzialentfaltung und der gesellschaftlichen Selbstregulation zu machen – ein Modell, das sowohl die Chancen als auch die Verantwortung moderner KI-Technologien ernst nimmt.
Quellen
Aristoteles. „Nikomachische Ethik“.
Beer, S. “Brain of the Firm”. London, Wiley, 1981.
Capra, F. “The organization of the living: Maturana’s key insights”. Constructivist Foundations, 2022.
Foerster, H. von. “Computing a reality”. Constructivist Foundations, 2008.
Heidegger, M. „Die Technik und die Kehre“. Stuttgart, Klett-Cotta, 1954.
Jonas, H. „Das Prinzip Verantwortung: Versuch einer Ethik für die technologische Zivilisation“. Frankfurt am Main, Suhrkamp, 1984.
Kant, I. „Beantwortung der Frage: Was ist Aufklärung?“, 1784.
Platon. „Der Staat“.
Riegler, A., & Scholl, A. “Niklas Luhmann and the sociological turn in constructivism”. Constructivist Foundations, 2012.
Tao, T. “The limits and potential of AI”. The Atlantic, 2024.
Tsvasman, L. „AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz“. Ergon Verlag, 2019.
Tsvasman, L. „Infosomatische Wende: Impulse für intelligentes Zivilisationsdesign“. Ergon Verlag, 2022.
Tsvasman, L. “The Age of Sapiocracy: On the Radical Ethics of Data-Driven Civilization”. Ergon Verlag, 2023.
Vervaeke, J. “Relevance realization and the cognitive science of intelligence”. Cognitive Science Review, 2019.