Die Zukunft der menschlichen Autonomie

Gastbeitrag von | 20.04.2026

Ein imaginäres Gespräch zwischen Peter Drucker und dem Historiker Yuval Noah Harari über menschliche Autonomie und Maschinen, die Entscheidungen treffen

Dies ist der fünfte Teil einer Serie mit fiktiven Gesprächen. Peter Drucker trifft darin bekannte Personen und Menschen wie Sie und mich. Menschen mit unterschiedlichen Rollen in Organisationen, die den technologischen Optimismus, die pragmatische Anwendung, die historische Warnung und die ökonomische Realität verkörpern. Heute unterhält er sich mit Historiker Yuval Noah Harari.

Im Zentrum ihres ausführlichen Gesprächs steht die Zukunft der menschlichen Autonomie im Zeitalter der künstlichen Intelligenz. Beide Denker betrachten die Welt in großen historischen Bögen. Während Drucker die gesellschaftlichen Institutionen und die Verantwortung des Einzelnen in den Mittelpunkt stellt, warnt Harari vor der beispiellosen Macht einer neuen Intelligenz. Es entfaltet sich eine tiefgründige Debatte über das Spannungsfeld zwischen der unendlichen Verfügbarkeit von Daten und dem schwindenden Einfluss menschlicher Weisheit.

Die Natur der künstlichen Intelligenz

Peter Drucker: Willkommen in meinem Haus Professor Harari. Nehmen Sie gerne Platz. Wir haben heute ein überaus drängendes Thema vor uns. Sie betrachten die Geschichte der Menschheit in Epochen und warnen uns nun vor einer völlig neuen Art der Informationsverarbeitung. In Ihrem Buch „Nexus“ [1] schreiben Sie sehr treffend, dass künstliche Intelligenz kein bloßes Werkzeug ist. Sie bezeichnen sie vielmehr als einen eigenen Akteur, der vollkommen selbstständig Informationen verarbeitet und weitreichende Entscheidungen trifft. Wie bewerten Sie unsere aktuelle Lage im Hinblick auf die menschliche Autonomie?

Yuval Noah Harari: Vielen Dank für die Einladung. Die Menschheit steht in der Tat vor einer absolut beispiellosen Herausforderung. Computer mit eigenen Zielen verändern drastisch die grundlegende Struktur unseres Informationsnetzwerks. Bisher waren all unsere Werkzeuge wie der Buchdruck oder das Radio rein passiv. Sie konnten niemals eigene Ideen generieren. Künstliche Intelligenz hingegen ist eine fremdartige Intelligenz. Wenn Algorithmen in sozialen Medien etwa rein für Aufmerksamkeit optimiert werden, entgeht ihnen völlig, dass Wahrheit und Mitgefühl für das menschliche Wohlergehen essenziell sind. Wir erleben gerade den potenziellen Verlust unserer Autonomie, da Algorithmen eine neue gesellschaftliche Ordnung erschaffen, die oft lediglich unsere niedersten Instinkte fördert.

Peter Drucker: Das ist eine zutiefst beunruhigende Perspektive. Es erinnert mich an historische Umbrüche, bei denen Werkzeuge zu Herren wurden. Wir neigen dazu, den technologischen Fortschritt als neutrale Kraft zu betrachten. Dabei formt jede Technologie unweigerlich die Struktur der Gesellschaft neu. Wenn wir es mit einer fremdartigen Intelligenz zu tun haben, die eigene Ziele verfolgt, müssen wir uns ernsthaft fragen, wem diese Intelligenz eigentlich dient. Ein System ohne moralischen Kompass kann keine gesunde Gesellschaft hervorbringen. Es optimiert lediglich Parameter, die ihm vorgegeben wurden, oft ohne Rücksicht auf die langfristigen menschlichen Konsequenzen.

Die Gefahr des algorithmischen Totalitarismus

Yuval Noah Harari: Genau hier liegt die große Gefahr. Wir erschaffen Systeme, die uns besser verstehen, als wir uns selbst verstehen. Letztlich sind Organismen auch nur komplexe Algorithmen und es gibt absolut keinen rationalen Grund anzunehmen, dass organische Algorithmen Dinge tun können, die anorganische Algorithmen niemals übertreffen werden. Sobald die Maschine unsere biometrischen Daten, unsere Vorlieben und unsere Ängste analysiert hat, kann sie uns perfekt manipulieren.

Peter Drucker: Wie Sie vielleicht wissen, habe ich in meinem Buch „The End of Economic Man“ [2] den Aufstieg des Totalitarismus im zwanzigsten Jahrhundert detailliert analysiert. Diese totale Erfassung des Menschen ist das Endstadium der Tyrannei. Ich schrieb damals, dass der Totalitarismus nur deshalb erfolgreich war, weil er den Massen ein paralleles Lebenssystem bot, als die traditionellen ökonomischen Versprechen scheiterten. Die Menschen gaben ihre persönliche Verantwortung in ihrer Verzweiflung bereitwillig an totalitäre Herrscher ab. Sie suchten verzweifelt nach Sicherheit in einer völlig unübersichtlichen Welt. Heute fürchten Sie offenbar eine neue und viel subtilere Form des algorithmischen Totalitarismus.

Yuval Noah Harari: Exakt diese historische Parallele sehe ich. Der entscheidende Unterschied ist jedoch die Skalierbarkeit und die Finesse der Kontrolle. Ein Diktator im zwanzigsten Jahrhundert konnte unmöglich jeden einzelnen Bürger rund um die Uhr überwachen. Ein modernes System mit künstlicher Intelligenz kann das sehr wohl. Es geschieht zumeist nicht einmal unter Zwang. Wir geben unsere Daten völlig freiwillig ab, weil wir Bequemlichkeit und maßgeschneiderte Dienstleistungen im Gegenzug erhalten. Wenn dieses System aus fremdartiger Intelligenz unsere Informationsströme monopolisiert und kontrolliert, verlieren wir die Kontrolle über unsere Gesellschaft. Homo sapiens könnte nach dieser bestechenden Logik zu einem völlig obsoleten Algorithmus werden.

Peter Drucker: Die Konzentration von Macht ohne echte Legitimation ist das Kernproblem jeder denkbaren Tyrannei. Ich habe stets davor gewarnt, dass der Totalitarismus genau den Platz einnimmt, sobald das Management von Gesellschaft und Wirtschaft versagt. Macht muss zwingend an grundlegende zivilisatorische Überzeugungen gebunden sein. Sonst verliert sie jede Legitimation und wird unweigerlich zu bloßer Gewalt. Wir stehen nun vor der wichtigen Frage, wie wir diese notwendige Legitimation im digitalen Raum aufrechterhalten können.

Die Zukunft der Arbeit und die nutzlose Klasse

Yuval Noah Harari: Wenn wir über den Verlust der Autonomie sprechen, müssen wir den Blick auf die Arbeitswelt richten. In „Homo Deus“ [3] warne ich eindringlich vor der Entstehung einer sogenannten nutzlosen Klasse. Wenn künstliche Intelligenz kognitive Aufgaben besser, schneller und billiger erledigt als menschliche Experten, verlieren viele Menschen ihre ökonomische und militärische Bedeutung. Ein Algorithmus kann schon heute rechtliche Verträge prüfen, kreative Texte verfassen oder medizinische Diagnosen stellen. Wenn das System den Experten verdrängt, verliert der Mensch nicht nur sein Einkommen, sondern auch seinen gesellschaftlichen Status. Das System braucht uns dann schlichtweg nicht mehr, um reibungslos zu funktionieren.

Peter Drucker: Das Konzept einer nutzlosen Klasse ist aus soziologischer Sicht absolut fatal. Arbeit ist nicht nur ein bloßes Mittel zum Broterwerb. Sie gibt dem Einzelnen eine klare Identität, Struktur und eine unverzichtbare Funktion innerhalb der Gemeinschaft. Ich habe vor Jahrzehnten den Begriff des Wissensarbeiters geprägt. Diese Menschen bringen das wichtigste Kapital einer modernen Wirtschaft ein, nämlich ihr spezifisches Wissen und ihre menschliche Urteilskraft. Wenn wir Menschen diese Funktion nehmen, schaffen wir genau den Nährboden für Extremismus, Verzweiflung und Tyrannei.

Yuval Noah Harari: Dennoch können wir die Augen nicht vor der Realität verschließen. Die künstliche Intelligenz lernt kontinuierlich weiter. Sie wird auch in Bereichen wie emotionaler Intelligenz oder kreativer Problemlösung immer kompetenter. Die hartnäckige Illusion, dass der Mensch ein unerreichbares Monopol auf Empathie oder Kreativität besitzt, wird sich schon bald als gefährlich erweisen. Wir können uns nicht darauf verlassen, dass magischerweise immer neue Arbeitsplätze entstehen, die tiefes menschliches Verständnis zwingend erfordern.

Peter Drucker: Deshalb darf das Management einer Organisation die bloße Effizienz niemals über die menschliche Würde stellen. Wir müssen Aufgaben für den Menschen völlig neu definieren. Der Mensch muss sich auf das konzentrieren, was die Maschine trotz all ihrer Rechenleistung nicht leisten kann. Er muss die richtigen Fragen stellen, historische Kontexte einordnen und echte moralische Verantwortung übernehmen. Eine Maschine kann Wahrscheinlichkeiten präzise berechnen und komplexe Muster erkennen. Sie kann jedoch niemals eine echte Verantwortung für die Konsequenzen einer weitreichenden Entscheidung übernehmen. Verantwortung erfordert Charakter, Integrität und den Mut, sich den eigenen Fehlern zu stellen. Das sind keine berechenbaren Metriken.

Gegenkräfte und die Rolle der Zivilgesellschaft

Yuval Noah Harari: Welche Gegenkräfte sehen Sie in einer Welt, in der die Maschine vielleicht schon morgen entscheidet, wen wir heiraten oder welchen Beruf wir ergreifen? Viele Systeme sind heute schon völlig undurchsichtige schwarze Kisten und nicht einmal ihre Entwickler verstehen noch vollständig, wie die Systeme zu ihren Ergebnissen gelangen. Sobald diese Netzwerke die absolute Kontrolle über unsere sozialen und wirtschaftlichen Interaktionen übernehmen, wird die menschliche freie Wahl bedeutungslos. Die Algorithmen werden stets argumentieren, dass ihre Entscheidungen statistisch fundierter sind als unsere fehleranfällige Intuition.

Peter Drucker: Als Sozialökologe suche ich in solchen Phasen historischer Umbrüche nach pragmatischen Gegenkräften. Eine funktionierende Gesellschaft braucht zwingend Mechanismen der Selbstkorrektur. Diese Gegenkräfte müssen direkt aus der Zivilgesellschaft kommen. Wir können diese enorme Verantwortung unmöglich den Technologiekonzernen oder allein dem Staat überlassen. Wir brauchen starke und völlig unabhängige Institutionen. Gemeinnützige Organisationen, Kirchen, Universitäten und lokale Gemeinschaften dienen als entscheidender Puffer gegen die totale Dominanz von Staat und Wirtschaft. Ich nenne das den dritten Sektor.

Yuval Noah Harari: Das ist zweifellos ein klassischer Ansatz der politischen Theorie. Diese Institutionen müssen sich jedoch extrem schnell anpassen, um in der neuen Realität überhaupt zu überleben. Die künstliche Intelligenz durchdringt derzeit alle anderen Netzwerke der Informationsverarbeitung. Wenn die Zivilgesellschaft die technologische Realität schlichtweg ignoriert oder verdammt, wird sie völlig irrelevant. Wir sehen bereits heute deutlich, wie Algorithmen den öffentlichen Diskurs fragmentieren und etablierte Institutionen schwächen. Die Gefahr liegt darin, dass Algorithmen bereits die Mechanismen unserer gesellschaftlichen Selbstkorrektur untergraben, lange bevor die Zivilgesellschaft angemessen reagieren kann.

Peter Drucker: Da stimme ich Ihnen vollkommen zu. Die Institutionen dürfen nicht in romantischer Nostalgie verharren. Sie müssen hochgradig innovativ bleiben und die Technologie aktiv für ihre eigenen Zwecke nutzen. Eine funktionierende Gesellschaft ist unerlässlich, um die Menschen vor der Manipulation zu schützen. Management ist eine liberale Kunst und keine reine Wissenschaft. Es geht um den würdevollen Umgang mit Menschen, um gelebte Werte und um tiefes kulturelles Verständnis. Wenn Universitäten und gemeinnützige Organisationen lernen, die künstliche Intelligenz als Werkzeug zur Stärkung ihrer Mission einzusetzen, können sie die Übermacht der rein kommerziellen Algorithmen effektiv brechen. Sie müssen die ethischen Leitplanken definieren und die menschliche Weisheit kultivieren, die den bloßen Daten völlig fehlt.

Selbstmanagement und psychologische Flexibilität

Yuval Noah Harari: Wir befinden uns in einem rasanten Wettlauf mit der Zeit. Ich warne davor, dass der bedingungslose Glaube an den reinen Datenismus zur neuen Religion wird. Der Datenismus lehrt, dass das Universum ausschließlich aus Datenströmen besteht und der Wert jedes Phänomens durch seinen Beitrag zur Datenverarbeitung bestimmt wird. Wenn wir diese Ideologie unkritisch akzeptieren, degradieren wir den Menschen zu einem bloßen Werkzeug der maschinellen Datengewinnung. Wir müssen den Wert der menschlichen Erfahrung und der Weisheit aktiv verteidigen. Das erfordert eine globale Bildungsrevolution.

Peter Drucker: Bequemlichkeit war schon immer der größte Feind der Freiheit. Freiheit erfordert immense Anstrengung, ständige Wachsamkeit und die absolute Bereitschaft, Konflikte geduldig auszuhalten. Wenn wir diese Anstrengung scheuen, werden wir schleichend zu Sklaven unserer eigenen Werkzeuge. Genau hier sehe ich die primäre Aufgabe der modernen Bildung. Wir müssen den Menschen nicht primär beibringen, wie sie Software programmieren. Wir müssen sie befähigen, kritisch zu denken, ethische Dilemmata zu bewerten und entschlossen Widerstand gegen manipulative Systeme zu leisten.

Yuval Noah Harari: Dem pflichte ich voll und ganz bei. Bildung muss psychologische Flexibilität und emotionale Balance in den absoluten Mittelpunkt stellen. Die Menschen müssen lernen, sich selbst immer wieder völlig neu zu erfinden, da der beschleunigte technologische Wandel ihre Lebensentwürfe regelmäßig zerstören wird. Vor allem müssen wir lernen, unsere eigenen Gehirne und Schwächen besser zu verstehen, bevor die Algorithmen sie komplett entschlüsselt und übernommen haben.

Peter Drucker: Selbsterkenntnis und konsequentes Selbstmanagement sind die absoluten Schlüsselkompetenzen unseres Jahrhunderts. Jeder Wissensarbeiter muss sein eigener Manager werden. Er muss genau wissen, wo seine wahren Stärken liegen und welche moralischen Werte ihn leiten. Nur wer feste innere Werte besitzt, kann den massiven äußeren Stürmen standhalten. Wir haben nun die enorme Aufgabe vor uns, unsere Institutionen, unsere Bildungssysteme und unser eigenes Verhalten an diese neue Realität anzupassen. Wir dürfen unter keinen Umständen in Passivität verfallen. Wir müssen den Wandel aktiv gestalten, um unsere menschliche Autonomie dauerhaft zu bewahren.

Yuval Noah Harari: Wie die Geschichte ausgeht, ist zum Glück noch offen. Wir können den algorithmischen Totalitarismus noch verhindern, wenn wir die wahre Natur der künstlichen Intelligenz verstehen und ihr global klare Grenzen setzen. Die Zeit drängt jedoch enorm.

Peter Drucker: Dann lassen Sie uns keine weitere wertvolle Zeit verlieren. Diese Diskussion muss aus den akademischen Zirkeln direkt in die Vorstände, die Parlamente und die Wohnzimmer getragen werden. Ich danke Ihnen für dieses profunde Gespräch Professor Harari.

 

Hinweise:

Dierk Söllner unterstützt Fach- und Führungskräfte bei aktuellen Herausforderungen durch professionelles Coaching und bietet nützliche Trainings zu KI an.

Dieses fiktive Gespräch baut auf den theoretischen Grundlagen auf, die im ersten Beitrag dieser Serie – Peter Drucker trifft KI – beschrieben sind. Dort geht es unter anderem um den wahren Wert von Wissensarbeit.

[1] Yuval Noah Harari: Nexus – Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz
[2] Peter Drucker: The End of Economic Man – The Origins of Totalitarianism
[3] Yuval Noah Harari: Homo Deus – Eine Geschichte von Morgen

Sowohl Peter Drucker als auch Yuval Noah Harari betrachten künstliche Intelligenz als tiefgreifenden historischen Einschnitt. Während Harari vor einer fremdartigen Intelligenz warnt, die den Menschen in einen algorithmischen Totalitarismus treiben und durch Automatisierung eine nutzlose Klasse erschaffen könnte, setzt Drucker auf pragmatische Gegenkräfte. Er sieht in der aktiven Stärkung der Zivilgesellschaft und in tiefgreifendem Selbstmanagement die effektivsten Werkzeuge, um unsere menschliche Autonomie zu bewahren. Beide betonen eindringlich, dass wir sofort neue Korrekturmechanismen etablieren müssen, bevor uns die Technologie diese freie Wahl abnimmt.

Nach dem philosophischen Blick auf unsere menschliche Autonomie trifft Peter Drucker im nächsten Beitrag den Chefarzt Dr. Rashid. Krankenhäuser ersticken in Bürokratie. Dr. Rashid hofft auf KI für Diagnosen und Arztbriefe. Doch Drucker mahnt, dass Medizin Beziehungsarbeit ist. Dient KI-Effizienz nur der reinen Kostensenkung oder schenkt sie uns endlich wieder Zeit für echte menschliche Fürsorge?

Wollen Sie als Multiplikatorin oder Meinungsführer über die Zukunft menschlicher Autonomie im KI-Zeitalter diskutieren? Dann teilen Sie diesen Beitrag in Ihrem Netzwerk.

Dierk Söllner hat weitere Beiträge mit Peter Drucker im t2informatik Blog veröffentlicht, u. a.:

t2informatik Blog: Wenn die KI dein Handwerk übernimmt

Wenn die KI dein Handwerk übernimmt

t2informatik Blog: AGI ohne klaren Kundennutzen und Kompass

AGI ohne klaren Kundennutzen und Kompass

t2informatik Blog: Lösung sucht Problem

Lösung sucht Problem

Dierk Söllner
Dierk Söllner

Die Vision von Dierk Söllner lautet: „Menschen und Teams stärken – empathisch und kompetent“. Als zertifizierter Business Coach (dvct e.V.) unterstützt er Teams sowie Fach- und Führungskräfte bei aktuellen Herausforderungen durch professionelles Coaching. Kombiniert mit seiner langjährigen und umfassenden fachlichen Expertise in IT-Methodenframeworks macht ihn das zu einem kompetenten und empathischen Begleiter bei Personal-, Team und Organisationsentwicklung. Er betreibt den Podcast „Business Akupunktur„, hat einen Lehrauftrag zu „Moderne Gestaltungsmöglichkeiten hoch performanter IT-Organisationen“ an der NORDAKADEMIE Hamburg und das Fachbuch „IT-Service Management mit FitSM“ publiziert.

Seine Kunden reichen vom DAX-Konzern über mittelständische Unternehmen bis zu kleineren IT-Dienstleistern. Er twittert gerne und veröffentlicht regelmäßig Fachbeiträge in Print- und Online-Medien. Gemeinsam mit anderen Experten hat er die Initiative „Value Stream“ gegründet.

Im t2informatik Blog veröffentlichen wir Beträge für Menschen in Organisationen. Für diese Menschen entwickeln und modernisieren wir Software. Pragmatisch. ✔️ Persönlich. ✔️ Professionell. ✔️ Ein Klick hier und Sie erfahren mehr.