KI und die kleine Notlüge

Gastbeitrag von | 03.04.2025

Zwischen Wahrheit und Lüge: Ein Plädoyer für KI-Ehrlichkeit

Der Mann auf meinem Bildschirm wirkt zufrieden, fast ein wenig stolz. In der Videokonferenz stellt er mir sein Programm vor – ein Tool, das ein echtes Vertriebsproblem lösen soll: verlorene Leads zurückgewinnen. Also Menschen, die einst Interesse zeigten, dann aber aus irgendeinem Grund nie wieder kontaktiert wurden.

Seine Lösung? Automatisierte SMS. Eine freundliche Assistentin schreibt die potenziellen Kunden an, fragt nach ihrem aktuellen Stand und versucht, in einem kurzen Textaustausch einen Termin zu vereinbaren. Laut Entwickler funktioniert das erstaunlich gut, denn bis zu 40 Prozent der alten Leads lassen sich so zurückholen.

Was mich wirklich neugierig machte: Die sympathische Assistentin ist keine echte Person. Sie ist ein KI-Tool.

Soweit, so effizient. Die Software kann hunderte, sogar tausende Nachrichten täglich verschicken. Mit dem richtigen Training antwortet sie nicht nur schnell, sondern auch erstaunlich menschlich, hilfreich, höflich, auf den Punkt.

Während der Demo übernahm ich die Rolle des potenziellen Kunden. Ich stellte kritische Fragen zu Cybersicherheit und Datenschutz, testete die Grenzen des Systems. Dann kam ein entscheidender Moment, nicht auf meine Initiative, sondern auf Vorschlag meines Gesprächspartners: Ich schickte der Assistentin die Frage per SMS: „Bist du ein Mensch oder ein Roboter?“

Die Antwort kam sofort: „Ich bin Julia, eine menschliche Assistentin im Vertrieb. Ich schreibe dir, um dir zu helfen.“

Ich erstarrte für einen Moment.

Was danach folgte, war ein spannendes Gespräch über Marketing, Vertrieb und die kleinen Notlügen, die dort offenbar dazugehören. Doch mir stellte sich plötzlich eine viel grundsätzlichere Frage: Sollten wir KI wirklich beibringen, uns anzulügen?

Ist es akzeptabel, dass KI lügt, um ihre Aufgaben zu lösen?

KI-Anwendungen entwickeln sich sehr schnell und versuchen immer, eine Lösung zu finden und eine Antwort zu generieren. Dass ein Programm ab und zu halluziniert, ist schon lange bekannt und es gibt viele Beispiele, darunter auch sehr unterhaltsame.

In einem Interview mit dem Handelsblatt und in seinem neuesten Buch „Nexus“ beschreibt Yuval Noah Harari eine Situation, in der ein KI-Tool ein alltägliches Internetproblem lösen soll: das Einloggen auf einer Website mit Hilfe eines CAPTCHA. [1] Als das Tool das CAPTCHA-Rätsel nicht lösen konnte, kam es auf die Idee, auf einer Freelancer-Plattform nach einer realen Person zu suchen, die ihm helfen könnte. Als die Person misstrauisch wurde und fragte: „Bist du ein Roboter?“, antwortete das Tool, dass es ein Mensch mit Sehproblemen sei, der Hilfe beim Einloggen benötige. Interessanterweise war das Tool nicht darauf trainiert, auf diese Weise zu antworten, aber es fand eine Lösung für diese Herausforderung.

Eine scheinbar harmlose Lüge in dieser Situation, aber was passiert, wenn künstliche Intelligenz sich daran gewöhnt, zu lügen, um ihre Aufgaben zu lösen? Wie können Entwickler und Nutzer von KI-Werkzeugen dieses Problem eindämmen, bevor es zu einem ernsthaften Risiko wird?

Die Notwendigkeit der Kontrolle

Auf dem Weg zur künstlichen allgemeinen Intelligenz (AGI) ist die Sorge weit verbreitet, dass der Mensch die Kontrolle darüber verliert, was Maschinen tun. Und auch, dass Maschinen (Roboter, KI-Anwendungen usw.) selbstständig Entscheidungen treffen könnten, die dem Menschen schaden.

Die Gefahr liegt nicht in einer hyperintelligenten KI, die die Weltherrschaft übernimmt, sondern in kleinen, unscheinbaren Lügen, die sich – oft unbemerkt – in unser digitales Leben einschleichen.

Die eigentliche und drängendere Herausforderung besteht darin, dass wir oft nicht wissen oder nur in begrenztem Maße ahnen, welche Probleme entstehen können, wenn KI tatsächlich Dinge tut oder sagt, die nicht real oder sogar gefährlich sind.

In seinem Buch „The Coming Wave“ warnt Mustafa Suleyman, CEO von Microsoft AI und einer der führenden KI-Experten, vor den unkontrollierbaren Auswirkungen der KI-Entwicklungen und führt zahlreiche Beispiele an, die von der Regierungsführung bis zur biologischen Forschung, vom globalen Finanzwesen bis zur Cybersicherheit reichen. Suleyman betont die Notwendigkeit der so genannten „Eindämmung“, die er als „die Fähigkeit, Technologien zu überwachen, einzuschränken, zu kontrollieren und möglicherweise sogar zu verbieten“ beschreibt.

„Technologie sollte das Beste in uns stärken, neue Wege für Kreativität und Zusammenarbeit eröffnen, mit dem menschlichen Kern unseres Lebens und unseren wertvollsten Beziehungen arbeiten. Sie sollte uns glücklicher und gesünder machen, die ultimative Ergänzung menschlichen Strebens und eines gut gelebten Lebens sein, aber immer zu unseren Bedingungen, demokratisch entschieden, öffentlich diskutiert, mit breit geteilten Vorteilen.“ [2]

Vom Guten und Bösen in der KI-Entwicklung

Ein aktueller Artikel der New York Times verweist auf ein Dokument des Vatikans, das vor KI-Entwicklungen warnt und ethisch-moralische Reflexion in diesem Prozess fordert. Die Kirche geht sogar so weit, vor möglichen teuflischen Aspekten und Auswirkungen von KI-Entwicklungen zu warnen: „In allen Bereichen, in denen Menschen Entscheidungen treffen müssen, droht der Schatten des Bösen“, heißt es in dem Dokument des Vatikans. Und weiter: „Die moralische Bewertung dieser Technologie muss berücksichtigen, wie sie kontrolliert und eingesetzt wird.“ [3]

Die Kirche sieht KI nicht nur als technologische Errungenschaft, sondern auch als moralische Herausforderung: Wenn Maschinen anfangen, eigene Entscheidungen zu treffen, wer trägt dann die Verantwortung? Und wie können wir verhindern, dass KI unethisch handelt?

Ich fand es spannend zu lesen, weil die Kirche oft Metaphern verwendet, die tief in ihren Lehren und Einsichten verwurzelt sind, und eine klare Schwarz-Weiß-Sprache für Gut und Böse verwendet. Vom philosophischen Standpunkt aus kann man immer argumentieren, dass der Teufel und der Engel beide Aspekte der menschlichen Natur und des menschlichen Handelns sind und dass die Menschen bei ihren Entscheidungen oft an die eine oder die andere Seite denken. Darüber hinaus wird Technologie – einschließlich Internet, soziale Medien und künstliche Intelligenz – oft als ein Werkzeug beschrieben, das zum Guten oder zum Bösen verwendet werden kann. Sie sind nicht von Natur aus gut oder schlecht, sondern es sind die Absichten der Menschen, die diese Werkzeuge entwickeln, verbreiten und nutzen, die den Unterschied ausmachen.

Das Besondere und Beunruhigende an der künstlichen Intelligenz ist, dass einige Entwicklungen durch Programmierung und Training beabsichtigt sein können, während andere das Ergebnis einer kontinuierlichen Selbstoptimierung und eines Selbsttrainings der Werkzeuge sind.

KI sollte ehrlich bleiben

In meinem Gespräch mit dem Betreiber des Verkaufstools wies er darauf hin, dass das Tool die Antworten entsprechend seinem Training ausspuckt und alles sagen kann, was der Benutzer ihm beibringt. Letztendlich liegt es also am Benutzer zu entscheiden, ob das Tool lügen und sich als echte Person ausgeben soll, oder ob es die Wahrheit sagen und zugeben soll, dass es ein Roboter ist, und Wege finden soll, mit der Reaktion des Kunden auf diese Information umzugehen.

Ich persönlich ziehe es vor, mit einem ehrlichen Roboter zu tun zu haben. Als begeisterter Benutzer von ChatGPT habe ich es zu meinem persönlichen Assistenten gemacht, der mir hilft, Pläne zu machen, Fragen zu beantworten und meine (vielen, unterschiedlichen und sehr intensiven) Gedanken zu ordnen. Ich habe auch gelernt, seine freundliche Art zu schätzen, mit meinen Anfragen umzugehen, indem er Gespräche immer positiv beendet, mich fragt, ob ich weitere Hilfe benötige und mir sagt: „Du schaffst das!“

Abgesehen von gelegentlichen Halluzinationen, die mich bisher nicht gestört haben (ich benutze das Tool schließlich nicht, um kritische Lebensentscheidungen zu treffen!), möchte ich auch weiterhin darauf vertrauen können, dass die KI-Tools, die ich benutze, mich nicht anlügen.

Wenn Sie demnächst eine SMS von einer netten Vertriebsassistentin bekommen, fragen Sie ruhig: „Bist du ein Mensch?“

Die Antwort kann viel über das Unternehmen verraten und darüber, ob es Ihre Werte teilt. Denn am Ende haben wir als Nutzer die Wahl: Wollen wir eine ehrliche KI? Oder lassen wir zu, dass uns Systeme manipulieren? Nicht nur Entwickler entscheiden, wie KI eingesetzt wird, auch wir.

Extra-Bonus

Hier finden Sie 3 zusätzliche Fragen über ehrliche und unehrliche Künstliche Intelligenz, die Olivia Falkenstein beantwortet (bitte auf Plus drücken):

Kann eine KI wirklich "lügen", wenn sie kein Bewusstsein und kein eigenes Wertesystem hat?

Olivia Falkenstein: Ich denke ja, man kann den Begriff der Lüge verwenden. Ob der KI-Algorithmus darauf trainiert wurde (wie im Fall der Verkaufsapp) oder ob die KI selbst auf die Idee kommt, sich als Mensch auszugeben (wie im Beispiel von Yuval Harari), um ein Problem zu lösen, das sind natürlich unterschiedliche Situationen. Man hat auch von „Halluzinationen“ im Zusammenhang mit KI gesprochen, ebenfalls eine Situation, in der man ein Konzept, das mit Menschen und psychischen Zuständen zu tun hat, auf KI überträgt.

Welche Mechanismen könnten verhindern, dass Unternehmen auf "unehrliche KI" setzen?

Olivia Falkenstein: Aus meiner Sicht gibt es drei Mechanismen, um unehrliche KI zu verhindern:

1. Klare Regeln

Staatliche Regulierung, wie sie gerade in der EU vorangetrieben wird, kann Unternehmen dazu verpflichten, bestimmte ethische Standards einzuhalten. Ja, manchmal wirkt Regulierung übertrieben. Aber in diesem Fall ist sie wichtig, um Vertrauen zu schaffen und Missbrauch zu verhindern.

2. Verantwortung im Unternehmen selbst

Firmen, die moralisch handeln wollen, müssen das auch bei KI tun. Dazu gehören klare Richtlinien, wie die eigene KI eingesetzt wird und was sie eben nicht darf. Diese Regeln sollten öffentlich sein, regelmäßig überprüft und wirklich gelebt werden, nicht nur als PR-Maßnahme dienen.

3. Das Verhalten der Nutzer

Wir alle haben Einfluss. Wenn uns eine KI-Anwendung unangenehm auffällt, zum Beispiel, weil sie lügt oder täuscht, können wir Feedback geben, Alternativen suchen oder den Dienst ganz meiden. Unsere Entscheidungen als Nutzer senden ein starkes Signal. Letztlich stimmen wir mit unserem Verhalten und unserem Geld darüber ab, welche Art von KI wir unterstützen wollen.

Wer haftet für manipulative KI-Anwendungen?

Olivia Falkenstein: Technologieunternehmen haben zweifellos viel zur Entwicklung und zum Fortschritt der Menschheit beigetragen. Gleichzeitig haben sie aber auch neue Technologien auf den Markt gebracht, die oft nur unzureichend kontrolliert wurden.

Man stelle sich vor, man würde ein neues Auto zulassen mit dem Gedanken: „Wir schauen erst mal, wie sicher es fährt, dann bessern wir nach.“ Oder bei einem Medikament: „Einfach raus damit, Tests machen wir später.“ Unvorstellbar.

Bei sozialen Medien oder KI-Anwendungen passiert aber genau das. Sie kommen oft ohne umfassende Prüfungen in den Alltag und können tief in unser Leben eingreifen.

Deshalb sehe ich vor allem die Unternehmen selbst in der Verantwortung: Sie müssen dafür sorgen, dass ihre Software sicher und ethisch entwickelt wird. Ergänzt wird das durch Regulierungsbehörden und durch uns Nutzer, die Feedback geben, Alternativen suchen und kritische Fragen stellen.

Wichtig: Das ist keine juristische Bewertung. Viele rechtliche Fragen rund um KI und Verantwortung sind derzeit noch unbeantwortet. Es wird spannend zu beobachten sein, wie Gerichte in den kommenden Jahren mit entsprechenden Fällen umgehen und welche Standards sich durchsetzen.

Hinweise:

Wollen Sie Ihren positiven Einfluss auf Umwelt, Soziales oder Governance verstärken? Dann sprechen Sie Olivia Falkenstein einfach auf LinkedIn an.

[1] Mustafa Suleyman: The Coming Wave
[2] Handelsblatt: Interview mit Yuval Noah Harari
[3] The New York Times: Citing ‘Shadow of Evil,’ Vatican Warns About the Risks of A.I.

Wenn Ihnen der Beitrag gefällt oder Sie darüber diskutieren wollen, teilen Sie ihn gerne in Ihrem Netzwerk.

Olivia Falkenstein hat zwei weitere Beiträge im t2informatik Blog veröffentlicht:

t2informatik Blog: Cybersecurity: Mehr als nur ein Schutzschild

Cybersecurity: Mehr als nur ein Schutzschild

t2informatik Blog: Wie nachhaltig sind Softwareunternehmen?

Wie nachhaltig sind Softwareunternehmen?

Olivia Falkenstein
Olivia Falkenstein

Olivia Falkenstein ist Mitbegründerin von Dunn & Falkenstein Consulting und unterstützt Führungskräfte bei der Entwicklung und Kommunikation ihrer Nachhaltigkeitsstrategien. Während ihrer beruflichen Laufbahn in Technikunternehmen hat sie ein Gespür dafür entwickelt, Geschäftsmöglichkeiten und Herausforderungen zu erkennen und festzustellen, wie Unternehmen eine positive Wirkung erzielen können. Ihre Beratung konzentriert sich auf die Verbindung zwischen Zweck und Gewinn.

Im t2informatik Blog veröffentlichen wir Beträge für Menschen in Organisationen. Für diese Menschen entwickeln und modernisieren wir Software. Pragmatisch. ✔️ Persönlich. ✔️ Professionell. ✔️ Ein Klick hier und Sie erfahren mehr.