Ethische Maschinen entwickeln oder Maschinen ethisch entwickeln?

Gastbeitrag von | 05.02.2018 | Softwareentwicklung | 4 Kommentare

In den Forschungsinstituten und auf den Industriemessen können wir schon seit Jahrzehnten bewundern, was mit der künstlichen Intelligenz technisch alles möglich ist: Personen auf Fotos erkennen, natürliche Sprache und Situationen verstehen, Dialoge führen, Navigation, Fahrzeuge steuern, Treppensteigen und Tanzen. Gut, nicht jede Maschine kann alles davon, aber mit genügend Budget ist es denkbar, einen autonomen Roboter zu bauen, der alle diese Fähigkeiten vereint. Autonom bedeutet, dass der Roboter selbständig Entscheidungen trifft, ohne Fahrer oder Fernsteuerung.

Trotzdem sehen wir immer noch keine Allzweckroboter die Straße entlang rollen. Die Künstliche Intelligenz ist aus gutem Grund noch nicht in unserem Alltag angekommen. Abgesehen davon, dass kaum einer von uns sich so einen Haushaltshelfer finanziell leisten kann, hapert es momentan noch ganz prosaisch an rechtlichen Fragen. Eine Betriebserlaubnis für eine potenziell gefährliche Maschine, die sich unbeaufsichtigt im öffentlichen Raum bewegt, dürfte schwierig zu erhalten sein. Mir ist aber schon auf einem Universitätsflur ein autonomer Roboter begegnet, der sich von mir im Aufzug mitnehmen ließ. (Er war zu klein, um den Aufzugsknopf selbst zu drücken.) Auch in Fabrikhallen, im Flugzeugcockpit, auf Feldern oder auf den Schienen der U-Bahn, also einem abgegrenzten Privatgelände, sind Roboter und Autopiloten längst im Einsatz. Der erste Mensch, der von einem Roboter getötet wurde, war ein Wartungsmechaniker, der leider einen Fehler gemacht hatte, als er den Roboter in den Wartungsmodus schalten sollte. Dieser Todesfall war also nicht der Startschuss dazu, dass die Roboter die Weltherrschaft an sich reißen, sondern ein Betriebsunfall, wie er auch mit einer gar nicht intelligenten Häckselmaschine nur zu leicht passieren kann. Aber solche tödlichen Missverständnisse sollen natürlich keinen unschuldigen Passanten treffen.

Die Regeln für ethisch korrektes Verhalten

Bevor man beginnt, sich hochphilosophische Gedanken über Maschinenethik zu machen, sollte man bedenken, dass die Frage nach dem ethisch richtigen Verhalten praktisch schon lange beantwortet wurde. Ein Roboter soll sich natürlich genauso verhalten wie wir es von einem Menschen korrekterweise in derselben Situation erwarten würden. Wenn die Ampel „rot“ zeigt, soll das autonome Auto stehen bleiben, bei „Grün“ soll es fahren. Außer es stehen konkrete Ausnahmegründe dagegen, z.B. wenn ein Fußgänger trotz Rot auf die Straße läuft. In jahrzehnte- oder sogar jahrhundertelanger mühsamer Arbeit wurden Gesetze, Regelwerke, Normen, Handbücher und Lehrmaterialien für alle Lebenslagen entwickelt. Diese gelten auch für Roboter, wenn sie unsere Arbeit übernehmen. Hinzu kommen oft noch ungeschriebene Gesetze und Best Practices.

Wer sich mit Ethik beschäftigt weiß, dass Regeltreue und Ethik in wenigen Einzelfällen nicht deckungsgleich sind. Viele Regelwerke decken nicht alle Spezialfälle ab, die man dann in der Praxis durch Tricks zu umgehen weiß. Sobald die Ethik in die Maschine hinein soll, müssen solche Sonderfälle dann doch codifiziert werden.

Aus technischer Sicht stellt sich die Frage, wie man solche Regeln der Maschine beibringt. Man kann sie als feste Regeln und Algorithmen einprogrammieren. Dafür gibt es genügend schon bekannte Möglichkeiten, beispielsweise Entscheidungsbäume oder Zustandsmaschinen. Charmant erscheint auch die Idee, neuronale Netze einzusetzen, um ungeschriebene Regeln, Sonderfälle und subtile Unterschiede zu erlernen, die nirgends codifiziert sind. Wie ein Fahrschüler oder Auszubildender lernt die künstliche Intelligenz implizites Wissen durch den ständigen Kontakt mit dem Trainer, dessen Vorbild und Feedback. Aus rechtlicher Sicht geht damit ein eventueller Haftungsanspruch bei Fehlern des Roboters vom Programmierer der Algorithmen zum Trainer über, der eventuell der Besitzer ist. Das hat einen Vorteil für den Hersteller. Berücksichtigt man allerdings die Tatsache, dass sich künstliche Intelligenz bisher schon regelmäßig dadurch blamiert hat, dass sie falsche Zusammenhänge lernte oder die unethischen Unarten ihrer Trainer übernahm, erscheint das Selbstlernen gar nicht mehr so attraktiv. Auf jeden Fall benötigt dieser Ansatz eine qualitativ hochwertige Lernumgebung und einen ausgebildeten Trainer. Das wäre dann ein neuer Beruf – Robotertrainer statt Hundetrainer?

Software-Fehler sind unethisch

Nehmen wir mal an, wir programmieren eine künstliche Intelligenz, die eine potenziell gefährliche Maschine steuert wie ein Auto oder anderes Straßenfahrzeug, eine Lieferdrohne (die einem Passanten auf den Kopf fallen könnte) oder einen Pflegeroboter (der eine Gefährdung übersehen könnte oder den Patienten verletzt). Für die Programmierung verwenden wir Gesetze, Lehrbücher und Erfahrungsberichte von Ausbildern. Ist die Maschine dann schon ethisch korrekt?

Vermutlich. Aber nur dann, wenn sie auch tatsächlich tut, was sie soll. Fehlerfreie Software-Entwicklung und gründliches Testen sind geboten, aber leider nicht perfekt möglich. Auch hierfür gibt es Regeln, Standards und Best Practices, die Fehler zwar nicht völlig verhindern, aber das Risiko für unentdeckte Fehler auf ein ethisch und rechtlich vertretbares Niveau absenken können. Bisher werden ja bereits erfolgreich sicherheitskritische Systeme entwickelt. 2017 beispielsweise ist kein einziges Passagierflugzeug abgestürzt. Dazu tragen außer strengen Standards für alle Einzelteile des Systems und für den gesamten Entwicklungsprozess auch regelmäßige engmaschige Qualitätskontrollen und eine ganz stringente Umsetzung des Prinzips der kontinuierlichen Prozessverbesserung bei. Kontinuierliche Prozessverbesserung bedeutet eine Geisteshaltung, dass man sich ständig noch verbessern kann und will. Setzt man sich die völlige Fehlerfreiheit der Maschine zum Ziel, darf es keine Toleranz gegenüber Fehlern geben. Nicht nur jeder Unfall, sondern auch jeder Beinaheunfall und jede Unregelmäßigkeit muss ernst genommen und untersucht werden: Wie ist das zustande gekommen? Wo liegt die Ursache? Wie können wir eine Wiederholung zukünftig verhindern? An welcher Stelle müssen wir noch besser werden?

Eine solche kompromisslose Qualitätsorientierung muss zwangsläufig zu einer Verbesserung führen. Leider verursacht sie Kosten für Analysen, Qualitätssicherungsmaßnahmen und Veränderungen des Arbeitsprozesses. Aus betriebswirtschaftlicher Sicht ist es wohl auch unethisch, Geld an unnötige Sicherungsmaßnahmen zu verschwenden. Bei Einzelanfertigungen ist eine solche Qualitätssicherung am schwierigsten finanzierbar, bei Massenprodukten – was Roboter und Künstliche Intelligenz momentan allerdings noch nicht sind – reduziert sich der Pro-Stück-Preis der Qualitätssicherung durch die Umlage auf die produzierte Masse. Es wäre aber trotzdem unethisch, an der Sicherheit zu sparen und lebensgefährliche Geräte auf die Menschheit loszulassen.

Nicht alles darf den Maschinen überantwortet werden

So gerechnet werden wohl auch weiterhin die Maschinen nur solche Vorgänge steuern, die nicht in der Öffentlichkeit stattfinden oder keinen physischen Schaden anrichten können. Beispielsweise Big Data-Analysen betreffen durchaus die unschuldige Allgemeinheit, gefährden aber bisher selten eine menschliche Existenz. Aus ethischer wie rechtlicher Sicht ist noch eine große Hürde zu überwinden bis Maschinen, Software oder Künstliche Intelligenz die Verantwortung für Menschenleben übernehmen darf, und meiner Meinung nach sollten sie das überhaupt niemals tun.

Das wäre nicht nur riskant, sondern auch eine Entwicklung, die nicht leicht rückgängig gemacht werden kann. Wenn beispielsweise in 30 Jahren Busse und Autos nur noch durch Software gesteuert werden und die Fahrer bzw. Passagiere keinen Führerschein mehr benötigen, werden sie auch keinen mehr ablegen. Die Fahrschulen machen dicht und die Verkehrsregeln geraten in Vergessenheit. Der Ausfall des Fahrautomaten (z. B. durch einen Software-Fehler im neusten Update) hätte schwerwiegendere Folgen als heutzutage der Ausfall einer Ampel. Der Verkehr würde zusammenbrechen. Ähnliches gilt für maschinengesteuerte Herstellungsprozesse, automatisierte Managemententscheidungen und so weiter. Kein Mensch wüsste mehr genau, was hier passiert und was eigentlich passieren sollte. Wenn hier etwas schief geht, dann geht es richtig schief.

Die drei Fragen der Maschinenethik

Die Maschinenethik spaltet sich also auf in drei unterschiedliche Fragen:

  • Wie lernt eine Maschine ethisches Verhalten?
  • Wie entwickeln wir fehlerfreie autonome Maschinen, da Fehler unethisch sind?
  • Welche Verantwortung dürfen wir ethischerweise den Maschinen überlassen? Wo dürfen wir sie einsetzen, welche Entscheidungen dürfen sie selbst treffen?

Von diesen drei Fragen halte ich die letzte für die wichtigste. Wenn uns dabei Fehler unterlaufen, lassen sich diese vielleicht nicht mehr korrigieren.

 

Hinweise:

Interessieren Sie sich für weitere Tipps aus der Praxis? Testen Sie unseren wöchentlichen Newsletter mit interessanten Beiträgen, Downloads, Empfehlungen und aktuellem Wissen.

Unter http://www.herrmann-ehrlich.de/ bloggt Frau Dr. Andrea Herrmann regelmäßig über Requirements Engineering und Software Engineering.

Im t2informatik Blog hat Dr. Andrea Herrmann weitere Beiträge veröffentlicht, u. a.

t2informatik Blog: Die größten Hindernisse im Requirements Engineering

Die größten Hindernisse im Requirements Engineering

t2informatik Blog: Die Inspektion der Spezifikation

Die Inspektion der Spezifikation

t2informatik Blog: Die Künstliche Intelligenz und unsere Zukunft

Die Künstliche Intelligenz und unsere Zukunft

Dr. Andrea Herrmann
Dr. Andrea Herrmann

Dr. Andrea Herrmann ist seit 2012 freiberufliche Trainerin und Beraterin für Software Engineering. Sie hat mehr als 20 Berufsjahre in Praxis und Forschung. Aktuell ist sie Vertretungsprofessorin an der Hochschule Dortmund. Sie hat mehr als 100 Fachpublikationen veröffentlicht und hält regelmäßig Konferenzvorträge. Frau Dr. Herrmann ist offizielle Supporterin des IREB-Board, Mitautorin von Lehrplan und Handbuch des IREB für die CPRE Advanced Level Zertifizierung in Requirements Management.

4 Kommentare

  1. Conny Dethloff

    Hallo zusammen,

    erst einmal stelle ich mir die Frage, die hier leider nicht thematisiert wird, in wie weit wir Menschen überhaupt in der Lage sind, menschliche Intelligenz auf Maschinen nachzubauen.

    Denn genau davon sind wir noch unglaublich weit entfernt. Warum? Unsere Wissenschaft ist auf Monokontexturalität aufgebaut. Maschinen kennen immer nur genau einen Kontext, nämlich den, der durch den Erbauer der Maschine in diese eingebaut wurde. Lebendigkeit ist aber polykontextural. Dazu habe ich unter anderem hier einige Beiträge verfasst. https://blog-conny-dethloff.de/?tag=kunstliche-intelligenz

    So lange wir diesen Fakt nicht ernst nehmen, handeln wir unethisch, da wir den Menschen trivialisieren müssen, um ihn mit Maschinen gleichsetzen zu können.

    BG, Conny

    Antworten
    • Andrea Herrmann

      Guten Tag Herr Dethloff,
      diese Frage habe ich nicht behandelt, sondern habe auf der Grundlage argumentiert: „Was wäre, wenn es möglich wäre?“ Dass künstliche Intelligenz niemals wie die menschliche Intelligenz sein wird, ist klar. Beispielsweise alles was irgendwie mit Empathie zu tun hat, werden Computer niemals wirklich können. Mitgefühl zu simulieren mag ja noch funktionieren, aber irgendwo auch an Grenzen stoßen.
      Viele intellektuelle Fähigkeiten des Menschen kann man aber schon ganz ordentlich nachbauen und manches können Maschinen besser als wir. Beispielsweise der Entfernungssensor eines Autos funktioniert besser als unser menschliches Augenmaß.
      Dass Roboter und Software bisher immer nur für einen bestimmten Zweck oder eine bestimmte Tätigkeit und natürlich auch einen bestimmten Kontext erschaffen werden, stimmt. Aber den Allzweckroboter zu entwickeln, der sich in allen Lebenslagen bewährt, ist vor allem eine Frage der Komplexität bzw. Kosten. Irgendwann wird es aber mal klappen!
      Viele Grüße,
      Andrea Herrmann

      Antworten
      • Conny Dethloff

        Hallo Frau Herrmann,

        genau, was wäre wenn es möglich wäre, wenn wir also menschliche Intelligenz nachbilden könnten. Aus meiner Sicht aber ist genau diese Diskussion von einer Ethikdiskussion nicht ganz zu trennen.

        Und ja ich bin vollkommen bei Ihnen. Viele Tätigkeiten kann die Maschine besser vollführen als wir Menschen es wohl je könnten. Aber alle diese Tätigkeiten sind zu 100% beschreibbar, denn sonst könnten wir diese nicht auf Maschinen übertragen.

        Alle anderen Tätigkeiten, die eben nicht zu 100% beschreibbar sind, lassen sich nicht auf Maschinen übertragen. Ich nehme aber leider eine Bewegung wahr, dass auch diese Tätigkeiten beschreibbar gemacht werden, leider oft zu unreflektiert, und damit wird der Mensch an sich auf das Niveau einer Maschine trivialisiert. Und damit wären wir im Bereich der Ethik angelangt.

        Stand heute sind wir noch meilenweit davon entfernt, menschliche Kompetenzen und Skills aus dem eher emotionalen Bereich reduktionsfrei auf Maschinen nachbilden zu können. Rudolf Kaehr, ein Schüler von Gotthard Günther, hat u.a. dazu geforscht. Dazu gerne hier mehr. https://blog-conny-dethloff.de/?p=221

        BG, Conny Dethloff

        Antworten
        • Andrea Herrmann

          Guten Tag Herr Dethloff,
          da gebe ich Ihnen vollkommen Recht: Das Nachbilden der menschlichen Intelligenz wird der KI schwer fallen. Ich finde es aus ethischer Sicht aber gar nicht wünschenswert. Dann würden die Maschinen ja dieselben Fehler machen wie Menschen: sich irren, subjektiv sein, beleidigt sein, depressiv werden etc.
          Andererseits können wir eine eiskalt berechnende, also quasi psychopathische KI nicht damit beauftragen, Verantwortung für Menschen zu tragen.
          Ich denke, dass KI sowieso viele Entscheidungen niemals treffen darf. Wir dürfen das Ruder nicht aus der Hand geben, sondern die Maschinen müssen relativ dumme Knechte bleiben, die zwar ihre Arbeit gut hinbekommen, aber eben nicht Gewerkschaften bilden, abends zum Schlafen nach Hause gehen oder Freundschaften schließen.
          Ich habe neulich anderswo (in meinem eigenen Blog) geschrieben, dass ich gar nicht mal fürchte, dass die Maschinen die Weltherrschaft an sich reißen. Das müsste sich durch einen Notaus-Knopf verhindern lassen. Aber ich mache mir mehr Sorgen, dass die Menschen verdummen und bequem werden und irgendwann bestimmte Tätigkeiten nicht mehr von Hand durchführen können. Und dann hängen wir von den Maschinen ab. Und dann stürzt der Zentralcomputer ab oder wird gehackt… Es ist ja noch nicht so lange her, dass die Deutsche Bahn gehackt wurde. Betroffen waren so weit ich das sehen konnte nur die Anzeigen und einzelne Fahrkartenautomaten. Da es noch Aushangfahrpläne gibt und die Züge weiterhin fuhren, war der Schaden überschaubar. Aber wiederholen wir das mal in einem Zeitalter der Vollautomatisierung und autonomen Züge…
          Viele Grüße,
          Andrea Herrmann
          http://herrmannehrlich.twoday.net/stories/maschinenethik-soll-ein-auto-einen-menschen-toeten/

          Antworten

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht.