Ethische Maschinen entwickeln oder Maschinen ethisch entwickeln?

Gastbeitrag von | 05.02.2018

In den Forschungsinstituten und auf den Industriemessen können wir schon seit Jahrzehnten bewundern, was mit der künstlichen Intelligenz technisch alles möglich ist: Personen auf Fotos erkennen, natürliche Sprache und Situationen verstehen, Dialoge führen, Navigation, Fahrzeuge steuern, Treppensteigen und Tanzen. Gut, nicht jede Maschine kann alles davon, aber mit genügend Budget ist es denkbar, einen autonomen Roboter zu bauen, der alle diese Fähigkeiten vereint. Autonom bedeutet, dass der Roboter selbständig Entscheidungen trifft, ohne Fahrer oder Fernsteuerung.

Trotzdem sehen wir immer noch keine Allzweckroboter die Straße entlang rollen. Die Künstliche Intelligenz ist aus gutem Grund noch nicht in unserem Alltag angekommen. Abgesehen davon, dass kaum einer von uns sich so einen Haushaltshelfer finanziell leisten kann, hapert es momentan noch ganz prosaisch an rechtlichen Fragen. Eine Betriebserlaubnis für eine potenziell gefährliche Maschine, die sich unbeaufsichtigt im öffentlichen Raum bewegt, dürfte schwierig zu erhalten sein. Mir ist aber schon auf einem Universitätsflur ein autonomer Roboter begegnet, der sich von mir im Aufzug mitnehmen ließ. (Er war zu klein, um den Aufzugsknopf selbst zu drücken.) Auch in Fabrikhallen, im Flugzeugcockpit, auf Feldern oder auf den Schienen der U-Bahn, also einem abgegrenzten Privatgelände, sind Roboter und Autopiloten längst im Einsatz. Der erste Mensch, der von einem Roboter getötet wurde, war ein Wartungsmechaniker, der leider einen Fehler gemacht hatte, als er den Roboter in den Wartungsmodus schalten sollte. Dieser Todesfall war also nicht der Startschuss dazu, dass die Roboter die Weltherrschaft an sich reißen, sondern ein Betriebsunfall, wie er auch mit einer gar nicht intelligenten Häckselmaschine nur zu leicht passieren kann. Aber solche tödlichen Missverständnisse sollen natürlich keinen unschuldigen Passanten treffen.

Die Regeln für ethisch korrektes Verhalten

Bevor man beginnt, sich hochphilosophische Gedanken über Maschinenethik zu machen, sollte man bedenken, dass die Frage nach dem ethisch richtigen Verhalten praktisch schon lange beantwortet wurde. Ein Roboter soll sich natürlich genauso verhalten wie wir es von einem Menschen korrekterweise in derselben Situation erwarten würden. Wenn die Ampel „rot“ zeigt, soll das autonome Auto stehen bleiben, bei „Grün“ soll es fahren. Außer es stehen konkrete Ausnahmegründe dagegen, z.B. wenn ein Fußgänger trotz Rot auf die Straße läuft. In jahrzehnte- oder sogar jahrhundertelanger mühsamer Arbeit wurden Gesetze, Regelwerke, Normen, Handbücher und Lehrmaterialien für alle Lebenslagen entwickelt. Diese gelten auch für Roboter, wenn sie unsere Arbeit übernehmen. Hinzu kommen oft noch ungeschriebene Gesetze und Best Practices.

Wer sich mit Ethik beschäftigt weiß, dass Regeltreue und Ethik in wenigen Einzelfällen nicht deckungsgleich sind. Viele Regelwerke decken nicht alle Spezialfälle ab, die man dann in der Praxis durch Tricks zu umgehen weiß. Sobald die Ethik in die Maschine hinein soll, müssen solche Sonderfälle dann doch codifiziert werden.

Aus technischer Sicht stellt sich die Frage, wie man solche Regeln der Maschine beibringt. Man kann sie als feste Regeln und Algorithmen einprogrammieren. Dafür gibt es genügend schon bekannte Möglichkeiten, beispielsweise Entscheidungsbäume oder Zustandsmaschinen. Charmant erscheint auch die Idee, neuronale Netze einzusetzen, um ungeschriebene Regeln, Sonderfälle und subtile Unterschiede zu erlernen, die nirgends codifiziert sind. Wie ein Fahrschüler oder Auszubildender lernt die künstliche Intelligenz implizites Wissen durch den ständigen Kontakt mit dem Trainer, dessen Vorbild und Feedback. Aus rechtlicher Sicht geht damit ein eventueller Haftungsanspruch bei Fehlern des Roboters vom Programmierer der Algorithmen zum Trainer über, der eventuell der Besitzer ist. Das hat einen Vorteil für den Hersteller. Berücksichtigt man allerdings die Tatsache, dass sich künstliche Intelligenz bisher schon regelmäßig dadurch blamiert hat, dass sie falsche Zusammenhänge lernte oder die unethischen Unarten ihrer Trainer übernahm, erscheint das Selbstlernen gar nicht mehr so attraktiv. Auf jeden Fall benötigt dieser Ansatz eine qualitativ hochwertige Lernumgebung und einen ausgebildeten Trainer. Das wäre dann ein neuer Beruf – Robotertrainer statt Hundetrainer?

Software-Fehler sind unethisch

Nehmen wir mal an, wir programmieren eine künstliche Intelligenz, die eine potenziell gefährliche Maschine steuert wie ein Auto oder anderes Straßenfahrzeug, eine Lieferdrohne (die einem Passanten auf den Kopf fallen könnte) oder einen Pflegeroboter (der eine Gefährdung übersehen könnte oder den Patienten verletzt). Für die Programmierung verwenden wir Gesetze, Lehrbücher und Erfahrungsberichte von Ausbildern. Ist die Maschine dann schon ethisch korrekt?

Vermutlich. Aber nur dann, wenn sie auch tatsächlich tut, was sie soll. Fehlerfreie Software-Entwicklung und gründliches Testen sind geboten, aber leider nicht perfekt möglich. Auch hierfür gibt es Regeln, Standards und Best Practices, die Fehler zwar nicht völlig verhindern, aber das Risiko für unentdeckte Fehler auf ein ethisch und rechtlich vertretbares Niveau absenken können. Bisher werden ja bereits erfolgreich sicherheitskritische Systeme entwickelt. 2017 beispielsweise ist kein einziges Passagierflugzeug abgestürzt. Dazu tragen außer strengen Standards für alle Einzelteile des Systems und für den gesamten Entwicklungsprozess auch regelmäßige engmaschige Qualitätskontrollen und eine ganz stringente Umsetzung des Prinzips der kontinuierlichen Prozessverbesserung bei. Kontinuierliche Prozessverbesserung bedeutet eine Geisteshaltung, dass man sich ständig noch verbessern kann und will. Setzt man sich die völlige Fehlerfreiheit der Maschine zum Ziel, darf es keine Toleranz gegenüber Fehlern geben. Nicht nur jeder Unfall, sondern auch jeder Beinaheunfall und jede Unregelmäßigkeit muss ernst genommen und untersucht werden: Wie ist das zustande gekommen? Wo liegt die Ursache? Wie können wir eine Wiederholung zukünftig verhindern? An welcher Stelle müssen wir noch besser werden?

Eine solche kompromisslose Qualitätsorientierung muss zwangsläufig zu einer Verbesserung führen. Leider verursacht sie Kosten für Analysen, Qualitätssicherungsmaßnahmen und Veränderungen des Arbeitsprozesses. Aus betriebswirtschaftlicher Sicht ist es wohl auch unethisch, Geld an unnötige Sicherungsmaßnahmen zu verschwenden. Bei Einzelanfertigungen ist eine solche Qualitätssicherung am schwierigsten finanzierbar, bei Massenprodukten – was Roboter und Künstliche Intelligenz momentan allerdings noch nicht sind – reduziert sich der Pro-Stück-Preis der Qualitätssicherung durch die Umlage auf die produzierte Masse. Es wäre aber trotzdem unethisch, an der Sicherheit zu sparen und lebensgefährliche Geräte auf die Menschheit loszulassen.

Nicht alles darf den Maschinen überantwortet werden

So gerechnet werden wohl auch weiterhin die Maschinen nur solche Vorgänge steuern, die nicht in der Öffentlichkeit stattfinden oder keinen physischen Schaden anrichten können. Beispielsweise Big Data-Analysen betreffen durchaus die unschuldige Allgemeinheit, gefährden aber bisher selten eine menschliche Existenz. Aus ethischer wie rechtlicher Sicht ist noch eine große Hürde zu überwinden bis Maschinen, Software oder Künstliche Intelligenz die Verantwortung für Menschenleben übernehmen darf, und meiner Meinung nach sollten sie das überhaupt niemals tun.

Das wäre nicht nur riskant, sondern auch eine Entwicklung, die nicht leicht rückgängig gemacht werden kann. Wenn beispielsweise in 30 Jahren Busse und Autos nur noch durch Software gesteuert werden und die Fahrer bzw. Passagiere keinen Führerschein mehr benötigen, werden sie auch keinen mehr ablegen. Die Fahrschulen machen dicht und die Verkehrsregeln geraten in Vergessenheit. Der Ausfall des Fahrautomaten (z. B. durch einen Software-Fehler im neusten Update) hätte schwerwiegendere Folgen als heutzutage der Ausfall einer Ampel. Der Verkehr würde zusammenbrechen. Ähnliches gilt für maschinengesteuerte Herstellungsprozesse, automatisierte Managemententscheidungen und so weiter. Kein Mensch wüsste mehr genau, was hier passiert und was eigentlich passieren sollte. Wenn hier etwas schief geht, dann geht es richtig schief.

Die drei Fragen der Maschinenethik

Die Maschinenethik spaltet sich also auf in drei unterschiedliche Fragen:

  • Wie lernt eine Maschine ethisches Verhalten?
  • Wie entwickeln wir fehlerfreie autonome Maschinen, da Fehler unethisch sind?
  • Welche Verantwortung dürfen wir ethischerweise den Maschinen überlassen? Wo dürfen wir sie einsetzen, welche Entscheidungen dürfen sie selbst treffen?

Von diesen drei Fragen halte ich die letzte für die wichtigste. Wenn uns dabei Fehler unterlaufen, lassen sich diese vielleicht nicht mehr korrigieren.

 

Hinweise:

Interessieren Sie sich für weitere Tipps aus der Praxis? Testen Sie unseren wöchentlichen Newsletter mit interessanten Beiträgen, Downloads, Empfehlungen und aktuellem Wissen.

Im t2informatik Blog hat Dr. Andrea Herrmann weitere Beiträge veröffentlicht, u. a.

t2informatik Blog: Die größten Hindernisse im Requirements Engineering

Die größten Hindernisse im Requirements Engineering

t2informatik Blog: Die Inspektion der Spezifikation

Die Inspektion der Spezifikation

t2informatik Blog: Die künstliche Intelligenz und unsere Zukunft

Die Künstliche Intelligenz und unsere Zukunft

Dr. Andrea Herrmann
Dr. Andrea Herrmann

Dr. Andrea Herrmann ist seit 2012 freiberufliche Trainerin und Beraterin für Software Engineering. Sie hat mehr als 28 Berufsjahre in Praxis und Forschung.

Frau Dr. Herrmann war zuletzt als Vertretungsprofessorin an der Hochschule Dortmund tätig, sie hat mehr als 100 Fachpublikationen veröffentlicht und hält regelmäßig Konferenzvorträge. Sie ist offizielle Supporterin des IREB-Board, sowie Mitautorin von Lehrplan und Handbuch des IREB für die CPRE Advanced Level Zertifizierung in Requirements Management.