16 min read

Intelligente Maschinen sind Teil unseres Alltags geworden. Sie fahren unsere Autos, liefern personalisierte Produktempfehlungen und warnen uns vor Betrügern. Das Potenzial, mithilfe von Maschinen unsere Lebensqualität zu verbessern (oder unsere Zivilisation in den Abgrund zu stürzen, wenn man den Dystopien vieler Sci-Fi-Filme glauben darf) ist riesig. Doch so intelligent Maschinen geworden sind – können sie auch moralisch handeln?


Künstliche Intelligenz könnte uns eines Tages vollständig ersetzen. Zumindest, wenn wir den Worten von Stephen Hawking Glauben schenken. In einem Interview mit der Zeitschrift Wired erklärte Hawking: „Wenn Menschen Computerviren entwickeln, wird jemand eine künstliche Intelligenz entwickeln, die sich selbst verbessert und vermehrt. Das wird eine neue Lebensform sein, die die Fähigkeiten des Menschen übertrifft.” Es ist ein Schreckensszenario, das auch von anderen geteilt wird, etwa von Elon Musk, der erklärte, dass er die KI für „das größte Risiko für unsere Gesellschaft überhaupt” halte.

Doch ob man diese Befürchtungen teilt oder nicht: Je fortschrittlicher und alltäglicher die Maschinen werden, umso stärker werden ernsthafte Fragen über die Rolle von Robotern in unserer Gesellschaft diskutiert werden müssen. Das gilt ganz besonders, wenn diese Roboter eines Tages ethische Entscheidungen treffen sollen.

Überlegen Sie sich zum Beispiel einmal die folgenden Szenarien:

Szenario 1

Sie fahren in Ihrem Auto durch ein Wohngebiet. Wir schreiben das Jahr 2040 und das Fahrzeug steuert sich selbst. Zwei Kinder spielen auf einer nahegelegenen Wiese. Plötzlich laufen sie auf die Straße. Ihr Auto könnte den Kindern ausweichen. Doch dadurch würde es mit einem anderen Auto zusammenstoßen, in dem eine vierköpfige Familie fährt. Wen sollte das Auto retten?

Szenario 2

Oder stellen Sie sich Folgendes vor: Sie entwickeln automatisierte Systeme für das Militär. Es steht fest, dass ein Angriff auch Zivilisten gefährden würde. Aber wie lässt sich die Höhe des Risikos ermitteln? Und bis zu welcher Grenze ist das Risiko vertretbar – ist es vertretbar, schwangere Frauen und Kinder zu gefährden?

Szenario 3

Diese unangenehmen Fragen ähneln dem berühmten Trolley-Problem, einem Gedankenexperiment, das die Philosophin Philippa Foot im Jahr 1967 formulierte. Eine Straßenbahn läuft auf ihrem Gleis. Plötzlich gerät sie außer Kontrolle. Sie kann entweder auf ihrem Gleis weiterlaufen und wird dabei fünf Personen überrollen, die auf den Gleisen stehen, oder der Fahrer kann sie auf ein anderes Gleis umlenken, dadurch aber eine einzelne, andere Person überrollen.

Es gibt für diese Fragen keine eindeutige Antwort. Sie sollen uns vielmehr dazu anregen, durch Argumente und Schlussfolgerungen zu klären, welche Entscheidung wir am ehesten vertretbar fänden. Und auch wenn diese Extremszenarien eher unrealistisch sind, helfen sie uns doch bei unseren Überlegungen zum moralischen Handeln von KI. Am MIT wurde sogar ein Online-Experiment mit einem ausführlicheren, vergleichbaren Szenario entwickelt, dessen Ergebnisse als „moralisches Crowdsourcing“ genutzt werden.

 

21 % der Befragten würden ein selbstfahrendes Auto mit regulierten Moralvorstellungen kaufen

vs.

59 % der Befragten würden ein Auto kaufen, das darauf programmiert ist, immer das Leben des Fahrers zu retten

(Quelle: Wissenschaftsressort der Washington Post)

KI nach menschlichem Vorbild – nicht immer eine gute Idee

„Die menschliche Natur ist nicht schwarz und weiß, sondern schwarz und grau.”

—Graham Green

 

Perhaps we don’t need to worry so much about the morality of AI. After all, we’ll be creating them so we can shape their nature. If we train them to think like humans and develop our values, they’ll instinctively blend into our society. However, this approach is problematic in itself.

Firstly, a robot’s nature will always be different to ours. Even if we were to reach the sci-fi favourite of AI sentience, a robot’s lack of eating, aging and breeding means it would never truly think and behave like a human. Secondly, humans are innately flawed beings. And this can be reflected in the machines we create.

Im Jahr 2009 fanden Forscher des Ecole Polytechnique Fédérale de Lausanne in der Schweiz heraus, dass sie Roboter dazu bringen konnten, zu lügen. In ihrem Experiment statteten sie mehrere kleine Roboter mit künstlichen neuronalen Netzwerken und Sensoren aus. Diese Roboter wurden darauf programmiert, „Nahrung“ (einen hellen Ring) zu finden. Je näher sich die Roboter an der Nahrungsquelle aufhielten, desto mehr Punkte bekamen sie. Je stärker sie sich wiederum einem „Gift“ (ein dunkler Ring) näherten, desto mehr Punkte wurden ihnen abgezogen. Außerdem konnten sie ein blaues Licht aktivieren, das von den anderen Robotern wahrgenommen wurde.

Die erste Generation der Roboter entwickelte sich schnell soweit, dass sie die Nahrung auffanden und dabei ihre Lichter wahllos aktivierten. Dadurch lernten andere Roboter aus dem blinkenden Licht und fanden die Nahrung schneller. Die fünfzigste Robotergeneration hatte schließlich nicht nur gelernt, die Lichter in der Nähe der Nahrung deaktiviert zu lassen, damit keine anderen Roboter die Stelle fanden. Manche aktivierten ihr Licht sogar in der Nähe eines Gifts, um die anderen Roboter dorthin zu locken.

Damit spiegelten sie evolutionäre Verhaltensweisen, die auch in der echten Natur beobachtet werden. Doch obwohl wir es bei Menschen und Tieren für selbstverständlich erachten, dass sie in der Lage sind, andere zum eigenen Vorteil zu hintergehen, müssen wir uns hier die Frage stellen: Ist das wirklich ein Verhalten, das wir uns bei Maschinen wünschen?

Auf ähnliche Weise sind Roboter mit menschenähnlichen Eigenschaften in der Lage, menschliche Gefühle zu manipulieren. Wissenschaftler haben herausgefunden, dass die meisten Menschen eher bereit sind, Robotern mit freundlich wirkenden Zügen ihre Fehler zu verzeihen. Sie gehen teilweise sogar soweit, die Roboter anzulügen, um sie nicht zu verletzen. Robotern ohne Gesichtszüge wird diese Art der Behandlung nicht zuteil. Dies zeigt nicht nur, wie wichtig es ist, sich bei der Entwicklung von Robotern sehr genau zu überlegen, welche menschlichen Eigenschaften diese übernehmen sollten, es verdeutlicht auch, welche ethischen und emotionalen Probleme auftreten können, wenn wir Roboter nach menschlichem Vorbild entwickeln.

Ein weiterer wichtiger Punkt ist die Auswirkung von Vorurteilen auf das Lernverhalten der Maschine. Maschinen mit KI werden von Daten gespeist und durch diese Daten können mitunter negative Stereotypen und diskriminierende Rollen verstärkt werden. So haben Wissenschaftler herausgefunden, dass KIs ohne Aufsicht unter Umständen beginnen, weibliche Namen mit Berufen wie „Sekretärin“ oder „Bibliothekarin“ und männliche Namen mit Berufen wie „Arzt“ oder „Wissenschaftler“ zu assoziieren. Solange derartige Stereotype in unserer Gesellschaft bestehen bleiben, wird es auch für die Maschine schwer, unvoreingenommen zu bleiben.

Der Twitter-Bot wurde entwickelt, um durch „Sprachverstehen“ das Sprechverhalten eines jungen Millennials anzunehmen. Je mehr Twitter-Nutzer mit dem Bot chatteten, desto mehr lernte er, deren Umgangston zu übernehmen. Innerhalb von weniger als 24 Stunden begann der Bot jedoch, Hetzparolen von sich zu geben und einige der schlimmsten menschlichen Verhaltensweisen anzunehmen.

Maschinengestützte Entscheidungsprozesse heute

Schon jetzt verändern KIs und Maschinenlernen in manchen Branchen die Art und Weise, in der wichtige Entscheidungen gefällt werden. Dabei werden die meisten Tools jedoch eingesetzt, um die menschliche Entscheidungsfindung zu unterstützen, und nicht, um diese ganz zu ersetzen (zumindest auf absehbare Zeit).

Polizeiarbeit

Die Polizei in Durham, UK,  hat ein Prognose-KI-System implementiert, das bestimmt, ob ein Verdächtiger in Untersuchungshaft behalten werden sollte. Das „Harm Assessment Risk Tool“ (Hart) kalkuliert anhand von Polizeidaten aus dem Zeitraum von 2008 bis 2012, ob eine Person mit niedriger, mittlerer oder hoher Wahrscheinlichkeit wieder eine Straftat begehen wird.

Das System wurde erstmals im Jahr 2013 getestet und die Entscheidungen der KI wurden über einen Zeitraum von zwei Jahren hinweg beobachtet. Die Vorhersagen zu Verdächtigen mit geringem Risiko waren in 98 % der Fälle korrekt, die zu Verdächtigen mit hohem Risiko in 88 % der Fälle.

Finanzen

Viele Finanzunternehmen setzen für die Kreditwürdigkeitsprüfung Tools mit KI-Fähigkeiten ein, um die Entscheidungsfindung zu beschleunigen und Risiken zu minimieren.

Diese Tools können Informationen zur Transaktions- und Zahlungshistorie des Kreditnehmers ebenso verarbeiten wie unstrukturierte oder teilstrukturierte Datenquellen (z. B aus sozialen Medien und Mobilfunknutzung). Durch diese zusätzlichen Daten können potenzielle Kreditgeber das Ausgabeverhalten und die Wahrscheinlichkeit einer Rückzahlung besser einschätzen und erhalten dadurch einen wesentlich umfassenderen Überblick über die Kreditwürdigkeit einer Person.

AI and regulation

Credit: Ioannis Oikonomou


„Wenn Menschen Computerviren entwickeln, wird jemand eine künstliche Intelligenz entwickeln, die sich selbst verbessert und vermehrt. Das wird eine neue Lebensform sein, die die Fähigkeiten des Menschen übertrifft.”

—Stephen Hawking

Versicherung

Versicherer verwalten extrem große Datenmengen. Mithilfe von KI können diese Daten wesentlich effektiver ausgewertet werden. Dadurch erhalten die Versicherer ein klareres Bild von ihren Kunden und die Kunden erhalten Prämien, die besser auf ihre Bedürfnisse zugeschnitten sind.

Die KI unterstützt außerdem bei Entscheidungen über Versicherungsansprüche. Ein Beispiel dafür ist etwa Tractable, ein KI-Tool zur fotobasierten Schadensanalyse. Dabei können Fotos des Schadens zusammen mit einer Schätzung der Kosten in das System eingegeben werden. Das Tool vergleicht das Bild dann mit ähnlichen Fällen und kann eine genaue Kalkulation der Kosten abgeben.

Ethisches Verhalten für Roboter definieren

„Vor dem Gesetz ist jemand schuldig, wenn er die Rechte anderer Menschen verletzt. Ethisch betrachtet macht er sich bereits durch den Gedanken daran schuldig.“

—Immanuel Kant

 

Der Autor Wendell Wallach, Verfasser des Buches Moral Machines: Teaching Robots Right from Wrong beschreibt drei verschiedene Arten von Moral für Roboter:

Dem Roboter werden vordefinierte Reaktionen für sämtliche möglichen Situationen einprogrammiert

Wenn ein Roboter sich in einer Situation befindet, auf die er nicht vorbereitet wurde, legt der Roboter seinen Handlungen eine Art ethischer Argumentation zugrunde

Der Roboter lernt aus vergangenen Begegnungen ethische Verhaltensgrundsätze und kann seinen eigenen moralischen „Kompass“ entwickeln

Doch auch wenn wir in der Lage sind, Roboter mit moralischer Handlungsfähigkeit zu erschaffen: Ist das auch eine gute Idee? Die Frage, ob Roboter ethische Entscheidungen treffen sollten, ist schwierig. Schließlich lässt sich schon darüber streiten, ob wir Menschen für ethische Entscheidung überhaupt angemessen „programmiert“ sind.

Vielleicht helfen uns die Philosophen der Antike weiter. Plato betrachtete die Moral als etwas, das jenseits der menschlichen Natur lag. Für ihn war sie objektiv und universal. Eine Handlung kann nur dann moralisch sein, wenn sie von einem objektiven Blickwinkel aus gerechtfertigt werden kann. Auf den Bereich der KI angewandt würde Plato wohl für Maschinen plädieren, die immer das tun, was objektiv moralisch richtig ist. Roboter würden und sollten die schwierigen Entscheidungen übernehmen, zu deren „Berechnung“ wir unvollkommenen Menschen nicht in der Lage sind.

Für Aristoteles auf der anderen Seite entstand die Moral aus der persönlichen Tugend eines Individuums. So hatten Menschen ebenso ihre eigene Moral wie Tiere. Moral drückt sich dabei in der Fähigkeit aus, die eigenen Entscheidungen gegenüber einem anderen rationalen Individuum zu erklären. Daher müssten Roboter nach dieser Denkweise ihre eigene Moral entwickeln. Ihre Entscheidungen würden dabei durch ihre eigenen Werte gesteuert.

Beide Ansätze haben Vor- und Nachteile, doch keiner ist eindeutig besser als der andere. Allerdings können wir, wenn wir uns ansehen, wie stark Menschen von Emotionen geleitet sind (siehe z. B. die typische Aggression im Straßenverkehr) und zu schlechten Entscheidungen neigen (z. B. Fahren unter Alkoholeinfluss), bei Robotern immerhin davon ausgehen, dass sie konsistent handeln.

Sind Regulierungen die Antwort?

“Are fundamental assumptions underlying regulatory frameworks, such as a very generic distinction between ‘things’ and ‘humans’, sustainable in the longer term, if (bio)robotic applications are increasingly built into human bodies?”

Leenes R, Palmerini E, Bert-Jaap K, Bertolini A (2007)

 

The World Economic Forum’s Global Risk Report 2017 stated that AI, biotech and robots have some of the highest possible benefits to society. Together, these technologies can drive economic growth and solve society’s most complex challenges, such as climate change and population growth. However, these technologies also require the most legislation.

Today, the most famous rules governing robots and ethics were devised by science fiction author Isaac Asimov. His Three Laws of Robots state:

Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Diese Regeln dienen auch heute noch als Leitlinie für die Entwicklung von Robotern. Wenn man jedoch bedenkt, dass Asimov sie bereits im Jahr 1942 ersann, wird schnell klar, dass sie den Fähigkeiten und der Komplexität moderner KI vielleicht nicht mehr gerecht werden. Außerdem ignorieren diese Regeln eine Reihe zentraler Fragen: Wie wird etwa die Verletzung eines menschlichen Wesens definiert? Dürfte ein Roboter-Chirurg ein von Wundbrand befallenes Bein amputieren, um den Patienten zu retten?

Im Jahr 2016 erkannte das Europäische Parlament in einem Berichtsentwurf an, dass die KI im Laufe der nächsten Jahrzehnte die Fähigkeiten der menschlichen Intelligenz übertreffen könnte. Ohne entsprechende Vorkehrungen könne dies „die Fähigkeit der Menschheit, ihre eigene Schöpfung zu kontrollieren und folglich vielleicht auch die Fähigkeit, Herr über ihr eigenes Schicksal zu bleiben und für das Überleben der Spezies Mensch Sorge tragen zu können, ernsthaft gefährden“.

Der Bericht schlussfolgerte, dass die Forschung im Bereich Robotik im Interesse der Menschen und deren Wohlergehen erfolgen sollte. Zudem wurde die Einrichtung einer europaweiten Behörde für die Regulierung und die technische Beratung bei der Entwicklung von Robotern gefordert. Und auch wenn der Aspekt der KI-Ethik nur am Rande erwähnt wurde, wurde doch darauf hingewiesen, dass die Haftung im Verhältnis zur Autonomie und dem tatsächlichen Maß an externer Steuerung für den Roboter stehen sollte. Das bedeutet, dass die Maschinen und ihre Erschaffer beide für die Entscheidungen des Roboters verantwortlich gemacht werden sollten.

Die Zukunft

72 % der Europäer denken, dass Roboter gut für die Gesellschaft sind, da sie Menschen helfen.

(Quelle: Eurobarometer, 2015)

 

Das Problem bei der Frage nach moralischem Verhalten besteht darin, dass es kein klar definiertes richtig oder falsch gibt. Jeder – von Roboterdesignern und Entwicklern über Politiker bis hin zur Öffentlichkeit – wird eine eigene Meinung dazu haben, welche Vorgehensweise am besten ist. Gleichzeitig ist es schwierig, Moral zu lehren, da sie kaum in objektiven Worten ausdrückt werden kann. Dadurch wird es unmöglich, objektive Metriken zu erstellen, die die Maschinen verarbeiten können. Und dann gibt es auch noch das Argument, dass wir Menschen selbst kein wirkliches Verständnis von Moral haben. Denn meistens folgen wir unserem Bauchgefühl. Maschinen, auf der anderen Seite, fehlt dieser Instinkt naturgemäß.

Vielleicht liegt der beste Weg darin, Maschinen so zu entwickeln, wie wir unsere Kinder erziehen. Moralität ist ein andauernder Lernprozess. Wir zwingen unseren Kindern nicht einfach unsere Entscheidungen auf – vielmehr versuchen wir, ihnen eine Orientierung dazu zu geben, welche Art von Verhalten gut ist. Schlussendlich wird das Kind (oder der Roboter) sich auf eine Art Verhalten, die es für richtig hält.

Für den Moment sollten wir nicht vergessen, dass KI nicht wirklich selbstständig denken kann. Zwar können Roboter extrem komplexe Aufgaben ausführen, die wir normalerweise mit sehr intelligenten Menschen in Verbindung bringen würden (z. B. komplexe Gleichungen, medizinische Diagnosen, rechtliche Argumentation usw.), aber mit elementaren menschlichen Tätigkeiten – wie etwa die Wäsche zusammenzulegen oder einen Witz zu erzählen – sind sie noch überfordert. Die Fähigkeit zu unabhängigen moralischen Entscheidungen bleibt bis auf Weiteres noch Zukunftsmusik.