Foto: zVg

Jasagt Johan Rochel.

Foto: zVg

Neinsagt Manuela Lenzen.
Ich zucke jedes Mal zusammen, wenn ich höre, dass Ethik in technologische Werkzeuge integriert werden soll. Denn die Ethik ist zum Glück schon drin. Bei der Entwicklung arbeiten die Teams mit vielfältigen Evaluationen, wägen Interessen ab und haben Strategien – das sind alles kleine normative Kreuzungen, an denen ethische Entscheidungen getroffen werden, die auf Zielen und Werten basieren.

Die Herausforderung besteht also nicht darin, Ethik von aussen hineinzubringen, sondern die Fülle der bereits getroffenen ethischen Entscheidungen sichtbar zu machen. Ein Kernpunkt betrifft dabei das gewünschte Verhalten des Roboters. Denn wenn er mit Menschen in Kontakt kommt, muss er sich an Regeln halten können. Hier sind drei Herausforderungen zu bewältigen: Erstens muss über grundlegende ethische Ansätze entschieden werden, etwa zwischen Folgenethik oder Pflichtenethik. Darauf basierend gilt es zweitens, allgemein akzeptierte Regeln und Methoden für die Entscheidungsfindung festzulegen. Und letztlich muss sichergestellt werden, dass der Roboter technisch in der Lage ist, diese Regeln einzuhalten.

«Die Ethik ist in technologischen Werkzeugen zum Glück schon drin.»

Beim Einsatz von Robotern in Konfliktgebieten ist es etwa zwingend, dass sie die Prinzipien des Kriegsvölkerrechts einhalten. Ein Konsens auf dem Papier ist jedoch keine Garantie für die technische Machbarkeit. Wie wird garantiert, dass der Roboter die relevanten Konsequenzen erkennt, sie bewerten kann und entsprechend handelt?

Diese Fragen sind ethische Herausforderungen, es geht etwa um die Wahl der anzuwendenden Werte, die aber auch eine technische Komponente haben: denn schliesslich soll immer weiter optimiert werden, was technisch machbar ist. Diese Fragen sollten nicht mit der Einteilung in richtig und falsch angegangen werden, sondern mit dem Ziel, am Ende das Verhalten des Roboters erklärbar und vorhersehbar zu machen – auf der Grundlage von dokumentierten und begründeten normativen Entscheidungen. Diese Fragen rufen also nach einer engeren Zusammenarbeit zwischen Forschenden aus Ethik und Robotik.

Johan Rochel ist Postdoc an der EPFL, Autor des Buches «Les robots parmi nous – pour une éthique des machines» und Mitgründer des Labors für Innovationsethik ethix.

«Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.» Der Science-Fiction-Autor Isaac Asimov lotete in seinen Geschichten aus, ob solche Gesetze ausreichen würden, um Robotern vorzugeben, wie sie sich zu verhalten haben. Immer wieder kam er zu dem Schluss, dass Moral zu komplex ist, um sie in Regeln zu fassen.

Aber können Algorithmen und mit ihnen die Roboter Moral nicht aus grossen Datenmengen lernen? So, wie sie lernen können, Bilder zu klassifizieren und Fragen zu beantworten? In der Tat haben manche Algorithmen inzwischen gelernt, dass es zum Beispiel in Ordnung ist, Zeit totzuschlagen, Menschen aber nicht. Doch wie alle Systeme, die aus grossen Datenbeständen lernen, verstehen sie nicht wirklich, worum es geht. Unsere Wörter und Sätze ergeben nun einmal nur Sinn, wenn sie mit einer gehörigen Portion gesundem Menschenverstand unterfüttert werden.

«Künstliche Moral dürfte vor allem die Verwirrung in der Welt mehren.»

Es ist ein wenig wie bei dem sagenhaften König Midas, der sich gewünscht hatte, alles, was er berühre, möge sich in Gold verwandeln. Natürlich hatte er nicht gemeint, dass sich auch sein Essen verwandeln sollte. Den Menschen beim Wort zu nehmen, war bei den Göttern vermutlich eine Neckerei, ist bei Algorithmen aber ein grundlegendes Problem. Sie lösen die ihnen gestellten Aufgaben nicht unbedingt so, wie wir uns dies wünschen würden. Nur strenge menschliche Aufsicht und intensives Nachtrainieren hält sie in der Spur, was aber nur ein schwacher Ersatz für moralisches Empfinden sein kann.

Die Moral, die Algorithmen lernen können, wird den Ergebnissen der grossen Sprachmodelle ähneln: Sie klingen gut, sind aber oft banal und manchmal völlig daneben. Solche Roboter werden uns noch stärker darüber täuschen, womit wir es eigentlich zu tun haben: mit technischen Werkzeugen, die die Welt nicht so verstehen wie wir. Künstliche Moral dürfte vor allem die Verwirrung in der Welt mehren und uns im schlimmsten Fall dazu verführen, diese Systeme in Bereichen einzusetzen, in denen sie überfordert sind und früher oder später Unheil anrichten.

Manuela Lenzen ist Wissenschaftsjournalistin in Deutschland und Autorin des Buches «Künstliche Intelligenz: Fakten, Chancen, Risiken» und wissenschaftliche Mitarbeiterin an der Universität Bielefeld.

Foto: zVg

Jasagt Johan Rochel.

Ich zucke jedes Mal zusammen, wenn ich höre, dass Ethik in technologische Werkzeuge integriert werden soll. Denn die Ethik ist zum Glück schon drin. Bei der Entwicklung arbeiten die Teams mit vielfältigen Evaluationen, wägen Interessen ab und haben Strategien – das sind alles kleine normative Kreuzungen, an denen ethische Entscheidungen getroffen werden, die auf Zielen und Werten basieren.

Die Herausforderung besteht also nicht darin, Ethik von aussen hineinzubringen, sondern die Fülle der bereits getroffenen ethischen Entscheidungen sichtbar zu machen. Ein Kernpunkt betrifft dabei das gewünschte Verhalten des Roboters. Denn wenn er mit Menschen in Kontakt kommt, muss er sich an Regeln halten können. Hier sind drei Herausforderungen zu bewältigen: Erstens muss über grundlegende ethische Ansätze entschieden werden, etwa zwischen Folgenethik oder Pflichtenethik. Darauf basierend gilt es zweitens, allgemein akzeptierte Regeln und Methoden für die Entscheidungsfindung festzulegen. Und letztlich muss sichergestellt werden, dass der Roboter technisch in der Lage ist, diese Regeln einzuhalten.

«Die Ethik ist in technologischen Werkzeugen zum Glück schon drin.»

Beim Einsatz von Robotern in Konfliktgebieten ist es etwa zwingend, dass sie die Prinzipien des Kriegsvölkerrechts einhalten. Ein Konsens auf dem Papier ist jedoch keine Garantie für die technische Machbarkeit. Wie wird garantiert, dass der Roboter die relevanten Konsequenzen erkennt, sie bewerten kann und entsprechend handelt?

Diese Fragen sind ethische Herausforderungen, es geht etwa um die Wahl der anzuwendenden Werte, die aber auch eine technische Komponente haben: denn schliesslich soll immer weiter optimiert werden, was technisch machbar ist. Diese Fragen sollten nicht mit der Einteilung in richtig und falsch angegangen werden, sondern mit dem Ziel, am Ende das Verhalten des Roboters erklärbar und vorhersehbar zu machen – auf der Grundlage von dokumentierten und begründeten normativen Entscheidungen. Diese Fragen rufen also nach einer engeren Zusammenarbeit zwischen Forschenden aus Ethik und Robotik.

Johan Rochel ist Postdoc an der EPFL, Autor des Buches «Les robots parmi nous – pour une éthique des machines» und Mitgründer des Labors für Innovationsethik ethix.

 


Foto: zVg

Neinsagt Manuela Lenzen.

«Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.» Der Science-Fiction-Autor Isaac Asimov lotete in seinen Geschichten aus, ob solche Gesetze ausreichen würden, um Robotern vorzugeben, wie sie sich zu verhalten haben. Immer wieder kam er zu dem Schluss, dass Moral zu komplex ist, um sie in Regeln zu fassen.

Aber können Algorithmen und mit ihnen die Roboter Moral nicht aus grossen Datenmengen lernen? So, wie sie lernen können, Bilder zu klassifizieren und Fragen zu beantworten? In der Tat haben manche Algorithmen inzwischen gelernt, dass es zum Beispiel in Ordnung ist, Zeit totzuschlagen, Menschen aber nicht. Doch wie alle Systeme, die aus grossen Datenbeständen lernen, verstehen sie nicht wirklich, worum es geht. Unsere Wörter und Sätze ergeben nun einmal nur Sinn, wenn sie mit einer gehörigen Portion gesundem Menschenverstand unterfüttert werden.

«Künstliche Moral dürfte vor allem die Verwirrung in der Welt mehren.»

Es ist ein wenig wie bei dem sagenhaften König Midas, der sich gewünscht hatte, alles, was er berühre, möge sich in Gold verwandeln. Natürlich hatte er nicht gemeint, dass sich auch sein Essen verwandeln sollte. Den Menschen beim Wort zu nehmen, war bei den Göttern vermutlich eine Neckerei, ist bei Algorithmen aber ein grundlegendes Problem. Sie lösen die ihnen gestellten Aufgaben nicht unbedingt so, wie wir uns dies wünschen würden. Nur strenge menschliche Aufsicht und intensives Nachtrainieren hält sie in der Spur, was aber nur ein schwacher Ersatz für moralisches Empfinden sein kann.

Die Moral, die Algorithmen lernen können, wird den Ergebnissen der grossen Sprachmodelle ähneln: Sie klingen gut, sind aber oft banal und manchmal völlig daneben. Solche Roboter werden uns noch stärker darüber täuschen, womit wir es eigentlich zu tun haben: mit technischen Werkzeugen, die die Welt nicht so verstehen wie wir. Künstliche Moral dürfte vor allem die Verwirrung in der Welt mehren und uns im schlimmsten Fall dazu verführen, diese Systeme in Bereichen einzusetzen, in denen sie überfordert sind und früher oder später Unheil anrichten.

Manuela Lenzen ist Wissenschaftsjournalistin in Deutschland und Autorin des Buches «Künstliche Intelligenz: Fakten, Chancen, Risiken» und wissenschaftliche Mitarbeiterin an der Universität Bielefeld.