Berührungsängste mit künstlicher Intelligenz hat Claus Beisbart keine. Er vermutet sogar, dass der Mensch und sein Computer zum neuen Erkenntnissubjekt werden. | Foto: Raffael Waldner

Haben Sie schon versucht, mit einem Chatbot eine philosophische Diskussion zu führen?

Ja, wir haben diskutiert, wie der Mensch seine Autonomie, seine Eigenständigkeit bewahren kann, wenn künstliche Intelligenz oder KI immer leistungsfähiger wird. Chat-GPT hat durchaus einschlägige Begriffe verwendet wie menschliche Würde, Transparenz und Fairness. Von einem tiefen philosophischen Gespräch sind wir aber noch weit entfernt. Der Chatbot hat sich zum Beispiel kaum positioniert. Aber sonst wenden wir die KI in der Philosophie schon an.

Wirklich? Wie dient Ihnen die KI?

Wir simulieren zum Beispiel, ob eine philosophische Methode zu Konsens führen kann, wenn es um Streitthemen wie Fleischkonsum geht. Das hängt natürlich stark von der Struktur der Debatte ab. Es gibt bei uns jedenfalls keine Ängste, mit dem Computer zu arbeiten.

Von Formeln und Ideen, die die Welt ausmachen
Claus Beisbart (52) publiziert sowohl zu Wissenschaft und Öffentlichkeit als auch zum Verständnis physikalischer Theorien. Er studierte Mathematik, Physik und Philosophie und promovierte an der Ludwig-Maximilians-Universität München in Kosmologie und später in Philosophie. Heute ist er Professor für Wissenschaftsphilosophie an der Universität Bern und befasst sich unter anderem mit Tiefem Lernen.

Kann man KI als Blackbox bezeichnen, die derart komplizierte Berechnungen anstellt, dass am Schluss niemand mehr versteht, was darin eigentlich passiert?

Das ist sicher ein Charakterzug von neuer KI, aber nicht die Definition. Es gibt auch die gute altmodische KI. Dazu gehören beispielsweise Simulationen, wie sie in den Klimawissenschaften angewandt werden. Die Regeln, nach denen diese KI arbeitet, die Gleichungen, werden von den Forschenden vorgegeben. Sie wissen daher, mit welchen Grössen der Computer rechnet. Anders ist es bei selbstlernenden Programmen. Diese geben sich die Regeln auf der Basis von Daten selbst. Ihre Anwendungen sind besonders schwierig zu durchschauen, nachzuvollziehen und kritisch zu überprüfen.

Können Sie ein konkretes Beispiel dafür nennen?

Ein neuronales Netz wird erst mal trainiert. Dazu bekommt es Daten, die korrekt klassifiziert sind. Wenn es dann Bilder von Hunden und Katzen unterscheidet, wissen wir nicht, auf welche Eigenschaften im Bild es anspricht. Möglicherweise beachtet es vor allem den Hintergrund. Die Forschung wird zwar immer besser darin, nachzuvollziehen, worauf die neuronalen Netze reagieren, aber es bleibt oft ein Rumprobieren – eine unheimlich mühevolle Arbeit.

«Ein Sprechverhalten, das nach aussen akzeptabel erscheint, heisst nicht unbedingt Verstehen.»

Kann ein neuronales Netz etwas verstehen? Zum Beispiel Chat-GPT?

Dies könnte schon irgendwann einmal der Fall sein. Aber hinter Chat-GPT steckt letztlich nur ein Sprachmodell, das darauf basiert, welche Wörter mit hoher Wahrscheinlichkeit aufeinander folgen. Der Bot plappert also einfach nach, was am häufigsten im Internet gesagt wurde. Das könnte zwar ausreichen, um den Turing-Test zu bestehen, bei dem ein Mensch entscheiden muss, ob er mit einem Computer oder einem anderen Menschen spricht. Aber ein Sprechverhalten, das nach aussen akzeptabel erscheint, heisst nicht unbedingt Verstehen. Dazu gibt es ein Gedankenexperiment von John Searle. Da sitzt eine Person, die kein Chinesisch versteht, in einem geschlossenen Raum, erhält chinesische Texte und chinesische Fragen dazu. Sie verfügt über ein Handbuch mit den Regeln für den Umgang mit den Zeichen. Sie kann also Antworten formulieren, ohne die Sprache zu verstehen.

Was heisst überhaupt verstehen – ich meine bei einem Menschen?

Viele denken da erst mal an den Aha-Effekt: Es macht klick, und man denkt, man hat es verstanden. Aber dieses Gefühl ist individuell und kann trügerisch sein. Daher bauen wir in der Philosophie nicht darauf, sondern versuchen, Verstehen an Fähigkeiten festzumachen. Bei der Sprache heisst das dann, dass ich die Bedeutung eines Satzes erklären kann, dass ich weiss, wie ich Ausdrücke neu kombinieren kann. Beim Verstehen von Phänomenen wie beispielsweise der Französischen Revolution kommt es darauf an, Informationen zu vernetzen, Verbindungen zu erkennen und eigenständig Schlüsse zu ziehen.

Wann man von künstlicher Intelligenz spricht
Für Philosophen wie Claus Beisbart geht es bei künstlicher Intelligenz (KI) darum, rationales Denken und Handeln von Menschen nachzuahmen oder sogar zu übertreffen. Wenn das dabei entstehende System tatsächlich intelligent ist, sprechen Philosophen von starker KI. Wenn es intelligentes Verhalten nur simuliert, heisst das schwache KI.

Im Zentrum der heutigen KI-Forschung steht vor allem das sogenannte maschinelle Lernen, bei dem sich die Algorithmen selbst verbessern. Die Regeln, die sie dabei anwenden, sind schwer durchschaubar. Dabei haben sich sogenannte künstliche neuronale Netze als besonders erfolgreich erwiesen. Diese sind im Computer programmierte, dem Hirn nachempfundene Strukturen, die selbst lernen. Für Netze mit vielen Schichten hat sich der Begriff Tiefes Lernen durchgesetzt. Solche Netze kommen auch bei der sprachlichen Datenverarbeitung von Chatbots wie Chat-GPT-4 zum Einsatz.

Wie beurteilen Sie die Fähigkeiten von Chat-GPT?

Chat-GPT bildet eine Art Durchschnitt davon, was im Internet steht, und gewichtet Aussagen nicht nach der Glaubwürdigkeit von Quellen. Diese Fähigkeit könnte man natürlich auch noch einbauen. Im Unterschied zu Menschen brauchen Computer auch unglaublich viele Daten. Einem Kind zeige ich ein einziges Mal einen Puppenwagen, und von da an erkennt es diesen.

Können wir uns aber auf die Outputs einer KI verlassen?

Wenn ich mit neuronalen Netzen Galaxien klassifiziere, dann sehe ich, dass dies in der Vergangenheit funktioniert hat, und vertraue dem Track Record. Das ist bei einem neuronalen Netz die einzige Begründung. Bei der guten altmodischen Klimasimulation dagegen weiss ich mehr: Wir verstehen heute die fundamentalen Prozesse in der Atmosphäre so genau, dass wir auch Szenarien berechnen können, die in den letzten 10 000 Jahren nicht vorkamen.

«Newton musste gleichzeitig auch noch die Differenzialrechnung erfinden.»

Im Jahr 2009 machten die Laborautomaten Adam und Eve Furore, die selbst Hypothesen aufstellten und Experimente mit Hefezellen durchführten. Heute hört man nicht mehr viel davon. Werden die Forschenden doch nicht so schnell ersetzt?

Adam und Eve demonstrierten erfolgreich, was möglich ist. Aber die Hypothesen, die Adam aufstellte, folgten alle demselben einfachen Schema. Es gibt schon weitaus Komplexeres: Im letzten Jahr hat man eine KI mit Nasa-Daten über die Planetenbewegungen gefüttert, damit sie daraus ein Gesetz für die Gravitationskraft ableitet wie Newton vor 350 Jahren. Das hat gut funktioniert. Allerdings gab man einen gewissen Rahmen vor. Newton musste gleichzeitig auch noch die Differenzialrechnung erfinden. Aber der Trend geht sicher in diese Richtung. Trotzdem: In näherer Zukunft wird es auf jeden Fall genug Forschungsarbeit für Menschen geben. KI verursacht auch viel Arbeit, weil wir sie nicht verstehen.

Müssen sich Forschende keine Sorgen machen, dass sie arbeitslos werden?

Der Überraschungscharakter von KI ist klar vorhanden. Aber vielleicht sollten wir Mensch und KI nicht gegeneinander ausspielen. Es ist nämlich schon die Frage: Wer ist eigentlich das Subjekt in der Forschung? Der Mensch? Manche sagen, das stimme schon länger nicht mehr, es seien Gruppen von Menschen, die etwas verstehen. Vielleicht entsteht jetzt ein komplexes Erkenntnissubjekt: der Mensch und sein Computer.

«Ich kann nicht ausschliessen, dass es mal eine KI gibt, die bessere Papers schreibt als ich.»

Wird es mal den KI-Philosophen geben?

Grundsätzlich muss ich als Philosoph offen sein. Ich kann nicht ausschliessen, dass es mal eine KI gibt, die bessere Papers schreibt als ich. Für gewisse Dinge wie Logik eignet sich der Computer sowieso sehr gut. Es gibt aber auch philosophische Methoden, für die ich mir den Computer nur schwer vorstellen kann, etwa die Analyse der eigenen Erfahrung. Ausserdem geht es nicht nur darum, schöne Papers zu schreiben, sondern auch, an den relevanten Themen der Zukunft dran zu sein. Da dürfte der Mensch im Vorteil sein. Insgesamt sehe ich es positiv: Mit dem Computer zusammen können wir in der Forschung Dinge machen, die bisher nicht möglich waren.