Ein Roboter porträtiert im Museum Menschen. Mit einem Stift in der Hand bietet er seinen ungewöhnlichen Dienst an. Er weiss allerdings nicht, wen er da zeichnet. | Bild: robotlab (2002)

Ein Experiment durchführen, ohne den Schreibtisch zu verlassen, ohne ein einziges Teströhrchen in die Hand zu nehmen oder in ein Mikroskop zu blicken: Das ist die Vision des Unternehmens Emerald Cloud Laboratory. Es will Biologen und Chemikern die Möglichkeit geben, mit einigen Mausklicks Experimente zu designen, Geräteeinstellungen zu wählen und zu überwachen und dann die Daten zu analysieren. Das Konzept des Cloud Computing über die einfache Datenspeicherung hinaus soll reale Experimente über das Internet ermöglichen und den Forschenden so mühsame Routinearbeiten abnehmen, damit ihnen mehr Zeit für die Entwicklung ausgereifter Experimente bleibt.

Zentrifugieren in der Cloud

Emerald bietet seine Leistungen aus einem Lagerhaus am Stadtrand von San Francisco an. Hier stehen reihenweise Labortische, mit Flüssigkeiten hantierende Roboter, automatische Inkubatoren, Zentrifugen und weitere Geräte zur Bearbeitung von Proben. Die spezifischen Anweisungen erhalten sie von den Nutzern über eine webbasierte Schnittstelle. Diese Anlage arbeitet mehr oder weniger autonom rund um die Uhr. So haben Forschende, die ein Experiment in Auftrag geben, die Ergebnisse innerhalb von 24 Stunden.

Noch bieten erst vereinzelte Unternehmen solche Dienste an. Pionierin war die 2012 gegründete Firma Transcriptic, die in einem Lagerhaus nur wenige Kilometer von Emerald entfernt tätig ist. Bereits gibt es unter den Forschenden begeisterte Anhänger des neuen Ansatzes. Einer von ihnen ist Justin Siegel, der an der University of California in Davis im Gebiet der synthetischen Biologie tätig ist. Seines Erachtens können seine Studierenden so mehr und komplexere Experimente realisieren, als wenn sie diese selber durchführen müssten. Selbst Studienanfänger oder Gymnasiasten profitieren. «Sie können sich auf das Versuchsdesign konzentrieren, ohne überlegen zu müssen, ob sie für die Durchführung genügend geschickt sind.»

«Die Roboter Adam und Eve wurden nicht als Autoren aufgeführt, weil sie ihre informierte Einwilligung nicht geben konnten.» Ross King

Emerald droht Opfer des eigenen Erfolgs zu werden. Die Firma hat ihren Cloud-Dienst im vergangenen Oktober lanciert. Nun führt sie bereits eine Liste mit mehreren hundert Laboratorien, die darauf warten, dass die Roboter für sie verfügbar sind. Mitbegründer Brian Frezza ist aber zuversichtlich, dass Emerald den Arbeitsrückstand aufholen kann und bis in etwa einem Jahr die rund hundert Standardexperimente anbieten kann, die in den Life Sciences gefragt sind. Im Moment sind rund 40 im Angebot. «Bis dann wollen wir profitabel arbeiten.»

Die Forschung hat schon viel Erfahrung mit Robotern. Pharmaunternehmen setzen sie seit Jahren für repetitive, zeitaufwendige Aufgaben in frühen Stadien der Medikamentenentwicklung ein. Biotech-Firmen greifen für die Gentechnologie auf sie zurück – die wachsende Nachfrage in diesem Bereich decken Hersteller von Instrumenten wie die in Zürich ansässige Tecan. «Die meisten Laboraufgaben können heute von Maschinen übernommen werden», sagt Ross King, Biologe und Informatiker an der britischen Universität Manchester.

Der Archetyp der automatisierten Wissenschaft ist wohl die DNA-Sequenzierung, also das Verfahren zur Bestimmung der Abfolge der Basenpaare. Während dies früher eine sehr zeitintensive Aufgabe war, die nur wenige Laboratorien anboten, wird sie heute von Maschinen erledigt, die millionenfach genetisches Material automatisch entziffern. Diese Geräte werden an zentralen Standorten eingerichtet, kaum ein Labor sequenziert selber.

Emerald macht gemäss Frezza etwas völlig anderes: «Statt wie eine Autofabrik in Fliessbandarbeit ein Experiment eine Million Mal durchzuführen, machen wir eine Million verschiedene Experimente mit einem Roboter.» Weil aber Roboter nicht sehr effizient darin sind, viele verschiedene Schritte nacheinander auszuführen – statt viele gleiche Prozesse zur selben Zeit –, sind die Geräte durchschnittlich langsamer und teurer als Menschen. Das Unternehmen versucht also nicht, bestehende Auftragsforschungsinstitute, die Roboter und Menschen einsetzen, preislich zu konkurenzieren.

Exakt reproduzieren ist ihre Stärke

Die grösste Tugend von Robotern ist nach Ansicht von Frezza die Reproduzierbarkeit oder – mit seinen Worten: die Tatsache, «dass sie immer genau gleich pipettieren». Um dies auszunutzen, hat Emerald eine Reihe von Protokollen entworfen, mit der Forschende dem Roboter Schritt für Schritt vorgeben können, was er tun soll. So wird ein Experiment absolut präzise und eindeutig festgelegt. Frezza glaubt, dass er mit seinem Team nun eine solide Palette solcher Protokolle entwickelt hat. Noch sei allerdings die Schnittstelle zu wenig benutzerfreundlich: «Was die Leute gar nicht mögen, ist das Gefühl, Programmiercodes zu schreiben.» Auch Richard Whitby von der University Southampton in Grossbritannien betont die Bedeutung der Reproduzierbarkeit. In seiner Disziplin, der organischen Chemie, ist die Vielseitigkeit des Menschen von grossem Vorteil bei komplexen Reaktionen. Wissenschaftliche Arbeiten geben diese Komplexität aber häufig nicht vollständig wieder, da sie beispielsweise nicht präzisieren, wie schnell Reagenzien eingeführt werden müssen. «Wenn nicht der genaue Wert jedes Parameters in einer Reaktion bekannt ist, wird es schwierig, die Auswirkungen bestimmter Variablen zu bestimmen », erklärt er.

Whitby leitet das britische Projekt «Dial-a-Molecule». Das Projekt will eine Maschine entwickeln, die auf Wunsch ein beliebiges Molekül aus organischen Verbindungen synthetisieren kann, genauso wie Biologen heute bestimmte DNA-Sequenzen per Post bestellen können. Whitby macht sich keine Illusion darüber, welche Hürden noch bevorstehen, und betont, dass eine solche Maschine in der Lage sein müsste, Zehntausende von Reaktionen auszuführen – gegenüber lediglich vier bei der DNA-Synthese.

Automatisch Hypothesen testen

Noch ambitionierter ist die Vision des Biologen King in Manchester: Er und sein Team wollen «den ganzen Forschungskreislauf automatisieren». Ebenso wie die Cloud-basierten Firmen verwenden sie kommerziell hergestellte Roboter, verknüpfen diese aber mit Systemen der künstlichen Intelligenz. Die Roboter lernen durch Logik und Wahrscheinlichkeitstheorie ein bestimmtes Thema. Die Idee ist, dass sie selber Hypothesen für ihre Beobachtungen formulieren. Dann soll die Maschine ihre eigenen Experimente entwickeln, um ihre Hypothesen zu testen, bevor sie dann wiederum neue Hypothesen entwirft. Diesen Zyklus wiederholt sie viele Male im Bestreben, Neues über die Welt zu lernen.

King ist der Ansicht, dass dieser Ansatz Früchte trägt und dass Maschinen die Arbeit von Forschenden effizienter und genauer machen können. Er begann mit seiner Forschung an der Aberystwyth University in Wales. Dort konzipierte er den Roboter «Adam», der 2008 mehrere zuvor unbekannte Hefe-Gene für Enzyme erfolgreich identifiziert hat. Inzwischen hat King den eine Million Dollar teuren Roboter «Eve» entwickelt, der noch mehr kann: Dieser entdeckte den Wirkmechanismus der seit Langem bekannten Verbindung Triclosan gegen Malaria – womit er wohl die Zulassung des Wirkstoffs als Arzneimittel erleichtern wird.

Neben der Biochemie sind Roboter auch vermehrt in den Materialwissenschaften anzutreffen. Im vergangenen Jahr berichteten Ingenieure des US Air Force Research Laboratory in Ohio über Ergebnisse eines Roboters mit künstlicher Intelligenz, der Forschung zu Kohlenstoffnanoröhren ausführte. Die zylindrischen Moleküle aus Kohlenstoff sind robust, leicht und leiten Wärme und Elektrizität hervorragend. Die Maschine führte über 600 Experimente selber durch und veränderte dabei die Bedingungen. So konnte sie die theoretischen Vorhersagen zur maximalen Wachstumsrate der Nanoröhren bestätigen.

Noch kein Paradigmenwechsel

Manche Forschende versuchen sogar, Fortschritte in der Physik zu automatisieren, wenn auch nicht mit eigentlichen Robotern. Hod Lipson von der Columbia University in den USA hat mit seinem Team einen Algorithmus entwickelt, der zufällige Gleichungen generiert und dann einen evolutionären Prozess anwendet, um jene Gleichungen auszuwählen, die am besten mit experimentellen Daten übereinstimmen. 2009 präsentierten sie einen Ansatz, mit dem sie das Verhalten von chaotischen Doppelpendeln modellierten. Das Ergebnis bezeichnen sie als physikalisch aussagekräftige Erhaltungssätze. Zwei Jahre später legten sie Gleichungen zur Energiegewinnung aus dem Zuckerabbau vor, die nach demselben Ansatz unter Verwendung von Daten zum Hefemetabolismus entwickelt wurden.

«Studenten können sich auf das Versuchsdesign konzentrieren, ohne überlegen zu müssen, ob sie genügend geschickt sind.» Justin Siegel

Aber nicht alle sind überzeugt. Die amerikanischen Physiker Philip Anderson und Elihu Abrahams kritisierten 2009 in einem Brief an die Zeitschrift Science sowohl Kings als auch Lipsons Gruppen, dass diese sich «schwer darin täuschen, was ein wissenschaftliches Unterfangen ist». Sie argumentierten, dass Maschinen zwar vielleicht einen Beitrag zu dem leisten können, was der Philosoph Thomas Kuhn als «normale Wissenschaft» bezeichnete, dass sie jedoch niemals in der Lage sein werden, echte wissenschaftliche Meilensteine zu setzen, indem sie neue physikalische Gesetze entdecken – wobei die Kritiker hervorhoben, dass bei der Forschung von Lipson zur Pendelbewegung «die relevanten physikalischen Gesetze und Variablen im Voraus bekannt waren».

King räumt ein, dass Maschinen ihre Grenzen haben, und betont, dass ein Roboter, der ein Experiment erfolgreich durchführt, selbst nicht versteht, weshalb. Der Forscher erzählt, dass er und sein Team «Adam» und «Eve» als Autoren in ihrem Paper vermerken wollten. Dies wurde mit der Begründung abgelehnt, dass diese ihre informierte Einwilligung nicht geben konnten. King glaubt, dass intelligente Roboter trotzdem in den wissenschaftlichen Alltag Einzug halten werden. Dafür sprechen die stetig höhere Leistung von Computern, effizientere Algorithmen und Weiterentwicklungen in der Robotik. «Sie werden besser, während die Menschen gleich bleiben», meint er. «Ich sehe keinen Grund, weshalb dieser Trend nicht anhalten sollte.»

Edwin Cartlidge lebt in Rom und schreibt für Science und Nature.

Lexikon der künstlichen Intelligenz
  1. Maschinelles Lernen: Das Gebiet der künstlichen Intelligenz entwickelt selbstlernende Algorithmen für das eigenständige Lösen von Problemen (erkennen, klassifizieren, vorhersagen, übersetzen usw.).
  2. Überwachtes Lernen: Der Algorithmus wird mit Trainingsdaten gespeist (Paare aus Objekt und Kategorie oder Zahlenwert), um daraus ein Modell zur Einteilung neuer Objekte zu entwickeln. Unüberwachtes Lernen findet verborgene Datenstrukturen – ohne Trainingsbeispiele.
  3. Bestärkendes Lernen: Das System gibt dem Algorithmus «Belohnungen» für gute Resultate. Dieser passt sich an, um den Erfolg zu maximieren. Typische Anwendung: Schach spielen lernen.
  4. Neuronales Netzwerk: Das von Gehirnstrukturen inspirierte Modell besteht aus einer grossen Zahl miteinander verbundener künstlicher Neuronen. Es kombiniert Eigenschaften des analysierten Objekts neu und generiert dadurch immer abstraktere Darstellungen, was eine Klassifizierung ermöglicht. Das Netzwerk lernt durch Probieren neuer Kombinationen.