image

TELEPOLIS

image www.telepolis.de

Das Online-Magazin TELEPOLIS wurde 1996 gegründet und begleitet seither die Entwicklung der Netzkultur in allen Facetten: Politik und Gesetzgebung, Zensur und Informationsfreiheit, Schutz der Privatsphäre, wissenschaftliche Innovationen, Entwicklungen digitaler Kultur in Musik, Film, bildender Kunst und Literatur sind die Kernthemen des Online-Magazins, welche ihm eine treue Leserschaft verschafft haben. Doch TELEPOLIS hat auch immer schon über den Rand des Bildschirms hinausgesehen: Die Kreuzungspunkte zwischen realer und virtueller Welt, die »Globalisierung« und die Entwicklung der urbanen Kultur, Weltraum und Biotechnologie bilden einige der weiteren Themenfelder.

Als reines Online-Magazin ohne Druckausgabe nimmt TELEPOLIS damit eine einzigartige Stellung im deutschsprachigen Raum ein und bildet durch seine englischsprachige Ausgabe und seinen internationalen Autorenkreis eine wichtige Vermittlungsposition über sprachliche, geografische und kulturelle Grenzen hinweg. Verantwortlich für das Online-Magazin und Herausgeber der TELEPOLIS-Buchreihe ist Florian Rötzer.

Die TELEPOLIS-Bücher basieren auf dem Themenkreis des Online-Magazins. Die Reihe schaut wie das Online-Magazin über den Tellerrand eingefahrener Abgrenzungen hinaus und erörtert Phänomene der digitalen Kultur und der Wissensgesellschaft.

Eine Auswahl der bisher erschienenen TELEPOLIS-Bücher:

Lothar Lochmaier

Die Bank sind wir

Chancen und Perspektiven von Social Banking

2010, 160 Seiten

Harald Zaun

S E T I – Die wissenschaftliche Suche nach außerirdischen Zivilisationen

Chancen, Perspektiven, Risiken

2010, 320 Seiten

Stephan Schleim

Die Neurogesellschaft

Wie die Hirnforschung Recht und Moral herausfordert

2011, 218 Seiten

Marcus B. Klöckner

9/11 – Der Kampf um die Wahrheit

2011, 218 Seiten

Hans-Arthur Marsiske

Kriegsmaschinen – Roboter im Militäreinsatz

2012, 252 Seiten

Nora S. Stampfl

Die verspielte Gesellschaft

Gamification oder Leben im Zeitalter des Computerspiels

2012, 128 Seiten

Nora S. Stampfl

Die berechnete Welt

Leben unter dem Einfluss von Algorithmen

2013, 124 Seiten

Christian J. Meier

Eine kurze Geschichte des Quantencomputers

Wie bizarre Quantenphysik eine neue Technologie erschafft

2015, 188 Seiten

Michael Firnkes

Das gekaufte Web

Wie wir online manipuliert werden

2015, 324 Seiten

Klaus Schmeh

Versteckte Botschaften

Die faszinierende Geschichte der Steganografie

2., aktualisierte und erweiterte Auflage

2017, 318 Seiten

Weitere Informationen zu den TELEPOLIS-Büchern und Bestellung unter: → www.dpunkt.de/telepolis

TELEPOLIS

image

Christian J. Meier (geb. 1968), promovierter Physiker und freier Journalist, recherchiert über Technologien, die heute entwickelt und morgen den Alltag profund verändern werden. Zu diesem Thema verfasst er Sachbücher (»Nano – wie winzige Technik unser Leben verändert« (Primus Verlag), »Eine kurze Geschichte des Quantencomputers« (Telepolis)) und Artikel, u. a. für die Neue Zürcher Zeitung, bild der wissenschaft, brand eins und Technology Review. Daneben schreibt er Science-Fiction-Kurzgeschichten.

image

Zu diesem Buch – sowie zu vielen weiteren dpunkt.büchern – können Sie auch das entsprechende E-Book im PDF-Format herunterladen. Werden Sie dazu einfach Mitglied bei dpunkt.plus+:

www.dpunkt.plus

Christian J. Meier

Suppenintelligenz

Die Rechenpower aus der Natur

image

Christian J. Meier

Reihenherausgeber: Florian Rötzer, München, fr@heise.de

Bibliografische Information der Deutschen Nationalbibliothek

ISBN:

1. Auflage 2018

Die vorliegende Publikation ist urheberrechtlich geschützt. Alle Rechte vorbehalten. Die Verwendung der Texte und Abbildungen, auch auszugsweise, ist ohne die schriftliche Zustimmung des Verlags urheberrechtswidrig und daher strafbar. Dies gilt insbesondere für die Vervielfältigung, Übersetzung oder die Verwendung in elektronischen Systemen. Alle Informationen in diesem Buch wurden mit größter Sorgfalt kontrolliert. Weder Herausgeber, Autor noch Verlag können jedoch für Schäden haftbar gemacht werden, die in Zusammenhang mit der Verwendung dieses Buches stehen.

5 4 3 2 1 0

Motivation:
Die Metamorphose des Computers

Wir halten Intelligenz für ein Privileg des Menschen, dabei gedeiht sie um uns genauso wie in uns. Sie ist eine natürliche Ressource, bereit zur Ernte.

Dafür braucht es aber neue Computer, jenseits der Smartphones, PCs oder der Etagen füllenden Supercomputer, die wir kennen. Neue Computer mit unglaublicher Rechenkraft, die aus der Natur kommt. Sie verzichten im Gegensatz zum klassischen Computer auf digitale elektronische Schaltkreise. Sie arbeiten mit Suppenintelligenz.

Der Begriff »Suppe« hat hier eine bildliche und eine konkrete Ebene. In den neuen Computern wirken Zutaten aus der Natur – Atome, Moleküle, Gene, Proteine oder ganze Zellen – so zusammen, dass etwas Neues entsteht, etwas auf höherer Ebene, wie sich der Geschmack einer Suppe aus ihren Zutaten ergibt. Dieser »Geschmack« äußert sich in mehr Rechenpower, aber auch anderen Aspekten der Intelligenz wie Mustererkennung, das schnelle Finden möglichst guter Lösungen, Lernfähigkeit, Intuition oder Kreativität. Wie der Geschmack einer Suppe kommt die Intelligenz aus einer formlosen Mixtur anstatt aus wohlgeordneten Schaltkreisen und penibel abgearbeiteten Rechenschritten. Billionen von Teilchen wirken scheinbar planlos zusammen, aber gerade in diesem Chaos liegt ihre Stärke.

Die konkrete Ebene: Die Zutaten treffen sich oft im flüssigen Medium. Die neuen Rechner füllen Reagenzgläser, Petrischalen oder Bioreaktoren. Flüssig ist auch das Innere lebender Zellen, von simplen Bakterien bis zur hoch entwickelten Gehirnzelle. Forscher programmieren Zellen gerade neu, um damit technische oder medizinische Probleme zu lösen. Sie entwickeln Anwendungsprogramme auf dem Betriebssystem der Natur, nur eingeschränkt von den Gesetzen der Chemie, der Biologie und der Physik. Damit überwinden sie Grenzen, die die Maschinenhaftigkeit des klassischen Rechners setzt. Wer Atome, Moleküle, Gene oder Hirnzellen als Prozessoren nutzt, definiert den Begriff Computer neu, anstatt das Höher-schneller-weiter der letzten Jahrzehnte Computerentwicklung einfach nur fortzusetzen. Der schafft neue Qualitäten in der Informationsverarbeitung.

Es geht in diesem Buch um ganz verschiedene neue Computer: molekulare Rechner, programmierte lebende Zellen oder Quantencomputer, die aber alle ihre Rechenpower aus natürlichen Ingredienzen ziehen.

Hier ein Wegweiser durchs Buch: Es hat drei Teile. Das erste Kapitel zeigt, wie rückständig die Informationsgesellschaft des Menschen verglichen mit der Virtuosität ist, mit der die Natur Information als eine ihrer wichtigsten Ressourcen nutzt. Die folgenden zwei Kapitel (Kap. 2 und 3) erzählen die faszinierende Geschichte des klassischen Computers und begründen, warum er es der Natur nicht gleichtun kann. Hier werden auch Begriffe aus der Computerwelt vorgestellt, die in den folgenden Kapiteln gebraucht werden. Der zweite Teil stellt die Rechenkraft der Natur (Kap. 4) sowie die Suppenintelligenz und ihre Köche vor (Kap. 5 – 9). In einer Weise setzen diese Forscher und Entwickler die Geschichte des klassischen Rechners fort. Nur, notgedrungen, mit völlig anderen Mitteln und ganz neuen Perspektiven. Innerhalb des zweiten Teils behandeln die Kapitel 5 bis 8 jene Neuentwicklungen, die sowohl im metaphorischen als auch im konkreten Sinne Suppenintelligenzen sind. Es geht von Molekülen in Reagenzgläsern über neu programmierte lebende Zellen bis zur Nutzung künstlicher Gehirnzellen. Das Kapitel 9 widmet sich dem Quantencomputer, bei dem die natürlichen Zutaten – Atome oder Moleküle – nicht unbedingt im flüssigen Medium rechnen, auch wenn es solche Quantencomputer gibt. Dennoch werden auch im Quantenrechner verschiedene natürliche Zutaten (Ionen und Lichtteilchen zum Beispiel) zusammenwirken.

Ein zweites Ordnungsprinzip ist die ansteigende Konkretheit. Während es in den Kapiteln 5 bis 7 um Grundlagenforschung geht, schildern Kapitel 8 und 9 neue Computer, die an der Schwelle zur Anwendung stehen bzw. von denen es bereits erste kommerzielle Exemplare gibt.

Schließlich ziehe ich im Kapitel 10, dem dritten Teil, ein Fazit.

Mein Ziel mit diesem Buch ist es, den Leser zu unterhalten und in die Labore interessanter und mitunter schrulliger Forscher mitzunehmen. Folgende These möchte ich untermauern: Die Suppenintelligenz wird eine neue Stufe des Informationszeitalters zünden. Unter »Computer«, wenn wir sie denn überhaupt noch so nennen werden, werden wir etwas völlig Neues verstehen. Wenn wir sie überhaupt noch von der Natur werden unterscheiden können.

Inhaltsverzeichnis

Motivation:
Die Metamorphose des Computers

1Kornkammern der Intelligenz

2Das fruchtbare Scheitern der Wahrheitsmaschine

3Die Fortschrittsmaschine und ihr Ende

4Ausbruch aus dem Käfig

5Parship für Moleküle

6Der Computer aus der Küche

7Informatik im Körper

8Träumende Maschinen

9Rechnen mit der Kraft der Atome

10Die zweite Stufe

Literatur

Personenregister

Index

1 Kornkammern der Intelligenz

Andy Adamatzky dreht seinen Mercedes CLK 320 auf der Strecke vom Bahnhof Bristol Parkway zur Universität der westenglischen Stadt ordentlich auf, während er in dröhnendem Bariton erzählt, wie sehr er deutsche Autobahnen liebt. Er hält sich dort gerne auf der Überholspur auf.

Wie ein Mathematiker, der in einer universitären Denkstube darüber nachsinnt, wo die Grenzen von Computern liegen, wirkt der Brite russischer Herkunft nun wirklich nicht.

Bekannt ist Adamatzky denn auch eher für seine unkonventionellen Experimente, mit denen er die Möglichkeiten künftiger Rechner auslotet, ähnlich wie die Limits seines Mercedes. Ein Profi, dessen Hobby es ist, seine Gedankenarbeit abends, bevor er im Schnitt sechs Stunden schläft, praktisch zu prüfen. Er legt nicht viel Wert darauf, dass seine Feierabendforschung von Fachkollegen bierernst genommen wird. Sie löst oft Kopfschütteln oder nachsichtiges Lächeln aus. Auch ich werde später ein Grinsen nicht immer unterdrücken können, während Adamatzky seine Versuche beschreibt, aus dem Zeug, das in Taschenwärmern kristallisiert, überlegene Computer zu bauen. Muss ich auch nicht. Adamatzky findet es eher befremdend, wenn man bei seinem Vortrag eine neutrale Mine behält.

Für den Mathematiker ist es wichtiger, zu einer Avantgarde zu gehören. »Es gibt die Pioniere, die neues Terrain betreten, und die Masse derer, die ihnen folgen«, sagt er. Keine Frage: Andy zählt sich zu den Vorreitern.

Er und seine Forscherkollegen wie Ron Weiss vom Massachusetts Institute of Technology in Boston, Rainer Blatt von der Uni Innsbruck oder Karlheinz Meier von der Uni Heidelberg wollen aber nicht nur spielen. Sie meinen es ernst damit, die nächste Stufe des Informationszeitalters zu zünden. Sie brechen mit dem, was heute als »Computer« gilt, und wollen neue Arten von informationsverarbeitenden Maschinen bauen. Mit Hilfe der brachialen Rechenpower der Natur.

Informationsgesellschaft 0.5

Wir alle glauben, mittendrin zu stecken, in dieser nach Agrargesellschaft und Industriezeitalter dritten großen Epoche menschlichen Zusammenlebens: in der Informationsgesellschaft. In Fußgängerzonen oder Zugabteilen beugen sich gefühlt 90 Prozent der Köpfe über Smartphones oder Laptops. Informationsjunkies checken alle paar Minuten ihr Smartphone. Noch vor zwei Jahrzehnten wurde der amerikanische Informatiker Thad Starner belächelt, weil er ständig einen Computer bei sich hatte. Heutzutage tragen viele gleich mehrere Rechner mit sich herum: Smartphone, E-Book-Reader, Laptop. Auch unsere Alltagswelt ist durchdigitalisiert. In dem Haus, das ich mit meiner Partnerin bewohne, stehen mindestens zwölf Geräte, die Computerchips enthalten: unsere beiden PCs, Drucker, Waschmaschine, Trockner, Telefone, Herd und Ofen, Fernseher, Stereoanlage. An einem Urlaubstag mache ich 100 Digitalfotos malerischer Landschaften oder Orte und erzeuge damit die Informationsmenge einer halben Stadtbücherei.

Wir leben inmitten einer Wolke von Maschinen, die Information verarbeiten. Das hat nicht nur unsere private Lebensweise verändert.

Auch die Gesellschaft als Ganzes wandelt sich. Intelligente Maschinen ersetzen Jobs, inzwischen sogar solche, die lange als nicht automatisierbar galten, wie etwa Näher von Schuhen.1 Sie nehmen aber auch Kopfarbeitern Arbeit ab, sogar Ärzten oder Wissenschaftlern. In der Uniklinik Marburg diagnostiziert der Computer »Watson« des US-amerikanischen Herstellers IBM seltene Krankheiten. So genannte Robo-Advisor ersetzen Bankberater und legen automatisch Geld an. Rechner planen die Logistiknetzwerke großer Unternehmen und schreiben Zeitungsartikel. Roboter machen als so genannte »Social Bots« Meinung. Computer denken sich sogar wissenschaftliche Experimente aus. Ein Programm namens »Melvin« hilft Quantenphysikern der Uni Wien beim Design von Versuchsaufbauten2 Unbelastet von vorgefassten Meinungen und eingefahrenen Denkschemen plant der Computer hoch komplexe Experimente, die das Begriffsvermögen seiner menschlichen Forscherkollegen überschreiten.

Man muss den Computer aber nicht als bösen Jobkiller betrachten. Die Befreiung von der Brotarbeit winkt am Horizont. Sisyphos wird seinen Felsbrocken loslassen und das Leben genießen können, tanzen gehen, Freunde treffen, einen Roman schreiben, die kranke Oma selbst pflegen oder einen Modeberatungsdienst für Männer gründen – wie auch immer der persönliche Traum aussieht.

Längst fordern Vertreter der Digitalwirtschaft, wie die Chefs von Tesla und Deutsche Telekom, Elon Musk und Timotheus Höttges, ein bedingungsloses Grundeinkommen einzuführen, um den digitalen Wandel nicht zum Spaltpilz der Gesellschaft werden zu lassen, der immer mehr Menschen mit überflüssig gewordenen Fähigkeiten ins Abseits drängt.

Weniger optimistisch ausgedrückt: Die digitale Revolution sägt an einer der Grundfesten unserer Gesellschaft, an der wesentlichen Geldquelle des Staates, des Sozial- und des Gesundheitssystems und an der Wurzel unserer persönlichen Identität und unseres Selbstbewusstseins: der Arbeit.

Das ist der Stoff, aus dem echte gesellschaftliche Umwälzungen sind. Ein neues Kapitel der Menschheitsgeschichte ist aufgeschlagen.

Doch ist das wirklich so? Oder sind wir auf halbem Weg stecken geblieben: in der Informationsgesellschaft, Version 0.5?

Nun, gemessen an der Natur ganz klar: Letzteres. Die Evolution hat Information schon vor Äonen als eine ihrer wichtigsten Ressourcen entdeckt. Auch die unbelebte Natur zeigt eindrucksvoll, was aus diesem immateriellen Rohstoff zu machen ist. Verschwenderisch geht die Natur nur mit Information und Zeit um; wohingegen sie versucht, mit möglichst wenig Material und Energie auszukommen.3

Unsere Zivilisation hingegen baut trotz Digitalisierung noch auf den gleichen Grundlagen auf wie vor fast 200 Jahren, als die Industrialisierung begann: Für die Produktion von Waren setzt sie vor allem Energie und Material ein. Und zwar in rauen Mengen. Deutschland exportiert jährlich knapp 400 Millionen Tonnen Güter. Für deren Herstellung braucht die Industrienation mehr als die dreifache Menge an Rohstoffen, nämlich eineinhalb Milliarden Tonnen.4 Weltweit steigt der Bedarf an Ausgangsmaterialien immer weiter. Zum anhaltend hohen Bedarf der alten Industrieländer kommt der Hunger nach Wohlstand aufstrebender Länder wie China. Die industrielle Art des Wirtschaftens verbrät auch immer mehr Energie. Weltweit hat sich der Energieverbrauch zwischen 1971 und 2014 mehr als verdoppelt.5

Die Digitalisierung weitet den Materialhunger sogar noch aus auf die so genannten High-Tech-Rohstoffe. Der Bedarf an Lithium für Akkus soll im Jahr 2035 die heutige Produktionsmenge um das Vierfache überschreiten. Vervierfachen soll sich auch der Bedarf an Tantal, das aus dem berüchtigten Erz »Coltan« gewonnen wird und in nahezu jedem Elektrogerät steckt. Ein weiteres dickes Plus verbuchen könnte das Schwermetall Indium, das für Displays gebraucht wird.6

Die Eleganz der rechnenden Natur

Die Natur geht mit Material und Energie ganz anders um, sehr viel eleganter. Der biologische »way of life« verbraucht für die Herstellung von Produkten, wie etwa Muschelschalen oder Spinnennetze, nur die Hälfte an Material und fünf bis zehn Prozent der Energie, die der Mensch in technische Produkte mit ähnlicher Funktion steckt.7

Dennoch lassen die Ergebnisse jeden Techniker vor Neid erblassen. Kein menschengemachtes Material ist gleichzeitig fester als Stahl und dehnbarer als Gummi. Spinnenseide schon. Oder eine Art elastische Keramik, formbeständig und steinhart, die aber nicht bricht, wenn sie auf den harten Boden fällt? Gibt es so etwas? In der Natur schon, es heißt »Perlmutt«. Das Erstaunlichste an dieser Innenschicht der Schalen bestimmter Weichtiere ist für den Techniker nicht ihr betörender Glanz. Sondern, dass sie im Meerwasser entsteht; also bei recht angenehmen Temperaturen, weitab von den harschen, energieraubenden Bedingungen, mit der Keramik industriell hergestellt wird.

Wie schafft die Natur das?

Statt Energie und Material nutzt sie Information, die Lebewesen aus ihrer Umwelt aufnehmen, die in ihren Genen steckt oder die von den Gesetzen der Physik mitgeteilt wird. Tiere, Pflanzen, Pilze, aber auch Totes wie ein Stück Stahlblech, verarbeiten sie zu intelligenten Problemlösungen.

Klar, Intelligenz ist ein vage definierter Begriff, deren Gipfel im allgemeinen Verständnis Genies wie Einstein oder Bach markieren und nicht Schneckenhäuser. Für Andy Adamatzky hat der Mensch jedoch nicht das Vorrecht auf Intelligenz. Seine Forschung wirft vielmehr die Frage auf, ob nicht sogar ein Schleimpilz intelligent ist, der ohne auch nur einen einzigen Irrweg einzuschlagen den direkten Weg durch ein Labyrinth zu einer Futterquelle findet8. »Jede Form der Selbstorganisation, die Information verarbeitet, ist Intelligenz«, sekundiert ein Kollege Adamatzkys, der japanische Forscher Toshiyuki Nakagaki. Auch Information verarbeitende Maschinen, Computer also, wirken oft intelligent, was sich der Forschungszweig der »Künstlichen Intelligenz« zum Gegenstand gemacht hat.

Umgekehrt sehen Psychologen die menschliche Intelligenz zunehmend aus dem Blickwinkel der Informationsverarbeitung. Eine intelligentere Person kann schneller Wichtiges von Unwichtigem unterscheiden oder Fakten aufnehmen und verstehen.

In der Natur, der belebten wie unbelebten, tritt Intelligenz in vielerlei Gestalt auf. Tiere, Pflanzen, Organe, Zellen, ja sogar Metalle und einzelnen Atome verarbeiten Information ganz anders als die digitalen Computer, die wir kennen. Die Natur fließt geschmeidig an den Gesetzen der Physik entlang zu Lösungen, so perfekt, dass sie für Computer unerreichbar bleiben. Lebewesen setzen wenige, leicht verfügbare Rohstoffe zu hoch komplexen Materialien zusammen. Sie kodieren über Jahrmillionen gewonnenes Wissen in die mikroskopisch feine Struktur dieser Materialien, woraus einzigartige Materialeigenschaften resultieren, perfekt zugeschnitten auf die Umwelt der Wesen. Die Natur holt aus riesigen Schwärmen von einzelnen »Prozessoren«, die nicht intelligenter sind als ein Lichtschalter, Leistungen hervor, die Computer bislang nur ansatzweise nachvollziehen. Sie hebt sogar die Fesseln der Zeit auf, an die jeder men schengemachte Computer gebunden ist, und verarbeitet auf diese Weise mehr Information binnen eines Fingerschnippens als alle Datenspeicher der Welt aufnehmen könnten.

Skulptur der Erfahrungen

Werfen wir einen Blick in ein paar der Kornkammern der Intelligenz, um einen ersten Eindruck von deren Reichtum zu gewinnen.

Als den Gipfel aller Intelligenz betrachten wir naturgemäß unsere eigene. Unter unserer Schädeldecke versteckt sich das komplexeste Gebilde im bekannten Universum. Das Gehirn ist eine Galaxie im Kopf. Denn darin gibt es ebenso viele Nervenzellen (auch Neuronen genannt) wie Sterne in der Milchstraße, unserer Heimatgalaxie: 100 Milliarden ungefähr. Obwohl astronomisch groß, ist das noch eine kleine Zahl gemessen an der Zahl der Verbindungen zwischen den Neuronen. Jedes Neuron hat einen Fortsatz, einem Datendraht vergleichbar, das so genannte Axon. Dieses spaltet sich in zahlreiche Zweige auf, deren Enden kleine Verdickungen bilden, so genannte Synapsen. Die Synapsen stellen den Kontakt zu anderen Neuronen her. So ist jede Hirnzelle im Schnitt mit 1000 weiteren verbunden. Insgesamt ergeben sich somit 100 Billionen Kontakte.

Eine unvorstellbar große Zahl, die im Alltag nicht vorkommt. Um einen Eindruck zu gewinnen, hier ein Vergleich mit Flächen: Einen Quadratmeter (qm) Fläche kann man sich vorstellen. Eine 3-Zimmer-Wohnung hat etwa 70 qm. Ganz Deutschland hat etwa eine Fläche von 350 Milliarden qm, was noch weit von 100 Billion entfernt ist, denn das wären 100.000 Mal eine Milliarde. Um auf diese Anzahl von Quadratmetern zu kommen, müsste man Asien, Afrika sowie Nord- und Südamerika zusammennehmen.

Diese beeindruckenden Zahlen halten Dharmendra Modha vom Computerhersteller IBM nicht davon ab, unser Gehirn mit einer Glühbirne und zwei Wasserflaschen zu vergleichen. Die Wasserflaschen wegen seines Volumens von nur etwas mehr als einem Liter. Die Glühbirne, weil die grauen Zellen für Leistungen wie Shakespeares Dramen, Einsteins Relativitätstheorie oder das Rangieren eines Omnibusses durch eine verwinkelte Altstadt nicht mehr Energie verbrennt als 20 Watt.

Woher kommt diese phänomenale Energieeffizienz? Computerspezialisten betrachten das Gehirn gerne als einen Parallelrechner mit den Neuronen als den »Prozessoren«. Die Effizienz ist allerdings kein Verdienst dieser »Prozessoren«. Die Übertragung eines Signals von einer Nervenzelle durch eine Synapse zu einer anderen kostet 20 Mal so viel Energie wie das Schalten eines so genannten Transistors auf einem Computerchip. Diese elektronischen Bauelemente sind die Arbeitspferde eines Rechners, rund zwei Milliarden davon gibt es auf einem fingernagelgroßen Prozessorchip.

Außergewöhnlich schnell arbeitet das Gehirn auch nicht. Mit etwa 10 Billionen Rechenoperationen pro Sekunde ist es 10.000 Mal langsamer als der derzeit (2017) schnellste menschengemachte Rechner, der chinesische Supercomputer Sunway Taihu Light. Ein Nervenimpuls pflanzt sich mit wenigen Stundenkilometern fort, während elektronische Signale fast Lichtgeschwindigkeit erreichen.

Doch das Hirn hat noch einen Trumpf: Klar überlegen ist es jeder Maschine durch seine gigantische Vernetzung. »Wir können diese Masse an Verbindungen nicht mit elektronischer Hardware nachbilden«, sagt Steven Furber von der Universität Manchester. Der Brite muss es wissen: Er hat den weltweit meistverbreiteten Prozessor namens ARM mitentwickelt, der in milliardenfacher Ausführung in Smartphones und vielen anderen Elektrogeräten steckt. Nun versucht er mit solchen Chips einen Computer zu bauen, der die Verdrahtung des Gehirns imitiert. Bislang kratzt der Informatiker dabei nur an der Oberfläche.

Schon die Erstellung eines vollständigen »Schaltplans« des Gehirns ist eine Art Marsmission der Hirnforschung. Sie hat dieses Unterfangen mit dem Projekt »Human Connectome Project«9 in Angriff genommen. Was sich die Wissenschaftler damit an den Hals gebunden haben, zeigt die Größe der Datenbank für den Schaltplan der Netzhaut einer Maus, die nur ein winziger Teil des Mäusehirns ist. Zwölf Terabyte Daten umfasst die Karte der Mäusenetzhaut, würde also mehrere Festplatten füllen.

Seine Stärke zieht das gigantische »neuronale Netz« auch daraus, dass es mehr ist als eine starre »Verdrahtung«. Es verändert sich durch Erfahrungen. Ähnlich wie sich ein Straßennetz den Pendlerströmen anpasst. Oder wie sich Trampelpfade wie von selbst bilden, wenn viele Menschen Wege abkürzen. Nur, dass das neuronale Netz nicht von Mobilitätsbedürfnissen skulptiert wird, sondern von Gesehenem, Gerochenem, Erlebtem, Erlittenem oder Geübtem. Seine Komplexität spiegelt die unserer Lebenswelt wider. Wie das Gehirn Information (Sinnesreize, Erinnerungen, Assoziationen, Gefühle) verarbeitet, steckt in seiner Struktur, in seiner Form.

Es arbeitet somit völlig anders als ein Computerchip, dessen Verdrahtung sich nicht verändert und der nur deshalb unterschiedlichste Aufgaben ausführt, weil ihm ein Programm sagt, was er tun soll. Während im Computer Hard- und Software säuberlich getrennt sind, bilden beide Konzepte im Gehirn eine Einheit. Was man oberflächlich als fest verdrahtete Hardware betrachten würde, die Neuronen und Synapsen, im Unterschied zu den schnell vergänglichen Nervenimpulsen, ist in Wirklichkeit plastisch.

Das Gehirn trennt auch nicht zwischen Speicher und Prozessor wie ein menschengemachter Computer. Daher braucht es auch keine Daten zwischen solchen Abteilungen hin- und herschieben, wie Rechner das ständig tun und damit Unmengen Energie verbraten. Nicht durch Transport leistet das Hirn, was es leistet. Sondern durch eine gewachsene Codierung im Muster seiner Nervenbahnen.

»Es sind nicht die einzelnen Bausteine, sondern es ist die Architektur«, drückt es der Physiker Karlheinz Meier aus, der in Heidelberg einen hirnähnlichen Computer bauen will. Meier und Furber wollen mit ihren Projekten beweisen, dass auch technische Informationsverarbeitungssysteme völlig anders gestrickt sein können als ein herkömmlicher Computer.

Die am Gehirn bewunderten Leistungen sind indessen nicht auf Gehirne beschränkt.

Die Schule der Körper-Guerilla

Das Immunsystem ist ebenfalls ein »raffiniertes Informationsverarbeitungssystem, das über leistungsstarke Mustererkennung und die Fähigkeit zur Klassifizierung verfügt«, wie Anthony Brabazon, Michael O’Neill und Seán McGarraghy vom University College in Dublin schreiben.10

Das Immunsystem erkennt die Bedrohung, weil diese nicht in die gewohnte Umgebung passt, einem Fahrrad auf der Autobahn ähnlich. Es verteilt das, was ihm im Körper begegnet, auf zwei Schubladen, auf der einen steht »Eigen«, auf der anderen »Fremd«. In der zweiten Schublade ist der Feind. Der folgende Vergleich mit einer Schule veranschaulicht dieses Prinzip.

Die Schule des Immunsystems ist der Thymus, ein Immunorgan, das sich nach der Pubertät zurückbildet. Die Schüler sind bestimmte Abwehrzellen, so genannte T-Zellen (T von »Thymus«). Nach ihrer »Ausbildung« verlassen sie die Schule, um Tumorzellen oder von Viren, Bakterien, Pilzen oder Parasiten befallene Körperzellen zu töten oder die schädlichen Eindringlinge außerhalb von Zellen aufzuspüren und zusammen mit weiteren Zellen der Immunabwehr zu eliminieren.

T-Zellen sind spezialisiert: Jede von ihnen ist für einen bestimmten Feind zuständig, zu dem sie den Schlüssel besitzt, wie ein Mensch den Schlüssel zu seiner Wohnung. Schlüssel und Schloss, das sind zwei Eiweißmoleküle (so genannte Proteine), deren Formen sich ergänzen (siehe Abb. 1–1).

image

Abb. 1–1Veranschaulichung des Schlüssel-Schloss-Prinzips: Zwei wie Yin und Yang zusammenpassende Proteine bilden einen Komplex.

Aber auch körpereigene Zellen besitzen solche Schlösser. Wie lernen Abwehrzellen fremde von körpereigenen Schlössern zu unterscheiden?

Im Thymus bekommen viele Millionen T-Zellen jeweils einen anderen zufällig erzeugten Schlüssel. Diese zunächst beliebige Vielfalt stellt sicher, dass die Immunabwehr potenziell möglichst viele Feinde erkennen kann. Nun kommt der »Lehrer« in Form so genannter dendritischer Zellen in den Thymus. Diese bringen eine Sammlung von körpereigenen Schlössern mit. Alle T-Zellen werden daraufhin getestet, ob ihr Schlüssel in eines der Schlösser passt.

Nun kommt ein brutaler Schritt, wie er in einer echten Schule zum Glück ausbleibt. Wenn nämlich der Schlüssel passt und eine Immunreaktion auslösen würde, dann muss die betreffende Zelle sterben. So werden alle T-Zellen eliminiert, die auf den eigenen Körper, auf das »Selbst« also, mit Aggression reagieren würden. Übrig bleiben nur jene Zellen, die auf körperfremde Stoffe ansprechen.11 Voilà: Hier ist der Mustererkennungsapparat, der Selbst von Fremd unterscheidet.

Information wird hier auf eine verschwenderische Weise verarbeitet: Der Thymus erzeugt eine Unmenge von Schlüsseln (und die dazugehörigen Zellen), nur um 95 Prozent davon wieder zu eliminieren. Das ist, als ob ein Mensch 49 Millionen Lottoscheine ausfüllen würde, wobei er ziemlich sicher sein könnte, dass ein Treffer dabei ist. Alle anderen sind Nieten. Der Computerprofi würde es ein »Brute-Force-Vorgehen« (von engl. »rohe Gewalt«) mit Hilfe von Parallelverarbeitung nennen. In der Gesamtheit aller T-Zellen bleibt die Information über den potenziellen Feind wie in einem Gedächtnis oder auf einer Festplatte abgelegt, bis ein tatsächlicher Eindringling kommt und bekämpft wird.

Führerlos glücklich

Eine Ameisenkolonie lässt sich ebenfalls als Informationsverarbeitungssystem auffassen. Eine einzelne Ameise ist, mit Verlaub, strohdumm. Sie rennt bei der Futtersuche einfach drauflos. Dennoch verbinden Ameisenstraßen die Kolonie immer auf dem kürzesten Weg mit einer Futterquelle, auch wenn diese sich hinter einem Stein versteckt und weiter entfernt ist als eine einzelne Ameise sehen kann.

Ein einfaches Kommunikationsmittel der Ameisen liefert die Erklärung: Duftstoffe. Ameisen hinterlassen beim Suchen nach Futter eine Duftspur aus Pheromonen. Andere Ameisen sind genetisch darauf programmiert, dieser Spur zu folgen. Je stärker so eine Bahn duftet, desto mehr Ameisen folgen ihr.

Einige der Ameisen finden eine Futterquelle und hinterlassen Duftspuren vom Ameisenbau dorthin und zurück. Andere Ameisen folgen den verschieden langen Pfaden, es ist ein noch recht ungeordnetes Gewusel, noch keine »Straße«. Doch die Duftstoffe sind flüchtig. Deshalb ist die Geruchsspur umso stärker, je kürzer der Weg ist. Daher folgen mehr Ameisen dem kürzesten Weg. Da sie wiederum Duftspuren hinterlassen, verstärkt sich dieser Weg weiter. So lange, bis alle Tiere diesem kürzesten und damit energiesparenden Pfad folgen, der nun zur Straße geworden ist.12

Ähnlich wie im Gehirn interagieren einfach gestrickte »Prozessoren« (Ameisen) mittels Informationsaustausch (Duftspur). So löst das Kollektiv ein schwieriges Problem, im wahrsten Sinne des Wortes »zu Fuß«. Eine große Menge von Wegen wird einfach ausprobiert, bis man den kürzesten gefunden hat. Das Prinzip dahinter interessiert Informatiker sehr. Eine riesige Zahl einzelner Prozessoren durchsucht parallel eine riesige Menge von möglichen Lösungswegen und filtert irgendwie den besten heraus. Im Fachjargon heißt das »Optimierungsproblem«.

Entstiegen aus dem Nichts

Weder im Gehirn, noch im Immunsystem oder in der Ameisenkolonie gibt es einen Boss, der Neuronen, T-Zellen oder einzelne Ameisen anweisen würde, was zu tun ist. Es gibt nur die einzelnen Agenten, die Informationen austauschen und sie nach einfachen, für den einzelnen Agenten gültigen Regeln verarbeiten. Die Intelligenz entsteht auf einer höheren Ebene, sie entsteigt dem kollektiven Verhalten. Eine Gehirnzelle allein hat kein Bewusstsein. Eine Ameise kann mit dem Begriff »Ameisenstraße« nichts anfangen, sie folgt einfach der Duftspur. »Eine einzelne Ameise ist sicher nicht schlau, aber beim Verhalten des Kollektivs bin ich versucht, es intelligent zu nennen«, sagte Komplexitätsforscher Jürgen Kurths vom Potsdam Institut für Klimafolgenforschung Spiegel Online.13 Auch eine T-Zelle hat keine Ahnung davon, dass sie einen Körper verteidigt. Sie stürzt sich einfach auf ihr Antigen.

Im Fachjargon werden solche führerlosen Systeme, die durch Verflechtung vieler Komponenten leistungsstark sind, als »komplex« bezeichnet. Je komplexer ein Kollektiv ist, desto überraschender kann es sich verhalten. Es spuckt dann Effekte aus, die sich aus den Eigenschaften der einzelnen Prozessoren nicht vorhersehen lassen. Das menschliche Bewusstsein gilt vielen Wissenschaftlern als ein Pop-up eines komplexen Systems namens »Gehirn«. Der Brite Alan Turing, einer der Väter des modernen Computers, meinte, dass ein Rechner, wenn er nur aus genügend Prozessoren und Speicherzellen besteht, auch ein Bewusstsein hervorbringen wird.

Die Reaktionszeit eines Fischschwarms ist auch so ein Pop-up: Sie ist schneller als die der einzelnen Tiere. Oder die gegenüber dem Einzeltier schärfere Wahrnehmung des Kollektivs. Es kann zuverlässiger entscheiden, ob der Schattenriss im Sonnenlicht über ihm ein herannahender Fressfeind ist oder nur ein harmloser Surfer.

Komplexität ist wegen ihrer vielen Gesichter ein weicher Begriff und schwer in Zahlen zu fassen. Monatlich bringt der Wissenschaftsbetrieb neue Ideen hervor, wie man dies tun könnte, wobei es auch vom Blickwinkel abhängt: Für Informatiker etwa wächst die Komplexität einer Software mit der Zeitdauer und mit dem Speicherplatz, den sie beansprucht. Im Allgemeinen nimmt Komplexität zum einen mit der Quantität zu, also mit der Anzahl der Teile des Ganzen und der Verknüpfungen zwischen ihnen. Und zum anderen mit der Qualität der Teile und der Beziehungen zwischen ihnen, grob gesagt, mit der Einfachheit oder Kompliziertheit der Regeln, denen der einzelne Agent folgt, und der Informationen, die er gibt.

Müheloses Fließen zur optimalen Lösung

Die Schwarmintelligenz ist indes nicht alles, was natürliche Computer zu bieten haben. Lebewesen zaubern aus wenigen leicht verfügbaren Rohstoffen besonders leistungsstarke Materialien. Mutter Natur muss bei ihrem Produktdesign auch noch mit wenig Energie auskommen, denn im Meer gibt es keine Kraftwerke oder Hochöfen. Stattdessen steckt sie einen bestimmten Aspekt von Information in ihre Materialien: Struktur. Sie ordnet die wenigen Ausgangsmaterialien immer neu an und erstellt dadurch immer neue Produktvariationen mit neuen Qualitäten. Das erinnert an die Lebensmittelindustrie, die den Konsumenten durch Variation der immer gleichen Ausgangsstoffe Fett, Salz und Zucker zu verführen sucht.

In der Natur freilich hat jede Variation ihren Zweck. Wer schon einmal durchs Wimbachtal im Berchtesgadener Land gewandert ist, weiß, wie spröde Kalkstein ist, wie die Berge dort förmlich zerbröseln und welch bizarre Felsformationen das hervorbringt. An das glatte, edle und schier unverwüstliche Perlmutt denkt man dabei gewiss nicht. Und dennoch besteht Perlmutt zum Großteil aus demselben Stoff: Kalk.

Dazu kommen nur noch zwei weitere Zutaten: Chitin (der Grundstoff der Außenskelette von Insekten oder Krebsen) und so genannte Strukturproteine. Beides besteht, ähnlich wie Kunststoff, im Wesentlichen aus Kohlenwasserstoffen.

Die drei einfach gestrickten Komponenten, Kalk, Chitin und Protein, wirken auf subtile Weise zusammen. Kalkschichten, tausendmal dünner als ein Blatt Papier, wechseln sich mit noch zehnmal dünneren Schichten aus einer Chitin-Protein-Mischung ab, ähnlich wie Ziegel und Mörtel in einer Mauer.

Das Prinzip dahinter erinnert ans Kochen, wo sich die Geschmäcker der Zutaten auf fast magische Weise zu etwas Neuem verbinden. Die harten Zutaten, Kalk und Chitin, verbinden sich mit den weichen Proteinen zu einem sehr zähen Stoff, kaum zu brechen, aber dennoch starr. Der weiche Teil sorgt dafür, dass der harte nicht bricht, und der harte dafür, dass der weiche nicht nachgibt. Im Kalk können sich Risse nicht ausdehnen, weil sie schon nach mikroskopisch kurzer Strecke vom Protein gebremst werden. Dass ein so smarter Werkstoff ohne viel Energieaufwand in der Suppe des Meeres wächst, verdankt sich Proteinen, die die chemischen Reaktionen lenken.

Es gibt hier eine Parallele zur kollektiven Intelligenz von Ameisen oder Immunzellen. Die Komponenten sind einfach. Sie treten in Wechselwirkung miteinander durch ihre ineinander verschränkte Anordnung. Und dadurch entsteht etwas, das jeder einzelnen der Komponenten fehlt. Das Ganze ist mehr als die Summe seiner Teile. Komplexität, wohin das Auge schaut.

Auch die unbelebte Natur löst schwierige Probleme sehr elegant, wie mit einem Fingerschnippen.

Die Technik nutzt das naturgegebene Fließen in die optimale Form.

Um ein Stahlteil möglichst fest und gleichzeitig aber formbar zu machen, erhitzt man es auf knapp 1000 Grad und lässt es dann langsam abkühlen. Dabei nimmt das Material von selbst die für die gewünschten Eigenschaften optimale, feinkörnige Struktur an. Dahinter steckt ein physikalisches Grundprinzip: das der Energieminimierung. Systeme, wie zum Beispiel eines aus Eisen- und Kohlenstoffatomen, die zusammen den Stahl bilden, nehmen einen Zustand möglichst geringer Energie an. Eine in die Schüssel geworfene Kugel, die nach einigem Hin- und Herrollen schließlich am Schüsselboden liegenbleibt, veranschaulicht dieses Gesetz. Beim Glühen von Stahl erhalten die Atome Energie, die sie beim langsamen Abkühlen dann dazu benutzen, um den energieärmsten Platz zu finden. Dieser Endzustand des Stahls entspricht dann auch dem Wunsch der Techniker nach Festigkeit im Verein mit Formbarkeit.

Das In-die-richtige-Form-Fließen wird auch von einem kalten, fertigen Stück Stahlblech beherrscht. Das Berliner Ingenieurbüro Dr. Mirtsch nutzt das Gesetz der Energieminimierung für Waschtrommeln, Fassaden oder Autoteile.

In Bleche, die etwas abstützen und sich dabei nicht verbiegen sollen, prägt man oft Kerben (im Fachjargon: Sicken. (Man kennt den Trick aus dem Alltag: Ein gefaltetes Blatt Papier lässt sich viel schwerer biegen als ein glattes). Das Verformen des Blechs kostet Kraft und somit Energie. Durch den Gewaltakt von außen wird das Metall zusammengedrückt wie Knetmasse, in die man eine Kuhle presst. Dadurch verringert sich der Spielraum für das Knautschen bei einem Crash.

Bei der Dr. Mirsch GmbH wird das Blech auf eine Walze gelegt, die das Kerbenmuster zum Teil vorgibt, aber noch Spielraum für Eigendynamik lässt. Dann übt die Maschine einen leichten Druck aus, etwa durch Wasser. Das Blech staut Energie auf wie eine Bogensehne. Die Spannungen sagen dem Blech: Tu etwas! Nun grenzt aber die Physik die Wahlmöglichkeiten ein. Sie sagt: Folge meinen Grundregeln und baue die Energie möglichst ab! Das Material folgt und weicht den Spannungen aus. Das heißt, es verformt sich so, dass sich die Spannungen möglichst gleichmäßig verteilen und insgesamt ein Minimum erreichen. Bei diesem geschmeidigen In-die-richtige-Form-Fließen tritt keine Kraft auf, die das Material zusammenquetscht. Es »ploppt« von selbst in Muster aus Sechsecken oder dekorativen Würfelecken (Abb. 1–2).

image

Abb. 1–2Wölbstruktur aus Stahl, von selbst in die stabilste Form »geploppt«.

Die Alu- oder Stahlbleche mit diesen »Wölbstrukturen« (Dr. Mirtsch) brauchen weniger Energie für ihre Herstellung. Und weniger Material für die gleiche Stabilität. »Das Gewicht von Bauteilen reduziert sich um 30 Prozent«, ergänzt Geschäftsführer Frank Mirtsch. Mit Pappe und Kunststoffen funktioniert das Verfahren ebenso.

Alles in einem Moment

Wie die Natur sogar die Zeit überwinden und enorm viel Information in weniger als einem Augenblick verarbeiten kann, zeigt die Quantenphysik. Diese erst im letzten Jahrhundert entdeckte Sparte der Physik beschreibt die Welt der Grundbausteine von allem: Elektronen, Lichtteilchen (Photonen), Atome oder Moleküle. Die Realität dieser kleinsten Dinge entzieht sich dem Begriffsvermögen des Geistes. Ein einziges Teilchen kann zwei voneinander entfernte Öffnungen eines Schirms gleichzeitig durchschreiten. Die Fähigkeit, sich an zwei Orten gleichzeitig aufzuhalten, spricht man ansonsten nur Heiligen zu. Der Unheimlichkeiten nicht genug, drehen sich Elektronen gleichzeitig links und rechts herum, und auf ähnliche Weise fließen Ströme in speziellen Leiterschleifen simultan im und gegen den Uhrzeigersinn. Mit Magie hat das nichts zu tun. Die Natur der kleinsten Dinge folgt dabei den Naturgesetzen der Quantenphysik.

Physiker fassen die Parallelexistenz zweier eigentlich gegensätzlicher Realitäten als eine simultane Verarbeitung von Information auf und sprechen von »Quantenparallelismus«. Die Information »Das Elektron ist durch den linken Spalt gegangen« und die Information »Das Elektron ist durch den rechten Spalt gegangen« können tatsächlich im selben Moment realisiert werden, mit einem einzigen Elektron. Der kleinstmögliche Informationsspeicher eines Computers hingegen, ein so genanntes Bit (Abkürzung des englischen »Binary Digit«, zu deutsch etwa: zweiwertige Zelle) ist dagegen gezwungen, die Dinge nacheinander anzuordnen: Er beinhaltet zum Zeitpunkt X entweder »Ja« oder »Nein«, nie so etwas wie »Jein«. Die Quantenwelt ist nuancierter, reicher. Sie kann beide Möglichkeiten, »Ja« und »Nein«, im gleichen Moment in einem so genannten Quantenbit, kurz Qubit, ablegen. Was zunächst so klingt, als verlöre die Speicherung damit ihre Bedeutung – denn was nützt die Antwort »Ja und Nein«? –, birgt enormes Potenzial für die Informationsverarbeitung. Denn es bedeutet, dass ein Qubit zwei Möglichkeiten repräsentiert. Fügt man viele Qubits zusammen, potenziert sich die Anzahl der möglichen Repräsentationen. Es wird nicht nur »Ja« und »Nein« darstellbar, sondern Komplexeres wie: alle möglichen Lösungswege eines Optimierungsproblems. Denn Folgen von Jas und Neins können als Codes aufgefasst werden und dadurch Bedeutung erlangen, etwa als Antworten auf einen vorgegebenen Fragenkatalog (War der Täter größer als 1,80 Meter: Ja; hatte er braune Augen: Nein; hatte er blaue Augen: Ja; trug er Jeans: Ja, usw. Aus der Folge Ja, Nein, Ja, Ja, … entsteht das Bild eines Menschen!). Die Quantenphysik erlaubt es nun, dass sich Lösungswege gegenseitig auslöschen und nur eine, im Idealfall die optimale Lösung übrigbleibt.

Große, aus vielen Teilchen bestehende Systeme, die der Quantenphysik gehorchen, so meinen viele Physiker, können daher gigantische Komplexität binnen eines Augenzwinkerns durchdringen. Oder anders gesagt: Eine Unmenge an Losen wird im gleichen Moment gezogen, man verwirft die Nieten und übrig bleibt der Gewinn. Es ist ähnlich wie bei der Ameisenkolonie, die Hunderte mögliche Wege zum Futter testet, und der kürzeste gewinnt. Der feine Unterschied: schon ein System aus 300 Qubits kann mehr Möglichkeiten darstellen als es Teilchen im bekannten Universum gibt.14 Es öffnet sich eine ganze Galaxie an Rechenpower.

Angriff auf den menschlichen Geist

Anhand der Wölbstrukturen haben wir gesehen: Die Technik profitiert schon von der Intelligenz der Natur. Nun poppt aber beim Thema Informationsverarbeitung auch die Frage hoch, ob sich die Intelligenz der Natur nicht für die Datenverarbeitung mit Computern nutzen lässt. Die Antwort: natürlich! Und es wird auch gemacht. Computer simulieren die Lernfähigkeit des Gehirns. Das Programm AlphaGo der Google-Tochter Deepmind überraschte 2016 sogar mit der Simulation einer eigentlich exklusiv dem Menschen zugedachten Fähigkeit: Intuition. Das Programm schlug einen Meister des Brettspieles Go, Lee Sedol, in einer fast demütigenden Weise. Go ist ein extrem komplexes Spiel, das ungleich mehr mögliche Spielzüge umfasst als Schach. Daher ist es nicht mit der Holzhammermethode zu gewinnen, die Schachcomputer nutzen. Stupides Vorausberechnen aller möglichen Züge würde bei Go ewig dauern. Während Schach bereits viel von seiner Faszination eingebüßt hat, als 1996 der Computer Deep Blue von IBM den damaligen Schachweltmeister Garri Kasparov schlug, galt Go noch als Bastion menschlichen Könnens gegenüber der Maschine. Meister des fernöstlichen Superspiels nutzen bei der Beurteilung, wie gut eine bestimmte Stellung von Go-Steinen ist, viel Intuition. Etwas, das Computer nicht haben – würde man meinen.