Hans Günter Holl: WISSENSCHAFT UND KI
- 4. Juni
- 4 Min. Lesezeit
Die Entstehung der modernen Wissenschaft beruhte auf einer allmählichen Verschiebung der erkenntnisleitenden Ideale. Während die Geometrie und Arithmetik des Pythagoras, die aus Spielereien mit Steinchen (psephoi) hervorgegangen waren, die statische Größe der Zahl als Basis des Seins verabsolutierten, baute Platon auf dieses zeitlose Fundament seine Ideenlehre. Zwar öffnete er damit die Wahrheitssuche ein wenig für die Empirie und vereinigte am Ende seines Lebens die beiden Grundbegriffe „Zahl“ und „Idee“ in dem berühmten Aufsatz „Über die Mathematik und das Gute“. Aber im Wesentlichen blieb die Forschung rein spekulativ und der übersinnlichen Gewissheit ewig vollendeter Formen verpflichtet. Obwohl Aristoteles eine eigenständige Existenz ideeller Gegenstände bezweifelte, verfocht auch er mit der Entelechie eine empirisch nicht verifizierbare Version von Vollkommenheit, derzufolge alles Werden höchste Perfektion anstrebte. Diese so oder so begründete Orientierung an metaphysischen Idealen prägte die gesamte Entwicklung bis zur frühen Neuzeit und ließ eine empirische Überprüfung prinzipiell nicht zu. Man könnte die daraus resultierende Mentalität mit der Gesinnung fanatischer Ideologen vergleichen, die alles gelten lassen, nur keine Tatsachen.

Das derart auf Dogmen gestützte Weltbild musste sich im Lauf der Zeiten viele Angriffe gefallen lassen, vor allem seitens des Nominalismus, die es lange kaum erschütterten, aber zunehmend schwächten. Doch Anfang des 17. Jahrhunderts war es dann so weit, dass einem Francis Bacon der Kragen platzte, als er in seinem „Neuen Organon“ – anspielend auf das Organon des Aristoteles – die Unergiebigkeit des spekulativen Denkens geißelte: „Nichts ist gehörig gesichtet in der Naturlehre, nichts bewahrheitet, nichts gewogen, nichts ausgemessen. Unbestimmte, verworrene Beobachtungen können aber auch nur falsche, täuschende Begriffe zur Folge haben.“
Aus dieser harschen Kritik ging bald ein neues Ideal hervor, das nicht mehr die Vollkommenheit von Visionen oder Konstellationen verherrlichte, sondern die Genauigkeit des Beobachtens und Messens als oberstes Kriterium echter Erkenntnis begründete. Im Rückblick stellte sich die spekulative Neigung der Antike und ihr prägender Einfluss auf die anschließende Geistesgeschichte als trauriges Versäumnis dar: „Die Griechen waren viel zu theoretisch, fassten die Wissenschaft als einen Ableger der Philosophie auf […] was den Fortschritt der Physik im gesamten Mittelalter blockierte. Wenn die Scholastiker doch nur gemessen hätten, anstatt zu klassifizieren, was würden sie nicht alles erkannt haben!“ So Whitehead in Wissenschaft und moderne Welt.
Doch das beharrliche Festhalten an dem durch reine Spekulation errichteten Ordnungsrahmen war keineswegs bloß borniert, sondern es diente wie alle Ideologien vorzüglich dem Zweck, den Geltungsanspruch der Doktrinen vor der zersetzenden Unberechenbarkeit widerspenstiger
Tatsachen zu bewahren. Dass diese Sorge vollauf berechtigt war, bewies die folgende Entwicklung, die gründlich mit den traditionellen Idealen aufräumte, um genaue Beobachtung und exakte Messung als neue Maßstäbe einzusetzen. Allerdings starben Spekulation und Generalisierung dabei keineswegs ab, sondern steuerten nun die Forschung durch kreative Impulse. Das bezeugte Einstein, der als deren tragischer Held das Erfolgsgeheimnis der klassischen Naturwissenschaften ausplauderte: „Erst die Theorie entscheidet doch darüber, was man beobachten kann."
Der neuzeitliche Imperativ der Exaktheit, der die alten Ideale entthront und einen
sagenhaften Siegeszug der experimentellen Methode vorangetrieben hatte, musste jedoch seinerseits eine Relativierung hinnehmen, als die Quantentheorie den gesamten Kontext der Grundlagenforschung sukzessive veränderte. Das neue Paradigma der Stochastik widersprach dem Determinismus und damit auch Einsteins Modell der sicheren Beobachtung, da sich die betreffenden Phänomene nicht direkt beobachten, sondern nur aus den Messwerten rekonstruieren lassen. Die dadurch entstandene neue Situation für einen realistischen Erwartungshorizont der empirischen Forschung presste Whitehead in den Befund: „Exactness is a fake.“
So war man nach einer langen Reise von den antiken Idealen über das neuzeitliche Ideal genauer Beobachtung und zuletzt sogar deterministischer Welterklärung bei einem eher nüchternen Konzept von „moderner“ Wissenschaft angelangt. Zwar gelten deren probabilistische Prognosen trotz ihrer Unschärfe als optimal erforscht und geprüft, aber die irritierende Einsicht, die sie immer begleiten muss, ist die Gewissheit einer prinzipiellen Ungewissheit. Das schränkt den Machtanspruch des Wissens massiv ein, da sich die Kaprizen des Mikrokosmos im größeren Zusammenhang potenzieren. Davor ist auch Einsteins Sicht des Determinismus nicht gefeit.
Doch trotz der verstörenden Unvereinbarkeit deterministischer und stochastischer Hypothesen blieb auch die jüngere Forschung dem antiken Erbe treu, ein höchstes GUT anzustreben – was hier für Great Unified Theory steht –, und dieses Ziel oder Ideal fand seine organisatorische Perspektive im Programm „Suche nach der Weltformel“. Da sich keine elegante Synthese der Grundprinzipien abzeichnete, lockte schließlich eine eher gigantische und kumulative Lösung, die darin besteht, möglichst alle verfügbaren Daten in riesigen Rechenzentren zu sammeln und durch KI auswerten zu lassen. Damit gehen wunderbare Verheißungen einher, die an den Stein der Weisen erinnern, weshalb jüngst alle Welt begonnen hat, frenetisch in diese Technik zu investieren.
Jobst Landgrebe hat in seinem Buch Why Machines Will Never Rule the World den Hype um KI und speziell das mit 500 Milliarden Dollar veranschlagte Stargate-Projekt der USA analysiert und kam zu dem Schluss, dass die Enthusiasten von falschen Voraussetzungen ausgehen. Zwar könnten auf diese Weise ungeahnte Datenmengen bewältigt werden, aber ihre Quantität stehe – selbst bei der politisch angestrebten Massenüberwachung – in keinem Verhältnis zur erhofften Qualität. Denn erstens seien Algorithmen niemals innovativ oder rekursiv, könnten also nur bekannte Muster erfassen. Und zweitens gehe es bei den zu erwartenden Komplikationen keineswegs immer um mathematisch lösbare Probleme. Nachdem Thermodynamik und Quantenphysik bewiesen hätten, dass komplexe Systeme nicht beliebig modellierbar sind, müsse man schon ein sehr naiver Cartesianer sein, um KI für die Realisierung eines Laplaceschen Dämons halten zu können.
Man darf vermuten, dass fachkundige Wissenschaftler und Programmierer bestens über die Grenzen der KI Bescheid wissen, sich aber hüten, das an die große Glocke zu hängen, da lukrative Posten und Aufträge winken. Im Übrigen erfüllt die Künstliche Intelligenz die oben skizzierten Anforderungen an ein Ideal, wie es die gesamte Tradition des spekulativen Denkens seit Pythagoras motiviert hat. Das heißt, sie ersetzt die Mühen der Empirie und dient auch sonst in jeder Hinsicht der Bequemlichkeit. Als Surrogat für die fehlende Synthese aus Relativitäts- und Quantentheorie könnte sie die Leerstelle der Weltformel im Sinne einer Prothese ausfüllen. Kreatives Denken, wie es die Jahrhundertwende um 1900 prägte, würde es schwer haben, sich dagegen durchzusetzen.
*
Über den Autor: Hans Günter Holl, geb. 1949, ehemals Übersetzer (Whitehead, Bateson), heute Essayist und Rechtsanwalt.
Hier können Sie TUMULT abonnieren.
Für Einzelbestellungen klicken Sie bitte hier.