Gödel’s Unvollständigkeit als Ausdruck der Balkanisierung der Erkenntnistheorie in der Mathematik und der Wissenschaft

Gödel’s Unvollständigkeit als Ausdruck der Fragmentierung der Erkenntnistheorie in der Mathematik und der Wissenschaft

von Seán McFadden

23. Januar 2023

1 Einleitung
Spielt Unvollständigkeit in Gödels Sinn eine Rolle für das Verhältnis von Mikro- und Makrophysik, und wenn ja, welche Konsequenzen hätte dies?

Die von Kurt Gödel 1931 veröffentlichten Unvollständigkeitssätze schlugen hohe Wellen durch die damals laufenden Debatten um die Grundlagen der Mathematik.
Es schien, als ob all jene Fraktionen im Grundlagenstreit der Mathematik, die sich bemühten eine logisch kohärente gemeinsame Grundlage für die Mathematik zu schaffen, zum Scheitern verurteilt waren. Ob man nun behauptete, das Feld müsse aus der logischen Struktur der Syntax abgeleitet werden oder solle aus den Axiomen eines präzisen Formalismus abgeleitet werden, immer würden sie die Last der Unvollständigkeit mit sich tragen. Seither ist die Mengenlehre von Zermelo und Fraenkel weithin als das grundlegende System akzeptiert worden, aus dem sich alle anderen Bereiche der Mathematik ableiten lassen, wenn man sie, wenn nötig, um das Auswahlaxiom ergänzt. Der entscheidende Unterschied zu Cantors ursprünglichen naiven Mengenlehre liegt darin, dass wir jetzt sicher sein können, dass diese Axiome keine Gewissheit enthalten. Sie scheinen konsistent zu sein und bieten eine solide Grundlage, aber je nach der Entwicklung der Mathematik müssen sie vielleicht sogar überarbeitet oder ersetzt werden. Auf diese Weise scheint eine Form des Falsifikationismus in der Metamathematik Einzug gehalten zu haben. Genau wie in den Naturwissenschaften gibt es in der Mathematik eine Form der Widerlegung, die analog zur experimentellen Wissenschaft abläuft. Auch Gödel hat eine ähnliche Überzeugung in seinen Argumenten gegen Rudolf Carnap gezeigt (Gödel, 1953). Wohl stellen wissenschaftliche Theorien, insbesondere die der theoretischen Physik, formale Systeme dar. Das bedeutet, dass die gleichen Implikationen, die die Unvollständigkeitssätze auf die Mathematik hatten, auch in der Wissenschaft zu finden sind. Es gibt ausdrückliche Demonstrationen wie z.B. die Unentscheidbarkeit des Spektrallückenproblems (Cubitt et al., 2015). Das Phänomen ist jedoch überall in den Wissenschaften zu beobachten und stellt wohl ein allgemeines philosophisches Problem dar.

2 Epistemische Fragmentierung

Zunächst ist es wichtig festzuhalten, dass neben der Krise um die Frage, auf was die Mathematik zu gründen sei, Edmund Husserl auch im Allgemeinen eine Krise der europäischen Wissenschaften beobachtet hatte (Husserl, 1936), welche sich im Zuge der wissenschaftlichen Revolution vollzog. Vor der Aufklärung leitete die Wissenschaft ihre Einheit aus der Tatsache ab, dass sie unter der obersten Herrschaft des philosophischen Bereichs der Metaphysik stand. Das System der Scholastik hatte die christliche Theologie mit der philosophischen Begriffsbildung des Absoluten vereint. In gleicher Weise versuchte der Platonismus von Cantor alle mathematischen Elemente in Unterordnung unter das Absolute zu bringen, begriffen als die Menge aller Mengen. Das mathematische Problem wurde teilweise gelöst durch die Abschaffung der strikten Notwendigkeit der Einheit und indem die Einführung der Klasse der Mengen eingeführt wurde. Zuvor war es in der Wissenschaftsphilosophie zur kartesianischen Spaltung gekommen, in der das Absolute in einen Dualismus von res extensia und res cogitans aufgespalten wurde, zwei disjunkte Substanzen. Der Versuch, eine vereinigende Brücke zu postulieren, nämlich Gott, als das, was die Polaritäten zusammenhält, scheiterte und führte zu einer zunehmenden Polarisierung der Dichotomie (heute zu beobachten als Unterscheidung zwischen Geisteswissenschaften und Naturwissenschaften).

Die vorangegangene Ausarbeitung erklärt jedoch nicht den ursprünglichen Grund für den Zerfall der Metaphysik. Die Antwort findet sich in der Beziehung zwischen Metaphysik und Logik. Gotthard Günther beobachtete eine Form von Asymmetrie innerhalb der Metaphysik, die den Kern unseres Verständnisses von logischer Übereinstimmung und Inkohärenz (Günther, 1957). Günther wies die zeitgenössische Vorstellung zurück, es sei irgendwie möglich, die formale Logik ohne Rückgriff auf die aristotelische Metaphysik zu verwenden, aus der sie hervorgegangen ist. Die Asymmetrie ergibt sich aus der Etablierung einer Form der Dualität innerhalb des klassischen Systems, in dem es ein ewig wahres Sein und eine potentiell wahre Wahrnehmung des Seins gibt (Aristoteles). Diese beiden Pole waren keine ausgewogene Dichotomie, da das Sein der Wahrnehmung des Seins übergeordnet war, so wie Wahrheit und Falschheit als gleichwertige Modalitäten angewandt werden, aber nicht gleichgewichtig sind. Die Wahrheit ist der Unwahrheit übergeordnet, was sich im Lügnerparadoxon wiederholt. Die Aussage “dieser Satz ist wahr” ist konsistent und selbstverständlich wahr, während “Dieser Satz ist falsch” nicht falsch, sondern in sich widersprüchlich ist. Dies ergibt sich aus der Bedeutung der Modalitäten wahr und falsch, die aus der klassischen Metaphysik abgeleitet wurden.

Die asymmetrische Struktur der Metaphysik hat sich in vielen historischen Dichotomien niedergeschlagen. Viele historische Dichotomien, wie etwa die Priorisierung des Seins gegenüber dem Werden, dem Einen gegenüber dem Vielen oder dem Geist gegenüber der Materie. In ähnlicher Weise spielt sich eine grundlegende Dichotomie in der Mathematik ab, die sich in ihrer frühesten Form durch Zenos Paradoxon zeigte. Diese Dualität wird oft als Gegensatz zwischen dem Diskreten und Kontinuierlichen beschrieben. In der Mathematik hat das Zusammenspiel dieser Gegensätze zu vielen Entwicklungen auf diesem Gebiet geführt. Das Eine (oder das Absolute) ist etwas, das sowohl als kontinuierlich als auch als diskret angesehen werden kann, wurde jedoch klassischerweise als diskret angesehen, da die Existenz irrationaler Zahlen im Kontinuum lange Zeit geleugnet wurde. Im Zeitalter der Aufklärung hatte die Einführung der reellen Zahlen die natürlichen und rationalen (die diskreten) Zahlen als Teilmenge des Kontinuums. Der Verdacht auf tatsächliche Unendlichkeiten bleibt jedoch bestehen, und die computergestützte Berechenbarkeit erfordert die Anwendung diskreter Maße. In ähnlicher Weise bevorzugt die theoretische Physik das Diskrete. Die allgemeine Relativitätstheorie und Feldtheorien im Allgemeinen können als kontinuierliche Theorien angesehen werden, während die Quantenmechanik ein Paradebeispiel für eine diskrete Theorie ist. Die Kluft wiederholt sich fraktal innerhalb der Theorien, wobei Quantenmechanik das berüchtigte Problem der Reduktion der Wellenfunktion mit sich bringt. Das diskrete Verständnis des Teilchens während seiner Messung ist privilegiert, da gemeinhin gilt, dass die Information und der strenge Determinismus aufgrund der Dualität von Welle und Teilchen verloren geht. Die Welle als kontinuierliche Form der Materie hört erst dann auf, sich deterministisch zu verhalten, wenn man versucht, die Welle als eine nicht-aktualisierte Form des aktualisierten diskreten Teilchens zu betrachten.

Günther vertrat die Auffassung, dass der Begriff der Information als dritte Substanz neben Geist und Materie gebraucht werden sollte (Günther, 1957). Ein informationstheoretischer Ansatz kann auf geistige und materielle Entitäten gleichermaßen angewandt werden. In der theoretischen Physik hat man gesehen, dass die Analyse der statistischen thermodynamischen Information auf den Oberflächen Schwarzer Löcher der Quantentheorie und der allgemeinen Relativitätstheorie in bestimmten Bereichen Brückenschläge ermöglicht. In diesem Rahmen kann die Schwerkraft als eine emergente Eigenschaft eines Systems betrachtet werden, das sich dem Maximum der Entropie annähert (Verlinde, 2011). Der “Sprung”, den ein System macht, wenn eine neue emergente Eigenschaft auftritt, kann nicht auf die Komponenten (oder “Teile”) des Systems reduziert werden, wie die Untersuchung komplexer Systeme nahelegt (Kahle, 2009). Vielmehr handelt es sich um eine Eigenschaft, die durch das synergistische Zusammenspiel aller Teile entsteht, so dass das System in eine übergeordnete Struktur eingebettet werden muss, um das System und seine Teile miteinander zu vereinbaren. Der Umstand, dass Gödels Beweis durch eine Selbstreferenz konstruiert ist, die innerhalb des Systems unentscheidbar, aber aus einem übergeordneten System entscheidbar ist, ist ein Symptom einer solchen emergenten Eigenschaft.

Die Unvollständigkeit der formalen Logik hat ihren Ursprung wohl in der fundamentalen Irreduzierbarkeit des Kontinuierlichen auf das Diskrete (da die formalen Systeme von Gödel rekursiv aufzählbar sein müssen) und wiederholt sich daher in allen solchen theoretischen Fällen, in denen dies versucht wird. Die Asymmetrie der formalen Logik, die sich im Paradoxon des Lügners zeigt, spiegelt sich im Beweis des ersten Unvollständigkeitssatzes wider. Nur verschiebt Gödel die Asymmetrie in Richtung einer neuen Asymmetrie. Statt dem Unterschied zwischen Wahrheit und Unwahrheit geht es ihm um die potentielle Beweisbarkeit und die Unbeweisbarkeit, der das Potential, wahr oder falsch zu sein, gänzlich fehlt. Diese Verschiebung hin zur Beweisbarkeit bettet die Begriffe Wahrheit und Falschheit in einen breiteren (vielleicht dialethischen) Kontext ein (Priest, 1998). Sie entspricht seinem philosophischen Wandel hin zu einem Wahrheitsbegriff, der über logische Modalitäten hinausgeht.

3 Gödel entdeckt die Ontologie wieder

Um die Bedeutung Gödels für die Grundlagen der Mathematik und der Wissenschaft zu verstehen, ist es entscheidend, seine Beziehung zum Absoluten zu betonen. Er hat sich nicht nur positiv zur Religion geäußert (Wang, 1988) und einen Gottesbeweis formuliert (Gödel, 1970), sondern er machte auch eine Aussage, in der er seine Freude darüber zum Ausdruck brachte, über das Absolute allein durch logisches Denken etwas herausgefunden zu haben. Cantor’s Antinomien zeigten, dass das Absolute selbst einen Widerspruch darstellt, jedoch anstatt die Nichtexistenz des Absoluten damit zu schließen, scheint Gödel eine Form der negativen Theologie zu implizieren. Das Absolute existiert, aber man kann nicht von ihm in logischen Begriffen sprechen. In ähnlicher Weise betrachtet sein ontologischer Realismus mathematische Objekte nicht so, dass Dreiecke und Zahlen in einem außerweltlichen Bereich existieren (wie Russel es ihm vorgeworfen hätte), sondern er betrachtet diese Objekte als Formalisierungen die auf qualitativen mathematischen Wahrnehmungen von realen Entitäten beruhen (eine Form der Intuition oder Verständnisses von Gestalt). Daher stellen die in der Mathematik auftretenden Ungereimtheiten Beschränkungen bei der Formulierung von Axiomen dar, ähnlich wie in der Entwicklung wissenschaftlicher Theorien. Er bezieht sich auf Husserl (Gödel, 1953) und sieht die Zukunft der Philosophie der Mathematik in der Wiederentdeckung des Platonismus mit Hilfe der phänomenologischen Methode.

Husserls Schüler Martin Heidegger war bestrebt, die allgegenwärtigen ontologische Kluft in der Philosophie durch das, was er Verwindung (anstelle von Überwindung), eine Form der Überwindung, die nicht die Überordnung eines Prinzips über das andere (auch nicht vorübergehend, wie es in einem dialektischen Ansatz zu finden ist). Stattdessen sollten sich die Dichotomien aus ihrer verworrenen Verstrickung herausdrehen. Der Fokus verschiebt sich nun von der ontologischen Kluft hin zu einer ontologischen Unterscheidung zwischen Sein und Seiendem. Diese Unterscheidung steht für die Offenheit, in der sich das Sein offenbart. Das Sein, das diese Offenbarung bezeugt, ist das Dasein, das sich auf sein eigenes Sein bezieht (Heidegger,1927). Der relevante Aspekt des Daseins ist, dass es den Urgrund repräsentiert, von dem aus die Trennung von Subjekt und Objekt erfolgt, und in dem die Trennung von Diskretem und Kontinuität, ihren Ursprung hat. Gödel hat etwas bewiesen, dessen Konsequenzen so grundlegend sind, dass nur einige wenige, wie Heidegger, auf die selben fundamentalen philosophischen Übergange hingedeutet haben, welche immer notwendiger werden.

Die Wiederentdeckung der Ontologie nach ihrem Zerfall ist eine unabdingbare Notwendigkeit für jedes Streben nach Wahrheit. Das Verständnis von Wahrheit selbst ändert sich jedoch, sobald die klassische metaphysische Beziehung zwischen Entitäten aufgelöst wird. Gödel hat eine Richtung angedeutet, die noch erforscht werden muss. Die Alternative ist die kontinuierliche Weiterentwicklung der wissenschaftlichen Forschung in Richtung Datenwissenschaft, Kybernetik und statistischer Auswertung. Die Auflösung von Bedeutung und übergeordneten Narrativen in der Wissenschaft macht die Suche nach einer großen vereinheitlichenden Theorie im Wesentlichen zu einem scheinbar überholten Projekt. Ein Projekt, das darum ringt, den festen Boden wiederzufinden, auf dem es so gerne stehen würde.

Literatur

1. T. Cubitt, D. Perez-Garcia, M. M. Wolf. Undecidability of the Spectral Gap. arXiv:1502.04573v2. (2015)

2. K. Gödel. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik. p. 173-198. (1931)

3. K. Gödel. Is Mathematics Syntax of Language? K. Gödel Collected Works. Oxford University Press. pp. 334–355 (1953)

4. K. Gödel. Ontological Proof. Collected Works Vol. 3: Unpublished Essays and Letters. Oxford University Press. (1970)

5. G. Günther. Das Bewusstsein der Maschinen – Eine Metaphysik der Kybernetik. (1957)

6. M. Heidegger. Heidegger, M. (1993) Sein und Zeit. Max Niemeyer Verlag. bingen. (1927)

7. E. Husserl. Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie: eine Einleitung in die phänomenologische Philosophie. (1936)

8. T. Kahle. Complexity Measures from Interaction Structures. Phys. Rev. E 79, 026201. (2009)

9. G. Priest. Dialetheism. URL: plato.stanford.edu/entries/diealetheism. (1998)

10. E. Verlinde On the origin of gravity and the laws of Newton. J. of High Energ. Phys., 29. (2011)

11. H. Wang. Reflections on Kurt Gödel. Mind 97(388):634-638. (1988