Das Ende der deterministischen Erkenntnissuche Erkenntnistheorie

Deterministische Erkenntnissuche ist, mit dem Finger oder dem geistigen Auge auf etwas zu deuten und zu denken, man erkenne. Es ist schwer, sich vorzustellen, wie Erkenntnis nicht aus diesem empirischen Akt entspringen kann, aber die Zukunft der Erkenntnistheorie liegt in der Unschärfe und in der Maschine. Das will ich versuchen, zu argumentieren, indem ich zunächst aufzeigen, dass selbst das „Materielle“ in der Wissenschaft in Wahrheit sehr unscharf ist.

So gut wie alle technischen Werkstoffe zeigen im mikrostrukturellen Aufbau Ungleichmäßigkeiten – von der atomaren Ebene, über das Gefüge hin zu sichtbaren Verunreinigungen im Werkstoff. Auf den untersten Skalen sind diese vereinzelten Ungleichmäßigkeiten für das Materialverhalten meist prägender als das umgebende, gleichmäßige Gefüge. Zum Beispiel ermöglichen Versetzungsfehler im Gitteraufbau erst die plastische Fließfähigkeit eines Metalls. Was ohne diese Fähigkeit passiert, sieht man bei spröden Keramiken, die keine Sicherheitsreserven gegen Überlast aufweisen. Das Verformungsverhalten der Polymere wird sogar rein über statistisch-physikalische Gesetze erklärt, also komplett ohne eine zugrunde liegende Gleichmäßigkeit eines Atomgitters.

Dieser wesentliche Einfluss von Ungleichmäßigkeiten scheint erst einmal sonderbar, verhalten sich die meisten Werkstoffe doch auf dem üblichen Maßstab sehr gleichmäßig. Das lässt sich allerdings dadurch erklären, dass auf sichtbarer Ebene die Ungleichmäßigkeiten so häufig vorkommen, dass sie sich in Summe herausmitteln. Dadurch lässt sich ein Werkstoff augenscheinlich in alle Richtungen gleich verformen und man spricht von einem isotropen Verhalten, das man deterministisch beschreibt.

Da der Erwartungswert des Grenzwertsatzes in der Regel auf makroskopischer Ebene noch nicht erreicht ist, zeigt sich eine Streuung, die sich zunehmend einer Normalverteilung annähert, egal welche Verteilung dafür im Kleinen ursächlich ist.
Es stellt sich die Frage, wie man einen Werkstoff überhaupt sehen soll. Als ideale Struktur mit statistischen Defekten oder als rein statistische Struktur mit unbedeutender Gleichmäßigkeit?

In der Mikromechanik wird versucht, die homogenen Werkstoffeigenschaften, die man am Prüfstand misst, aus den statistischen Merkmalen abzuleiten, die in einem idealen Gefüge eingebettet sind. Es geht hier allerdings nur um statistische Verteilungen von geometrischen Objekten. Die statistische Physik geht hier einen Schritt weiter und verteilt das gesamte Energie- und Impulsniveau der Atome nach statistischen Merkmalen, so dass die elastischen Eigenschaften gänzlich ohne Spannungen, also auch ohne Kräfte, erklärt werden. Wie sinnvoll da noch die Vorstellung ist, dass Kräfte und Steifigkeiten zwischen den Atomen für die Verformungen verantwortlich sind, hatte ich an anderer Stelle bereits diskutiert. In den statistischen Gleichungen kommen sie jedenfalls nicht mehr vor.
Spätestens wenn man noch eine Ebene tiefer als die statistische Physik geht, in der immerhin noch ganze Atome betrachten werden, zeigen sich in die Quantenmechanik auch diese nur noch als verteilte Größen.

Umso weiter man also in die Materie hineinzoomt, desto mehr verlässt man die gewohnte Anschauung unserer alltäglichen Welt der makroskopischen Objekte und muss sich mit reiner Statistik von abstrakten, nicht geometrischen Eigenschaften anfreunden. Das widerstrebt dem Gehirn ganz und gar. Es ist aber die Wahrheit, vollkommen widerspruchsfrei.

Da die meisten Menschen das einfach nicht akzeptieren können und/oder wollen, heißt es so schön nach dem großen Physiker und Nobelpreisträger Richard Feynman: »Shut up und calculate«. Damit ist gemeint, dass man durch den Grenzwertsatz (stellvertretend für die ganzen fiesen Integralformulierungen, mit denen man sich als theoretischer Physiker herumschlagen muss bzw. darf) genau das deterministische physikalische Merkmal herausbekommt, dass man sonst für alles Weitere einfach insgeheim voraussetzt. Um rechnen zu können, braucht man nicht zu verstehen. Das hat Feynman ausgeschlossen. Die Grundlagen, um rechnen zu können, sind so abstrakt, dass man sie nicht durch Anschauung verstehen kann, sondern glauben muss.

Jetzt kann man natürlich fragen, was es mit dem Grenzwertsatz auf sich hat und ob ein grundlegendes physikalisches Prinzip dahinter steckt. Nein, er ist reine Mathematik, mit der vereinfacht über die Skalen gerechnet werden kann. Aber auf was basiert dann die Physik der Dinge wirklich?
Jetzt wird es erkenntnistheoretisch spannend, denn man kann aus diesen Überlegungen konsequent postulieren, dass jede deterministische Vorstellung, wie die Welt im Innersten funktioniert, grundsätzlich falsch ist. Man darf also keine Analogie als Hilfsmittel zum Verständnis verwenden, das auf einer  makroskopischen Erfahrungswelt beruht, um die Welt im Kleinen und damit auch im Ganzen (im Sinne von wahr durch Widerspruchsfreiheit) zu erklären. Man kann also überhaupt und prinzipiell nicht davon ausgehen, dass etwas im Kleinsten vom Prinzip so wie im Großen zu verstehen ist.

Die Annahme, dass z.B. Elektronen wie Planeten um den Atomkern flitzen, ist zwar schön anschaulich, aber bekanntlich auch fulminant falsch. Die Vorstellung, dass Atome mit atemberaubender Geschwindigkeit, wie durch Spiralfedern verbunden, vibrieren, ist ebenso falsch.

Ist nun deterministisches Denken nichts mehr als ein naives Mittelwertdenken im Sinne einer Informationsvereinfachung?

Danach sieht es wohl aus. Man kann es allerdings auch positiv formulieren, in dem man die Sicht umdreht und den Determinismus als die richtige unter all den möglichen Alternativen der Vereinfachung darstellt.

Man kann nun sogar radikal fragen, wie die Menschen überhaupt die Gesetze der Quantenmechanik herausfinden konnten, wenn man es eigentlich nicht durch deterministisches Denken, also makroskopische Analogie herausfinden kann.

Zum einen war die Entwicklung der Quantenmechanik historisch ein langer und für alle Beteiligten auch ein irritierender Prozess, der schließlich zum Bruch mit der klassischen, deterministischen Physik führte. Die Herleitung der elementaren Gleichungen der Quantenmechanik (Boltzmanns Strahlungsgesetz und Schrödingers Wellengleichung z.B.) waren zunächst nichts weiter als mathematische Tricks, um ansonsten deterministische Modelle zu korrigieren. Das Pauli Prinzip und Heisenbergs Unschärferelation gingen da schon einen Schritt weiter, nachdem nun der Damm des gesunden Menschenverstandes gebrochen war. Nicht ganz unerheblich am Dammbruch war auch die Allgemeine Relativitätstheorie von Albert Einstein, die jede sicher geglaubte Vorstellung von Raum und Zeit sprengte.

Es hat sich aber niemand hingestellt und gesagt, dass wir unser bisheriges, angeborenes Denken zu Gunsten eines neuen Denkens aufgeben müssen, um die Welt als Sonderfall besser zu verstehen. Ganz im Gegenteil, in der Kopenhagener Interpretation wird zwar der Wahrscheinlichkeitscharaker als zentraler Kern der Quantenmechanik erkannt, allerdings nur als Formalismus (also als Trick) betont, um die Häufigkeit von Einzelergebnissen deterministisch zu beschreiben. Die Diskussion geht jedoch am eigentlichen Kern der Sache vorbei, denn es geht bei dieser Diskussion um die Frage, was Realität ist. Als wenn das für eine wahre Erkenntnis wichtig wäre.

Die mathematischen Tricks haben sich in der experimentellen Überprüfung als so widerspruchsfrei erwiesen, dass man eher die Tricks als grundsätzlich wahr annehmen musste, als das, was es zu korrigieren galt. Können also mathematische Ticks wahrer sein als die Realität. Selbstverständlich, denn der Begriff der Realität entspringt aus der makroskopischen sinnlichen Erfahrung.

Die Theorie der Quantenmechanik und der Allgemeinen Relativitätstheorie sind vielleicht nur Artefakte des wissenschaftlichen Prinzips auf der Suche nach der widerspruchsfreien Wahrheit. Eine Suche, bei der es egal ist, wie hoch der Preis ist. Und der Preis des gesunden Menschenverstandes, im Sinne des Verstehen Wollens der Wahrheit, wurde dafür schon gezahlt. Es ist zu befürchten, dass das noch nicht einmal der höchste Preis war, den die Menschen dafür zu zahlen bereit sind.

Vielleicht könnte man auch argumentieren, dass der Mensch prinzipiell die Fähigkeit hat, nicht deterministisch und trotzdem wahrheitsgemäß zu denken. Also, dass er die Wahrheit hinter der erfahrbaren Realität erkennt. Also mehr erkennt, als durch Messungen an der Realität zu erkennen ist. Kant nannte diese Art der Erkenntnis a priori – eine Erkenntnis, die hochwertiger ist als eine reine Erfahrung oder zumindest nicht aus ihr entspringen darf. Ob es so etwas überhaupt geben kann, ist höchst umstritten.

Dem Menschen ist es allerdings heutzutage möglich, eine Maschine zu bauen, die diese Frage für ihn klären könnte.

Es sind unscharfe und nicht deterministische Algorithmen wie Neuronale oder Bayessche Netze, die immer besser Dinge erkennen, die sonst nur Menschen erkennen. Es ist nur eine Frage der Zeit, bis sie mehr erkennen werden als Menschen. Vielleicht haben sie dann aber Schwierigkeiten, es dem Menschen zu erklären und die Menschen könnten es auch nicht extrahieren, denn die Modelle lassen sich bereits heute nicht mehr deterministisch interpretieren, obwohl man weiß, dass sie deterministisch programmiert auf deterministischen Silizium-Schaltkreisen laufen.

Auch bei diesen Algorithmen vollzieht sich gerade der Prozess der zunehmenden Statistifizierung. Ein herkömmliches neuronales Netz zum Beispiel enthält deterministische Operatoren, die zwar gleichmäßig angeordnet, aber über statistische Gewichte miteinander vernetzt sind. Im verbesserten Schritt wird analog zum menschlichen Gehirn die Vernetzung ebenfalls statistisch statt gleichmäßig gehandhabt und im nächsten Schritt dann noch die Eigenschaften jedes Operators nach statistischen Merkmalen geprägt, was im Gehirn nicht gegeben ist. In der Algorithmik passiert quasi genau das Gleiche wie bereits in der Physik. Viele zunächst gleichartige, makroskopische Abbilder werden zu unscharfen Verteilungen eines einzigen, abstrakten, mathematischen Objektes.

Der dreidimensionale Raum wird zum Sonderfall einer allgemeinen, multidimensionalen Topologie. Die deterministischen Zahlen in der topologischen Menge werden wiederum zu funktionsartigen Operatoren. Raten Sie mal, was für Funktionen das sein könnten?

Es ist schon paradox, dass obwohl in der Physik und der künstlichen Intelligenz immer unschärfer operiert wird, immer bessere Resultate erreicht werden. Es ist paradox, dass die Maschine somit immer besser erkennt, umso mehr der Mensch nicht mehr erkennt, wie die Maschine das macht. Es ist paradox, dass ein Algorithmus bessere bzw. konkretere Vorhersagen macht, umso mehr Strukturen durch selektiven Zufall ins Spiel kommen. Doch ein Paradox beweist nur, dass die zugrunde liegende Wahrheit falsch ist.

Jede Erkenntnistheorie, die auf deterministischen Idealen und makroskopischen Beobachtungen basiert, ist grundsätzlich als falsch einzustufen, denn Sie wird zwangsläufig zu Widersprüchen führen, wenn sie etwas mit sich selbst erklärt. In der Unschärfe liegt auch für die Suche nach Erkenntnis die Zukunft. Nur leider ist das nicht so einfach, denn mit dem Wunsch die Unschärfe zu verstehen, fordert man insgeheim einen Determinismus hinter der Unschärfe. Doch es ist genau andersherum, denn hinter jedem Determinismus steckt Unschärfe. Zu Verstehen ist im klassischen, deterministischen Sinne da also nichts. Es braucht folglich andere Wege und Strategien, sich der Unschärfe anzunehmen.

Das Ende der deterministischen Erkenntnissuche
5 (100%) 2 votes

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.