Wie realistisch ist die Physik? Der Aussageanspruch wissenschaftlicher Theorien diskutiert am Beispiel der Quantenmechanik


Akademische Arbeit, 2001

30 Seiten, Note: 1,0


Leseprobe

Inhalt

Einleitung

1. Probleme der Elementarteilchenphysik im historischen Rückblick

2. Entsprechung zwischen Begriff und Gegenstand
2.1 Im Gespräch mit I. Kant: „Die Natur vor dem Richterstuhl der Vernunft“
2.2. Die Kopenhagener Deutung

3. Die Distanz zwischen Subjekt und Objekt auf dem Prüfstand
3.1. Die Rolle des Beobachters in der Quantenphysik
3.2. Die Verschieblichkeit des Schnitts

4. Wie determiniert ist die Natur?
4.1. Wahrscheinlichkeit: Unwissen versus Freiheitsgrade
4.2. Die Metatheorie und ihr Aussageanspruch

Die Quantenmechanik im Schema der ontologischen und erkenntnistheoretischen Ebene

Literaturliste

Wie realistisch ist die Physik?

Der Aussageanspruch wissenschaftlicher Theorien diskutiert am Beispiel der Quantenmechanik

Jona Kirchner 2017

Um die Ergebnisse von Erkenntnisprozessen zu interpretieren, wurden im Laufe der menschlichen Geistesgeschichte zahlreiche Positionen eingenommen. Diese lassen sich aber alle einfach und übersichtlich auf zwei Betrachtungsebenen einordnen. Das ist zum einen die erkenntnistheoretische Ebene mit den Grenzpositionen Rationalismus (Präferenz für die Strukturen der Theorie) und Empirismus (Präferenz für die Beobachtungsdaten), auf der vor allem die Aktivitäten des Erkenntnissubjekts betrachtet werden. Die zweite ist die ontologische Ebene mit den Grenzpositionen Realismus und Idealismus, auf der untersucht wird, wie genau die Aussagen über die untersuchten Objekte tatsächlich den Objekten entsprechen. Mit der Quantenmechanik schienen sich dahingehend völlig neue Probleme aufzutun. Denn lange war nicht erkennbar, was bei der Beschreibung der Quanteneffekte die Diskrepanzen zu den bisher gut bewährten physikalischen Modellen verursachte. Waren die Modelle nicht ausgereift genug? Oder verhält sich die Natur tatsächlich so seltsam, dass es dafür eine ganz neue Theorie braucht? Hinzu kam die eigenartige Beeinflussbarkeit von Quantensystemen durch ihre Beobachter. Im vorliegenden Artikel werden nicht nur diese Probleme und ihre historischen Lösungsversuche diskutiert, sondern wird auch ein eigener Vorschlag zur Einordnung der Quantentheorie gemacht.

Einleitung

Im Jahr 2014 veröffentlichte ich einen Artikel über die Möglichkeiten und Grenzen wissenschaftlicher Erklärung diskutiert am Beispiel des Hempel-Oppenheim-Schemas. Dort kam ich zu dem Schluss, dass sich die unterschiedlichsten philosophischen Positionen – ebenso wie die verschiedenen Modelle wissenschaftlicher Erklärung – in den Rahmen eines Schemas stellen lassen, das es erlaubt, diese im Spannungsfeld zwischen zwei Ebenen zu systematisieren: der erkenntnistheoretischen (epistemischen) und der ontologischen (Seins-)Ebene[1]. Die Diskussion ergab, dass die wissenschaftliche Arbeit auf der erkenntnistheoretischen Ebene mittig zwischen den Grenzpositionen Rationalismus und Empirismus zu verorten ist. Denn in ihr kommt dem Erarbeiten und Weiterentwickeln eines komplexen Begriffs- und Kategoriensystems ebenso große Bedeutung zu wie der Erhebung der Beobachtungsdaten. Dieser Ansatz folgt im Wesentlichen der von C.G. Hempel und P. Oppenheim vorgeschlagenen Methode, über eine wechselseitige Korrektur von Theorien und empirischen Daten einen Erkenntnisfortschritt zu erzielen[2]. Die Betrachtung im Schema der zwei Ebenen erlaubt aber eben auch, Denkmodelle einzuordnen, die außerhalb des naturwissenschaftlichen Rahmens entwickelt werden. Hier hilft insbesondere die ontologische Ebene bei der Unterscheidung.

Abbildung in dieser Leseprobe nicht enthalten

Welche Positionen man auf der ontologischen Ebene mit den Grenzpositionen Idealismus und Realismus einnehmen kann, hängt nämlich vom jeweils betrachteten Wirklichkeitsbereich ab. Die Naturforschung sollte davon motiviert sein, die Wirklichkeit verstehen zu wollen, wie sie sich selbst dem Beobachter zeigt. Die technischen Anwendungen, mit denen sich schließlich auch ein Nutzen aus den naturwissenschaftlichen Erkenntnissen ziehen lässt, stehen gewissermaßen schon am Übergang zwischen der reinen Forschung und der aktiven Umgestaltung der Umwelt[3]. Die Human- bzw. Gesellschaftswissenschaften haben im Unterschied zu den Natur- und Ingenieurswissenschaften nicht nur die Funktion, Gesetze zu verstehen und gegebenenfalls anzuwenden. Auf Grundlage ihrer Untersuchungen des menschlichen Verhaltens entwerfen sie Gesellschaftsmodelle und ethische Standards. Hier sind Strukturen nicht gegeben, sondern müssen erst geschaffen und durchgesetzt werden. Das macht den idealistischen Charakter ihrer Modelle aus.

In der vorliegenden Arbeit möchte ich das Zwei-Ebenen-Modell auf die Quantenmechanik anwenden, die seit ihrem Entstehen schon einigen Generationen von Physikern und Philosophen Kopfzerbrechen bereitet hat. Seit die Quantenphänomene ins Blickfeld rückten, schien es mit der schönen, reinen Beobachterperspektive des Naturforschers vorbei zu sein. Aber das ist es nicht allein, was das eigenwillige Wissensgebiet scheinbar auch aus dem Rahmen des Zwei-Ebenen-Schemas fallen lässt. Beim Testen des Modells an der Quantenmechanik geht es also darum, ob es den von ihr aufgebrachten Fragen standhalten wird und ob es nicht vielleicht sogar etwas zu ihrem Verständnis beitragen kann.

1. Probleme der Elementarteilchenphysik im historischen Rückblick

Nachdem Physiker und Astronomen bereits mehr als 300 Jahre lang mit den Forma­lismen der Newtonschen Mechanik erfolgreich gearbeitet hatten, gelangte die physikalische Grundlagen­forschung Anfang des 20. Jh. an zwei Grenzen. Die mittlerweile klassischen Gesetze Newtons schienen ihren Dienst zunehmend zu versagen, je weiter die Astrophysik die Bereiche des „ganz Großen“ zu erschließen suchte und die Elementarteilchenphysik in die Bereiche des „ganz Kleinen“ vordrang. Je größer die betrachteten Systeme wurden und je mehr die Distanzen und Geschwindigkeiten darin zunahmen, um so deutlicher wurde, dass die Vorstellungen des Raums als einer statischen Kulisse und der Zeit als einer universalen Größe – ablesbar am immer gleich tickenden Chronometer – für die Beschreibung der physikalischen Phänomene nicht mehr ausreichten. In seiner speziellen Relativitätstheorie erarbeitete schließlich Albert Einstein (1879-1955) eine neue Definition der Zeit in Abhängigkeit vom Bewegungszustand des jeweiligen Systems und in Abhängigkeit von der Position des Beobachters in Relation zu ihm. Und in der allgemeinen Relativitätstheorie revidierte er auch die Vorstellung des Raumes. Der Raum wird hier nicht mehr als bloßer Rahmen angesehen, in dem sich Gegenstände aufhalten und aufeinander wirken. A. Einstein beschreibt den Raum selbst als veränderlich und in dynamischer Wechselwirkung mit den in ihm anwesenden Körpern – je größer deren Masse und damit die von ihnen ausgehende Gravitationskraft, um so größer der Effekt der Raumkrümmung. Und die Masse selbst, welche vorher als eine grundlegende, nicht mehr auf andere Größen zurückführbare Eigenschaft von physikalischen Objekten angesehen wurde, konnte Einstein in unmittelbare Beziehung zur Energie setzen. Er erkannte, dass die Materie als Träger dieser Eigenschaft selber in Energie umwandelbar ist und umgekehrt. So revolutionär die Einführung der relativistischen Physik auch war, kann dies aber noch als eine Erweiterung der klassischen Beschreibung in Hinblick darauf angesehen werden, dass die Vorstellung eines Raum-Zeit-Kontinuums erhalten bleibt.

Das aber gilt nicht für die Quantentheorie, die versucht, das zwiefältige Verhalten der kleinsten Bausteine des Universums zu erfassen. Der selbe Isaac Newton (1643-1727), auf den die klassische Formulierung der Bewegungsgesetze und des Gravitationsgesetzes zurückgeht, hatte auch bereits entdeckt, dass Licht Eigenschaften von Teilchen aufweist. Seine Korpuskel-Theorie fand aber für längere Zeit nicht so viele Anhänger wie die Theorie von Christiaan Huygens (1629-1695), die vornehmlich den wellenartigen Charakter des Lichts im Blick hatte. In Laufe der Zeit sollte sich he­rausstellen, dass das Licht tatsächlich von beidem etwas hat. J.C. Maxwell (1831-1879) und Heinrich Hertz (1857-1894) war zunächst der Beweis gelungen, dass Licht – wie Wärme auch – ins Spektrum der elektromagnetischen Strahlung gehört. Die damaligen Wissensstände um die Wärmelehre und die Elektrizität waren aber noch so lange nicht miteinander kombinierbar, bis Max Planck (1858-1947) das Gesetz der Wärmestrahlung entdeckt hatte, dem zufolge ein Atom nicht kontinuierlich seine Energie ändern könne, sondern nur in diskreten Energiestufen. Das heißt auch, es kann nur einzelne Energieportionen aufnehmen bzw. abgeben, deren Größe von einem fundamentalen Wert abhängt, den Planck als Wirkungsquantum h einführte. A. Einstein konnte die Theorie der Energieportionen erfolgreich anwenden, als er das Problem des photoelektrischen Effekts löste. Dieser Effekt bestand darin, dass kurzwelliges Licht (z.B. blau) dazu in der Lage war, Elektronen aus einem mit ihm bestrahlten Metall herauszuschlagen, während die Energie von langwelligerem Licht (z.B. rot) dazu nicht ausreichte – unabhängig von der Intensität des Lichts. Das Licht schien also doch aus „Korpuskeln“ bzw. Quanten zu bestehen, die noch dazu unterschiedliche Energie aufweisen. Je höher die Frequenz, also je kürzer die Wellenlänge, um so mehr Energie enthielten die Quanten.

Der Klärungsbedarf, der nun durch die nebeneinander stehenden Beschreibungen des Lichts als elektromagnetischer Welle einerseits und als Teilchen bzw. Energiequanten andererseits entstand, führte über die Forschung am Aufbau der Atome schließlich zur Formulierung der Quantentheorie. In dieser Zeit, am Übergang vom 19. zum 20. Jh. hatte nämlich Ernst Rutherford (1871-1937) ein erstes Atommodell erstellt, nach dem Atome aufgebaut sind wie „Miniplaneten­systeme“, darin die Elek­tronen ähnlich den Planeten um die Sonne um einen Kern aus Protonen kreisen. Dieses Modell aber konnte die Stabilität der Atome nicht hinreichend erklären, denn es versuchte, mit den Mitteln der klassischen Physik die Bewegung der Elektronen zu beschreiben. Das schloss die Möglichkeit ein, dass die Elektronen beim Kreisen auf ihren Bahnen immer mehr Energie abgeben, abgebremst werden und schließlich in den Kern fallen; oder dass sie aufgrund überschüssiger Fliehkräfte aus dem Atomverbund fliegen.

Eine erste Annäherung an die Lösung des Problems gelang Niels Bohr (1885-1962) im Jahre 1913, indem er die Quantenthese von M. Planck auf Rutherfords Atommodell anwandte. Nach Bohrs Modell konnten Elektronen sich nur in bestimmten Entfernungen auf gewissen Energieniveaus um den Kern bewegen und ihre Energie nur um diskrete Beträge ändern. Bohr sah noch keine Notwendigkeit, deswegen die Vorstellung der Elektronenbahnen aufzugeben, auch wenn er nur noch mit Quantenzahlen[4] arbeitete, die das jeweilige Energieniveau und den Bahndrehimpuls eines Elek­trons repräsentieren. In ein höheres Niveau gelangte ein Elektron demnach unter Aufnahme von Energiequanten, und unter Abgabe von Energiequanten fiel es wieder auf ein niedrigeres Energieniveau zurück. Das jeweils unterschiedliche Niveau der portionierten Energie in den Elektronenschalen verschiedener Atome ist wiederum ausschlaggebend für die Wellenlängen des Lichts, das die Atome abgeben. Die Vorgänge in den Atomen ließen sich also mit Hilfe der Quantelung der Energie der beteiligten Teilchen beschreiben. Die Entdeckung dieser Effekte führte übrigens zur Entwicklung einer Technik, die eine Untersuchung der chemischen Zusammensetzung von Stoffen, z.B. in weit entfernten Strahlungsquellen im Weltall ermöglichte, nämlich der Spektralanalyse.

N. Bohrs Theorie musste allerdings bald weiterentwickelt werden, da sie sich experimentell nur am Wasserstoffatom bestätigen ließ. Außerdem gab es das Problem, dass die Elektronen innerhalb des Atomverbundes nur über die Spek­trallinien detektiert, aber nicht auf bestimmten Bahnen verfolgt werden konnten. Das brachte Werner Heisenberg (1901-1976) auf die Idee, in einer neuen Fassung der Theorie nur noch Observablen, also experimentell nachweisbare Größen zu berücksichtigen. Er entwarf einen mit Matrizen operierenden Formalismus, der keine Elek­tronenbahnen mehr implizierte. In dieser so genannten Matrizenmechanik werden Frequenz und Amplitude der Spektrallinien nur noch mit Hilfe des Planckschen Wirkungsquantums und anderen als Naturkonstanten ausgemachten Größen errechnet. Dem gegenüber entwickelte Heisenbergs Fachkollege Erwin Schrödinger (1887-1961) einen äquivalenten Formalismus, der auf Wellenfunktionen basiert und ermöglicht, an den Elektronenbahnen festzuhalten. Schrödinger glaubte sogar, dass sich aus seiner Wellenmechanik die klassische Mechanik herleiten ließe.

Die von N. Bohr erstmals formulierte Komplementarität von Teilchen- und Welleneigenschaften bildete eine der Ursachen für die Deutungsprobleme der Quantentheorie. Störend war in erster Linie nicht, dass beide Eigenschaften einem einzelnen Objekt zugleich zukommen sollten, sondern dass sie an dem Objekt niemals gleichzeitig nachweisbar sein würden. Zwei weitere Probleme sind im bisher Gesagten ebenfalls schon angeklungen:

(a) Die unterschiedlichen, in ihren Ergebnissen aber vergleichbaren Lösungswege von E. Schrödinger und W. Heisenberg werfen die Frage auf, ob man auf die Annahme der Elektronenbahnen innerhalb des Atoms tatsächlich verzichten muss, weil ihr Nachweis noch nicht gelang. Schließlich hinterlassen frei durch eine Nebelkammer sausende Elektronen deutlich sichtbare Spuren, haben also empirisch nachweisbare Bahnen.

(b) Ein weiteres Problem stellt die fehlende Kompatibilität zwischen Quantenmechanik und klassischer Physik dar. N. Bohr lokalisierte den Übergang zur klassischen Physik da, wo die Quantenzahlen das Plancksche Wirkungsquantum um ein Vielfaches übertreffen[5]. Genau das ist es, was das so genannte Korrespondenzprinzip beschreibt: Man verlässt den Bereich der Quantenmechanik, wenn das Plancksche Wirkungsquantum vernachlässigbar klein wird. Nur, solche Erklärungsmuster ändern nichts an der Tatsache, dass bis heute die klassische/ relativistische Physik und die Quantenphysik in weiten Teilen nicht kompatibel sind. Das aber widerspricht dem naturwissenschaftlichen Grundsatz, nach dem das ganze Universum gemäß einem einzigen System aus universal geltenden Gesetzen funktioniert.

(c) Dass Quantenphysik und klassische Physik so wenig zueinander passen, liegt auch an einer weiteren Eigenheit der Quantensysteme, die mit dem klassischen Paradigma schlichtweg unvereinbar ist. In einem klassischen System wird ein Objekt erst durch die gleichzeitige Angabe seines Ortes und seines Bewegungszustandes hinreichend bestimmt. Im Quantensystem kann dagegen jeweils nur einer der beiden Parameter genau ermittelt werden, während der andere in einer gewissen Unbestimmtheit verharrt. Diese Unbestimmtheit kann aber selbst wieder mit mathematischer Präzision dargestellt werden[6]. W. Heisenberg hat auch dafür den nun nach ihm benannten Formalismus entwickelt: die Heisenbergsche Unbestimmtheitsrelation. Solche Unbestimmtheiten treten auf quantenmechanischer Ebene auch in anderen Zusammenhängen auf, wie etwa in der Relation zwischen Zeit und Energie.

Wie verhält sich aber nun die Natur? Genau so, wie die Quantentheorie voraussagt: Im inzwischen legendären Doppelspaltversuch foppt sie nach wie vor jeden Beobachter, wenn sich die Quanteneffekte zeigen. Und das geht so: Man lässt ein einzelnes Teilchen auf eine Wand mit zwei kleinen Löchern zufliegen, hinter der eine weitere Wand angeordnet ist, ausgestattet mit einem Detektor, der den genauen Auftreffpunkt des Teilchens zu ermitteln hilft. Aber, oh Wunder, die Aussendung nur eines einzelnen Teilchens, Photon oder Elektron, hinterlässt auf dem Schirm hinter der Doppelspaltplatte Interferenzstreifen, solange man den Detektor nicht benutzt. Es muss also durch beide Löcher zugleich geflogen sein; anders ist es nicht erklärbar, dass einander überlagernde Wellenmuster entstehen. Was aber passiert, wenn man mit Hilfe des Detektors ermitteln will, durch welches Loch ein Teilchen genau fliegt und wo es auftrifft? Das Interferenzmuster verschwindet, und auf dem Schirm erscheint nur noch ein einzelner Punkt – wie beim Auftreffen einer Gewehrkugel auf der Zielscheibe. Die als Wellenmechanik formulierte Quantentheorie stellt diesen Vorgang als Zusammenbruch der Wellenfunktion dar (wobei allerdings nicht die Wellenfunktion, ein rein mathematischer Formalismus, mit der Erscheinung des Wellenmusters im Versuch verwechselt werden sollte). Das Verschwinden des Interferenzmusters warf eine Frage von philosophischem Ausmaß auf. Die Frage zielte auf die Position des Beobachters im System ab. Sein Ansinnen, das Problem einmal ordentlich zuzuspitzen, verleitete E. Schrödinger zu einem nicht gerade tierfreundlichen Gedankenexperiment. Man stelle sich einmal vor, eine Katze sitzt in einer geschlossenen Box, ohne jeglichen Sichtkontakt nach außen. Eine von radioaktivem Zerfall gesteuerte Apparatur löst bei entsprechend erreichter Halbwertszeit einen Hammer aus, der eine Ampulle mit einer giftigen Substanz darin zerschlägt, welche die Katze früher oder später tötet. Solange man nicht nachschaut, befindet sich die Katze in einem 50 zu 50 unbestimmten Zustand zwischen lebendig und tot. Erst wenn man nachsieht, ist sie entweder 100-prozentig lebendig oder tot. Das inzwischen nur noch Schrödinger-Katze genannte Gedankenexperiment soll die Eigenart quantenmechanischer Systeme veranschaulichen, diese unbestimmten Zustände annehmen zu können. Nun sind die Quanteneffekte allerdings nicht ohne weiteres vergleichbar mit dem makrophysikalischen System der Katze in der Box. Denn dort wird ja nicht tatsächlich über tot oder lebendig entschieden, wenn man nachschaut, sondern nur eine Information eingeholt. Die Katze wäre auch so entweder schon tot oder noch am Leben. Im Gegensatz dazu ändert das Quantensystem tatsächlich durch die Beobachtung oder Messung seinen Zustand.

(d) Auch die zum Teil nur noch mit einer bestimmten Wahrscheinlichkeit zu erwartenden Voraussagen der Quantentheorie bereiteten den Forschern ziemliches Unbehagen. Selbst A. Einstein, der seinen Nobelpreis nicht für die Relativitätstheorie bekam, sondern für seine Arbeit über den photoelektrischen Effekt, verweigerte sich schließlich einer weiteren Beschäftigung mit den Quanteneffekten. Er konnte sich nicht überwinden, ihr Potential an Indeterminiertheit anzuerkennen. Im Rahmen der klassischen Physik hegte man lange das Ideal, ihre Gesetze in derart allgemeine und notwendige Aussagen gießen zu können, dass sie die beobachteten Objekte völlig determinieren. Jeder Vorgang im Universum schien somit genau auf seine Ursachen zurückführbar und – in Richtung Zukunft gedacht – genau vorhersagbar zu sein. Die Quantenmechanik unterlief nun dieses Prinzip auf fundamentaler Ebene. Während Physiker wie W. Heisenberg und Carl F. v. Weizsäcker das begrüßten, versuchten andere, wie David Bohm, deterministische Deutungen zu finden – um welchen Preis, werden wir noch sehen.

Die bisher aufgezeigten Probleme sollen in den folgenden Kapiteln über drei Diskussionsschwerpunkte behandelt werden, um am Ende die dazu vorgeschlagenen Lösungen in das Zwei-Ebenen-Schema einzuordnen. Dabei wird die favorisierte Deutung in den Augen des Kenners eine wohl ungewöhnliche, neue Verortung erfahren.

(2) Zunächst soll es um die Entsprechung zwischen Begriff und Gegenstand gehen. Die Frage ist, in wie weit die Begriffe, die wir je nach unserem Wissensstand bilden, der Wirklichkeitsstruktur selbst nahe kommen.

(3) Die Beeinflussung eines jeden Quantensystems durch Messungen an ihm wirft die Frage auf, inwiefern überhaupt Aussagen über die Wirklichkeit unabhängig von unserer Erkenntnistätigkeit möglich sind.

(4) Und schließlich soll es um den Zusammenhang zwischen realistischer versus idealistischer Position und dem angenommenen Grad der Determiniertheit des betrachteten Systems gehen. Dabei wird in einem Ausblick auf die Bemühungen eingegangen, die Teilgebiete der Physik in einer vereinheitlichenden Metatheorie zusammenzuführen – unter Zuhilfenahme der Wellenfunktion.

2. Entsprechung zwischen Begriff und Gegenstand

Wie im Artikel von 2014 möchte ich auch dieses Mal die ersten Schritte in die Diskussion im Gespräch mit einem Philosophen suchen, der mit seinen Arbeiten zur Erkenntnistheorie grundlegendes und zum Teil bis heute gültiges beigetragen hat. Die Auseinandersetzung mit Immanuel Kant soll uns auch für die möglichen Lösungen in Bezug auf die angesprochenen Probleme sensibilisieren.

2.1 Im Gespräch mit I. Kant: „Die Natur vor dem Richterstuhl der Vernunft“

Ob man sich für ein realistisches oder nichtrealistisches Konzept entscheidet, scheint in erheblichem Maße davon abzuhängen, für wie aussagekräftig man die verwendeten Begriffe und Kategorien hält. In der zeitgenössischen Wissenschaftstheorie gibt es Vertreter, die den Wirklichkeitszugang allein auf der erkenntnistheoretischen Ebene diskutieren. Strukturalistische Wissenschaftstheorie sieht bspw. die Hauptleistung der Naturwissenschaften darin, korrekte Verknüpfungen von Sätzen zu bilden[7] und so ihre Theoriennetze zu bauen. Im Zentrum dieser Netzwerke sollen sich die Theorien befinden, von denen man sich im Falle, dass Widersprüche auftreten, am wenigsten würde trennen wollen. An deren Rändern befinden sich dagegen die entbehrlicheren Theorienanteile und Thesen. In diesen Außenbezirken aber sollen auch die empirischen Daten, die Beobachtungsergebnisse sitzen[8]. Würden sich die Forscher selber tatsächlich so verhalten, wäre wohl bald kein signifikanter wissenschaftlicher Fortschritt mehr zu erwarten. Der grundlegende Fehler solcher Konzepte liegt darin, das Gespräch mit der Wirklichkeit über die Erfahrungsdaten selbst für Theorie zu halten und vor allem um sprachliche und logische Analysen zu kreisen.

Eine Rückbesinnung auf I. Kant (1724-1804) lohnt sich an dieser Stelle besonders, weil er einen Grundstein für die moderne Erkenntnistheorie mit seiner Lehre von der Konstitution der Erkenntnisgegenstände durch das Subjekt der Erkenntnis gelegt hat. Mit folgendem Wortlaut hatte er seine beabsichtigte „koper­nikanische Wende“ in der Philosophie angekündigt:

„Bisher nahm man an, alle unsere Erkenntnis müsse sich nach den Gegenständen richten; aber alle Versuche, über sie a priori etwas durch Begriffe auszumachen, wodurch unsere Erkenntnis erweitert würde, gingen unter dieser Voraussetzung zunichte. Man versuche es daher einmal, ob wir nicht in den Aufgaben der Metaphysik damit besser fortkommen, daß wir annehmen, die Gegenstände müssen sich nach unserer Erkenntnis richten, welches so schon besser mit der verlangten Möglichkeit einer Erkenntnis derselben a priori zusammenstimmt, die über Gegenstände, ehe sie uns gegeben werden, etwas festsetzen soll.“[9]

Wer sich in die Kritik der reinen Vernunft vertieft, erlebt die Natur vor dem Richterstuhl der menschlichen Vernunft. Sie muss sich befragen lassen und Antwort geben gleichsam einem Zeugen vor Gericht[10]. Kant spricht hier etwas aus, das vielleicht zuvor noch niemand so deutlich gesehen hat, aber jeder wenigstens unbewusst voraussetzen muss: Die Wirklichkeit lässt uns nur so viel von sich sehen, wie wir uns bemühen, sie anzuschauen. Wo Kant dann die Funktionsweisen der beiden Quellen der Erkenntnis – Sinnlichkeit und Verstand – erklärt, zeigt sich, dass das oben genannte Programm gar nicht so einseitig gedacht ist, wie es zunächst aussieht. Denn Ausgangspunkt und Ziel aller Denkoperationen ist für Kant die Erfahrung der Wirklichkeit selbst:

[...]


[1] Vgl. J. Kirchner: Möglichkeiten und Grenzen wissenschaftlicher Erklärung, 4-7.19-23.

[2] Vgl. C.G. Hempel: Laws and Their Role in Scientific Explanation, 303f.

[3] Vgl. J. Kirchner: Möglichkeiten und Grenzen,16f.

[4] Der Energiezustand eines jeden Elektrons wird noch heute durch die Hauptquantenzahl repräsentiert, welche immer eine ganze Zahl ist. Im Grundzustand – dem niedrigst möglichen Energieniveau eines Elektrons bzw. seiner Ruheposition – beträgt sie 1, im ersten angeregten Zustand 2 usw. Den Bahndrehimpuls eines Teilchens erhält man, indem man seine Quantenzahl mit dem (reduzierten) Planckschen Wirkungsquantum ℏ = multipliziert.

[5] Vgl. W. Heisenberg: Quantentheorie und Philosophie, 59.

[6] Beide Parameter sind in einer solchen Relation also nie gleichzeitig mit beliebiger Genauigkeit messbar. Das Produkt ihrer beiden Unbestimmtheiten ist wiederum niemals kleiner als das Plancksche Wirkungsquantum dividiert durch die Masse des betreffenden Teilchens. Vgl. W. Heisenberg: Quantentheorie und Philosophie, 20.

[7] Vgl. W. Stegmüller: Probleme und Resultate der Wissenschaftstheorie; Bd. I Wissenschaftliche Erklärung, 248-272.

[8] Vgl. W.O. Quine: Two Dogmas of Empiricism. 1951 ND in: From a Logical Point of View. 9 Logico-Philosophical Essays. Cambridge 1953.

[9] I. Kant: Kritik der reinen Vernunft. B XVI, ed. Weischedel 25.

[10] Vgl. I. Kant: Kritik der reinen Vernunft, B XIV, ed. Weischedel 23.

Ende der Leseprobe aus 30 Seiten

Details

Titel
Wie realistisch ist die Physik? Der Aussageanspruch wissenschaftlicher Theorien diskutiert am Beispiel der Quantenmechanik
Hochschule
Hochschule für Philosophie München  (Naturwissenschaftliche Grenzfragen - Physik)
Veranstaltung
Quanten verstehen. Zur philosophischen Interpretation der Quantenmechanik
Note
1,0
Autor
Jahr
2001
Seiten
30
Katalognummer
V370153
ISBN (eBook)
9783668481053
ISBN (Buch)
9783668481060
Dateigröße
688 KB
Sprache
Deutsch
Anmerkungen
Dieser Artikel ist die stilistisch überarbeitete Fassung einer Seminararbeit, die in ihrer ursprünglichen Form während des Doktoratsstudiums an der Hochschule für Philosophie München im Fach Wissenschaftstheorie eingereicht wurde.
Schlagworte
Physik, Quantentheorie, Philosophie
Arbeit zitieren
Dr. phil. Jona Kirchner (Autor:in), 2001, Wie realistisch ist die Physik? Der Aussageanspruch wissenschaftlicher Theorien diskutiert am Beispiel der Quantenmechanik, München, GRIN Verlag, https://www.grin.com/document/370153

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Wie realistisch ist die Physik? Der Aussageanspruch wissenschaftlicher Theorien diskutiert am Beispiel der Quantenmechanik



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden