Kontextuelle und globale Falsifikation wissenschaftlicher Modelle

Eine integrierte Theorie epistemischer Geltung

Abstract

Die klassische Popper’sche Falsifikationstheorie operiert mit einem binären Bild wissenschaftlicher Rationalität, demzufolge eine Theorie bereits durch eine einzige widersprechende Beobachtung verworfen werden muss (Popper [1934] 1959). Die moderne Wissenschaftspraxis widerspricht diesem Idealbild systematisch: Zentrale Modelle wie die Newtonsche Mechanik, die klassische Thermodynamik, die nichtrelativistische Quantenmechanik oder heutige Klimamodelle sind zwar in Teilbereichen empirisch widerlegt, bleiben jedoch epistemisch unverzichtbar.
Dieses Paper entwickelt einen integrierenden Rahmen der Modellgeltung, der zentrale Einsichten von Popper, Kuhn, Lakatos, da Costa/French und der modernen Modelltheorie in einem einheitlichen Modell rationaler wissenschaftlicher Praxis systematisch zusammenführt. Die Theorie unterscheidet globale und kontextuelle Falsifikation, führt den Begriff eines epistemischen Ermöglichungsraums E(t) ein und stellt eine formal präzisierte Struktur für Domänenoperationen bereit. Der epistemische Ermöglichungsraum bildet den zentralen theoretischen Beitrag des Papers, da er methodische, technische und institutionelle Bedingungen der Modellwahl explizit macht.
„Falsifikation“ wird dabei nicht als rein logisches Wahrheitskriterium verstanden, sondern als rational-pragmatischer Mechanismus der Modellbewertung, der Approximate Truth, explanatorische Kraft und Modellkosten integriert. So wird erklärbar, warum Modelle trotz Teilfalsifikationen stabil bleiben und unter welchen Bedingungen Modelleliminierung tatsächlich erfolgt. Zusätzlich wird eine Entscheidungslogik epistemischer Optimalität formalisiert, die Approximate Truth innerhalb spezifischer Domänen sowie explanatorische Kraft und Modellkosten in einer Nutzenfunktion zusammenführt. Eine Fallstudie zu Klimamodellen zeigt, wie Ensemble-Methoden, Parametrisierungen und Bayesian Updating zur systematischen Domänenpräzisierung führen.
Die vorgeschlagene Theorie ist primär deskriptiv: Sie rekonstruiert die tatsächliche Modellpraxis moderner Wissenschaften und bietet eine explizit formulierte und systematisch integrierte Rekonstruktion jener Modellstrukturen, die in der klassischen Popper’schen Sicht nur teilweise berücksichtigt werden. Dadurch werden idealisierte, simulationsbasierte und domänenspezifische Modelle epistemisch präzise fassbar.

Dieses Werk ist beim U.S. Copyright Office registriert.
Registrierungsnummer: wird nachgetragen.
Jahr der Registrierung: 2025.


Wissenschaftstheoretisches Paper, 28.11.2025

ORCID: https://orcid.org/0009-0004-0847-9164

DOI: 10.5281/zenodo.17709062

© 2025 Stefan Rapp
Creative Commons Attribution–NonCommercial–NoDerivatives 4.0 International

Inhaltsverzeichnis

Abstract 1

1. Einleitung 3

2. Forschungsstand 4

2.1 Popper: Falsifikation als binäres Ideal 4

2.2 Kuhn: Anomalien ohne Eliminierung 4

2.3 Lakatos: Forschungsprogramme 4

2.4 Modelltheorie 4

2.5 Approximate Truth 4

2.6 Forschungslücke 5

2.7 Eigenbeitrag des Papers 6

3. Grundbegriffe 7

4. Kriterien moderner Modellbewertung im vorgeschlagenen Rahmen 10

5. Proposition: Zweistufige Falsifikationsstruktur 12

6. Wann Modelle verschwinden 13

7. Warum Modelle bleiben 14

7.1 Robustheit durch Modellfamilien 14

7.2 Nutzungskontexte 14

8. Fallstudie: Klimamodelle 15

8.1 Klimamodelle als Ensemble-Struktur 15

8.2 Parametrisierung als epistemische Operation 15

8.3 Bayesian Updating und adaptive Modellierung 16

8.4 Domänenstruktur 16

8.5 Miniaturisierte formale Illustration 16

8.6 Konsequenzen für den epistemischen Status 17

9. Approximate Truth 18

10. Warum eine integrierte Theorie bisher fehlte 19

10.1 Historische Gründe 19

10.2 Logische Gründe 19

10.3 Institutionelle Gründe 19

11. Epistemischer Ermöglichungsraum 20

11.1 Dynamik des epistemischen Ermöglichungsraums 20

11.2 Struktur des epistemischen Ermöglichungsraums E(t) 21

12. Entscheidungslogik der Modellwahl 22

12.1 Struktur der Nutzenfunktion 22

12.2 Skalierung und empirische Verankerung der Nutzenfunktion 24

13. Verhältnis zum wissenschaftlichen Realismus 25

14. Schluss 26

Literaturverzeichnis 27



1. Einleitung

Die Falsifikationstheorie nach Popper ([1934] 1959) prägte über Jahrzehnte das öffentliche und akademische Bild wissenschaftlicher Rationalität. Sie postuliert, dass Theorien verworfen werden müssen, sobald eine ihrer Vorhersagen empirisch scheitert. Die Praxis der Natur- und Sozialwissenschaften zeigt jedoch ein anderes Bild. Dieses Paper entwickelt eine integrierte Theorie wissenschaftlicher Modellgeltung, die zentrale Einsichten aus Popper, Kuhn, Lakatos, da Costa/French sowie der modernen Modelltheorie in einer gemeinsamen Struktur rationaler Modellbewertung zusammenführt. Viele Modelle sind idealisiert, nur partiell repräsentativ, empirisch widerlegt in Subdomänen und dennoch epistemisch stabil.

Beispiele hierfür sind die Newtonsche Mechanik, die bei relativistischen Geschwindigkeiten versagt (Einstein 1905), klassische Thermodynamik, die mikroskopisch unpräzise ist, oder Klimamodelle, die kontinuierlich rekalibriert werden (Oreskes et al. 1994). Gleichzeitig gibt es Modelle, die vollständig verschwunden sind, wie die Phlogiston-Theorie oder der klassische Äther.

Das Kernproblem lautet: Unter welchen Bedingungen führt Falsifikation zur Eliminierung eines Modells – und wann bleibt ein Modell trotz Teilfalsifikation epistemisch stabil?

Dieses Paper entwickelt einen integrierten theoretischen Rahmen, der diese Frage explizit und in einem einheitlichen Modell formalisiert. Der Ansatz unterscheidet globale und kontextuelle Falsifikation, beschreibt den epistemischen Ermöglichungsraum E(t) und integriert Approximate Truth als graduelle, domänenspezifische Bewertungsgröße. Zudem wird gezeigt, dass Falsifikation keine rein logische Wahrheitsoperation ist, sondern eine rational rekonstruierbare Entscheidung innerhalb eines realen wissenschaftlichen Ermöglichungsraums. Die Theorie ist primär deskriptiv: Sie rekonstruiert die tatsächliche Modellpraxis moderner Wissenschaften und wird exemplarisch anhand von Klimamodellen demonstriert.

Die im Folgenden eingeführte Nutzenfunktion U(M, D) ist primär rekonstruktiv zu verstehen: Sie beschreibt, wie Modellwahl in realen Wissenschaften faktisch erfolgt, wenn Approximate Truth, explanatorische Kraft und Modellkosten gegeneinander abgewogen werden. Zugleich besitzt dieselbe Struktur eine normative Lesbarkeit, da sie die Bedingungen rationaler Modellbewertung expliziert. Damit ist die Theorie sowohl eine deskriptive Rekonstruktion der Modellpraxis als auch ein Rahmen rationaler epistemischer Optimalität.



2. Forschungsstand

2.1 Popper: Falsifikation als binäres Ideal

Popper ([1934] 1959) definiert Falsifikation als binären Mechanismus: Eine einzige widersprechende Beobachtung widerlegt die Theorie. Dieses Modell setzt globale Geltungsansprüche, eindeutige Theorie-Beobachtung-Zuordnungen und nicht-idealisierte Theorien voraus – Bedingungen, die in modernen Wissenschaften selten erfüllt sind. Gerade idealisierte, approximative und simulierte Modelle passen nicht zu dieser binären Struktur. Diese Spannung zwischen Poppers Ideal und der realen Modellpraxis ist in der Literatur vielfach beschrieben worden (Hacking 1983; Cartwright 1983), wurde jedoch nie in eine systematische Theorie kontextueller Falsifikation überführt.

2.2 Kuhn: Anomalien ohne Eliminierung

Kuhn (1962) zeigt, dass wissenschaftliche Paradigmen Anomalien überstehen. Er beschreibt jedoch keine fein strukturierte Theorie modellbezogener Falsifikation. Der Mangel besteht insbesondere darin, dass Kuhn nicht spezifiziert, wie sich Anomalien über Subdomänen verteilen und warum sie manche Modelle kaum beeinträchtigen, andere aber untergraben. Die Literatur betont zwar Kuhns historische und soziologische Perspektive, doch fehlt eine formal präzise Modelltheorie des Umgangs mit Subdomänen (vgl. Lakatos 1970; Weisberg 2013).

2.3 Lakatos: Forschungsprogramme

Lakatos (1970) erklärt Stabilität über einen „harten Kern“, ohne jedoch zu bestimmen, wann Modelle tatsächlich verschwinden. Zudem bleibt unklar, wie konkurrierende Programme im Detail gegeneinander abgewogen werden sollen, insbesondere wenn beide partiell, aber nicht global, falsifiziert sind. Gerade hier zeigt sich, dass Lakatos’ Programmstruktur kein formales Instrument zur Bewertung domänenspezifischer Approximate Truth bereitstellt.

2.4 Modelltheorie

Modelltheoretische Ansätze (Cartwright 1983; Weisberg 2013; Morgan und Morrison 1999) betonen die idealisierte und domänenspezifische Natur wissenschaftlicher Modelle, liefern aber keine Theorie, wie Falsifikation in solchen Strukturen wirkt oder wie Modelle systematisch gegeneinander abgewogen werden. Dies betrifft besonders den Umgang mit idealisierten Simulationen, für die weder Popper noch die klassische Modelltheorie ein geeignetes Falsifikationskriterium bereitstellen (Morgan & Morrison 1999).

2.5 Approximate Truth

Niiniluoto (1987, 1998) und Oddie (1986) bieten graduelle Wahrheitskonzepte, erklären aber nicht, warum manche Modelle trotz Teilfalsifikationen weiterbestehen, während andere vollständig verschwinden. Besonders fehlt die Kopplung von Approximate Truth an Nutzungskontexte, Modellkosten und institutionelle Stabilisierung. Damit bleibt unklar, wie graduelle Wahrheitsgrade in realen Modellportfolios operativ wirken sollen.




2.6 Forschungslücke

Es gibt bislang, soweit ersichtlich, keine systematisch ausgearbeitete und in der Fachliteratur etablierte integrierte Theorie, die zugleich erklärt:
• wann Falsifikation global wirkt,
• wann sie kontextuell bleibt,
• wie Approximate Truth innerhalb von Domänen funktioniert,
• wie Modellkosten und explanatorische Kraft rational gewichtet werden,
• wie der epistemische Ermöglichungsraum E(t) die Menge realer Modellalternativen bestimmt.
Einzelne dieser Aspekte sind in der Literatur jeweils separat behandelt worden, etwa in Arbeiten zu Approximate Truth, zu Forschungsprogrammen oder zur Modelltheorie. Was bislang weitgehend fehlt, ist eine explizite, formal strukturierte Rekonstruktion, die diese Dimensionen in einem gemeinsamen Rahmen der Modellbewertung zusammenführt. Dies ist insbesondere für datenintensive, simulationsbasierte Wissenschaften relevant, in denen kontextuelle Falsifikation und Modellportfolios zur Standardpraxis geworden sind.





2.7 Eigenbeitrag des Papers

Das vorliegende Paper leistet vier miteinander verbundene Beiträge zur Wissenschaftstheorie und Modellphilosophie. Es versteht sich als integrierender Rahmen, der vorhandene Einsichten bündelt und in eine explizit formalisierte Struktur überführt.

  1. Der Begriff des epistemischen Ermöglichungsraums E(t).
    E(t) wird als dynamische Struktur methodischer, technischer und institutioneller Bedingungen expliziert, die bestimmt, welche Modelle formulierbar, evaluierbar und stabilisierbar sind. Damit wird eine Dimension präzise modelliert, die in der klassischen Falsifikationstheorie Poppers nur implizit oder gar nicht berücksichtigt wird.

  2. Die zweistufige Falsifikationsstruktur.
    Das Paper unterscheidet strikt zwischen kontextueller und globaler Falsifikation. Globale Falsifikation wird nicht mehr als binärer Wahrheitsbruch verstanden, sondern als Zustand, in dem ein Modell in keiner Domäne D innerhalb des epistemischen Ermöglichungsraums E(t) epistemisch konkurrenzfähig bleibt. Diese Struktur rekonstruiert die Stabilität partiell falsifizierter Modelle systematisch.

  3. Die integrierte Nutzenfunktion U(M, D, t).
    Mit der Nutzenfunktion
    U(M, D, t) = α · AT(M, D, t) + β · EK(M, D, t) − γ · C(M, D, t)
    wird ein Rahmen vorgeschlagen, der Approximate Truth, explanatorische Kraft und Modellkosten in einer einzigen Bewertungsstruktur zusammenführt und explizit an E(t) bindet. Die Funktion ist so formuliert, dass sie mit etablierten Gütemaßen und Selektionskriterien (Fit-Metriken, Informationskriterien, Komplexitätsmaßen) der einzelnen Disziplinen kompatibel gehalten werden kann.

  4. Die Anwendung auf simulationsbasierte Modellportfolios.
    Am Beispiel von Klimamodellen wird gezeigt, wie Ensemble-Strukturen, Parametrisierungen und Bayesian Updating innerhalb des vorgeschlagenen Rahmens als Fälle kontextueller Falsifikation und domänenspezifischer Approximate Truth rekonstruiert werden können. Dadurch wird die Theorie unmittelbar an eine zentrale Klasse moderner, daten- und simulationsintensiver Modellpraktiken anschlussfähig.
    Insgesamt versteht sich der Eigenbeitrag des Papers als explizit formulierter, formal strukturierter und empirisch anschlussfähiger Rahmen, der klassische Einsichten aus Falsifikationstheorie, Modelltheorie und Wahrheitsnähe-Konzepten systematisch bündelt und zugleich eine klar codierte Struktur für die Bewertung und Dynamik wissenschaftlicher Modelle bereitstellt.





3. Grundbegriffe

Die folgenden Definitionen präzisieren die zuvor eingeführten Begriffe.

Notation (Übersicht)
D(M) – Geltungsbereich eines Modells
D₁, D₂ – Subdomänen des Geltungsbereichs
AT(M, D) – Approximate Truth des Modells in Domäne D
EK(M, D) – explanatorische Kraft
C(M) – Modellkosten
U(M, D) – domänenspezifische Nutzenfunktion
E(t) – epistemischer Ermöglichungsraum
R(M, D₂) – Restriktion des Modells auf Subdomäne D₂



Definition 1: Modell (M)
Ein Modell ist eine idealisierte mathematische oder konzeptuelle Struktur zur Repräsentation definierter Aspekte eines Zielsystems unter bestimmten Bedingungen (Cartwright 1999).

Definition 2: Geltungsbereich D(M)
Die Menge aller Bedingungen, unter denen ein Modell zuverlässige, erklärkräftige oder funktional optimale Ergebnisse liefert.

Definition 3: Subdomänen D₁, D₂
D(M) kann in Subdomänen zerlegt werden: D₁ ⊆ D(M), D₂ ⊆ D(M), mit D₁ ∪ D₂ = D(M). Diese Zerlegung ist oft Ergebnis wissenschaftlicher Revision.
Für die Falsifikation gilt zusätzlich:
• D₁ bezeichnet die Domäne, in der M epistemisch erhalten bleibt,
• D₂ die Domäne, in der M als nicht mehr akzeptabel gilt.

Definition 4: Epistemische Optimalität
Ein Modell ist in einer Domäne D epistemisch optimal, wenn es bezogen auf alle im Ermöglichungsraum E(t) verfügbaren Alternativen ein günstiges Verhältnis von Approximate Truth, explanatorischer Kraft und Modellkosten aufweist. Epistemische Optimalität wird operativ durch die domänenspezifische Nutzenfunktion U(M, D) bestimmt.

Modellkosten C(M, D) umfassen drei Dimensionen:
(1) epistemische Kosten (z. B. Fehleranfälligkeit, Sensitivität, Unsicherheitsbreite von Vorhersagen, Interpretierbarkeit/Transparenz, Fit-Qualität),
(2) technische Kosten (Rechenaufwand, Datenbedarf, Implementierungskomplexität),
(3) institutionelle Kosten (Normierungsgrad, Verfügbarkeit von Infrastrukturen).
Einige dieser Kostenkomponenten sind global (z. B. grundlegende Implementierungs- oder Infrastrukturkosten), andere sind domänenspezifisch (z. B. Datenanforderungen oder numerische Stabilität in bestimmten Domänen). Für die Nutzenfunktion wird dies in C(M, D, t) gebündelt.



Definition 5: Kontextuelle Falsifikation
Eine Beobachtung O führt zu kontextueller Falsifikation, wenn sie zeigt, dass eine Subdomäne D₂ existiert, in der M nicht länger epistemisch akzeptabel ist, während mindestens eine Subdomäne D₁ erhalten bleibt, in der M optimal bleibt.

Definition 6: Globale Falsifikation
Ein Modell M ist zu einem Zeitpunkt t in der wissenschaftlichen Entwicklung global falsifiziert, wenn es in keiner relevanten Domäne D innerhalb des epistemischen Ermöglichungsraums E(t) epistemisch optimal oder epistemisch konkurrenzfähig ist.
Epistemische Optimalität liegt in einer Domäne D vor, wenn U(M, D, t) größer oder gleich dem Nutzenwert aller im Ermöglichungsraum E(t) verfügbaren Alternativmodelle ist.
Epistemische Konkurrenzfähigkeit liegt vor, wenn U(M, D, t) höchstens um einen kontextabhängigen Toleranzbereich ε unter dem Nutzenwert der jeweils besten Alternative U(M*, D, t) liegt.
Formal lässt sich globale Falsifikation so fassen: Für alle relevanten Domänen D existiert mindestens ein Alternativmodell M*, so dass
U(M, D, t) + ε < U(M*, D, t).
Der Toleranzparameter ε kann disziplin- und kontextabhängig festgelegt werden und reflektiert, dass Modelle mit geringfügig schlechteren U-Werten in der Praxis weiterhin als konkurrenzfähig gelten können.

Definition 7: Epistemischer Ermöglichungsraum E(t)
Der Raum methodischer, mathematischer, institutioneller und technischer Voraussetzungen, der bestimmt:
• welche Modelle formulierbar sind,
• welche Daten verfügbar sind,
• welche Idealisierungen zulässig sind,
• welche Modelle stabilisiert werden können,
• wie Modellkosten C(M) überhaupt aussehen.

E(t) ist dynamisch: Technische Innovationen, Datenverfügbarkeit und institutionelle Normen verändern den Raum der möglichen Modelle.

Definition 8: Approximate Truth
Approximate Truth ist der Grad der Annäherung eines Modells an relevante Eigenschaften eines Zielsystems relativ zu einer Domäne D:
AT(M, D).
Formal lässt sich Approximate Truth durch eine Ähnlichkeitsmetrik fassen:
AT(M, D) = Σᵢ wᵢ · sim(M, Sᵢ, D).

Approximate Truth fungiert hierbei nicht als Wahrheitskriterium im Popper’schen Sinn, sondern als graduelle Ähnlichkeitsmetrik innerhalb spezifischer Domänen.

In der praktischen Modellbewertung wird Approximate Truth stets zusammen mit Unsicherheitsabschätzungen der Modellvorhersagen betrachtet. Hohe Vorhersageunsicherheit reduziert den effektiven epistemischen Wert eines Modells, selbst wenn der mittlere Fit hoch ist, und wird damit sowohl in AT(M, D) als auch in den epistemischen Kosten C(M) abgebildet.

Definition 9: Domänenoperatoren
• Restriktion: R(M, D₂) = M|_{D₂}
• Domänendifferenz: D(M) − D₂ = D₁
• Zerlegung: Z(M) = {D₁, D₂, …}



Diese Operatoren beschreiben modelltheoretische Veränderungen des Geltungsbereichs.



Zur zeitlichen Dynamik
Da sich der epistemische Ermöglichungsraum E(t) im Verlauf der wissenschaftlichen Entwicklung verändert, sind die Bewertungsgrößen AT(M, D), EK(M, D) und die Kosten C(M) grundsätzlich zeitabhängig. Im Folgenden wird dies durch einen expliziten Zeitindex t notiert, wenn die Dynamik von E(t) im Vordergrund steht:
U(M, D, t) = α · AT(M, D, t) + β · EK(M, D, t) − γ · C(M, D, t).
Wo es den Lesefluss stören würde, wird der Index t aus Gründen der Lesbarkeit weggelassen; inhaltlich ist er jedoch stets mitzudenken.



4. Kriterien moderner Modellbewertung im vorgeschlagenen Rahmen



Moderne wissenschaftliche Modellbewertung umfasst eine klar bestimmbare Menge epistemischer, technischer und institutioneller Kriterien, die zusammen bestimmen, ob ein Modell innerhalb einer Domäne D erhalten bleibt, rekalibriert wird oder verschwindet. Der hier entwickelte Rahmen macht diese Kriterien explizit und ordnet sie den Bestandteilen der Nutzenfunktion U(M, D, t) sowie dem epistemischen Ermöglichungsraum E(t) systematisch zu. Der folgende Katalog erhebt den Anspruch, im Sinne dieses Rahmens die epistemisch relevanten Bewertungskriterien weitgehend vollständig abzudecken, ohne auszuschließen, dass einzelne Disziplinen zusätzliche, feiner differenzierte Unterkriterien ausbilden.

(1) Approximation und strukturelle Ähnlichkeit
Hierzu gehört die domänenspezifische Approximate Truth AT(M, D), verstanden als graduelle Ähnlichkeit zwischen Modellstrukturen und relevanten Systemzuständen. Dazu zählen die Fit-Qualität, die Strukturähnlichkeit und die Stabilität der Modellvorhersagen über Subdomänen hinweg.

(2) Explanatorische Kraft (EK)
Die explanatorische Kraft eines Modells bestimmt, wie weitreichend, tief und gegenfaktual sensitiv seine Erklärungen sind. Sie umfasst sowohl die Abdeckung relevanter Phänomene als auch die Fähigkeit, neue oder abgeleitete Sachverhalte zu erklären.

(3) Modellunsicherheit
Modellunsicherheit umfasst die Varianz, Sensitivität und Stabilität der Modellvorhersagen innerhalb einer Domäne. Hohe Unsicherheitsbreiten mindern den effektiven epistemischen Wert eines Modells, selbst wenn der mittlere Fit hoch ist. Sie beeinflusst sowohl AT(M, D) als auch die epistemischen Kosten C(M).

(4) Interpretierbarkeit und Transparenz
Modelle unterscheiden sich in ihrer strukturellen Zugänglichkeit, nachvollziehbaren Mechanismen, Testbarkeit und den Möglichkeiten der Diagnose von Fehlerquellen. Geringe Interpretierbarkeit erhöht die epistemischen Kosten und senkt die explanatorische Nutzbarkeit eines Modells.

(5) Technische und rechnerische Kosten
Dazu zählen Rechenaufwand, Energieverbrauch, numerische Komplexität, Datenbedarf und Implementierbarkeit. Diese technischen Kosten bilden einen zentralen Bestandteil von C(M) und beeinflussen die Rationalität der Modellwahl in datenintensiven Wissenschaften erheblich.

(6) Institutionelle und infrastrukturelle Bedingungen
Modelle werden durch Normen, Software-Ökosysteme, Ausbildungsstrukturen, Datenformate und organisatorische Praktiken stabilisiert. Diese Faktoren sind im epistemischen Ermöglichungsraum E(t) verortet und erklären, warum Modelle oft persistieren, selbst wenn sie in einzelnen Domänen suboptimal werden.



(7) Verfügbarkeit epistemischer Alternativen
Die Menge der im Ermöglichungsraum E(t) verfügbaren Alternativmodelle bestimmt, ob kontextuelle Falsifikation zu Modellrevision oder zu globaler Eliminierung führt. Modelle bleiben bestehen, solange sie in mindestens einer Domäne epistemisch optimal sind.

Dieser Kriterienkatalog präzisiert, welche Faktoren in der Nutzenfunktion U(M, D) und im Ermöglichungsraum E(t) operative Bedeutung besitzen. Zugleich ergibt sich daraus eine vollständige Übersicht jener Bewertungsdimensionen, die moderne wissenschaftliche Modellpraxis bestimmen. Damit wird der integrierte Rahmen sowohl theoretisch geschlossen als auch unmittelbar empirisch anschlussfähig.





5. Proposition: Zweistufige Falsifikationsstruktur

In der hier vorgeschlagenen Terminologie bezeichnet „Falsifikation“ nicht mehr eine binäre Wahrheitsentscheidung über M insgesamt, sondern eine systematisch rekonstruierbare Verschiebung der Nutzenwerte U(M, D, t) über Domänen hinweg, die unter bestimmten Bedingungen zur vollständigen Aufgabe von M führt.

Für jedes Modell M gilt:

1. Solange eine Subdomäne D₁ existiert, in der M gemäß U(M, D₁) epistemisch optimal ist, führt Falsifikation zur Einschränkung des Geltungsbereichs:

D(M) → D(M)’ = D₁.

2. M ist genau dann global falsifiziert, wenn keine Domäne existiert, in der M gemäß U(M, D) epistemisch optimal oder konkurrenzfähig ist.

Approximate Truth AT(M, D), explanatorische Kraft EK(M, D) und Modellkosten C(M) bestimmen die Bewertung epistemischer Optimalität; E(t) bestimmt die Menge zulässiger Alternativen.

Formal lässt sich der Übergang von kontextueller zu globaler Falsifikation als Übergang
von
∃D₁: U(M, D₁, t) ≥ U(M*, D₁, t)
zu
∀D: U(M, D, t) + ε < U(M*, D, t)
ausdrücken, wobei ε einen kontextabhängigen Toleranzbereich epistemischer Konkurrenzfähigkeit bezeichnet.

Diese zweistufige Struktur macht eine in der Literatur zwar diskutierte, jedoch selten explizit modellierte Unterscheidung formal greifbar. Sie rekonstruiert präzise, wie Modelle in bestimmten Subdomänen erhalten bleiben können, obwohl sie in anderen scheitern, und ergänzt damit bestehende Ansätze von Popper und Lakatos durch eine klar strukturierte Darstellung domänenspezifischer Modellstabilität. Die zweistufige Falsifikationsstruktur beschreibt damit ausdrücklich die in der Wissenschaftspraxis häufig beobachtete Situation, dass Modelle in Subdomänen rekalibriert werden, während ihre übergeordnete epistemische Rolle erhalten bleibt.





6. Wann Modelle verschwinden

Ein Modell verschwindet, wenn:

  1. in allen relevanten Domänen ein alternatives Modell epistemisch überlegen ist (U(M*, D) > U(M, D) für alle D).

  2. die Modellkosten von M höher sind;

  3. E(t) keine stabilisierten Nutzungskontexte mehr enthält.

Formal lässt sich globale Falsifikation daher als Bedingung formulieren, dass für alle relevanten Domänen D gilt: U(M, D) < U(M*, D).

Beispiele:
• Äther → Maxwell (1865) und Einstein (1905),
• Phlogiston → moderne Chemie,
• Epizyklen → Kepler (1609, 1619) und Newton,
• Vier-Säfte-Lehre → moderne Medizin.

Diese historischen Modellwechsel werden in der Wissenschaftstheorie häufig als Paradigmenwechsel oder Forschungsprogramm-Transformationen interpretiert (Kuhn 1962; Lakatos 1970), finden jedoch in der hier vorgeschlagenen Nutzenstruktur eine präzisere formale Rekonstruktion.

Technologische, mathematische und institutionelle Innovationen verändern E(t) und beschleunigen globale Falsifikation. Damit bestimmt E(t) nicht nur, welche Modelle verschwinden, sondern auch, welche überhaupt als realistische Alternativen verfügbar sind.







7. Warum Modelle bleiben

7.1 Robustheit durch Modellfamilien

Viele Modelle existieren nicht als Einzelstrukturen, sondern als ganze Modellfamilien. Falsifikation betrifft daher meist Varianten oder spezifische Parametrisierungen, nicht die gesamte Modellklasse. Modellfamilien besitzen strukturelle Redundanzen, die es erlauben, Fehler in einigen Teilmodellen zu kompensieren, ohne den Gesamtansatz aufzugeben. Dies erklärt, warum Falsifikation oft lediglich zu einer Verschiebung innerhalb der Modellfamilie führt (R(M, D₂)), nicht zu einer Eliminierung der gesamten Klasse. Diese Beobachtung ist konsistent mit der modelltheoretischen Literatur, in der Modellfamilien als strukturierte Räume möglicher Varianten beschrieben werden (Weisberg 2013). Die hier eingeführte Domänenstruktur präzisiert diesen Ansatz, indem sie zeigt, wie Stabilität und Variation innerhalb einer Modellklasse formal voneinander abhängig sind.

7.2 Nutzungskontexte

Modelle bleiben erhalten, weil sie:

• didaktisch nützlich,
• rechnerisch effizient,
• technisch standardisiert
sind.

Kontextuelle Falsifikation korrigiert Domänen, eliminiert aber das Modell nicht. Die Persistenz von Modellen in D₁, trotz Falsifikationen in D₂, ergibt sich damit aus der Nutzenstruktur U(M, D₁) sowie aus der Stabilisierung institutioneller und technischer Kontexte im epistemischen Ermöglichungsraum E(t). Die Existenz stabiler Nutzungskontexte ist eine Funktion des epistemischen Ermöglichungsraums E(t): Institutionen, Datenformate, Softwarebibliotheken und Ausbildungsstrukturen sichern Modelle unabhängig von ihrer globalen Approximate Truth. Dadurch wird erklärbar, warum Modelle mit niedriger AT(M, D₂), aber hoher AT(M, D₁), weiterhin rational verwendet werden. Dies entspricht der in vielen Wissenschaften beobachtbaren Praxis, Modelle als werkzeugartige Bausteine zu verwenden, deren Geltung kontextabhängig ist und nicht global beurteilt wird.





8. Fallstudie: Klimamodelle

8.1 Klimamodelle als Ensemble-Struktur

Klimamodelle sind keine Einzelmodelle, sondern komplexe Ensembles aus verschiedenen Modellvarianten und Szenarien (Oreskes et al. 1994):

E = {M₁, M₂, …, Mn}

Dieses Ensemble erlaubt die Kombination verschiedener physikalischer Annahmen, Parametrisierungen und Anfangsbedingungen.

Falsifikation betrifft daher selten das gesamte Ensemble, sondern spezifische Komponenten:

• Ozeanmodelle,
• atmosphärische Parametrisierung,
• Wolkenprozesse,
• biogeochemische Module.

Das Ensemble als Ganzes bleibt epistemisch stabil, selbst wenn einzelne Komponenten modifiziert oder ersetzt werden. Dies entspricht der etablierten Modellpraxis in der Klimawissenschaft, in der Ensembles ausdrücklich als epistemische Stabilitätsmechanismen fungieren (vgl. Oreskes et al. 1994; IPCC-Methodologie). Die Domänenstruktur des Ensembles ist daher stabiler als die der Einzelmodelle.

8.2 Parametrisierung als epistemische Operation

Viele klimarelevante Prozesse können nicht aus grundlegenden physikalischen Gleichungen in voller Auflösung berechnet werden. Parametrisierungen dienen als epistemische Brücken zwischen physikalischer Theorie und numerischer Machbarkeit.

Falsifikation markiert typischerweise die Grenzen solcher Parametrisierungen. Dies führt zu lokalen Domänenanpassungen:

AT(M, D₂) ↓ → R(M, D₂)

Parametrisierungen sind damit keine bloßen Näherungstechniken, sondern operationale Domänendefinitionen, deren Anpassung ein zentraler Mechanismus kontextueller Falsifikation ist. Der Gesamtansatz bleibt jedoch erhalten. Dies ist ein paradigmatischer Fall von kontextueller Falsifikation.



8.3 Bayesian Updating und adaptive Modellierung

Moderne Klimamodelle integrieren Bayesian Updating, um neue Daten systematisch einzubinden:

Posterior ∝ Likelihood × Prior

Eine falsch prognostizierte Variable reduziert die Likelihood eines Teilmodells und damit seine domain-spezifische Approximate Truth AT(M, D₂). Doch das Ensemble absorbiert diese Reduktion, indem alternative Parametrisierungen oder Submodelle höhere Likelihoods erhalten.

Dies zeigt, dass Falsifikation nicht eliminativ, sondern redistributiv wirkt:
Sie verschiebt epistemische Gewichte innerhalb des Ensembles. In formaler Hinsicht entspricht dies einer Gewichtungsverschiebung im posterior-basierten Modellportfolio, bei der Teilmodelle mit höherer Likelihood stärker in das Ensembleergebnis eingehen.

8.4 Domänenstruktur

Die Funktionsbereiche von Klimamodellen lassen sich gliedern:

• D₁: globale Temperaturtrends,
• D₂: regionale Niederschlagsmuster,
• D₃: Extremereignisse,
• D₄: kurzfristige Klimavariabilität (ENSO, AMO).

Die klare Domänenstruktur zeigt, dass Falsifikation überwiegend in D₂–D₄ wirkt, während D₁ als globaler Stabilitätsanker des Ensemblemodells fungiert. D₁ bleibt seit Jahrzehnten stabil, weshalb das Ensemble insgesamt epistemisch optimal bleibt.

8.5 Miniaturisierte formale Illustration

Zur Verdeutlichung kann ein vereinfachtes Beispiel dienen:

Seien zwei Modelle M und M* verfügbar.

AT(M, D₁) = 0.9, EK(M, D₁) = 0.8
AT(M*, D₁) = 0.7, EK(M*, D₁) = 0.8

AT(M, D₂) = 0.4, EK(M, D₂) = 0.5
AT(M*, D₂) = 0.8, EK(M*, D₂) = 0.9

Für moderate Kosten C(M) ≈ C(M*) gilt:

• In D₁ bleibt M epistemisch optimal.
• In D₂ wird M* optimal.
• Global bleiben beide Modelle im Ensemble erhalten.

Dies veranschaulicht den Grundsatz:

Kontextuelle Falsifikation reduziert AT(M, D₂), ohne dass damit AT(M, D₁) oder die globale epistemische Optimalität zerstört wird. Diese Struktur ist charakteristisch für viele simulationsbasierte Wissenschaften, nicht nur für die Klimaforschung.

8.6 Konsequenzen für den epistemischen Status

Klimamodelle werden häufig nach dem Popper’schen Schema beurteilt:

„Eine fehlerhafte Vorhersage zeigt, dass das Modell falsch ist.“

Dies ist wissenschaftstheoretisch unzutreffend (Oreskes et al. 1994). Korrekt ist: Falsifikation wirkt domänenspezifisch und zeigt an, welche Subkomponenten weiterentwickelt werden müssen. Dies verdeutlicht, dass die Popper’sche Eliminationslogik für simulationsbasierte Modellarchitekturen unzureichend ist und durch eine domänenspezifische Nutzenstruktur ersetzt werden muss.

Die Fallstudie zu Klimamodellen dient als repräsentatives Beispiel einer modernen, daten- und simulationsintensiven Modellarchitektur. Die Struktur der Analyse ist jedoch allgemein: Die hier entwickelte Theorie lässt sich ohne zusätzliche Annahmen auf klassische physikalische Modelle, ökonomische Modelle, epidemiologische Modelle oder KI-Modellarchitekturen übertragen, da sie ausschließlich die formalen Bedingungen domänenspezifischer Approximate Truth, Modellkosten und Entscheidungslogik U(M, D) nutzt.



9. Approximate Truth

Approximate Truth erklärt, warum Modelle trotz Fehlern Fortschritt erzeugen. Der Begriff wurde in der Wissenschaftstheorie besonders durch Niiniluoto (1987, 1998) und Oddie (1986) geprägt, jedoch bisher selten systematisch mit Modellnutzung, Domänenstruktur und Modellkosten verknüpft.

Formal lässt sich Approximate Truth durch eine Ähnlichkeitsmetrik fassen:

AT(M, D) = Σᵢ wᵢ · sim(M, Sᵢ, D)

mit sim(M, Sᵢ, D) als Ähnlichkeit zwischen Modellvorhersagen und beobachteten Systemzuständen in Domäne D sowie wᵢ als Relevanzgewichten. In diesem formalen Rahmen ist Approximate Truth weder ein Wahrheitskriterium im Popper’schen Sinn noch eine bloße Fit-Metrik, sondern ein domänenspezifisches Maß struktureller Ähnlichkeit, das für die Modellwahl zentral ist.

Wichtig ist:

  1. Approximate Truth ist immer domänenspezifisch.

  2. Falsifikation reduziert AT(M, D₂), lässt aber AT(M, D₁) unverändert.

  3. Globale Falsifikation kann nicht allein über Approximate Truth definiert werden. Zwar tendiert AT(M, D) in vielen Fällen globaler Eliminierung gegen Null, doch entscheidend ist ausschließlich die Nutzenstruktur:
    U(M, D) < U(M*, D) für alle relevanten Domänen D.

Die Kopplung von Approximate Truth an die Nutzenfunktion U(M, D) zeigt, dass graduelle Wahrheitsnähe nicht isoliert wirkt, sondern im Wechselspiel mit explanatorischer Kraft und Modellkosten die epistemische Optimalität bestimmt. Approximate Truth wirkt innerhalb von Domänen und ergänzt die Theorie durch eine quantitative Dimension epistemischer Verbesserung.

Für die praktische Anwendung ist wichtig, dass sowohl die Ähnlichkeitsfunktion sim(M, Sᵢ, D) als auch die Gewichte wᵢ kontextabhängig und empirisch operationalisierbar sind. In vielen wissenschaftlichen Bereichen lässt sich sim(M, Sᵢ, D) direkt durch etablierte Fit- und Fehlermetriken ausdrücken, etwa durch Likelihood-Funktionen, Varianzmaße, Prognosefehler, Residuenanalysen oder Ähnlichkeitskennzahlen zwischen Modelltrajektorien und beobachteten Systemzuständen. In anderen Kontexten, insbesondere in theoretischen oder strukturell orientierten Wissenschaften, erfassen Ähnlichkeitsmetriken zusätzlich qualitative oder topologische Eigenschaften wie Symmetrieerhalt, Invarianzstrukturen oder die Reproduktion kausaler Abhängigkeitsmuster.

Die Gewichte wᵢ repräsentieren die relative Relevanz verschiedener Eigenschaften eines Zielsystems innerhalb einer Domäne. Sie können empirisch bestimmt werden, indem eine Disziplin bestimmte Variablen oder Systemmerkmale traditionell stärker bewertet, oder sie ergeben sich aus modelltheoretischen Überlegungen, die festlegen, welche Aspekte eines Systems für die Modellgüte zentral sind. Damit ist Approximate Truth nicht auf eine einzelne Metrik festgelegt, sondern bildet eine anpassungsfähige Struktur, die sowohl numerische Genauigkeit als auch strukturelle Passung eines Modells berücksichtigt.

10. Warum eine integrierte Theorie bisher fehlte

10.1 Historische Gründe

Vor dem digitalen Zeitalter wurden viele wissenschaftliche Modelle analytisch formuliert, sodass Domänenstrukturen weniger sichtbar waren. Erst numerische Simulationen und großskalige Datenmodelle machten kontextuelle Falsifikation zu einem zentralen Bestandteil wissenschaftlicher Praxis.

10.2 Logische Gründe

Poppers Ansatz war primär als Wahrheitskriterium gedacht. Moderne Modelle sind jedoch:

• approximativ,
• domänenspezifisch,
• dynamisch rekalibrierbar.

Ein binäres Wahrheitsverständnis ist hierfür ungeeignet, da Approximate Truth über Domänen hinweg unterschiedlich ausfallen kann. Dies zeigt, dass klassische logische Strukturen, wie sie Popper zugrunde legt, die operative Komplexität moderner Modellpraktiken nicht erfassen können, weil sie weder graduelle Approximation noch domänenspezifische Relevanzgewichte abbilden.

10.3 Institutionelle Gründe

Wissenschaftliche Praxis ist eingebettet in:

• Rechenkapazitäten,
• Datennormen,
• Peer-Review-Strukturen,
• Forschungsförderung,
• technologische Infrastrukturen.

Diese Faktoren formen den epistemischen Ermöglichungsraum E(t) und bestimmen damit, welche Modelle formulierbar und stabilisierbar sind. Poppers Ansatz berücksichtigt diese Dimension nicht. In der hier eingeführten Theorie ist E(t) dagegen explizit als strukturierende Kraft institutioneller und technischer Rahmenbedingungen modelliert und bildet damit eine zentrale epistemische Variable.





11. Epistemischer Ermöglichungsraum

11.1 Dynamik des epistemischen Ermöglichungsraums

Der epistemische Ermöglichungsraum E(t) verändert sich mit technischer, methodischer und institutioneller Entwicklung.

Ein Modell kann zu einem Zeitpunkt epistemisch optimal sein und zu einem späteren Zeitpunkt nicht mehr, ohne dass sich seine Wahrheit geändert hat. Damit wird deutlich, dass E(t) selbst als dynamische epistemische Variable wirkt, deren Veränderung Modelloptimalität endogen beeinflusst. Zugleich wirken erfolgreiche Modelle selbst auf den epistemischen Ermöglichungsraum E(t) zurück, indem sie neue Datenformate, Recheninfrastrukturen, institutionelle Standards und Forschungspraktiken etablieren. Damit besteht eine wechselseitige Dynamik zwischen Modellpraxis und E(t), die sowohl die Menge verfügbarer Modelle als auch die Struktur zukünftiger Modellalternativen mitprägt.



Wesentliche Einflussfaktoren sind:

  1. Datenwachstum und verbesserte Messsysteme,

  2. neue mathematische Methoden,

  3. steigende Rechenleistung,

  4. institutionelle Normierungsprozesse,

  5. Entwicklung wissenschaftlicher Diskurse.

Diese Faktoren können als Veränderungsoperatoren ΔE(t) aufgefasst werden, die den epistemischen Ermöglichungsraum systematisch erweitern oder einschränken.

E(t) determiniert:

• die Menge der real verfügbaren Modelle,
• die Struktur ihrer Domänen,
• ihre Kosten C(M),
• die verfügbaren Alternativen M*.

Damit ist der epistemische Ermöglichungsraum der zentrale Rahmenparameter der Modellwahl. In wissenschaftshistorischer Perspektive erklärt der Begriff E(t), warum Modellwechsel oft durch technologische und institutionelle Neuerungen ausgelöst werden, die erst neue Modellalternativen formalisierbar machen.



11.2 Struktur des epistemischen Ermöglichungsraums E(t)

Für eine präzisere Analyse lässt sich der epistemische Ermöglichungsraum E(t) in drei funktionale Teilkomponenten gliedern, die zusammen bestimmen, welche Modelle formulierbar und stabilisierbar sind.

  1. Eₘ(t): methodisch-mathematische Bedingungen.
    Dazu gehören verfügbare mathematische Verfahren, statistische Methoden, Modellierungsansätze und algorithmische Techniken. Sie bestimmen, welche Modelltypen überhaupt formuliert werden können und welche Approximationen zulässig sind.

  2. Eₜ(t): technische und datenbezogene Bedingungen.
    Hierzu zählen Rechenleistung, Datenqualität, Softwareinfrastrukturen, numerische Tools und Simulationstechnologien. Diese Faktoren legen fest, welche Modelle praktisch implementierbar sind und mit welcher Auflösung, Stabilität oder Komplexität die Modellierung durchgeführt werden kann.

  3. Eᵢ(t): institutionelle und organisatorische Bedingungen.
    Diese Dimension umfasst wissenschaftliche Normen, Peer-Review-Verfahren, Förderlogiken, Ausbildungsstrukturen und etablierte Forschungspraktiken. Sie prägen, welche Modelle langfristig stabilisiert werden, welche Standards sich durchsetzen und welche Alternativen als wissenschaftlich akzeptabel gelten.
    E(t) ergibt sich aus dem Zusammenspiel dieser drei Dimensionen. Die Verfügbarkeit und Stabilisierung eines Modells ist damit nicht allein Ergebnis seiner Approximate Truth, explanatorischen Kraft oder Kosten, sondern auch der methodischen, technischen und institutionellen Rahmenbedingungen, die seine Formulierung, Implementierung und Weiterentwicklung ermöglichen.



12. Entscheidungslogik der Modellwahl



12.1 Struktur der Nutzenfunktion

Die Wahl zwischen zwei Modellen M und M* lässt sich durch eine zeit- und domänenspezifische Nutzenfunktion rekonstruieren:
U(M, D, t) = α · AT(M, D, t) + β · EK(M, D, t) − γ · C(M, D, t).

Diese Nutzenstruktur ist kompatibel mit bestehenden Verfahren der Modellselektion. Informationskriterien wie AIC und BIC operationalisieren spezielle Formen von C(M) und EK(M, D), während Bayes-Faktoren und Bayesian Model Averaging probabilistische Varianten von Approximate Truth und explanatorischer Kraft darstellen. Der hier vorgeschlagene Rahmen erweitert diese Ansätze, indem er sie explizit im epistemischen Ermöglichungsraum E(t) verankert und institutionelle, technische sowie ökonomische Modellkosten systematisch einbezieht. Dadurch wird Modellwahl nicht nur statistisch, sondern epistemisch rekonstruiert und in reale wissenschaftliche Praxis eingebettet.

Eine globale Bewertung kann durch eine aggregierte Funktion U(M) erfolgen, die die U(M, D) über relevante Domänen gewichtet.
mit:
• AT(M, D): domänenspezifische Approximate Truth,
• EK(M, D): explanatorische Kraft des Modells in Domäne D,
• C(M): Modellkosten (Datenbedarf, Rechenaufwand, institutionelle Infrastruktur),
• α, β, γ: situationsabhängige Gewichtungsfaktoren, die im Ermöglichungsraum E(t) institutionell und methodisch kodiert sind.

Diese Nutzenfunktion verbindet klassische Ansätze der Wissenschaftstheorie (z. B. explanatorische Kraft bei Hempel, Wahrheitsnähe bei Niiniluoto) mit modernen entscheidungstheoretischen Bewertungsstrukturen und macht epistemische Rationalität quantitativ rekonstruierbar.

Da viele Terme der Nutzenfunktion in realen Wissenschaften durch empirische Proxy-Metriken oder etablierte quantifizierende Verfahren angenähert werden können, lässt sich die vorgeschlagene Entscheidungslogik in vielen Fällen auf reale Modellportfolios anwenden und empirisch untersuchen. Die hier vorgeschlagene Nutzenfunktion ist als idealtypischer Rahmen zu verstehen. Sie macht explizit, wie etablierte Fit-Metriken, Informationskriterien, Komplexitätsmaße und institutionelle Rahmenbedingungen in einer gemeinsamen Bewertungsstruktur integriert werden können, ohne zu behaupten, dass alle Disziplinen bereits über eine vollständig ausgearbeitete, operationalisierte Implementierung von U(M, D, t) verfügen. Die Operationalisierung einzelner Komponenten – insbesondere explanatorische Kraft und institutionelle Modellkosten – ist kontextabhängig, aber im Rahmen moderner wissenschaftlicher Praxis häufig praktikabel.



Kontextuelle Falsifikation reduziert AT(M, D₂), was U(M, D₂) senkt, ohne AT(M, D₁) oder U(M, D₁) zu beeinträchtigen. Damit ist die Domäne D explizit als variable epistemische Einheit modelliert, deren Spezifikation selbst vom Ermöglichungsraum E(t) abhängt. Somit ist Falsifikation keine globale Eliminationsoperation, sondern eine Bedingung der Modellanpassung:
• Falsifikation in D₂ → U(M, D₂) sinkt,
• U(M, D₁) bleibt hoch,
• M behält weiterhin epistemischen Wert in D₁.

Globale Falsifikation liegt genau dann vor, wenn für alle relevanten Domänen D gilt:
U(M, D) < U(M*, D).
Modelle verschwinden nicht, weil sie „falsch“ sind, sondern weil ihre relative epistemische Leistung in jeder Domäne unter die Alternativen fällt.

Diese Nutzenstruktur erklärt zudem, warum Modellfamilien robust bleiben: Wenn U(M₁, D₂) sinkt, können andere Modelle M₂ oder M₃ derselben Familie höhere U-Werte aufweisen. Falsifikation wird so zu einem Mechanismus der internen Reallokation epistemischer Gewichte, nicht zu einer Eliminationslogik im Popper’schen Sinn.

Um diese Nutzenstruktur nicht nur theoretisch zu formulieren, sondern unmittelbar empirisch nutzbar zu machen, lässt sich U(M, D) durch ein standardisiertes Skalierungs- und Operationalisierungsschema präzisieren, das etablierte Gütemaße und Fehlermetriken der jeweiligen Disziplin direkt integriert.

Die lineare Form der Nutzenfunktion dient als pragmatische und anschlussfähige Approximation. Sie erfasst die wesentlichen Bewertungsdimensionen Approximate Truth, explanatorische Kraft und Modellkosten in einer Form, die mit gängigen empirischen Gütemaßen kompatibel ist. Die Struktur der Nutzenfunktion ist jedoch nicht auf eine lineare Kombination beschränkt. In bestimmten wissenschaftlichen Kontexten können auch nichtlineare oder interaktive Bewertungsformen sinnvoll sein, etwa wenn explanatorische Kraft nur bei einem Mindestmaß an Approximate Truth relevant ist oder wenn Modellkosten domänenspezifische Schwellenwerte aufweisen.

Ebenso können Modellkosten C(M) in realen Anwendungen sowohl globale als auch domänenspezifische Komponenten enthalten. Während grundlegende Implementierungs- oder Infrastrukturkosten global wirken, variieren rechnerische und datenbezogene Kosten häufig zwischen verschiedenen Domänen. In solchen Fällen kann die Nutzenfunktion durch eine differenzierte Form C(M, D) ergänzt werden, ohne dass sich die grundsätzliche Struktur des Bewertungsrahmens ändert.

Wesentlich ist, dass die Nutzenfunktion unabhängig von ihrer konkreten funktionalen Form die Bewertung epistemischer Optimalität rekonstruiert. Sie bildet ab, wie Approximate Truth, explanatorische Kraft und Modellkosten innerhalb des epistemischen Ermöglichungsraums E(t) gegeneinander abgewogen werden und unter welchen Bedingungen Modelle konkurrenzfähig bleiben oder durch Alternativen ersetzt werden.





12.2 Skalierung und empirische Verankerung der Nutzenfunktion

Damit die vorgeschlagene Nutzenfunktion U(M, D) nicht nur theoretisch präzise, sondern unmittelbar empirisch anwendbar ist, lässt sie sich durch etablierte Bewertungsverfahren der jeweiligen Disziplin operationalisieren. Die Kalibrierung erfolgt relativ: Innerhalb einer Domäne D wird einem Modell mit maximal erreichter empirischer Güte der Wert 1 zugewiesen, während ein Modell mit minimal akzeptabler Güte den Wert 0 erhält. Alle weiteren Modelle werden mittels linearer oder funktionsbasierter Normierung zwischen diesen Fixpunkten eingeordnet.

Auf diese Weise entsteht eine kontinuierliche Skala, ohne dass ein physisches Messmedium benötigt wird. Die Unterschiede der Modelle spannen den Bewertungsraum selbst auf, den die Nutzenfunktion abbildet. Die Wissenschaft muss hierfür keine neuen Daten erheben; sie nutzt ausschließlich etablierte Fehlermetriken, Gütemaße, Likelihood-Strukturen und Komplexitätsindikatoren ihrer jeweiligen Forschungsbereiche.

Der epistemische Ermöglichungsraum E(t) wird damit durch vorhandene empirische Informationen operationalisiert. Modelle werden nicht im luftleeren Raum bewertet, sondern durch bereits existierende Datenstrukturen und methodische Standards einer Disziplin. Die Nutzenfunktion U(M, D) bildet eine standardisierte Projektion dieser Informationen auf eine vergleichbare Skala und erlaubt damit die systematische Bewertung und Auswahl epistemisch optimaler Modelle über verschiedene Domänen hinweg.

Die hier beschriebene Nutzenfunktion besitzt sowohl eine deskriptive als auch eine schwach normative Dimension. Deskriptiv rekonstruiert sie, wie Modellwahl in vielen daten- und simulationsintensiven Wissenschaften faktisch erfolgt, indem Approximate Truth, explanatorische Kraft und Modellkosten gegeneinander abgewogen werden. Zugleich entsteht daraus eine schwach normative Struktur, die explizit macht, unter welchen Bedingungen Modellentscheidungen als epistemisch rational gelten können. Die Theorie normiert wissenschaftliche Praxis nicht von außen, sondern macht die in ihr bereits wirkenden Bewertungsdimensionen transparent. Dadurch entsteht ein Rahmen, der reale Modellentscheidungen erklärt und zugleich zeigt, wie sie innerhalb des epistemischen Ermöglichungsraums E(t) methodisch gerechtfertigt werden können.

13. Verhältnis zum wissenschaftlichen Realismus

Die integrierte Theorie steht zwischen strukturellem Realismus und instrumentellem Modellpluralismus. In der aktuellen wissenschaftstheoretischen Debatte wird genau diese mittlere Position zunehmend relevant, da viele moderne Wissenschaften weder vollständig realistisch noch vollständig instrumentalistisch operieren können. Modelle sind teilweise wahr in dem Sinne, dass sie reale Strukturen approximieren (Approximate Truth als Grad der strukturellen Annäherung). Dieser Ansatz ist kompatibel mit dem strukturellen Realismus, da er die Wahrheit nicht im Gesamtmodell verortet, sondern in den stabilen relationalen Strukturen, die innerhalb spezifischer Domänen erhalten bleiben. Ihr Fortbestand hängt jedoch auch von praktischen Faktoren ab:

• Kosten,
• institutionelle Stabilität,
• Verfügbarkeit konkurrierender Alternativmodelle,
• Wandel des Ermöglichungsraums E(t).

Dieser Ansatz ergänzt den strukturellen Realismus, indem er explizit macht, dass Approximate Truth nicht die alleinige Determinante wissenschaftlicher Rationalität ist. Zugleich erweitert er instrumentellen Modellpluralismus, indem er formalisiert, wann Modelle trotz Teilfalsifikationen epistemisch optimal bleiben.

Der hier entwickelte Ansatz lässt sich präzise innerhalb der aktuellen Realismusdebatten verorten. Er steht dem strukturellen Realismus, etwa in der Tradition von Worrall (1989) und Psillos (1999), insofern nahe, als Approximate Truth als Annäherung an stabile relationale Strukturen gedeutet wird. Zugleich verfolgt der Ansatz eine breitere Perspektive als der konstruktive Empirismus van Fraassens (1980), da er zeigt, dass die operative Rationalität wissenschaftlicher Modellpraxis nicht allein von empirischer Adäquatheit abhängt, sondern auch von institutionellen, technischen und explanatorischen Bedingungen, die im epistemischen Ermöglichungsraum E(t) systematisch berücksichtigt werden.

In Abgrenzung zu da Costa und Frenchs Konzept partieller Wahrheiten (2003) integriert der vorliegende Rahmen Approximate Truth nicht nur als logische Struktur gradueller Wahrheit, sondern bettet sie in eine explizite Nutzenfunktion U(M, D) ein, die explanatorische Kraft und Modellkosten umfasst. Dadurch wird wissenschaftliche Rationalität als Entscheidungsproblem innerhalb eines dynamischen Ermöglichungsraums rekonstruierbar. Der Ansatz positioniert sich somit zwischen strukturellem Realismus und instrumentellem Modellpluralismus, verbindet jedoch deren Einsichten zu einem integrativen Rahmen, der direkt an die empirische Modellpraxis moderner Wissenschaften anschließt.

Gerade in datenbasierten und simulationsintensiven Wissenschaften – etwa Klimaforschung, Ökonomie, Epidemiologie oder KI-Modellierung – liefert dieser Rahmen eine präzise Möglichkeit, Modellstabilität und Modellwechsel systematisch zu analysieren.





14. Schluss

Falsifikation ist kein binärer Eliminationsmechanismus, sondern ein domänenspezifisches Werkzeug zur Präzisierung wissenschaftlicher Modelle. Die hier entwickelte Theorie fasst zentrale Einsichten aus Popper, Kuhn, Lakatos, da Costa/French und der modernen Modelltheorie in einem explizit formalisierten, einheitlichen Rahmen zusammen. Durch die Unterscheidung zwischen globaler und kontextueller Falsifikation wird sichtbar, dass empirische Abweichungen überwiegend zu einer Einschränkung des Geltungsbereichs führen, nicht zu einer vollständigen Aufgabe des Modells.

Die Integration von Approximate Truth, explanatorischer Kraft und Modellkosten in eine domänenspezifische Nutzenfunktion zeigt, dass Modellstabilität das Ergebnis relativer epistemischer Optimalität ist und nicht allein aus Wahrheitsnähe folgt. Modelle verschwinden erst dann, wenn sie in keiner Domäne mehr epistemisch konkurrenzfähig sind und der epistemische Ermöglichungsraum E(t) keine stabilisierten Nutzungskontexte mehr bereitstellt.

Mit dem Begriff des epistemischen Ermöglichungsraums wird zudem erklärbar, warum technologische, institutionelle und methodische Veränderungen wissenschaftliche Modelllandschaften tiefgreifend beeinflussen. Modellwahl wird dadurch als dynamischer Prozess rekonstruierbar, in dem wissenschaftliche Rationalität nicht in einer singulären logischen Operation, sondern in einem strukturierten Zusammenspiel von Kontext, Approximation und institutioneller Stabilisierung besteht.

Die vorgeschlagene Theorie liefert damit einen kohärenten Rahmen zur Analyse moderner Modellpraktiken, insbesondere in datenintensiven und simulationsbasierten Wissenschaften. Sie präzisiert, wie Modelle trotz Teilfalsifikationen epistemisch stabil bleiben, und formuliert klar, unter welchen Bedingungen globale Eliminierung rational begründet ist. Zukünftige Forschung könnte die Nutzenfunktion empirisch testen, den epistemischen Ermöglichungsraum E(t) weiter formalisieren und die Theorie auf weitere wissenschaftliche Modellarchitekturen anwenden.







Literaturverzeichnis

Cartwright, Nancy. 1983. How the Laws of Physics Lie. Oxford: Oxford University Press.
Cartwright, Nancy. 1999. The Dappled World: A Study of the Boundaries of Science. Cambridge: Cambridge University Press.
Da Costa, Newton C. A., und Steven French. 2003. Science and Partial Truth: A Unitary Approach to Models and Scientific Reasoning. Oxford: Oxford University Press.
Einstein, Albert. 1905. „Zur Elektrodynamik bewegter Körper.“ Annalen der Physik 17: 891–921.
Hacking, Ian. 1983. Representing and Intervening. Cambridge: Cambridge University Press.
Hempel, Carl G. 1965. Aspects of Scientific Explanation and Other Essays in the Philosophy of Science. New York: Free Press.
IPCC. 2021. Climate Change 2021: The Physical Science Basis. Cambridge: Cambridge University Press.
Kepler, Johannes. 1609. Astronomia Nova. Heidelberg: Jonas Sabber.
Kepler, Johannes. 1619. Harmonices Mundi. Linz: Johann Planck.
Kuhn, Thomas S. 1962. The Structure of Scientific Revolutions. Chicago: University of Chicago Press.
Lakatos, Imre. 1970. „Falsification and the Methodology of Scientific Research Programmes.“ In Criticism and the Growth of Knowledge, herausgegeben von Imre Lakatos und Alan Musgrave, 91–196. Cambridge: Cambridge University Press.
Maxwell, James Clerk. 1865. „A Dynamical Theory of the Electromagnetic Field.“ Philosophical Transactions of the Royal Society of London 155: 459–512.
Morgan, Mary S., und Margaret Morrison. 1999. Models as Mediators: Perspectives on Natural and Social Science. Cambridge: Cambridge University Press.
Niiniluoto, Ilkka. 1987. Truthlikeness. Dordrecht: Reidel.
Niiniluoto, Ilkka. 1998. „Approximation in Science.“ Poznan Studies in the Philosophy of the Sciences and the Humanities 63: 97–109.
Oddie, Graham. 1986. Likeness to Truth. Dordrecht: Reidel.
Oreskes, Naomi, Kristin Shrader-Frechette, und Kenneth Belitz. 1994. „Verification, Validation, and Confirmation of Numerical Models in the Earth Sciences.“ Science 263 (5147): 641–646.
Popper, Karl R. [1934] 1959. Logik der Forschung. Wien: Springer.
Popper, Karl R. 1959. The Logic of Scientific Discovery. London: Hutchinson.
Psillos, Stathis. 1999. Scientific Realism: How Science Tracks Truth. London: Routledge.
Putnam, Hilary. 1978. Meaning and the Moral Sciences. London: Routledge.
van Fraassen, Bas C. 1980. The Scientific Image. Oxford: Clarendon Press.
Weisberg, Michael. 2013. Simulation and Similarity: Using Models to Understand the World. Oxford: Oxford University Press.
Worrall, John. 1989. „Structural Realism: The Best of Both Worlds?“ Dialectica 43 (1–2): 99–124.



27