Kontextuelle und globale Falsifikation wissenschaftlicher Modelle
Eine integrierte Theorie epistemischer Geltung
Die klassische Popper’sche Falsifikationstheorie operiert mit
einem binären Bild wissenschaftlicher Rationalität, demzufolge eine
Theorie bereits durch eine einzige widersprechende Beobachtung
verworfen werden muss (Popper [1934] 1959). Die moderne
Wissenschaftspraxis widerspricht diesem Idealbild systematisch:
Zentrale Modelle wie die Newtonsche Mechanik, die klassische
Thermodynamik, die nichtrelativistische Quantenmechanik oder heutige
Klimamodelle sind zwar in Teilbereichen empirisch widerlegt, bleiben
jedoch epistemisch unverzichtbar.
Dieses Paper entwickelt einen
integrierenden Rahmen der Modellgeltung, der zentrale Einsichten von
Popper, Kuhn, Lakatos, da Costa/French und der modernen Modelltheorie
in einem einheitlichen Modell rationaler wissenschaftlicher Praxis
systematisch zusammenführt. Die Theorie unterscheidet globale und
kontextuelle Falsifikation, führt den Begriff eines epistemischen
Ermöglichungsraums E(t) ein und stellt eine formal präzisierte
Struktur für Domänenoperationen bereit. Der epistemische
Ermöglichungsraum bildet den zentralen theoretischen Beitrag des
Papers, da er methodische, technische und institutionelle Bedingungen
der Modellwahl explizit macht.
„Falsifikation“ wird dabei
nicht als rein logisches Wahrheitskriterium verstanden, sondern als
rational-pragmatischer Mechanismus der Modellbewertung, der
Approximate Truth, explanatorische Kraft und Modellkosten integriert.
So wird erklärbar, warum Modelle trotz Teilfalsifikationen stabil
bleiben und unter welchen Bedingungen Modelleliminierung tatsächlich
erfolgt. Zusätzlich wird eine Entscheidungslogik epistemischer
Optimalität formalisiert, die Approximate Truth innerhalb
spezifischer Domänen sowie explanatorische Kraft und Modellkosten in
einer Nutzenfunktion zusammenführt. Eine Fallstudie zu Klimamodellen
zeigt, wie Ensemble-Methoden, Parametrisierungen und Bayesian
Updating zur systematischen Domänenpräzisierung führen.
Die
vorgeschlagene Theorie ist primär deskriptiv: Sie rekonstruiert die
tatsächliche Modellpraxis moderner Wissenschaften und bietet eine
explizit formulierte und systematisch integrierte Rekonstruktion
jener Modellstrukturen, die in der klassischen Popper’schen Sicht
nur teilweise berücksichtigt werden. Dadurch werden idealisierte,
simulationsbasierte und domänenspezifische Modelle epistemisch
präzise fassbar.
Inhaltsverzeichnis
2.1 Popper: Falsifikation als binäres Ideal 4
2.2 Kuhn: Anomalien ohne Eliminierung 4
2.3 Lakatos: Forschungsprogramme 4
4. Kriterien moderner Modellbewertung im vorgeschlagenen Rahmen 10
5. Proposition: Zweistufige Falsifikationsstruktur 12
6. Wann Modelle verschwinden 13
7.1 Robustheit durch Modellfamilien 14
8. Fallstudie: Klimamodelle 15
8.1 Klimamodelle als Ensemble-Struktur 15
8.2 Parametrisierung als epistemische Operation 15
8.3 Bayesian Updating und adaptive Modellierung 16
8.5 Miniaturisierte formale Illustration 16
8.6 Konsequenzen für den epistemischen Status 17
10. Warum eine integrierte Theorie bisher fehlte 19
10.3 Institutionelle Gründe 19
11. Epistemischer Ermöglichungsraum 20
11.1 Dynamik des epistemischen Ermöglichungsraums 20
11.2 Struktur des epistemischen Ermöglichungsraums E(t) 21
12. Entscheidungslogik der Modellwahl 22
12.1 Struktur der Nutzenfunktion 22
12.2 Skalierung und empirische Verankerung der Nutzenfunktion 24
Die Falsifikationstheorie nach Popper ([1934] 1959) prägte über Jahrzehnte das öffentliche und akademische Bild wissenschaftlicher Rationalität. Sie postuliert, dass Theorien verworfen werden müssen, sobald eine ihrer Vorhersagen empirisch scheitert. Die Praxis der Natur- und Sozialwissenschaften zeigt jedoch ein anderes Bild. Dieses Paper entwickelt eine integrierte Theorie wissenschaftlicher Modellgeltung, die zentrale Einsichten aus Popper, Kuhn, Lakatos, da Costa/French sowie der modernen Modelltheorie in einer gemeinsamen Struktur rationaler Modellbewertung zusammenführt. Viele Modelle sind idealisiert, nur partiell repräsentativ, empirisch widerlegt in Subdomänen und dennoch epistemisch stabil.
Beispiele hierfür sind die Newtonsche Mechanik, die bei relativistischen Geschwindigkeiten versagt (Einstein 1905), klassische Thermodynamik, die mikroskopisch unpräzise ist, oder Klimamodelle, die kontinuierlich rekalibriert werden (Oreskes et al. 1994). Gleichzeitig gibt es Modelle, die vollständig verschwunden sind, wie die Phlogiston-Theorie oder der klassische Äther.
Das Kernproblem lautet: Unter welchen Bedingungen führt Falsifikation zur Eliminierung eines Modells – und wann bleibt ein Modell trotz Teilfalsifikation epistemisch stabil?
Dieses Paper entwickelt einen integrierten theoretischen Rahmen, der diese Frage explizit und in einem einheitlichen Modell formalisiert. Der Ansatz unterscheidet globale und kontextuelle Falsifikation, beschreibt den epistemischen Ermöglichungsraum E(t) und integriert Approximate Truth als graduelle, domänenspezifische Bewertungsgröße. Zudem wird gezeigt, dass Falsifikation keine rein logische Wahrheitsoperation ist, sondern eine rational rekonstruierbare Entscheidung innerhalb eines realen wissenschaftlichen Ermöglichungsraums. Die Theorie ist primär deskriptiv: Sie rekonstruiert die tatsächliche Modellpraxis moderner Wissenschaften und wird exemplarisch anhand von Klimamodellen demonstriert.
Die im Folgenden eingeführte Nutzenfunktion U(M, D) ist primär rekonstruktiv zu verstehen: Sie beschreibt, wie Modellwahl in realen Wissenschaften faktisch erfolgt, wenn Approximate Truth, explanatorische Kraft und Modellkosten gegeneinander abgewogen werden. Zugleich besitzt dieselbe Struktur eine normative Lesbarkeit, da sie die Bedingungen rationaler Modellbewertung expliziert. Damit ist die Theorie sowohl eine deskriptive Rekonstruktion der Modellpraxis als auch ein Rahmen rationaler epistemischer Optimalität.
Popper ([1934] 1959) definiert Falsifikation als binären Mechanismus: Eine einzige widersprechende Beobachtung widerlegt die Theorie. Dieses Modell setzt globale Geltungsansprüche, eindeutige Theorie-Beobachtung-Zuordnungen und nicht-idealisierte Theorien voraus – Bedingungen, die in modernen Wissenschaften selten erfüllt sind. Gerade idealisierte, approximative und simulierte Modelle passen nicht zu dieser binären Struktur. Diese Spannung zwischen Poppers Ideal und der realen Modellpraxis ist in der Literatur vielfach beschrieben worden (Hacking 1983; Cartwright 1983), wurde jedoch nie in eine systematische Theorie kontextueller Falsifikation überführt.
Kuhn (1962) zeigt, dass wissenschaftliche Paradigmen Anomalien überstehen. Er beschreibt jedoch keine fein strukturierte Theorie modellbezogener Falsifikation. Der Mangel besteht insbesondere darin, dass Kuhn nicht spezifiziert, wie sich Anomalien über Subdomänen verteilen und warum sie manche Modelle kaum beeinträchtigen, andere aber untergraben. Die Literatur betont zwar Kuhns historische und soziologische Perspektive, doch fehlt eine formal präzise Modelltheorie des Umgangs mit Subdomänen (vgl. Lakatos 1970; Weisberg 2013).
Lakatos (1970) erklärt Stabilität über einen „harten Kern“, ohne jedoch zu bestimmen, wann Modelle tatsächlich verschwinden. Zudem bleibt unklar, wie konkurrierende Programme im Detail gegeneinander abgewogen werden sollen, insbesondere wenn beide partiell, aber nicht global, falsifiziert sind. Gerade hier zeigt sich, dass Lakatos’ Programmstruktur kein formales Instrument zur Bewertung domänenspezifischer Approximate Truth bereitstellt.
Modelltheoretische Ansätze (Cartwright 1983; Weisberg 2013; Morgan und Morrison 1999) betonen die idealisierte und domänenspezifische Natur wissenschaftlicher Modelle, liefern aber keine Theorie, wie Falsifikation in solchen Strukturen wirkt oder wie Modelle systematisch gegeneinander abgewogen werden. Dies betrifft besonders den Umgang mit idealisierten Simulationen, für die weder Popper noch die klassische Modelltheorie ein geeignetes Falsifikationskriterium bereitstellen (Morgan & Morrison 1999).
Niiniluoto (1987, 1998) und Oddie (1986) bieten graduelle Wahrheitskonzepte, erklären aber nicht, warum manche Modelle trotz Teilfalsifikationen weiterbestehen, während andere vollständig verschwinden. Besonders fehlt die Kopplung von Approximate Truth an Nutzungskontexte, Modellkosten und institutionelle Stabilisierung. Damit bleibt unklar, wie graduelle Wahrheitsgrade in realen Modellportfolios operativ wirken sollen.
Es gibt bislang, soweit ersichtlich, keine systematisch
ausgearbeitete und in der Fachliteratur etablierte integrierte
Theorie, die zugleich erklärt:
• wann Falsifikation global
wirkt,
• wann sie kontextuell bleibt,
• wie Approximate
Truth innerhalb von Domänen funktioniert,
• wie Modellkosten
und explanatorische Kraft rational gewichtet werden,
• wie der
epistemische Ermöglichungsraum E(t) die Menge realer
Modellalternativen bestimmt.
Einzelne dieser Aspekte sind in der
Literatur jeweils separat behandelt worden, etwa in Arbeiten zu
Approximate Truth, zu Forschungsprogrammen oder zur Modelltheorie.
Was bislang weitgehend fehlt, ist eine explizite, formal
strukturierte Rekonstruktion, die diese Dimensionen in einem
gemeinsamen Rahmen der Modellbewertung zusammenführt. Dies ist
insbesondere für datenintensive, simulationsbasierte Wissenschaften
relevant, in denen kontextuelle Falsifikation und Modellportfolios
zur Standardpraxis geworden sind.
Das vorliegende Paper leistet vier miteinander verbundene Beiträge zur Wissenschaftstheorie und Modellphilosophie. Es versteht sich als integrierender Rahmen, der vorhandene Einsichten bündelt und in eine explizit formalisierte Struktur überführt.
Der Begriff des epistemischen Ermöglichungsraums
E(t).
E(t) wird als dynamische Struktur methodischer,
technischer und institutioneller Bedingungen expliziert, die
bestimmt, welche Modelle formulierbar, evaluierbar und
stabilisierbar sind. Damit wird eine Dimension präzise modelliert,
die in der klassischen Falsifikationstheorie Poppers nur implizit
oder gar nicht berücksichtigt wird.
Die zweistufige Falsifikationsstruktur.
Das Paper
unterscheidet strikt zwischen kontextueller und globaler
Falsifikation. Globale Falsifikation wird nicht mehr als binärer
Wahrheitsbruch verstanden, sondern als Zustand, in dem ein Modell in
keiner Domäne D innerhalb des epistemischen Ermöglichungsraums
E(t) epistemisch konkurrenzfähig bleibt. Diese Struktur
rekonstruiert die Stabilität partiell falsifizierter Modelle
systematisch.
Die integrierte Nutzenfunktion U(M, D, t).
Mit
der Nutzenfunktion
U(M, D, t) = α · AT(M, D, t) + β · EK(M,
D, t) − γ · C(M, D, t)
wird ein Rahmen vorgeschlagen, der
Approximate Truth, explanatorische Kraft und Modellkosten in einer
einzigen Bewertungsstruktur zusammenführt und explizit an E(t)
bindet. Die Funktion ist so formuliert, dass sie mit etablierten
Gütemaßen und Selektionskriterien (Fit-Metriken,
Informationskriterien, Komplexitätsmaßen) der einzelnen
Disziplinen kompatibel gehalten werden kann.
Die Anwendung auf simulationsbasierte Modellportfolios.
Am
Beispiel von Klimamodellen wird gezeigt, wie Ensemble-Strukturen,
Parametrisierungen und Bayesian Updating innerhalb des
vorgeschlagenen Rahmens als Fälle kontextueller Falsifikation und
domänenspezifischer Approximate Truth rekonstruiert werden können.
Dadurch wird die Theorie unmittelbar an eine zentrale Klasse
moderner, daten- und simulationsintensiver Modellpraktiken
anschlussfähig.
Insgesamt versteht sich der Eigenbeitrag des
Papers als explizit formulierter, formal strukturierter und
empirisch anschlussfähiger Rahmen, der klassische Einsichten aus
Falsifikationstheorie, Modelltheorie und Wahrheitsnähe-Konzepten
systematisch bündelt und zugleich eine klar codierte Struktur für
die Bewertung und Dynamik wissenschaftlicher Modelle bereitstellt.
Die folgenden Definitionen präzisieren die zuvor eingeführten Begriffe.
Notation (Übersicht)
D(M) – Geltungsbereich eines
Modells
D₁, D₂ – Subdomänen des Geltungsbereichs
AT(M,
D) – Approximate Truth des Modells in Domäne D
EK(M, D) –
explanatorische Kraft
C(M) – Modellkosten
U(M, D) –
domänenspezifische Nutzenfunktion
E(t) – epistemischer
Ermöglichungsraum
R(M, D₂) – Restriktion des Modells auf
Subdomäne D₂
Definition 1: Modell (M)
Ein Modell ist eine
idealisierte mathematische oder konzeptuelle Struktur zur
Repräsentation definierter Aspekte eines Zielsystems unter
bestimmten Bedingungen (Cartwright 1999).
Definition 2: Geltungsbereich D(M)
Die Menge
aller Bedingungen, unter denen ein Modell zuverlässige,
erklärkräftige oder funktional optimale Ergebnisse liefert.
Definition 3: Subdomänen D₁, D₂
D(M)
kann in Subdomänen zerlegt werden: D₁ ⊆ D(M), D₂ ⊆ D(M), mit
D₁ ∪ D₂ = D(M). Diese Zerlegung ist oft Ergebnis
wissenschaftlicher Revision.
Für die Falsifikation gilt
zusätzlich:
• D₁ bezeichnet die Domäne, in der M
epistemisch erhalten bleibt,
• D₂ die Domäne, in der M als
nicht mehr akzeptabel gilt.
Definition 4: Epistemische Optimalität
Ein
Modell ist in einer Domäne D epistemisch optimal, wenn es bezogen
auf alle im Ermöglichungsraum E(t) verfügbaren Alternativen ein
günstiges Verhältnis von Approximate Truth, explanatorischer Kraft
und Modellkosten aufweist. Epistemische Optimalität wird operativ
durch die domänenspezifische Nutzenfunktion U(M, D) bestimmt.
Modellkosten C(M, D) umfassen drei Dimensionen:
(1)
epistemische Kosten (z. B. Fehleranfälligkeit, Sensitivität,
Unsicherheitsbreite von Vorhersagen, Interpretierbarkeit/Transparenz,
Fit-Qualität),
(2) technische Kosten (Rechenaufwand,
Datenbedarf, Implementierungskomplexität),
(3) institutionelle
Kosten (Normierungsgrad, Verfügbarkeit von Infrastrukturen).
Einige
dieser Kostenkomponenten sind global (z. B. grundlegende
Implementierungs- oder Infrastrukturkosten), andere sind
domänenspezifisch (z. B. Datenanforderungen oder numerische
Stabilität in bestimmten Domänen). Für die Nutzenfunktion wird
dies in C(M, D, t) gebündelt.
Definition 5: Kontextuelle Falsifikation
Eine
Beobachtung O führt zu kontextueller Falsifikation, wenn sie zeigt,
dass eine Subdomäne D₂ existiert, in der M nicht länger
epistemisch akzeptabel ist, während mindestens eine Subdomäne D₁
erhalten bleibt, in der M optimal bleibt.
Definition 6: Globale Falsifikation
Ein
Modell M ist zu einem Zeitpunkt t in der wissenschaftlichen
Entwicklung global falsifiziert, wenn es in keiner relevanten Domäne
D innerhalb des epistemischen Ermöglichungsraums E(t) epistemisch
optimal oder epistemisch konkurrenzfähig ist.
Epistemische
Optimalität liegt in einer Domäne D vor, wenn U(M, D, t) größer
oder gleich dem Nutzenwert aller im Ermöglichungsraum E(t)
verfügbaren Alternativmodelle ist.
Epistemische
Konkurrenzfähigkeit liegt vor, wenn U(M, D, t) höchstens um einen
kontextabhängigen Toleranzbereich ε unter dem Nutzenwert der
jeweils besten Alternative U(M*, D, t) liegt.
Formal lässt sich
globale Falsifikation so fassen: Für alle relevanten Domänen D
existiert mindestens ein Alternativmodell M*, so dass
U(M, D, t)
+ ε < U(M*, D, t).
Der Toleranzparameter ε kann disziplin-
und kontextabhängig festgelegt werden und reflektiert, dass Modelle
mit geringfügig schlechteren U-Werten in der Praxis weiterhin als
konkurrenzfähig gelten können.
Definition 7: Epistemischer Ermöglichungsraum E(t)
Der
Raum methodischer, mathematischer, institutioneller und technischer
Voraussetzungen, der bestimmt:
• welche Modelle formulierbar
sind,
• welche Daten verfügbar sind,
• welche
Idealisierungen zulässig sind,
• welche Modelle stabilisiert
werden können,
• wie Modellkosten C(M) überhaupt aussehen.
E(t) ist dynamisch: Technische Innovationen, Datenverfügbarkeit und institutionelle Normen verändern den Raum der möglichen Modelle.
Definition 8: Approximate Truth
Approximate
Truth ist der Grad der Annäherung eines Modells an relevante
Eigenschaften eines Zielsystems relativ zu einer Domäne
D:
AT(M, D).
Formal lässt sich Approximate Truth
durch eine Ähnlichkeitsmetrik fassen:
AT(M, D) = Σᵢ wᵢ ·
sim(M, Sᵢ, D).
Approximate Truth fungiert hierbei nicht als Wahrheitskriterium im Popper’schen Sinn, sondern als graduelle Ähnlichkeitsmetrik innerhalb spezifischer Domänen.
In der praktischen Modellbewertung wird Approximate Truth stets zusammen mit Unsicherheitsabschätzungen der Modellvorhersagen betrachtet. Hohe Vorhersageunsicherheit reduziert den effektiven epistemischen Wert eines Modells, selbst wenn der mittlere Fit hoch ist, und wird damit sowohl in AT(M, D) als auch in den epistemischen Kosten C(M) abgebildet.
Definition 9: Domänenoperatoren
•
Restriktion: R(M, D₂) = M|_{D₂}
• Domänendifferenz: D(M)
− D₂ = D₁
• Zerlegung: Z(M) = {D₁, D₂, …}
Diese Operatoren beschreiben modelltheoretische Veränderungen des Geltungsbereichs.
Zur zeitlichen Dynamik
Da sich der epistemische
Ermöglichungsraum E(t) im Verlauf der wissenschaftlichen Entwicklung
verändert, sind die Bewertungsgrößen AT(M, D), EK(M, D) und die
Kosten C(M) grundsätzlich zeitabhängig. Im Folgenden wird dies
durch einen expliziten Zeitindex t notiert, wenn die Dynamik von E(t)
im Vordergrund steht:
U(M, D, t) = α · AT(M, D, t) + β ·
EK(M, D, t) − γ · C(M, D, t).
Wo es den Lesefluss stören
würde, wird der Index t aus Gründen der Lesbarkeit weggelassen;
inhaltlich ist er jedoch stets mitzudenken.
Moderne wissenschaftliche Modellbewertung umfasst eine klar bestimmbare Menge epistemischer, technischer und institutioneller Kriterien, die zusammen bestimmen, ob ein Modell innerhalb einer Domäne D erhalten bleibt, rekalibriert wird oder verschwindet. Der hier entwickelte Rahmen macht diese Kriterien explizit und ordnet sie den Bestandteilen der Nutzenfunktion U(M, D, t) sowie dem epistemischen Ermöglichungsraum E(t) systematisch zu. Der folgende Katalog erhebt den Anspruch, im Sinne dieses Rahmens die epistemisch relevanten Bewertungskriterien weitgehend vollständig abzudecken, ohne auszuschließen, dass einzelne Disziplinen zusätzliche, feiner differenzierte Unterkriterien ausbilden.
(1) Approximation und strukturelle Ähnlichkeit
Hierzu
gehört die domänenspezifische Approximate Truth AT(M, D),
verstanden als graduelle Ähnlichkeit zwischen Modellstrukturen und
relevanten Systemzuständen. Dazu zählen die Fit-Qualität, die
Strukturähnlichkeit und die Stabilität der Modellvorhersagen über
Subdomänen hinweg.
(2) Explanatorische Kraft (EK)
Die
explanatorische Kraft eines Modells bestimmt, wie weitreichend, tief
und gegenfaktual sensitiv seine Erklärungen sind. Sie umfasst sowohl
die Abdeckung relevanter Phänomene als auch die Fähigkeit, neue
oder abgeleitete Sachverhalte zu erklären.
(3) Modellunsicherheit
Modellunsicherheit
umfasst die Varianz, Sensitivität und Stabilität der
Modellvorhersagen innerhalb einer Domäne. Hohe Unsicherheitsbreiten
mindern den effektiven epistemischen Wert eines Modells, selbst wenn
der mittlere Fit hoch ist. Sie beeinflusst sowohl AT(M, D) als auch
die epistemischen Kosten C(M).
(4) Interpretierbarkeit und Transparenz
Modelle
unterscheiden sich in ihrer strukturellen Zugänglichkeit,
nachvollziehbaren Mechanismen, Testbarkeit und den Möglichkeiten der
Diagnose von Fehlerquellen. Geringe Interpretierbarkeit erhöht die
epistemischen Kosten und senkt die explanatorische Nutzbarkeit eines
Modells.
(5) Technische und rechnerische Kosten
Dazu
zählen Rechenaufwand, Energieverbrauch, numerische Komplexität,
Datenbedarf und Implementierbarkeit. Diese technischen Kosten bilden
einen zentralen Bestandteil von C(M) und beeinflussen die
Rationalität der Modellwahl in datenintensiven Wissenschaften
erheblich.
(6) Institutionelle und infrastrukturelle
Bedingungen
Modelle werden durch Normen,
Software-Ökosysteme, Ausbildungsstrukturen, Datenformate und
organisatorische Praktiken stabilisiert. Diese Faktoren sind im
epistemischen Ermöglichungsraum E(t) verortet und erklären, warum
Modelle oft persistieren, selbst wenn sie in einzelnen Domänen
suboptimal werden.
(7) Verfügbarkeit
epistemischer Alternativen
Die Menge der im
Ermöglichungsraum E(t) verfügbaren Alternativmodelle bestimmt, ob
kontextuelle Falsifikation zu Modellrevision oder zu globaler
Eliminierung führt. Modelle bleiben bestehen, solange sie in
mindestens einer Domäne epistemisch optimal sind.
Dieser Kriterienkatalog präzisiert, welche Faktoren in der Nutzenfunktion U(M, D) und im Ermöglichungsraum E(t) operative Bedeutung besitzen. Zugleich ergibt sich daraus eine vollständige Übersicht jener Bewertungsdimensionen, die moderne wissenschaftliche Modellpraxis bestimmen. Damit wird der integrierte Rahmen sowohl theoretisch geschlossen als auch unmittelbar empirisch anschlussfähig.
In der hier vorgeschlagenen Terminologie bezeichnet „Falsifikation“ nicht mehr eine binäre Wahrheitsentscheidung über M insgesamt, sondern eine systematisch rekonstruierbare Verschiebung der Nutzenwerte U(M, D, t) über Domänen hinweg, die unter bestimmten Bedingungen zur vollständigen Aufgabe von M führt.
Für jedes Modell M gilt:
1. Solange eine Subdomäne D₁ existiert, in der M gemäß U(M, D₁) epistemisch optimal ist, führt Falsifikation zur Einschränkung des Geltungsbereichs:
D(M) → D(M)’ = D₁.
2. M ist genau dann global falsifiziert, wenn keine Domäne existiert, in der M gemäß U(M, D) epistemisch optimal oder konkurrenzfähig ist.
Approximate Truth AT(M, D), explanatorische Kraft EK(M, D) und Modellkosten C(M) bestimmen die Bewertung epistemischer Optimalität; E(t) bestimmt die Menge zulässiger Alternativen.
Formal lässt sich der Übergang von kontextueller zu globaler
Falsifikation als Übergang
von
∃D₁: U(M, D₁, t) ≥
U(M*, D₁, t)
zu
∀D: U(M, D, t) + ε < U(M*, D,
t)
ausdrücken, wobei ε einen kontextabhängigen
Toleranzbereich epistemischer Konkurrenzfähigkeit bezeichnet.
Diese zweistufige Struktur macht eine in der Literatur zwar diskutierte, jedoch selten explizit modellierte Unterscheidung formal greifbar. Sie rekonstruiert präzise, wie Modelle in bestimmten Subdomänen erhalten bleiben können, obwohl sie in anderen scheitern, und ergänzt damit bestehende Ansätze von Popper und Lakatos durch eine klar strukturierte Darstellung domänenspezifischer Modellstabilität. Die zweistufige Falsifikationsstruktur beschreibt damit ausdrücklich die in der Wissenschaftspraxis häufig beobachtete Situation, dass Modelle in Subdomänen rekalibriert werden, während ihre übergeordnete epistemische Rolle erhalten bleibt.
Ein Modell verschwindet, wenn:
in allen relevanten Domänen ein alternatives Modell epistemisch überlegen ist (U(M*, D) > U(M, D) für alle D).
die Modellkosten von M höher sind;
E(t) keine stabilisierten Nutzungskontexte mehr enthält.
Formal lässt sich globale Falsifikation daher als Bedingung formulieren, dass für alle relevanten Domänen D gilt: U(M, D) < U(M*, D).
Beispiele:
• Äther → Maxwell (1865) und Einstein
(1905),
• Phlogiston → moderne Chemie,
• Epizyklen →
Kepler (1609, 1619) und Newton,
• Vier-Säfte-Lehre →
moderne Medizin.
Diese historischen Modellwechsel werden in der Wissenschaftstheorie häufig als Paradigmenwechsel oder Forschungsprogramm-Transformationen interpretiert (Kuhn 1962; Lakatos 1970), finden jedoch in der hier vorgeschlagenen Nutzenstruktur eine präzisere formale Rekonstruktion.
Technologische, mathematische und institutionelle Innovationen verändern E(t) und beschleunigen globale Falsifikation. Damit bestimmt E(t) nicht nur, welche Modelle verschwinden, sondern auch, welche überhaupt als realistische Alternativen verfügbar sind.
Viele Modelle existieren nicht als Einzelstrukturen, sondern als ganze Modellfamilien. Falsifikation betrifft daher meist Varianten oder spezifische Parametrisierungen, nicht die gesamte Modellklasse. Modellfamilien besitzen strukturelle Redundanzen, die es erlauben, Fehler in einigen Teilmodellen zu kompensieren, ohne den Gesamtansatz aufzugeben. Dies erklärt, warum Falsifikation oft lediglich zu einer Verschiebung innerhalb der Modellfamilie führt (R(M, D₂)), nicht zu einer Eliminierung der gesamten Klasse. Diese Beobachtung ist konsistent mit der modelltheoretischen Literatur, in der Modellfamilien als strukturierte Räume möglicher Varianten beschrieben werden (Weisberg 2013). Die hier eingeführte Domänenstruktur präzisiert diesen Ansatz, indem sie zeigt, wie Stabilität und Variation innerhalb einer Modellklasse formal voneinander abhängig sind.
Modelle bleiben erhalten, weil sie:
• didaktisch nützlich,
• rechnerisch effizient,
•
technisch standardisiert
sind.
Kontextuelle Falsifikation korrigiert Domänen, eliminiert aber das Modell nicht. Die Persistenz von Modellen in D₁, trotz Falsifikationen in D₂, ergibt sich damit aus der Nutzenstruktur U(M, D₁) sowie aus der Stabilisierung institutioneller und technischer Kontexte im epistemischen Ermöglichungsraum E(t). Die Existenz stabiler Nutzungskontexte ist eine Funktion des epistemischen Ermöglichungsraums E(t): Institutionen, Datenformate, Softwarebibliotheken und Ausbildungsstrukturen sichern Modelle unabhängig von ihrer globalen Approximate Truth. Dadurch wird erklärbar, warum Modelle mit niedriger AT(M, D₂), aber hoher AT(M, D₁), weiterhin rational verwendet werden. Dies entspricht der in vielen Wissenschaften beobachtbaren Praxis, Modelle als werkzeugartige Bausteine zu verwenden, deren Geltung kontextabhängig ist und nicht global beurteilt wird.
Klimamodelle sind keine Einzelmodelle, sondern komplexe Ensembles aus verschiedenen Modellvarianten und Szenarien (Oreskes et al. 1994):
E = {M₁, M₂, …, Mn}
Dieses Ensemble erlaubt die Kombination verschiedener physikalischer Annahmen, Parametrisierungen und Anfangsbedingungen.
Falsifikation betrifft daher selten das gesamte Ensemble, sondern spezifische Komponenten:
• Ozeanmodelle,
• atmosphärische Parametrisierung,
•
Wolkenprozesse,
• biogeochemische Module.
Das Ensemble als Ganzes bleibt epistemisch stabil, selbst wenn einzelne Komponenten modifiziert oder ersetzt werden. Dies entspricht der etablierten Modellpraxis in der Klimawissenschaft, in der Ensembles ausdrücklich als epistemische Stabilitätsmechanismen fungieren (vgl. Oreskes et al. 1994; IPCC-Methodologie). Die Domänenstruktur des Ensembles ist daher stabiler als die der Einzelmodelle.
Viele klimarelevante Prozesse können nicht aus grundlegenden physikalischen Gleichungen in voller Auflösung berechnet werden. Parametrisierungen dienen als epistemische Brücken zwischen physikalischer Theorie und numerischer Machbarkeit.
Falsifikation markiert typischerweise die Grenzen solcher Parametrisierungen. Dies führt zu lokalen Domänenanpassungen:
AT(M, D₂) ↓ → R(M, D₂)
Parametrisierungen sind damit keine bloßen Näherungstechniken, sondern operationale Domänendefinitionen, deren Anpassung ein zentraler Mechanismus kontextueller Falsifikation ist. Der Gesamtansatz bleibt jedoch erhalten. Dies ist ein paradigmatischer Fall von kontextueller Falsifikation.
Moderne Klimamodelle integrieren Bayesian Updating, um neue Daten systematisch einzubinden:
Posterior ∝ Likelihood × Prior
Eine falsch prognostizierte Variable reduziert die Likelihood eines Teilmodells und damit seine domain-spezifische Approximate Truth AT(M, D₂). Doch das Ensemble absorbiert diese Reduktion, indem alternative Parametrisierungen oder Submodelle höhere Likelihoods erhalten.
Dies zeigt, dass Falsifikation nicht eliminativ,
sondern redistributiv wirkt:
Sie verschiebt
epistemische Gewichte innerhalb des Ensembles. In formaler Hinsicht
entspricht dies einer Gewichtungsverschiebung im posterior-basierten
Modellportfolio, bei der Teilmodelle mit höherer Likelihood stärker
in das Ensembleergebnis eingehen.
Die Funktionsbereiche von Klimamodellen lassen sich gliedern:
• D₁: globale Temperaturtrends,
• D₂: regionale
Niederschlagsmuster,
• D₃: Extremereignisse,
• D₄:
kurzfristige Klimavariabilität (ENSO, AMO).
Die klare Domänenstruktur zeigt, dass Falsifikation überwiegend in D₂–D₄ wirkt, während D₁ als globaler Stabilitätsanker des Ensemblemodells fungiert. D₁ bleibt seit Jahrzehnten stabil, weshalb das Ensemble insgesamt epistemisch optimal bleibt.
Zur Verdeutlichung kann ein vereinfachtes Beispiel dienen:
Seien zwei Modelle M und M* verfügbar.
AT(M, D₁) = 0.9, EK(M, D₁) = 0.8
AT(M*, D₁) = 0.7,
EK(M*, D₁) = 0.8
AT(M, D₂) = 0.4, EK(M, D₂) = 0.5
AT(M*, D₂) = 0.8,
EK(M*, D₂) = 0.9
Für moderate Kosten C(M) ≈ C(M*) gilt:
• In D₁ bleibt M epistemisch optimal.
• In D₂ wird M*
optimal.
• Global bleiben beide Modelle im Ensemble erhalten.
Dies veranschaulicht den Grundsatz:
Kontextuelle Falsifikation reduziert AT(M, D₂), ohne dass damit AT(M, D₁) oder die globale epistemische Optimalität zerstört wird. Diese Struktur ist charakteristisch für viele simulationsbasierte Wissenschaften, nicht nur für die Klimaforschung.
Klimamodelle werden häufig nach dem Popper’schen Schema beurteilt:
„Eine fehlerhafte Vorhersage zeigt, dass das Modell falsch ist.“
Dies ist wissenschaftstheoretisch unzutreffend (Oreskes et al. 1994). Korrekt ist: Falsifikation wirkt domänenspezifisch und zeigt an, welche Subkomponenten weiterentwickelt werden müssen. Dies verdeutlicht, dass die Popper’sche Eliminationslogik für simulationsbasierte Modellarchitekturen unzureichend ist und durch eine domänenspezifische Nutzenstruktur ersetzt werden muss.
Die Fallstudie zu Klimamodellen dient als repräsentatives Beispiel einer modernen, daten- und simulationsintensiven Modellarchitektur. Die Struktur der Analyse ist jedoch allgemein: Die hier entwickelte Theorie lässt sich ohne zusätzliche Annahmen auf klassische physikalische Modelle, ökonomische Modelle, epidemiologische Modelle oder KI-Modellarchitekturen übertragen, da sie ausschließlich die formalen Bedingungen domänenspezifischer Approximate Truth, Modellkosten und Entscheidungslogik U(M, D) nutzt.
Approximate Truth erklärt, warum Modelle trotz Fehlern Fortschritt erzeugen. Der Begriff wurde in der Wissenschaftstheorie besonders durch Niiniluoto (1987, 1998) und Oddie (1986) geprägt, jedoch bisher selten systematisch mit Modellnutzung, Domänenstruktur und Modellkosten verknüpft.
Formal lässt sich Approximate Truth durch eine Ähnlichkeitsmetrik fassen:
AT(M, D) = Σᵢ wᵢ · sim(M, Sᵢ, D)
mit sim(M, Sᵢ, D) als Ähnlichkeit zwischen Modellvorhersagen und beobachteten Systemzuständen in Domäne D sowie wᵢ als Relevanzgewichten. In diesem formalen Rahmen ist Approximate Truth weder ein Wahrheitskriterium im Popper’schen Sinn noch eine bloße Fit-Metrik, sondern ein domänenspezifisches Maß struktureller Ähnlichkeit, das für die Modellwahl zentral ist.
Wichtig ist:
Approximate Truth ist immer domänenspezifisch.
Falsifikation reduziert AT(M, D₂), lässt aber AT(M, D₁) unverändert.
Globale Falsifikation kann nicht allein über Approximate
Truth definiert werden. Zwar tendiert AT(M, D) in vielen Fällen
globaler Eliminierung gegen Null, doch entscheidend ist
ausschließlich die Nutzenstruktur:
U(M, D) < U(M*, D) für
alle relevanten Domänen D.
Die Kopplung von Approximate Truth an die Nutzenfunktion U(M, D) zeigt, dass graduelle Wahrheitsnähe nicht isoliert wirkt, sondern im Wechselspiel mit explanatorischer Kraft und Modellkosten die epistemische Optimalität bestimmt. Approximate Truth wirkt innerhalb von Domänen und ergänzt die Theorie durch eine quantitative Dimension epistemischer Verbesserung.
Für die praktische Anwendung ist wichtig, dass sowohl die Ähnlichkeitsfunktion sim(M, Sᵢ, D) als auch die Gewichte wᵢ kontextabhängig und empirisch operationalisierbar sind. In vielen wissenschaftlichen Bereichen lässt sich sim(M, Sᵢ, D) direkt durch etablierte Fit- und Fehlermetriken ausdrücken, etwa durch Likelihood-Funktionen, Varianzmaße, Prognosefehler, Residuenanalysen oder Ähnlichkeitskennzahlen zwischen Modelltrajektorien und beobachteten Systemzuständen. In anderen Kontexten, insbesondere in theoretischen oder strukturell orientierten Wissenschaften, erfassen Ähnlichkeitsmetriken zusätzlich qualitative oder topologische Eigenschaften wie Symmetrieerhalt, Invarianzstrukturen oder die Reproduktion kausaler Abhängigkeitsmuster.
Die Gewichte wᵢ repräsentieren die relative Relevanz verschiedener Eigenschaften eines Zielsystems innerhalb einer Domäne. Sie können empirisch bestimmt werden, indem eine Disziplin bestimmte Variablen oder Systemmerkmale traditionell stärker bewertet, oder sie ergeben sich aus modelltheoretischen Überlegungen, die festlegen, welche Aspekte eines Systems für die Modellgüte zentral sind. Damit ist Approximate Truth nicht auf eine einzelne Metrik festgelegt, sondern bildet eine anpassungsfähige Struktur, die sowohl numerische Genauigkeit als auch strukturelle Passung eines Modells berücksichtigt.
Vor dem digitalen Zeitalter wurden viele wissenschaftliche Modelle analytisch formuliert, sodass Domänenstrukturen weniger sichtbar waren. Erst numerische Simulationen und großskalige Datenmodelle machten kontextuelle Falsifikation zu einem zentralen Bestandteil wissenschaftlicher Praxis.
Poppers Ansatz war primär als Wahrheitskriterium gedacht. Moderne Modelle sind jedoch:
• approximativ,
• domänenspezifisch,
• dynamisch
rekalibrierbar.
Ein binäres Wahrheitsverständnis ist hierfür ungeeignet, da Approximate Truth über Domänen hinweg unterschiedlich ausfallen kann. Dies zeigt, dass klassische logische Strukturen, wie sie Popper zugrunde legt, die operative Komplexität moderner Modellpraktiken nicht erfassen können, weil sie weder graduelle Approximation noch domänenspezifische Relevanzgewichte abbilden.
Wissenschaftliche Praxis ist eingebettet in:
• Rechenkapazitäten,
• Datennormen,
•
Peer-Review-Strukturen,
• Forschungsförderung,
•
technologische Infrastrukturen.
Diese Faktoren formen den epistemischen Ermöglichungsraum E(t) und bestimmen damit, welche Modelle formulierbar und stabilisierbar sind. Poppers Ansatz berücksichtigt diese Dimension nicht. In der hier eingeführten Theorie ist E(t) dagegen explizit als strukturierende Kraft institutioneller und technischer Rahmenbedingungen modelliert und bildet damit eine zentrale epistemische Variable.
Der epistemische Ermöglichungsraum E(t) verändert sich mit technischer, methodischer und institutioneller Entwicklung.
Ein Modell kann zu einem Zeitpunkt epistemisch optimal sein und zu einem späteren Zeitpunkt nicht mehr, ohne dass sich seine Wahrheit geändert hat. Damit wird deutlich, dass E(t) selbst als dynamische epistemische Variable wirkt, deren Veränderung Modelloptimalität endogen beeinflusst. Zugleich wirken erfolgreiche Modelle selbst auf den epistemischen Ermöglichungsraum E(t) zurück, indem sie neue Datenformate, Recheninfrastrukturen, institutionelle Standards und Forschungspraktiken etablieren. Damit besteht eine wechselseitige Dynamik zwischen Modellpraxis und E(t), die sowohl die Menge verfügbarer Modelle als auch die Struktur zukünftiger Modellalternativen mitprägt.
Wesentliche Einflussfaktoren sind:
Datenwachstum und verbesserte Messsysteme,
neue mathematische Methoden,
steigende Rechenleistung,
institutionelle Normierungsprozesse,
Entwicklung wissenschaftlicher Diskurse.
Diese Faktoren können als Veränderungsoperatoren ΔE(t) aufgefasst werden, die den epistemischen Ermöglichungsraum systematisch erweitern oder einschränken.
E(t) determiniert:
• die Menge der real verfügbaren Modelle,
• die Struktur
ihrer Domänen,
• ihre Kosten C(M),
• die verfügbaren
Alternativen M*.
Damit ist der epistemische Ermöglichungsraum der zentrale Rahmenparameter der Modellwahl. In wissenschaftshistorischer Perspektive erklärt der Begriff E(t), warum Modellwechsel oft durch technologische und institutionelle Neuerungen ausgelöst werden, die erst neue Modellalternativen formalisierbar machen.
Für eine präzisere Analyse lässt sich der epistemische Ermöglichungsraum E(t) in drei funktionale Teilkomponenten gliedern, die zusammen bestimmen, welche Modelle formulierbar und stabilisierbar sind.
Eₘ(t): methodisch-mathematische Bedingungen.
Dazu
gehören verfügbare mathematische Verfahren, statistische Methoden,
Modellierungsansätze und algorithmische Techniken. Sie bestimmen,
welche Modelltypen überhaupt formuliert werden können und welche
Approximationen zulässig sind.
Eₜ(t): technische und datenbezogene
Bedingungen.
Hierzu zählen Rechenleistung, Datenqualität,
Softwareinfrastrukturen, numerische Tools und
Simulationstechnologien. Diese Faktoren legen fest, welche Modelle
praktisch implementierbar sind und mit welcher Auflösung,
Stabilität oder Komplexität die Modellierung durchgeführt werden
kann.
Eᵢ(t): institutionelle und organisatorische
Bedingungen.
Diese Dimension umfasst wissenschaftliche Normen,
Peer-Review-Verfahren, Förderlogiken, Ausbildungsstrukturen und
etablierte Forschungspraktiken. Sie prägen, welche Modelle
langfristig stabilisiert werden, welche Standards sich durchsetzen
und welche Alternativen als wissenschaftlich akzeptabel gelten.
E(t)
ergibt sich aus dem Zusammenspiel dieser drei Dimensionen. Die
Verfügbarkeit und Stabilisierung eines Modells ist damit nicht
allein Ergebnis seiner Approximate Truth, explanatorischen Kraft
oder Kosten, sondern auch der methodischen, technischen und
institutionellen Rahmenbedingungen, die seine Formulierung,
Implementierung und Weiterentwicklung ermöglichen.
Die Wahl zwischen zwei Modellen M und M* lässt sich durch eine
zeit- und domänenspezifische Nutzenfunktion rekonstruieren:
U(M,
D, t) = α · AT(M, D, t) + β · EK(M, D, t) − γ · C(M, D, t).
Diese Nutzenstruktur ist kompatibel mit bestehenden Verfahren der Modellselektion. Informationskriterien wie AIC und BIC operationalisieren spezielle Formen von C(M) und EK(M, D), während Bayes-Faktoren und Bayesian Model Averaging probabilistische Varianten von Approximate Truth und explanatorischer Kraft darstellen. Der hier vorgeschlagene Rahmen erweitert diese Ansätze, indem er sie explizit im epistemischen Ermöglichungsraum E(t) verankert und institutionelle, technische sowie ökonomische Modellkosten systematisch einbezieht. Dadurch wird Modellwahl nicht nur statistisch, sondern epistemisch rekonstruiert und in reale wissenschaftliche Praxis eingebettet.
Eine globale Bewertung kann durch eine aggregierte Funktion U(M)
erfolgen, die die U(M, D) über relevante Domänen gewichtet.
mit:
•
AT(M, D): domänenspezifische Approximate Truth,
• EK(M, D):
explanatorische Kraft des Modells in Domäne D,
• C(M):
Modellkosten (Datenbedarf, Rechenaufwand, institutionelle
Infrastruktur),
• α, β, γ: situationsabhängige
Gewichtungsfaktoren, die im Ermöglichungsraum E(t) institutionell
und methodisch kodiert sind.
Diese Nutzenfunktion verbindet klassische Ansätze der Wissenschaftstheorie (z. B. explanatorische Kraft bei Hempel, Wahrheitsnähe bei Niiniluoto) mit modernen entscheidungstheoretischen Bewertungsstrukturen und macht epistemische Rationalität quantitativ rekonstruierbar.
Da viele Terme der Nutzenfunktion in realen Wissenschaften durch empirische Proxy-Metriken oder etablierte quantifizierende Verfahren angenähert werden können, lässt sich die vorgeschlagene Entscheidungslogik in vielen Fällen auf reale Modellportfolios anwenden und empirisch untersuchen. Die hier vorgeschlagene Nutzenfunktion ist als idealtypischer Rahmen zu verstehen. Sie macht explizit, wie etablierte Fit-Metriken, Informationskriterien, Komplexitätsmaße und institutionelle Rahmenbedingungen in einer gemeinsamen Bewertungsstruktur integriert werden können, ohne zu behaupten, dass alle Disziplinen bereits über eine vollständig ausgearbeitete, operationalisierte Implementierung von U(M, D, t) verfügen. Die Operationalisierung einzelner Komponenten – insbesondere explanatorische Kraft und institutionelle Modellkosten – ist kontextabhängig, aber im Rahmen moderner wissenschaftlicher Praxis häufig praktikabel.
Kontextuelle Falsifikation
reduziert AT(M, D₂), was U(M, D₂) senkt, ohne AT(M, D₁) oder
U(M, D₁) zu beeinträchtigen. Damit ist die Domäne D explizit als
variable epistemische Einheit modelliert, deren Spezifikation selbst
vom Ermöglichungsraum E(t) abhängt. Somit ist Falsifikation keine
globale Eliminationsoperation, sondern eine Bedingung der
Modellanpassung:
• Falsifikation in D₂ → U(M, D₂)
sinkt,
• U(M, D₁) bleibt hoch,
• M behält weiterhin
epistemischen Wert in D₁.
Globale Falsifikation liegt genau dann vor, wenn für alle
relevanten Domänen D gilt:
U(M, D) < U(M*, D).
Modelle
verschwinden nicht, weil sie „falsch“ sind, sondern weil ihre
relative epistemische Leistung in jeder Domäne unter die
Alternativen fällt.
Diese Nutzenstruktur erklärt zudem, warum Modellfamilien robust bleiben: Wenn U(M₁, D₂) sinkt, können andere Modelle M₂ oder M₃ derselben Familie höhere U-Werte aufweisen. Falsifikation wird so zu einem Mechanismus der internen Reallokation epistemischer Gewichte, nicht zu einer Eliminationslogik im Popper’schen Sinn.
Um diese Nutzenstruktur nicht nur theoretisch zu formulieren, sondern unmittelbar empirisch nutzbar zu machen, lässt sich U(M, D) durch ein standardisiertes Skalierungs- und Operationalisierungsschema präzisieren, das etablierte Gütemaße und Fehlermetriken der jeweiligen Disziplin direkt integriert.
Die lineare Form der Nutzenfunktion dient als pragmatische und anschlussfähige Approximation. Sie erfasst die wesentlichen Bewertungsdimensionen Approximate Truth, explanatorische Kraft und Modellkosten in einer Form, die mit gängigen empirischen Gütemaßen kompatibel ist. Die Struktur der Nutzenfunktion ist jedoch nicht auf eine lineare Kombination beschränkt. In bestimmten wissenschaftlichen Kontexten können auch nichtlineare oder interaktive Bewertungsformen sinnvoll sein, etwa wenn explanatorische Kraft nur bei einem Mindestmaß an Approximate Truth relevant ist oder wenn Modellkosten domänenspezifische Schwellenwerte aufweisen.
Ebenso können Modellkosten C(M) in realen Anwendungen sowohl globale als auch domänenspezifische Komponenten enthalten. Während grundlegende Implementierungs- oder Infrastrukturkosten global wirken, variieren rechnerische und datenbezogene Kosten häufig zwischen verschiedenen Domänen. In solchen Fällen kann die Nutzenfunktion durch eine differenzierte Form C(M, D) ergänzt werden, ohne dass sich die grundsätzliche Struktur des Bewertungsrahmens ändert.
Wesentlich ist, dass die Nutzenfunktion unabhängig von ihrer konkreten funktionalen Form die Bewertung epistemischer Optimalität rekonstruiert. Sie bildet ab, wie Approximate Truth, explanatorische Kraft und Modellkosten innerhalb des epistemischen Ermöglichungsraums E(t) gegeneinander abgewogen werden und unter welchen Bedingungen Modelle konkurrenzfähig bleiben oder durch Alternativen ersetzt werden.
Damit die vorgeschlagene Nutzenfunktion U(M, D) nicht nur theoretisch präzise, sondern unmittelbar empirisch anwendbar ist, lässt sie sich durch etablierte Bewertungsverfahren der jeweiligen Disziplin operationalisieren. Die Kalibrierung erfolgt relativ: Innerhalb einer Domäne D wird einem Modell mit maximal erreichter empirischer Güte der Wert 1 zugewiesen, während ein Modell mit minimal akzeptabler Güte den Wert 0 erhält. Alle weiteren Modelle werden mittels linearer oder funktionsbasierter Normierung zwischen diesen Fixpunkten eingeordnet.
Auf diese Weise entsteht eine kontinuierliche Skala, ohne dass ein physisches Messmedium benötigt wird. Die Unterschiede der Modelle spannen den Bewertungsraum selbst auf, den die Nutzenfunktion abbildet. Die Wissenschaft muss hierfür keine neuen Daten erheben; sie nutzt ausschließlich etablierte Fehlermetriken, Gütemaße, Likelihood-Strukturen und Komplexitätsindikatoren ihrer jeweiligen Forschungsbereiche.
Der epistemische Ermöglichungsraum E(t) wird damit durch vorhandene empirische Informationen operationalisiert. Modelle werden nicht im luftleeren Raum bewertet, sondern durch bereits existierende Datenstrukturen und methodische Standards einer Disziplin. Die Nutzenfunktion U(M, D) bildet eine standardisierte Projektion dieser Informationen auf eine vergleichbare Skala und erlaubt damit die systematische Bewertung und Auswahl epistemisch optimaler Modelle über verschiedene Domänen hinweg.
Die hier beschriebene Nutzenfunktion besitzt sowohl eine deskriptive als auch eine schwach normative Dimension. Deskriptiv rekonstruiert sie, wie Modellwahl in vielen daten- und simulationsintensiven Wissenschaften faktisch erfolgt, indem Approximate Truth, explanatorische Kraft und Modellkosten gegeneinander abgewogen werden. Zugleich entsteht daraus eine schwach normative Struktur, die explizit macht, unter welchen Bedingungen Modellentscheidungen als epistemisch rational gelten können. Die Theorie normiert wissenschaftliche Praxis nicht von außen, sondern macht die in ihr bereits wirkenden Bewertungsdimensionen transparent. Dadurch entsteht ein Rahmen, der reale Modellentscheidungen erklärt und zugleich zeigt, wie sie innerhalb des epistemischen Ermöglichungsraums E(t) methodisch gerechtfertigt werden können.
Die integrierte Theorie steht zwischen strukturellem Realismus und instrumentellem Modellpluralismus. In der aktuellen wissenschaftstheoretischen Debatte wird genau diese mittlere Position zunehmend relevant, da viele moderne Wissenschaften weder vollständig realistisch noch vollständig instrumentalistisch operieren können. Modelle sind teilweise wahr in dem Sinne, dass sie reale Strukturen approximieren (Approximate Truth als Grad der strukturellen Annäherung). Dieser Ansatz ist kompatibel mit dem strukturellen Realismus, da er die Wahrheit nicht im Gesamtmodell verortet, sondern in den stabilen relationalen Strukturen, die innerhalb spezifischer Domänen erhalten bleiben. Ihr Fortbestand hängt jedoch auch von praktischen Faktoren ab:
• Kosten,
• institutionelle Stabilität,
•
Verfügbarkeit konkurrierender Alternativmodelle,
• Wandel des
Ermöglichungsraums E(t).
Dieser Ansatz ergänzt den strukturellen Realismus, indem er explizit macht, dass Approximate Truth nicht die alleinige Determinante wissenschaftlicher Rationalität ist. Zugleich erweitert er instrumentellen Modellpluralismus, indem er formalisiert, wann Modelle trotz Teilfalsifikationen epistemisch optimal bleiben.
Der hier entwickelte Ansatz lässt sich präzise innerhalb der aktuellen Realismusdebatten verorten. Er steht dem strukturellen Realismus, etwa in der Tradition von Worrall (1989) und Psillos (1999), insofern nahe, als Approximate Truth als Annäherung an stabile relationale Strukturen gedeutet wird. Zugleich verfolgt der Ansatz eine breitere Perspektive als der konstruktive Empirismus van Fraassens (1980), da er zeigt, dass die operative Rationalität wissenschaftlicher Modellpraxis nicht allein von empirischer Adäquatheit abhängt, sondern auch von institutionellen, technischen und explanatorischen Bedingungen, die im epistemischen Ermöglichungsraum E(t) systematisch berücksichtigt werden.
In Abgrenzung zu da Costa und Frenchs Konzept partieller Wahrheiten (2003) integriert der vorliegende Rahmen Approximate Truth nicht nur als logische Struktur gradueller Wahrheit, sondern bettet sie in eine explizite Nutzenfunktion U(M, D) ein, die explanatorische Kraft und Modellkosten umfasst. Dadurch wird wissenschaftliche Rationalität als Entscheidungsproblem innerhalb eines dynamischen Ermöglichungsraums rekonstruierbar. Der Ansatz positioniert sich somit zwischen strukturellem Realismus und instrumentellem Modellpluralismus, verbindet jedoch deren Einsichten zu einem integrativen Rahmen, der direkt an die empirische Modellpraxis moderner Wissenschaften anschließt.
Gerade in datenbasierten und simulationsintensiven Wissenschaften – etwa Klimaforschung, Ökonomie, Epidemiologie oder KI-Modellierung – liefert dieser Rahmen eine präzise Möglichkeit, Modellstabilität und Modellwechsel systematisch zu analysieren.
Falsifikation ist kein binärer Eliminationsmechanismus, sondern ein domänenspezifisches Werkzeug zur Präzisierung wissenschaftlicher Modelle. Die hier entwickelte Theorie fasst zentrale Einsichten aus Popper, Kuhn, Lakatos, da Costa/French und der modernen Modelltheorie in einem explizit formalisierten, einheitlichen Rahmen zusammen. Durch die Unterscheidung zwischen globaler und kontextueller Falsifikation wird sichtbar, dass empirische Abweichungen überwiegend zu einer Einschränkung des Geltungsbereichs führen, nicht zu einer vollständigen Aufgabe des Modells.
Die Integration von Approximate Truth, explanatorischer Kraft und Modellkosten in eine domänenspezifische Nutzenfunktion zeigt, dass Modellstabilität das Ergebnis relativer epistemischer Optimalität ist und nicht allein aus Wahrheitsnähe folgt. Modelle verschwinden erst dann, wenn sie in keiner Domäne mehr epistemisch konkurrenzfähig sind und der epistemische Ermöglichungsraum E(t) keine stabilisierten Nutzungskontexte mehr bereitstellt.
Mit dem Begriff des epistemischen Ermöglichungsraums wird zudem erklärbar, warum technologische, institutionelle und methodische Veränderungen wissenschaftliche Modelllandschaften tiefgreifend beeinflussen. Modellwahl wird dadurch als dynamischer Prozess rekonstruierbar, in dem wissenschaftliche Rationalität nicht in einer singulären logischen Operation, sondern in einem strukturierten Zusammenspiel von Kontext, Approximation und institutioneller Stabilisierung besteht.
Die vorgeschlagene Theorie liefert damit einen kohärenten Rahmen zur Analyse moderner Modellpraktiken, insbesondere in datenintensiven und simulationsbasierten Wissenschaften. Sie präzisiert, wie Modelle trotz Teilfalsifikationen epistemisch stabil bleiben, und formuliert klar, unter welchen Bedingungen globale Eliminierung rational begründet ist. Zukünftige Forschung könnte die Nutzenfunktion empirisch testen, den epistemischen Ermöglichungsraum E(t) weiter formalisieren und die Theorie auf weitere wissenschaftliche Modellarchitekturen anwenden.
Cartwright, Nancy. 1983. How the Laws of Physics Lie.
Oxford: Oxford University Press.
Cartwright, Nancy. 1999. The
Dappled World: A Study of the Boundaries of Science. Cambridge:
Cambridge University Press.
Da Costa, Newton C. A., und Steven
French. 2003. Science and Partial Truth: A Unitary Approach to
Models and Scientific Reasoning. Oxford: Oxford University
Press.
Einstein, Albert. 1905. „Zur Elektrodynamik bewegter
Körper.“ Annalen der Physik 17: 891–921.
Hacking,
Ian. 1983. Representing and Intervening. Cambridge:
Cambridge University Press.
Hempel, Carl G. 1965. Aspects of
Scientific Explanation and Other Essays in the Philosophy of Science.
New York: Free Press.
IPCC. 2021. Climate Change 2021: The
Physical Science Basis. Cambridge: Cambridge University
Press.
Kepler, Johannes. 1609. Astronomia Nova.
Heidelberg: Jonas Sabber.
Kepler, Johannes. 1619. Harmonices
Mundi. Linz: Johann Planck.
Kuhn, Thomas S. 1962. The
Structure of Scientific Revolutions. Chicago: University of
Chicago Press.
Lakatos, Imre. 1970. „Falsification and the
Methodology of Scientific Research Programmes.“ In Criticism
and the Growth of Knowledge, herausgegeben von Imre Lakatos und
Alan Musgrave, 91–196. Cambridge: Cambridge University
Press.
Maxwell, James Clerk. 1865. „A Dynamical Theory of the
Electromagnetic Field.“ Philosophical Transactions of the Royal
Society of London 155: 459–512.
Morgan, Mary S., und
Margaret Morrison. 1999. Models as Mediators: Perspectives on
Natural and Social Science. Cambridge: Cambridge University
Press.
Niiniluoto, Ilkka. 1987. Truthlikeness.
Dordrecht: Reidel.
Niiniluoto, Ilkka. 1998. „Approximation in
Science.“ Poznan Studies in the Philosophy of the Sciences and
the Humanities 63: 97–109.
Oddie, Graham. 1986. Likeness
to Truth. Dordrecht: Reidel.
Oreskes, Naomi, Kristin
Shrader-Frechette, und Kenneth Belitz. 1994. „Verification,
Validation, and Confirmation of Numerical Models in the Earth
Sciences.“ Science 263 (5147): 641–646.
Popper,
Karl R. [1934] 1959. Logik der Forschung. Wien:
Springer.
Popper, Karl R. 1959. The Logic of Scientific
Discovery. London: Hutchinson.
Psillos, Stathis. 1999.
Scientific Realism: How Science Tracks Truth. London:
Routledge.
Putnam, Hilary. 1978. Meaning and the Moral
Sciences. London: Routledge.
van Fraassen, Bas C. 1980. The
Scientific Image. Oxford: Clarendon Press.
Weisberg,
Michael. 2013. Simulation and Similarity: Using Models to
Understand the World. Oxford: Oxford University Press.
Worrall,
John. 1989. „Structural Realism: The Best of Both Worlds?“
Dialectica 43 (1–2): 99–124.