Information

1.2.2: Die wissenschaftliche Methode - Biologie

1.2.2: Die wissenschaftliche Methode - Biologie


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Die wissenschaftliche Methode ist ein Rechercheprozess mit definierten Schritten, die Datenerhebung und sorgfältige Beobachtung beinhalten.

Überwachung

Wissenschaftlicher Fortschritt beginnt mit Beobachtungen. Dies beinhaltet das Erkennen eines Musters, entweder direkt oder indirekt aus der Literatur. Ein Beispiel für eine direkte Beobachtung ist, dass Sie feststellen, dass sich in Ihrem Garten viele Kröten befinden, seit Sie die Sprinkler eingeschaltet haben, während eine indirekte Beobachtung eine wissenschaftliche Studie über eine hohe Krötendichte in städtischen Gebieten mit bewässertem Rasen wäre.

Während des Vietnamkrieges (Abbildung (PageIndex{a})) dokumentierten Presseberichte aus Nordvietnam eine steigende Rate an Geburtsfehlern. Während diese Glaubwürdigkeit dieser Informationen ursprünglich von den USA in Frage gestellt wurde, rief sie Fragen darüber auf, was diese Geburtsfehler verursachen könnte. Darüber hinaus trat später bei Vietnam-Veteranen, die in die USA zurückgekehrt waren, eine erhöhte Inzidenz bestimmter Krebsarten und anderer Krankheiten auf. Dies führt uns zum nächsten Schritt der wissenschaftlichen Methode, der Frage.

Abbildung (PageIndex{a}): Eine Karte von Vietnam 1954-1975. Bild vom Bureau of Public Affairs der Druckerei der US-Regierung (gemeinfrei).

Frage

Die Frage Schritt der wissenschaftlichen Methode ist einfach die Frage, was das beobachtete Muster erklärt? Mehrere Fragen können aus einer einzigen Beobachtung resultieren. Wissenschaftler und die Öffentlichkeit begannen zu fragen, was die Geburtsfehler in Vietnam und Krankheiten bei Vietnam-Veteranen verursacht. Könnte es mit dem weit verbreiteten militärischen Einsatz des Herbizids Agent Orange zur Rodung der Wälder in Verbindung gebracht werden (Abbildung (PageIndex{b-c})), der dabei half, Feinde leichter zu identifizieren?

Abbildung (PageIndex{b}): Agent Orange trommelt in Vietnam. Bild der US-Regierung (gemeinfrei).

Abbildung (PageIndex{c}): Ein gesunder Mangrovenwald (oben) und ein weiterer Wald nach dem Auftragen von Agent Orange. Bild von unbekanntem Autor (gemeinfrei).

Hypothese und Vorhersage

Die Hypothese ist die erwartete Antwort auf die Frage. Die besten Hypothesen geben die vorgeschlagene Richtung des Effekts an (Zunahmen, Abnahmen usw.) und erklären, warum die Hypothese wahr sein könnte.

  • OK-Hypothese: Agent Orange beeinflusst die Rate von Geburtsfehlern und Krankheiten.

  • Bessere Hypothese: Agent Orange erhöht sich die Häufigkeit von Geburtsfehlern und Krankheiten.

  • Beste Hypothese: Agent Orange erhöht sich die Häufigkeit von Geburtsfehlern und Krankheiten da Diese Gesundheitsprobleme wurden häufig von Personen berichtet, die diesem Herbizid ausgesetzt waren.

Wenn zwei oder mehr Hypothesen diesen Standard erfüllen, wird die einfachere bevorzugt.

Vorhersagen stammen aus der Hypothese. Die Vorhersage erklärt, welche Ergebnisse die Hypothese stützen würden. Die Vorhersage ist spezifischer als die Hypothese, da sie sich auf die Details des Experiments bezieht. Zum Beispiel: "Wenn Agent Orange gesundheitliche Probleme verursacht, dann haben Mäuse, die während der Entwicklung experimentell TCDD, einer Kontamination von Agent Orange, ausgesetzt wurden, häufiger Geburtsfehler als Kontrollmäuse" (Abbildung (PageIndex{d})).

Abbildung (PageIndex{d}): Die chemische Struktur von TCDD (2,3,7,8-Tetrachlordibenzo-p-dioxin), das bei der Synthese der Chemikalien in Agent Orange entsteht. Es kontaminiert Agent Orange in geringen, aber schädlichen Konzentrationen. Bild von Emeldir (gemeinfrei).

Hypothesen und Vorhersagen müssen überprüfbar sein, um sicherzustellen, dass sie gültig sind. Zum Beispiel ist eine Hypothese, die davon abhängt, was ein Bär denkt, nicht überprüfbar, weil man nie wissen kann, was ein Bär denkt. Es sollte auch sein falsifizierbar, was bedeutet, dass sie die Fähigkeit haben, getestet und als unwahr nachgewiesen zu werden. Ein Beispiel für eine nicht falsifizierbare Hypothese ist „Botticellis Geburt der Venus ist schön." Es gibt kein Experiment, das zeigen könnte, dass diese Aussage falsch ist. Um eine Hypothese zu testen, führt ein Forscher ein oder mehrere Experimente durch, die darauf ausgelegt sind, eine oder mehrere der Hypothesen zu eliminieren. Das ist wichtig. Eine Hypothese kann widerlegt oder eliminiert werden, aber sie kann nie bewiesen werden. Die Wissenschaft beschäftigt sich nicht mit Beweisen wie die Mathematik. Wenn ein Experiment eine Hypothese nicht widerlegt, finden wir Unterstützung für diese Erklärung, aber das heißt nicht, dass in der Zukunft keine bessere Erklärung oder ein sorgfältiger konzipiertes Experiment gefunden wird, um die Hypothese zu falsifizieren.

Hypothesen sind vorläufige Erklärungen und unterscheiden sich von wissenschaftlichen Theorien. EIN wissenschaftliche Theorie ist eine weithin akzeptierte, gründlich getestete und bestätigte Erklärung für eine Reihe von Beobachtungen oder Phänomenen. Wissenschaftliche Theorie ist die Grundlage wissenschaftlichen Wissens. Darüber hinaus gibt es in vielen naturwissenschaftlichen Disziplinen (weniger in der Biologie) wissenschaftliche Gesetze, oft in mathematischen Formeln ausgedrückt, die beschreiben, wie sich Naturelemente unter bestimmten spezifischen Bedingungen verhalten, aber sie bieten keine Erklärung für ihre Entstehung.

Entwerfen Sie ein Experiment

Als nächstes ist eine wissenschaftliche Studie (Experiment) geplant, um die Hypothese zu testen und festzustellen, ob die Ergebnisse mit den Vorhersagen übereinstimmen. Jedes Experiment hat eine oder mehrere Variablen. Die unabhängig Variable ist, was Wissenschaftler vermuten, dass etwas anderes verursacht werden könnte. In einem manipulativen Experiment (siehe unten) wird die unabhängige Variable vom Wissenschaftler manipuliert. Die Dabhängige Variable ist die Antwort, die letztendlich in der Studie gemessene Variable. Kontrollierte Variablen (Störfaktoren) können die abhängige Variable beeinflussen, stehen aber nicht im Fokus der Studie. Wissenschaftler versuchen, die kontrollierten Variablen zu standardisieren, damit sie die Ergebnisse nicht beeinflussen. In unserem vorherigen Beispiel ist die Exposition gegenüber Agent Orange die unabhängige Variable. Es wird angenommen, dass sie eine Veränderung der Gesundheit (Wahrscheinlichkeit, Kinder mit Geburtsfehlern oder einer Krankheit zu entwickeln) verursacht, die abhängige Variable. Viele andere Dinge können die Gesundheit beeinträchtigen, einschließlich Ernährung, Bewegung und Familienanamnese. Dies sind die kontrollierten Variablen.

Es gibt zwei Haupttypen von wissenschaftlichen Studien: experimentelle Studien (manipulative Experimente) und Beobachtungsstudien.

In einem manipulatives Experiment, wird die unabhängige Variable von den Wissenschaftlern verändert, die dann die Reaktion beobachten. Mit anderen Worten, die Wissenschaftler wenden a Behandlung. Ein Beispiel wäre, sich entwickelnde Mäuse TCDD auszusetzen und die Rate an Geburtsfehlern mit einer Kontrollgruppe zu vergleichen. Die Kontrollgruppe ist eine Gruppe von Versuchspersonen, die allen anderen Versuchspersonen möglichst ähnlich ist, mit der Ausnahme, dass sie die experimentelle Behandlung nicht erhalten (diejenigen, die sie erhalten, werden als Versuchs-, Behandlungs- oder Testgruppe). Der Zweck der Kontrollgruppe besteht darin, festzustellen, wie die abhängige Variable unter normalen Bedingungen ohne die experimentelle Behandlung aussehen würde. Sie dient als Basis, mit der die Testgruppe verglichen werden kann. In diesem Beispiel würde die Kontrollgruppe Mäuse enthalten, die nicht TCDD ausgesetzt waren, aber ansonsten genauso behandelt wurden wie die anderen Mäuse (Abbildung (PageIndex{e}))

Abbildung (PageIndex{e}): Labormäuse. In einer richtigen wissenschaftlichen Studie würde die Behandlung auf mehrere Mäuse angewendet. Eine andere Gruppe von Mäusen würde die Behandlung nicht erhalten (die Kontrollgruppe). Bild von Aaron Logan (CC-BY).

In einem (n Beobachtungsstudie, untersuchen Wissenschaftler mehrere Proben mit und ohne vermutete Ursache. Ein Beispiel wäre die Überwachung des Gesundheitszustands von Veteranen, die unterschiedlich stark Agent Orange ausgesetzt waren.

Wissenschaftliche Studien enthalten viele repliziert. Mehrere Proben stellen sicher, dass jedes beobachtete Muster auf die Behandlung und nicht auf natürlich auftretende Unterschiede zwischen Individuen zurückzuführen ist. Eine wissenschaftliche Studie sollte auch sein wiederholbar, was bedeutet, dass bei einer erneuten Durchführung nach dem gleichen Verfahren die gleichen allgemeinen Ergebnisse reproduziert werden sollten. Darüber hinaus werden mehrere Studien letztendlich dieselbe Hypothese testen.

Ergebnisse

Abschließend werden die Daten erhoben und die Ergebnisse werden analysiert. Wie im Kapitel Math Blast beschrieben, können Statistiken verwendet werden, um die Daten zu beschreiben und Daten zusammenzufassen. Sie liefern auch ein Kriterium für die Entscheidung, ob das Muster in den Daten stark genug ist, um die Hypothese zu stützen.

Das manipulative Experiment in unserem Beispiel ergab, dass Mäuse, die während der Entwicklung hohen Konzentrationen von 2,4,5-T (einem Bestandteil von Agent Orange) oder TCDD (einem in Agent Orange enthaltenen Kontaminanten) ausgesetzt waren, häufiger einen Geburtsfehler der Gaumenspalte aufwiesen als die Kontrollgruppe Mäuse (Abbildung (PageIndex{f})). Mäuseembryonen starben auch eher, wenn sie TCDD im Vergleich zu Kontrollen ausgesetzt waren.

Abbildung (PageIndex{f}): Lippen-Kiefer-Gaumenspalte, ein Geburtsfehler, bei dem diese Strukturen gespalten sind. Bild von James Heilman, MD (CC-BY-SA).

Eine Beobachtungsstudie ergab, dass die selbst berichtete Exposition gegenüber Agent Orange positiv mit dem Auftreten mehrerer Krankheiten bei koreanischen Veteranen des Vietnamkriegs korreliert, darunter verschiedene Krebsarten, Erkrankungen des Herz-Kreislauf- und Nervensystems, Hautkrankheiten und psychische Störungen. Beachten Sie, dass a positive Korrelation bedeutet einfach, dass sowohl die unabhängigen als auch die abhängigen Variablen gemeinsam zu- oder abnehmen, aber es sind weitere Daten erforderlich, wie z Ursache und Wirkung Beziehung. (EIN negative Korrelation tritt auf, wenn eine Variable zunimmt, während die andere abnimmt.)

Abschluss

Schließlich machen Wissenschaftler eine Fazit ob die Daten die Hypothese stützen. Im Fall von Agent Orange stimmen die Daten, dass Mäuse, die TCDD und 2,4,5-T ausgesetzt waren, häufiger Gaumenspalten aufwiesen, mit der Vorhersage überein. Darüber hinaus wiesen Veteranen, die Agent Orange ausgesetzt waren, höhere Raten bestimmter Krankheiten auf, was die Hypothese weiter stützt. Wir können daher die Hypothese akzeptieren, dass Agent Orange die Häufigkeit von Geburtsfehlern und Krankheiten erhöht.

In der Praxis ist die wissenschaftliche Methode nicht so starr und strukturiert, wie es zunächst erscheinen mag. Manchmal führt ein Experiment zu Schlussfolgerungen, die eine Änderung des Ansatzes begünstigen; Oft bringt ein Experiment ganz neue wissenschaftliche Fragen ins Puzzle. Wissenschaft funktioniert oft nicht linear; stattdessen ziehen Wissenschaftler ständig Schlussfolgerungen und machen Verallgemeinerungen, finden Muster im Verlauf ihrer Forschung (Abbildung (PageIndex{g})). Selbst wenn die Hypothese bestätigt wurde, können Wissenschaftler sie dennoch auf verschiedene Weise testen. Wissenschaftler untersuchen beispielsweise die Auswirkungen von Agent Orange und untersuchen die langfristigen gesundheitlichen Auswirkungen mit zunehmendem Alter von Vietnam-Veteranen.

Abbildung (PageIndex{g}): Die wissenschaftliche Methode ist eine Reihe definierter Schritte, die Experimente und sorgfältige Beobachtung beinhalten. Wenn eine Hypothese nicht durch Daten gestützt wird, kann eine neue Hypothese vorgeschlagen werden.

Wissenschaftliche Erkenntnisse können die Entscheidungsfindung beeinflussen. Als Reaktion auf Beweise bezüglich der Wirkung von Agent Orange auf die menschliche Gesundheit steht nun eine Entschädigung für Vietnam-Veteranen zur Verfügung, die Agent Orange ausgesetzt waren und bestimmte Krankheiten entwickeln. Die Verwendung von Agent Orange ist auch in den USA verboten. Schließlich haben die USA damit begonnen, Standorte in Vietnam zu reinigen, die immer noch mit TCDD verseucht sind.

Sehen Sie sich dieses optionale Video von der New York Times um mehr über die Geschichte von Agent Orange zu erfahren und wie sich seine Verwendung noch heute auf die Menschen auswirkt. (Hinweis: Eines der Zitate im Video verwendet eine profane Sprache, daher möchten Sie das Video möglicherweise nicht mit Kindern abspielen.)

Auf der Arbeit anderer aufbauen

Nur selten kommt eine wissenschaftliche Entdeckung auf den Plan. Wenn dies der Fall ist, wird dies wahrscheinlich eine Revolution in der Art und Weise bewirken, wie Wissenschaftler die Welt um sich herum wahrnehmen, und neue Bereiche der wissenschaftlichen Forschung erschließen. Darwins Evolutionstheorie und Mendels Vererbungsregeln sind Beispiele für solche revolutionären Entwicklungen. Die meisten Wissenschaften bestehen jedoch darin, einem Gebäude, das durch vorherige Arbeiten langsam und sorgfältig gebaut wurde, einen weiteren Ziegelstein hinzuzufügen.

Die Entwicklung eines neuen Technik legt oft den Grundstein für schnelle Fortschritte auf vielen verschiedenen wissenschaftlichen Wegen. Denken Sie nur an die Fortschritte in der Biologie, die die Entdeckung des Lichtmikroskops und später des Elektronenmikroskops ermöglicht haben. Auf diesen Seiten finden Sie viele Beispiele für experimentelle Verfahren. Jeder wurde entwickelt, um ein bestimmtes Problem zu lösen. Jede wurde dann jedoch von Arbeitern in anderen Labors aufgegriffen und auf ihre Probleme angewendet.

In ähnlicher Weise kann die Schaffung einer neuen Erklärung (Hypothese) in einem wissenschaftlichen Bereich regt Arbeitnehmer in verwandten Bereichen häufig dazu an, ihr eigenes Gebiet im Lichte der neuen Ideen zu überdenken. Darwins Evolutionstheorie zum Beispiel hat einen enormen Einfluss auf praktisch jedes Teilgebiet der Biologie sowie der Umweltwissenschaften. Bis heute werden Wissenschaftler in so unterschiedlichen Fachgebieten wie Biochemie und Naturschutzbiologie in ihrer Arbeit von der Evolutionstheorie geleitet (Abbildung (PageIndex{g})).

Abbildung (PageIndex{h}): Das Verständnis des gefährdeten Berg-Gelbbeinfrosches durch die Linse der Evolution und der Genetik hat zu seiner Erhaltung beigetragen. Bild von Iasaac Chellman/NPS (CC-BY).

Verweise

Ausschuss des Institute of Medicine (US) zur Überprüfung der gesundheitlichen Auswirkungen von Herbiziden bei Veteranen in Vietnam. Veteranen und Agent Orange: Gesundheitliche Auswirkungen von Herbiziden, die in Vietnam verwendet werden. Washington (DC): National Academies Press (USA); 1994. 2, Geschichte der Kontroverse über die Verwendung von Herbiziden.

Neubert, D., Dillmann, I. Embryotoxische Wirkungen bei Mäusen, die mit 2,4,5-Trichlorphenoxyessigsäure und 2,3,7,8-Tetrachlordibenzo-p-dioxin behandelt wurden. Naunyn-Schmiedebergs Bogen. Pharmacol. 272, 243–264 (1972).

Stellman, J. M. & Stellman, S. D. (2018). Agent Orange während des Vietnamkriegs: Das anhaltende Problem seiner Auswirkungen auf die zivile und militärische Gesundheit. Amerikanische Zeitschrift für öffentliche Gesundheit, 108(6), 726–728.

Yi, S.W., Ohrr, H., Hong, J.S. & Yi, J.J. (2013). Exposition gegenüber Agent Orange und Prävalenz von selbstgemeldeten Krankheiten bei koreanischen Vietnam-Veteranen. Zeitschrift für Präventivmedizin und öffentliche Gesundheit = Yebang Uihakhoe chi, 46(5), 213–225.


Kapitel 1: Die wissenschaftliche Methode

Abbildung 1. Deduktives und induktives Denken in der wissenschaftlichen Methode. Die Natur zu verstehen beginnt mit Beobachtungen. Links) Während wir Beobachtungen der Welt sammeln, können wir beginnen, allgemeine Vorhersagen (oder Wahrnehmungen) über Phänomene zu machen. Dieser Prozess wird als induktives Denken bezeichnet und macht allgemeine Vorhersagen aus bestimmten Phänomenen. Aus diesen verallgemeinerten Realitätswahrnehmungen lassen sich mit Hilfe von Logik spezifische Vorhersagen ableiten und Hypothesen generieren. Mitte) Experimentieren ermöglicht es Forschern, die Vorhersagen der Hypothesen zu testen. Wenn eine Hypothese falsifiziert wird, ist dies eine weitere Beobachtung, die zu unserer allgemeinen Wahrnehmung der Realität beiträgt. Rechts) Da immer mehr ähnliche, aber unterschiedliche Experimente eine spezifische Vorhersage verstärken, wächst die Unterstützung für die Entwicklung einer wissenschaftlichen Theorie, ein weiteres Beispiel für induktives Denken. Eine Theorie wiederum kann bei der Entwicklung zusätzlicher, ungeprüfter Hypothesen mit deduktiven Argumenten helfen.

Die wissenschaftliche Methode wurde im 17. Empirismus ist ein Kernprinzip der wissenschaftlichen Methode, die besagt, dass wahres Wissen am besten durch sensorische Erfahrung erreicht wird. Diese Untersuchungsmethode ermöglicht es, messbare Ergebnisse aus Experimenten mit vorhergesagten Ergebnissen zu analysieren, die durch Beobachtungen der natürlichen Welt generiert werden. Während die Details der wissenschaftlichen Methode zwischen den Disziplinen variieren, besteht das Grundgerüst aus Beobachtungen, die zur Entwicklung von Hypothesen führen, Experimenten, Messungen zum Testen von Hypothesen und einer Analyse der Ergebnisse, um die Hypothesen zu unterstützen, abzulehnen oder zu modifizieren.

Figur 2. Die wissenschaftliche Methode. Beobachtungen der Natur führen zu Fragen. Wissenschaftliche Fragen generieren Hypothesen, von denen viele durch kontrollierte Experimente überprüft werden können. Durch Experimentieren und Analysieren können Hypothesen falsifiziert werden, die Informationen (oder Schlussfolgerungen) liefern. Der Prozess des wissenschaftlichen Experimentierens führt zu mehr Beobachtungen und Fragen.

Deduktives und induktives Denken

Wissenschaft ist ein Wechselspiel zwischen deduktivem und induktivem Denken (Abb. 1). Das Experimentieren basiert hauptsächlich auf deduktive Argumentation, das mit einem allgemeinen Verständnis eines Phänomens beginnt und bekannte Möglichkeiten (oder Hypothesen) untersucht, indem logische Regeln verwendet werden, um falsche Wahrheiten zu eliminieren (oder abzuleiten), um zu einer bestimmten Schlussfolgerung zu gelangen. Ein biologisches Beispiel wäre: "Alle Menschen sind Tiere. Alle Tiere sind Eukaryoten. Alle Eukaryoten haben Zellen, die einen Kern enthalten. Daher haben alle menschlichen Zellen einen Kern." Induktives Denken ist ein logisches Prinzip, das dem deduktiven Denken direkt entgegengesetzt ist. Spezifische Phänomene lassen auf allgemeine Vorhersagen schließen. In unserem vorherigen Beispiel: "Alle menschlichen Zellen haben einen Kern. Alle Eukaryoten haben Zellen, die einen Kern enthalten. Alle Tiere sind Eukaryoten. Daher sind alle Menschen Tiere." Während die Wissenschaft hauptsächlich auf deduktivem Denken basiert, hat induktives Denken seinen Platz. Naturbeobachtungen sind spezifischer Natur. Während sich Beobachtungen eines bestimmten Phänomens anhäufen, beginnt ein Forscher mit einem allgemeinen Verständnis dieses Phänomens (induktive Inferenz) hervorzugehen, was wiederum zur Entwicklung spezifischer Hypothesen führt. Sobald Hypothesen aufgestellt sind, führt das Experimentieren zu Ergebnissen, um falsche Hypothesen abzulehnen und nicht falsifizierte Hypothesen zu unterstützen. Da eine Sammlung von nicht falsifizierten Hypothesen die Forscher der „Wahrheit“ immer näher bringt, kann induktives Denken verwendet werden, um eine wissenschaftliche Theorie zu entwickeln, die unter einer Vielzahl von Umständen genaue Vorhersagen macht.

Entwicklung einer wissenschaftlichen Frage

Naturbeobachtungen ermöglichen es dem Menschen, eine Vielzahl von Fragen zu generieren (induktives Denken), von denen einige wissenschaftlich beantwortet werden können. Eine wissenschaftliche Frage ist: einfach, messbar, überprüfbar, beantwortbar und spezifisch im Umfang. Vielleicht ist eine der großen Kräfte der Wissenschaft die Einfachheit der gestellten Fragen. Das Testen einfacher Fragen liefert inkrementelles Wissen, das aufeinander aufbaut und schließlich ein umfassenderes, genaueres Verständnis von Naturphänomenen ermöglicht. Normalerweise haben wissenschaftliche Fragen Ja/Nein-Antworten, entweder es gibt einen Effekt oder es gibt keinen. Die besten wissenschaftlichen Experimente haben in der Regel einen recht spezifischen Umfang: x Ursache ja?" Ein kontrolliertes Experiment ist der Goldstandard der wissenschaftlichen Methode, bei dem eine einzelne Variable verändert und die Wirkung gemessen wird.Da die Auswirkungen einzelner Variablen verstanden werden, versuchen Wissenschaftler, komplexere Wechselwirkungen zu verstehen. Eine zunehmende Komplexität erhöht jedoch die Unsicherheit und verringert typischerweise die Vorhersagekraft. Wenn die Wechselwirkungen eines komplexen wissenschaftlichen Phänomens durch die Analyse vieler verwandter, aber einfacherer Fragen besser verstanden werden, kann eine wissenschaftliche Theorie entstehen.

Hypothese: mehr als eine fundierte Vermutung

EIN Hypothese ist eine überprüfbare Erklärung für ein beobachtbares Phänomen. Hypothesen werden auf der Grundlage früherer Naturbeobachtungen generiert, die nicht durch bestehende Hypothesen oder Theorien erklärt werden können und überprüfbar und falsifizierbar sein müssen. Der Zweck des Testens von Hypothesen durch Experimente besteht nicht darin, eine Hypothese zu beweisen, sondern ungenaue Hypothesen zu widerlegen.

Durch Experimente und Datenanalysen können Wissenschaftler feststellen, ob die Hypothese eine potenziell gültige Erklärung für ein Naturphänomen ist oder nicht. Auf diese Weise enthüllt die Wissenschaft die Realität der Natur, indem sie falsifizierte Hypothesen entfernt. Mit anderen Worten, die Wissenschaft enthüllt die „Natur“, indem sie das entfernt, was „Nicht-Natur“ ist. Hypothesentests müssen sein beobachtbar und wiederholbar. Auf diese Weise kann unabhängige Forschung die Hypothesen überprüfen und erneut testen. Hypothesen können in einem Experiment unterstützt, aber in separaten Experimenten verworfen werden. In diesem Fall müssen möglicherweise weitere experimentelle Wiederholungen durchgeführt werden, um die Gültigkeit der Hypothese zu analysieren.

Figur 3. Null und Alternative Hypothesen. Jedes Experiment testet gleichzeitig mehrere Hypothesen. In einem Experiment, das die Effekte zwischen zwei Phänomenen analysiert, lautet die Nullhypothese, dass es keinen Unterschied zwischen diesen Phänomenen gibt. Eine alternative Hypothese besagt, dass es einen Unterschied zwischen den Phänomenen gibt. Verschiedene alternative Hypothesen umfassen (1) x ist ungleich zu ja, (2) x ist größer als ja, und (3) x ist weniger als ja.

Jedes Experiment testet mehrere Hypothesen gleichzeitig (Abb. 3). EIN Nullhypothese (H0) besagt, dass es keine Beziehung zwischen zwei Phänomenen gibt. Ein Beispiel für eine Nullhypothese ist: "H0: Es wird keine Beziehung zwischen chemischen Reaktionsgeschwindigkeiten geben." Wenn das Nullmodell abgelehnt wird, lässt dies auf eine mögliche Beziehung zwischen diesen Phänomenen schließen. In diesem Fall eine oder mehrere alternative Hypothesen (HA) kann vorgeschlagen werden, um die Beziehung zwischen gemessenen Phänomenen zu erklären. Zwei alternative Hypothesen für die vorgeschlagene Nullhypothese sind: "HA1: Wenn die Temperatur steigt, nehmen die chemischen Reaktionsgeschwindigkeiten ab." und "HA2: Wenn die Temperatur ansteigt, nehmen die Geschwindigkeiten der chemischen Reaktion zu." In diesem Beispiel folgern die alternativen Hypothesen, dass die Temperatur eine Änderung der chemischen Reaktionsgeschwindigkeiten verursacht. Dies mag zwar stimmen, ein Wissenschaftler muss jedoch darauf achten, Korrelation von Kausalität zu trennen.

Korrelation ist keine Kausalität, oder doch?

Reine Kausalität weist darauf hin, dass x Ursachen y. In unserem Beispiel wäre eine Schlussfolgerung aus reiner Kausalität:Höhere Temperaturen führen zu einer Erhöhung der chemischen Reaktionsgeschwindigkeiten." Diese Aussage trifft typischerweise in der Chemie zu. Das Erhitzen einer Lösung ermöglicht eine schnellere chemische Reaktion. In vielen wissenschaftlichen Studien wird typischerweise auf eine reine Kausalität geschlossen, jedoch sollte ein Wissenschaftler immer die vielen verschiedenen Mechanismen berücksichtigen, mit denen zwei Variablen korreliert sind.

Figur 4. Mögliche Beziehungen zwischen korrelierten Phänomenen. Direkte Ursache: x Ursachen ja. Umgekehrte Ursache: ja Ursachen x. Häufige Ursache: z betrifft beides x und y. Zyklische Ursache: x beeinflusst ja, und ja beeinflusst x. Indirekte Ursache: x beeinflusst y, aber indirekt über eine andere Variable, z. Zufall: x und ja verwandt, aber es sind keine kausalen Zusammenhänge bekannt.

Das Gegenteil von reiner Kausalität, bekannt als umgekehrte Verursachung, ist eine Korrelation vorhanden, weil ja Ursachen x. Ein Rückschluss auf die umgekehrte Kausalität in unserem Beispiel wäre: "Höhere chemische Reaktionsgeschwindigkeiten erhöhen die Temperatur." Wenn Sie Handwärmer verwendet haben, diese kleinen Plastiktüten, die Sie aufbrechen und Wärme erzeugen, haben Sie die Wirkung chemischer Reaktionen erlebt, die Wärme erzeugen.

Eine dritte Möglichkeit ist gemeinsame Ursache, wo x und ja werden beide durch eine dritte Variable beeinflusst. Ein klassisches Beispiel ist, dass der Verkauf von Eiscreme und Todesfälle durch Ertrinken positiv korreliert sind. Wir wissen, dass der Verkauf von Eiscreme nicht zum Ertrinken führt. Vielmehr gibt es eine dritte Variable (Temperatur), die mit beiden Variablen positiv verbunden ist: Eiscreme und Ertrinken.

Zyklische Ursache tritt auf, wenn es eine Rückkopplung zwischen den betrachteten Variablen gibt. Ein klassisches biologisches Beispiel ist die Abhängigkeit von Räubern und Beutetieren. Wenn Räuber zunehmen, nimmt die Beute ab. Wenn die Beute zunimmt, nehmen die Räuber zu. Wenn die Beute abnimmt, nimmt die Beute ab. Diese Beziehungen zu dekonstruieren ist oft sehr schwierig.

Indirekte Ursache passiert, wenn x hängt zusammen mit y, aber die Wirkung auf ja wird direkt von einer anderen Variablen beeinflusst, z, die wiederum betroffen ist von x. Indirekte Kausalität findet sich sehr häufig in der Gemeinschaftsökologie. Angenommen, ein Forscher ist besorgt über ein Raubtier auf der Liste der gefährdeten Arten. Die alleinige Betrachtung der Beutezahlen ist ein zu einfacher Ansatz, um die Raubtierpopulation angemessen zu modellieren. Betrachten wir noch einmal die Räuber/Beute-Beziehung und betrachten Sie eine dritte Variable: Pflanzenbiomasse. Der Beutereichtum korreliert mit dem Pflanzenreichtum. Daher ist die Häufigkeit von Raubtieren (j) kann durch Berechnung der Pflanzenbiomasse vorhergesagt werden (x), die sich direkt auf die Beutehäufigkeit auswirkt (z). Mit anderen Worten, die Pflanzenbiomasse beeinflusst direkt die Beutehäufigkeit, was sich direkt auf die Räuberhäufigkeit auswirkt. Die Häufigkeit von Raubtieren korreliert indirekt mit der Pflanzenbiomasse.

Abbildung 5. Korrelation zwischen Autismusraten und dem Verkauf von Bio-Lebensmitteln. Diese Variablen sind stark korreliert, aber der Verkauf von Bio-Lebensmitteln ist eindeutig nicht für die Erhöhung der Autismusrate verantwortlich.

Gelegentlich korrelieren zwei Variablen einfach durch Zufall. Bei jedem statistischen Zufallsvergleich korrelieren die Variablen in 5 % der Fälle miteinander, wenn das Konfidenzintervall 95 % beträgt. Dies ist ein Hauptgrund dafür, dass die Wiederholung von Experimenten so wichtig ist. Während es nicht ungewöhnlich ist, Korrelationen zwischen Zufallsvariablen zu finden, werden zusätzliche Untersuchungen in der Lage sein, die Gültigkeit der tatsächlichen Korrelation zu überprüfen. Wenn viele Experimente eine Korrelation zwischen ahnungslosen Variablen zeigen, ergeben sich Beweise dafür, dass eine echte Korrelation besteht. Beispielsweise korrelieren steigende Autismusraten in den USA positiv mit den Verkäufen von Bio-Lebensmitteln. Natürlich gibt es keine Ursache von Bio-Lebensmitteln für Autismus. Wahrscheinlicher ist, dass sich die Erkennung von Autismus gleichzeitig mit dem zunehmenden Wunsch der Menschen nach Bio-Lebensmitteln verfeinert hat. Es ist rein zufällig.

Der Beweis der Kausalität hat sich als viel schwieriger erwiesen als die Messung der Korrelation. Über das Thema Kausalität wurde viel geschrieben, von den Philosophen des antiken Griechenlands bis hin zu zeitgenössischen Physikern, die den Schmetterlingseffekt untersuchen, ein nichtlineares Rückkopplungssystem, bei dem kleinste Änderungen der Eingaben zu drastischen Änderungen der Ausgabe führen können. Viele Philosophen, Statistiker und sogar Wissenschaftler meinen, dass es unmöglich ist, unter Beweis stellen Kausalität jeglicher Wirkung. Wir können nur schließen Korrelation. Dies ist zwar richtig, aber ein gut konzipiertes Experiment versucht, diese Unsicherheit zu minimieren.

Ein gut durchdachtes Experiment

Der Zweck der Experiment besteht darin, einen Einblick in die Kausalität durch Manipulation einer experimentellen Variablen (oder Variablen) zu geben, um konkurrierende Hypothesen zu validieren oder abzulehnen. Während Umfang und Umfang der Experimente innerhalb der Wissenschaft stark variieren, weisen gut konzipierte wissenschaftliche Experimente bestimmte Merkmale auf:

  1. Ein Experiment muss wiederholbar sein. Ein nicht wiederholbares Experiment kann nicht verifiziert werden und ist daher lediglich eine Beobachtung. Eine reproduzierbare experimentelle Entdeckung liefert eine hohe Präzision zwischen erwarteten und beobachteten Ergebnissen, was wiederum den Konsens über den Effekt unterstützt.
  2. Ein Experiment enthält viele Wiederholungen. Eine einzelne Beobachtung eines Phänomens ist kein Experiment, sondern eine Beobachtung. Hypothesentests werden mithilfe von Statistiken durchgeführt, die Replikate erfordern. Eine Wiederholung ist die Wiederholung einer experimentellen Bedingung an verschiedenen Probanden (oder allgemeiner Einheiten), um die Variabilität innerhalb der untersuchten Gruppen zu messen und zu berücksichtigen. Darüber hinaus geht die Statistik davon aus, dass Replikate für die untersuchte Population repräsentativ sind und vorzugsweise zufällig ausgewählt werden.
  3. Ein Experiment erzwingt eine Behandlung und bewertet die Wirkung. Eine Behandlung (auch als experimentelle Variable) ist die Variable, die Wissenschaftler innerhalb eines Experiments ändern. Wenn beispielsweise eine Studie die Auswirkung des Zuckerkonsums auf die Prüfungsergebnisse vergleicht, wäre die experimentelle Variable der Zucker. Es ist die Komponente des Experiments, die sich zwischen den Gruppen unterscheidet. Replikate werden einer Kontrollgruppe und einer oder mehreren experimentellen Gruppen zugeordnet und die Wirkung der Behandlung wird bewertet. Die Kontrollgruppe ist eine zufällige Teilmenge der zu untersuchenden Probanden (oder Einheiten), die entweder keine Behandlung erhalten oder die Standardbehandlung erhalten. In unserem obigen Beispiel ist es für eine Gruppe von Schülern möglicherweise nicht ratsam, keinen Zucker zu erhalten. In diesem Fall würden sie die erforderliche Mindestdosis erhalten. Ein Versuchsgruppe (oder BehandlungGruppe) erhält die experimentelle Behandlung. Typischerweise kann es mehrere Versuchsgruppen geben, von denen jede unterschiedliche Mengen der Behandlung erhält, um die Wirkung der Behandlung auf verschiedenen Ebenen zu beurteilen. Kontrollgruppen liefern eine Basislinie, um die Veränderung in den experimentellen Gruppen basierend auf der Wirkung der Behandlung zu vergleichen.
  4. Idealerweise werden alle Variablen in einem Experiment mit Ausnahme der Behandlung konstant gehalten. Dies ist zwar nicht immer möglich, aber der Goldstandard des experimentellen Designs. Wird unter solchen Umständen eine Wirkung der Behandlung festgestellt, wird der direkten Verursachung der Behandlung viel mehr Gewicht beigemessen.

Arten von Experimenten

Im Idealfall führen Wissenschaftler eine kontrolliertes Experiment, in der zwei (oder mehr) Gruppen (oder Stichproben) erstellt werden und die bis auf die Änderung einer einzelnen Variablen genau die gleiche Behandlung erhalten, die experimentelle Variable. Normalerweise hat eine der Gruppen, die als Kontrollgruppe bekannt ist, nicht die experimentelle Variable (oder erhält a Placebo – ein Stoff, von dem bekannt ist, dass er keine Wirkung hat). Eine Gruppe, die die experimentelle Variable erhält, wird als bezeichnet Versuchsgruppe. Wenn ein Wissenschaftler den Wirkungsbereich der experimentellen Variablen bei unterschiedlichen Konzentrationen bestimmen möchte, werden mehrere Versuchsgruppen gebildet. Indem alle Parameter in der Kontroll- und Versuchsgruppe(n) eingeschränkt werden, aber nur ein einzelner Parameter (der experimentelle Variable), kann jede gemessene Variation zwischen den Gruppen als eine Funktion der experimentellen Variablen gefolgert werden.

Arzneimittelstudien sind klassische Beispiele für ein kontrolliertes Experiment. Die Gruppe von Themen die das Medikament erhalten, befinden sich in einer experimentellen Gruppe. Typischerweise werden unterschiedliche Dosierungen des Arzneimittels an verschiedene Versuchsgruppen verabreicht. Probanden, die das Medikament nicht erhielten, stellen die Kontrollgruppe dar. Typischerweise erhalten die Probanden innerhalb der Kontrollgruppe ein Placebo, eine simulierte oder wirkungslose Behandlung. Arzneimittelstudien werden in der Regel als blind Experimente, bei denen die Replikate nicht wissen, ob sie die eigentliche Behandlung (Medikament) oder ein Placebo erhalten. Auch bei einer Doppelblindstudie tappen die Experimentatoren im Dunkeln, um die Voreingenommenheit der Forscher zu minimieren. Interessanterweise erreichen viele Probanden innerhalb der Kontrollgruppe in einer Doppelblindstudie mit Arzneimittelstudien eine messbare Reaktion (entweder positiv oder negativ) auf das Placebo, bekannt als das Placebo-Effekt. Um den Placebo-Effekt zu messen, wird eine zusätzliche Kontrollgruppe (bekannt als a negative Kontrolle) beurteilt werden können, in denen sie keinerlei Behandlung erhalten. EIN Positive Kontrolle ist ein bekannter Effekt aus der experimentellen Behandlung, der verwendet wird, um die Gültigkeit der erfassten Messungen zu bestätigen. Eine Negativkontrolle sollte die Nullhypothese unterstützen, da sie keinen Effekt zwischen den gemessenen Phänomenen anzeigt. Häufig können Negativkontrollen auch verwendet werden, um ein Basislinienergebnis zu ermitteln oder einen Hintergrundwert von den Testprobenergebnissen zu subtrahieren.

Abbildung 6. Abhängige vs. unabhängige Variablen. Dies ist ein nützliches Werkzeug, um die abhängigen und unabhängigen Variablen in einem Experiment zu bestimmen. Nachdem Sie die Variablen in einem Experiment identifiziert haben, fügen Sie sie ein in: ___ hängt von ___ ab. Das erste Wort ist die abhängige Variable und das letzte die unabhängige Variable. Abhängige Variablen sind die manipulierten Variablen (oder Eingaben) innerhalb eines kontrollierten Experiments, während die unabhängige Variable die erwartete Wirkung (oder Ausgabe) ist.

In einem kontrollierten Experiment ist die Variable, in der die Eingaben gezielt manipuliert werden, die unabhängige Variable, wohingegen die Variable, von der erwartet wird, dass sie sich aufgrund des Vorhandenseins oder der Häufigkeit der experimentellen Behandlung ändert (Ausgabe), die abhängige Variable. Variablen, die für die Kontroll- und Versuchsgruppen konstant gehalten werden, werden als Kontrollvariable bezeichnet. Beispielsweise wäre in einer Studie, die den Einfluss von Kaninchen in Anwesenheit oder Abwesenheit von Wölfen misst, die unabhängige Variable die Anwesenheit oder Abwesenheit von Wölfen. In diesem Beispiel ist der gemessene Effekt (oder die abhängige Variable) die Häufigkeit der Kaninchenpopulation. Vielen Schülern fällt es schwer, zwischen unabhängigen und abhängigen Variablen zu unterscheiden. Am einfachsten vervollständigen Sie die Aussage (Abb. 6): " ___ hängt von ___ ab." In unserem Beispiel: "Die Häufigkeit von Kaninchen hängt von der Anwesenheit oder Abwesenheit von Wölfen ab." Wenn Sie den Satz vervollständigen und es sinnvoll ist, ist erstere eine abhängige Variable, während letztere die unabhängige Variable ist. Eine andere Möglichkeit ist, darüber nachzudenken, welche Variable Sie kontrollieren (unabhängige Variable) und von welcher Sie eine Reaktion von der Eingabe erwarten (abhängige Variable).

Kontrollierte Experimente sind manchmal unerschwinglich bis unmöglich. Stellen Sie sich einen Forscher vor, der die Auswirkungen von Regenfällen auf die Vogelvielfalt auf tropischen Inseln analysiert. Niederschlag kann nicht in einem so großen Maßstab kontrolliert werden, wie es in einem kontrollierten Experiment erforderlich ist, was den Forscher dazu veranlasst, ein Naturexperiment. Natürliche Experimente gelten als Quasi-Experimente, da die Manipulation von Variablen außerhalb der Kontrolle des Forschers liegt. In einem natürlichen Experiment verlassen sich die Forscher auf Beobachtungen von Replikaten, die einer Vielzahl von Versuchs- und Kontrollbedingungen ausgesetzt waren, und folgern einen Effekt. Das experimentelle Design natürlicher Experimente zielt darauf ab, Replikate auszuwählen, die einander möglichst ähnlich sind, sich jedoch vorzugsweise in einem Faktor unterscheiden. In unserem Beispiel würde ein Forscher tropische Inseln mit ungefähr der gleichen Größe, Struktur und Zusammensetzung wie möglich auswählen, von denen jedoch bekannt ist, dass sie in der Niederschlagsmenge variieren. Durch sorgfältige Auswahl der Replikate können die Auswirkungen der unabhängigen Variablen (d. h. Niederschlag) auf die abhängige Variable (d. h. Vogelvielfalt) analysiert werden. Offensichtlich ist es unmöglich, Inseln auszuwählen, die in jeder Hinsicht genau gleich sind. Es wird immer Unterschiede in der Inselgröße, der Entfernung zu anderen Inseln, der Pflanzenvielfalt, der Topographie und vielen anderen Faktoren geben. Häufig werden bekannte Variabilitäten auch in ein komplexeres statistisches Modell einbezogen, um zu bestimmen, wie all diese Faktoren zusammenwirken. Mit zunehmender Komplexität dieser Modelle nimmt ihre Vorhersagekraft jedoch exponentiell ab. Die Bestimmung der Kausalität aus der Korrelation aus natürlichen Experimenten ist bestenfalls eine Herausforderung.

Abbildung 7. Korrelation zwischen durchschnittlicher globaler Temperatur und atmosphärischem Kohlendioxid. Die Analyse der globalen Erwärmung ist ein natürliches Experiment. Während Kohlendioxid und globale Temperaturen stark korreliert sind und seit Mitte des 19. Jahrhunderts ansteigen, sind zusätzliche kontrollierte Experimente nützlich, um einen ursächlichen Fall zu untermauern.

Die vielleicht größte wissenschaftliche Kontroverse der Neuzeit ist der Klimawandel. Die Erde erwärmt sich, eine unbestreitbare Tatsache. Die Ursache der globalen Erwärmung ist seit Jahrzehnten eine Quelle umstrittener Debatten unter Wissenschaftlern und Politikern. Die Wurzel dieser Kontroverse liegt in der Tatsache, dass die Analyse der kausalen Faktoren der Erwärmung auf globaler Ebene als natürliches Experiment oder mathematisches Modell durchgeführt wird, da wir nicht mehrere erdähnliche Planeten zu kontrollieren haben. Vor diesem Hintergrund widerspricht derzeit keine nationale oder internationale wissenschaftliche Organisation der Hypothese, dass die globale Erwärmung vom Menschen verursacht wird. Darüber hinaus sind sich fast alle Wissenschaftler einig, dass Treibhausgase die Schuldigen sind. Seit der Geburt der industriellen Revolution geben Menschen immer mehr Treibhausgase in die Atmosphäre ab. Die globale Durchschnittstemperatur korreliert stark mit dem atmosphärischen Kohlendioxid (Abb. 7). Für bare Münze ist dies einfach eine Beobachtung, die keine Kausalität impliziert. Kontrollierte Experimente in kleinerem Maßstab können Forschern dabei helfen, die Ursache zu bestimmen. Beispielsweise könnte ein experimentelles Design mit Gruppen von replizierten „Atmosphären“ in versiegelten Behältern mit unterschiedlichen Kohlendioxidmengen der gleichen Menge an Lichtenergie ausgesetzt werden. Jegliche Temperaturunterschiede zwischen den Replikaten könnten auf die Menge an Kohlendioxid zurückgeführt werden. Auf diese Weise dienen Naturexperimente als Beobachtungsstudien, in denen durch induktives Denken größere Hypothesen generiert werden können. Kontrollierte Experimente in kleinerem Maßstab testen diese Annahmen mit deduktiven Argumenten und kontrollierten Experimenten und Hypothesentests. Wenn die Beobachtungen dieser unterschiedlichen Ansätze gerecht sind, dann gibt es eine stärkere Unterstützung für einen kausalen Effekt.

Abbildung 8. Deskriptive Statistik beschreibt die zentrale Tendenz und Variabilität von Daten. Der Mittelwert (μ) ist das Maß für den beobachteten durchschnittlichen numerischen Wert einer Datenpopulation, während die Standardabweichung (σ) ein Maß für die Variabilität einer Datenpopulation ist. Bei normalverteilten Daten macht die erste Abweichung 68 % der Beobachtungen aus, während die zweite und dritte Abweichung 95 % und die 99,7 % der Beobachtungen ausmachen.

Datenanalyse

Deskriptive Statistiken definieren Beobachtungen

Beschreibende Statistik fassen zwei Aspekte bezüglich der Verteilung von Daten zusammen: zentrale Tendenz und Variabilität (Abb. 8). Die zentrale Tendenz ist ein Maß für den zentralen (oder häufigsten) Wert der Verteilung. Die bedeuten der beobachteten Daten, bekannt als Stichprobenmittelwert (x̅), stellt den mathematischen Durchschnitt der Daten dar und wird als Summe der Beobachtungen (Σx) geteilt durch die Anzahl der Beobachtungen, bekannt als , berechnet Stichprobengröße (n): x̅ = Σx / n. Wo der Mittelwert die berechnete Mitte der Daten ist, Median stellt den beobachteten Wert der Mitte dar. Im Datensatz [1, 2, 3, 6, 7, 7, 9] ist der Median beispielsweise 6, die mittlere Zahl in den geordneten Beobachtungen. Bei einer geraden Anzahl von Beobachtungen werden die mittleren beiden Beobachtungen gemittelt. Gelegentlich interessiert sich ein Forscher für den häufigsten Wert, oder Modus, eher die Mitte schätzen. Im vorherigen Datensatz ist der Modus 7. Eine Analyse der Verteilung der Daten ist notwendig, um das geeignete Maß der zentralen Tendenz zu bestimmen. Ein Mittelwert wird normalerweise verwendet, wenn eine große Stichprobengröße und wenige Ausreißer (extreme Beobachtungen) vorliegen. Die Hypothesenprüfung von Mittelwerten geht typischerweise von a Normalverteilung von Daten, allgemein bekannt als glockenförmige Kurve, bei der die meisten Beobachtungen um den zentralen Wert herum gemacht werden und weiter vom Zentrum entfernt immer seltener werden. Wenn die Daten nicht normalverteilt sind, wird der Median als bessere Darstellung des typischen Wertes angesehen. Einkommensanalysen untersuchen beispielsweise typischerweise den Median, da das Einkommen aufgrund des Vorhandenseins extrem hoher und niedriger Einkommenswerte in der Regel verzerrt ist.

Abbildung 9. Visualisierung der Berechnung der Standardabweichung (σ). Die Standardabweichung (σ) ist ein kumulatives Maß für die Abweichungen der beobachteten Werte (xi) und des Stichprobenmittelwerts (x̅). Um die Standardabweichung zu berechnen, ziehen Sie die Quadratwurzel (√) der Summe (∑) der quadrierten Abweichungen des Stichprobenmittels ( x̅ ) vom beobachteten Wert (xich), geteilt durch den Stichprobenumfang minus eins (n-1).

Variabilität ist eine gemessene Abweichung der Daten von der zentralen Tendenz und wird ebenfalls auf verschiedene Weise berechnet. Das gebräuchlichste Maß für die Variabilität ist Standardabweichung (σ). Eine niedrige Standardabweichung weist auf eine geringe Abweichung der Daten vom Mittelwert hin, während eine hohe Standardabweichung anzeigt, dass die Daten über einen großen Wertebereich verteilt sind. Die Standardabweichung wird häufig als Maß für . verwendet statistische Sicherheit. Eine niedrige Standardabweichung zeigt ein hohes Vertrauen an, dass die gemessene Stichprobe die Grundgesamtheit als Ganzes repräsentiert. Wenn Sie beispielsweise die Körpergröße mehrerer zufälliger Personen messen würden, würde dies die Größenvariabilität für die gesamte menschliche Rasse darstellen? Die Standardabweichung ist umgekehrt proportional zur Stichprobengröße. Mehr Höhenmessungen liefern eine kleinere Standardabweichung. Wissenschaftliche Experimente haben idealerweise viele Wiederholungen, um die Auswirkung auf die Standardabweichung basierend auf kleinen Stichprobengrößen zu minimieren. Wenn die Standardabweichung akzeptabel niedrig ist, bedeutet dies, dass der Stichprobenmittelwert sehr nahe am Grundgesamtheitsmittelwert liegt.

Deskriptive Statistiken sind nützlich, um typische Beobachtungen zu identifizieren und extreme Beobachtungen zu erkennen. Zum Beispiel beträgt die mittlere (μ) Körpergröße erwachsener Männer 178 cm mit einer Standardabweichung (σ) von 8 cm. Die Interpretation des Mittelwerts zusammen mit der Standardabweichung deutet darauf hin, dass die meisten erwachsenen Männer (68%) 178 ± 8 cm groß sind, zwischen 170 und 186 cm. Zwei Standardabweichungen (2σ) machen 95 % der Variation aus, auch bekannt als 95 %-Konfidenzintervall. 95 % der erwachsenen Männer sind also zwischen 178 ± 16 cm groß, oder das 95 %-Konfidenzintervall für die menschliche männliche Erwachsenengröße liegt zwischen 162 cm und 194 cm. Drei Standardabweichungen (3σ) machen 99,7% der Variation in den Daten aus. Fast alle erwachsenen Männer (99,7%, um genau zu sein) werden zwischen 146 cm und 202 cm vorhergesagt.

Inferenzstatistik Testhypothesen

Während die deskriptive Statistik die Natur der Stichprobenbeobachtungen beschreibt, Inferenzstatistik Vorhersagen der größeren Population ableiten, auf der die Stichprobe basiert. Experimente produzieren Daten, die wiederum verwendet werden, um Hypothesentests durchzuführen, um die Wahrscheinlichkeit konkurrierender Hypothesen zu bestimmen. Hypothesentest ist eine statistische Schlussfolgerung, die die Beziehungen zwischen der Kontrollgruppe und den experimentellen Gruppen misst. Die Vorhersagen jeder Hypothese werden mit den beobachteten Phänomenen verglichen und typischerweise mit statistischen Analysen untersucht. Wenn die beobachteten Phänomene die Vorhersagen der Hypothese verletzen, heißt die Hypothese hat abgelehnt. Wenn Beobachtungen die Vorhersagen der Hypothese nicht verletzen, heißt die Hypothese unterstützt. In diesem Fall ziehen einige Wissenschaftler die Terminologie „nicht abzulehnen“ vor, anstatt eine Hypothese zu unterstützen. Der Grund dafür ist, dass eine Hypothese, auch wenn sie in einem Experiment bestätigt wird, in weiteren Untersuchungen widerlegt werden kann. Die Hauptfunktion des Experimentierens ist die Verfälschung von Hypothesen (oder Hypothesen widerlegen), Hypothesen nicht beweisen. Auf diese Weise enthüllen Wissenschaftler nicht die Natur, sondern enthüllen die Natur, indem sie „nicht die Natur“ enthüllen. Wenn kein Unterschied zwischen den Gruppen gefunden wird, wird das Nullmodell unterstützt, was anzeigt, dass keine Beziehung zwischen den Gruppen und daher keine Wirkung der experimentellen Behandlung besteht. Wenn beim Hypothesentesten ein Unterschied zwischen den Datensätzen festgestellt wird, lässt dies darauf schließen, dass die experimentelle Behandlung eine gewisse Wirkung auf die abhängige Variable hatte, was eine der alternativen Hypothesen unterstützt. Zusätzliche Analysen werden durchgeführt, um den Effekt zu quantifizieren, der verwendet werden kann, um Vorhersagen für zukünftige Experimente zu treffen.

Um die konkurrierenden Hypothesen zu testen, muss ein Forscher einen statistischen Test identifizieren, der für das experimentelle Design geeignet ist. Es gibt viele statistische Tests, die sich in ihren Annahmen über die zu vergleichenden Daten unterscheiden. Sind die Daten kontinuierlich (d. h. Zeit) oder kategorisch (d. h. männlich vs. weiblich)? Vergleichen Sie die Beziehungen zwischen abhängigen (d. h. Kaninchenhäufigkeit) und unabhängigen Variablen (d. h. Anwesenheit oder Abwesenheit von Wölfen) oder vergleichen Sie verschiedene Gruppen (d. h. die Anzahl der olympischen Medaillen verschiedener Länder). Sind die Daten normalverteilt? Gibt es gleiche Varianzen zwischen den Gruppen?

Abbildung 10. Entscheidungsbaum für Hypothesentests mit Student's t-Test. Der p-Wert eines t-Tests bestimmt, ob es einen signifikanten Unterschied der Stichprobenmittelwerte zwischen der Kontroll- und der Versuchsgruppe gibt. Wenn p ≥ 0,05, gibt es keinen statistischen Unterschied, was die Nullhypothese unterstützt, die anzeigt, dass die Behandlung keine Auswirkung auf die abhängige Variable hat. Wenn p < 0,05 ist, wird die Nullhypothese verworfen, was eine gewisse Wirkung der Behandlung auf die abhängige Variable anzeigt. Wenn der Stichprobenmittelwert (x̅) für die Kontrollgruppe größer ist als der Stichprobenmittelwert für die experimentelle Gruppe, wird die Alternativhypothese unterstützt, die darauf hindeutet, dass die Behandlung die abhängige Variable verringert. Ist alternativ der Mittelwert der Versuchsgruppe höher, wird daraus geschlossen, dass die Behandlung die abhängige Variable erhöht.

Sobald ein geeigneter statistischer Test ausgewählt wurde, helfen deskriptive Statistiken den Forschern, einen relevanten Teststatistik (z. B. Mittelwert, Median oder ein Maß für die Varianz zwischen den Gruppen). Die beobachteten Werte werden verwendet, um die Teststatistik zu berechnen, die dann mit den erwarteten Werten der Teststatistik unter der Nullhypothese verglichen wird, indem die . berechnet wird p-Wert. Anhand des p-Wertes lässt sich feststellen, ob sich die Teststatistiken (z.B. Mittelwerte) der beiden Stichproben „signifikant“ unterscheiden oder nicht. Wenn Sie einen Statistikkurs belegen, erfahren Sie, wie diese Statistik erstellt wird. Für unsere Zwecke reicht es aus, diese Statistik interpretieren zu können, ohne sie zu berechnen. Der p-Wert ist die Wahrscheinlichkeit (von null bis eins), die darauf hinweist, ob die beobachteten Teststatistiken (z. B. Mittelwerte) zweier Stichproben wahrscheinlich unterschiedlich und nicht nur ein Zufallsprodukt sind. Wenn der p-Wert in den meisten biologischen Studien weniger als 0,05 beträgt, können wir feststellen, dass tatsächlich ein „statistischer“ Unterschied zwischen den beiden Populationen besteht. Dies ist ein etwas künstlicher Schnitt, der jedoch in diesem Studienbereich weithin akzeptiert wird. Je kleiner der p-Wert ist, desto stärker ist der Beweis gegen die Nullhypothese und desto höher ist die Wahrscheinlichkeit, dass sich die Teststatistik tatsächlich unterscheidet, und desto mehr Unterstützung für eine der alternativen Hypothesen.

Sehen wir uns ein Beispiel an, indem wir die Nullhypothese testen:

H0: Bei Mäusen, die Wasser erhalten, und Mäusen, die Kaffee erhalten, gibt es keinen Unterschied zwischen den Zeiten, in denen das Labyrinth abgeschlossen ist.

In diesem Experiment wurden Mäuse ausgewählt und in zwei Gruppen eingeteilt: eine Gruppe erhielt Wasser und die andere erhielt Kaffee. Mäusen durften ein unbekanntes Labyrinth mit einem Leckerbissen am Ende vervollständigen, wobei die Beobachtungen die Abschlusszeiten gemessen wurden. Um diese Hypothese zu testen, würden wir einen ungepaarten t-Test durchführen, der die Mittelwerte zweier Datensätze vergleicht, die nicht direkt miteinander verbunden sind. Maus A, die Wasser empfängt, hat keine Wirkung auf Maus B, die Kaffee empfängt. Die Durchführung eines ungepaarten t-Tests ermöglicht es dem Forscher, die Variation (Standardabweichung) zusammen mit dem Mittelwert zu vergleichen, um die Nullhypothese zu unterstützen oder abzulehnen, indem er vorhersagt, ob sich die beobachteten Mittelwerte signifikant voneinander unterscheiden oder nicht. Obwohl der Prozess der Berechnung des p-Werts den Rahmen dieser Übung sprengt, können wir ihn dennoch interpretieren.

Wenn ein anderes Experiment durchgeführt würde, um die Labyrinth-Memory-Raten der beiden Gruppen zu untersuchen, würde der Forscher den Unterschied zwischen den Labyrinth-Zeiten vom ersten und zweiten Durchlauf des Labyrinths derselben Maus (ΔZeit) mit der Beobachtung vergleichen, die beim ersten Mal subtrahiert wurde ab dem zweiten Mal (ΔZeit). Für diesen Test würde der Forscher einen gepaarten t-Test durchführen, der die Mittelwerte zweier bekannter Beobachtungen vergleicht. In unserem Beispiel wird erwartet, dass die Abschlusszeiten des ersten und zweiten Labyrinths korreliert sind, da dieselbe Maus funktioniert. Wenn in beiden Gruppen ein Unterschied zwischen der -Zeit gefunden wurde, könnte ein zweiter statistischer Test verwendet werden, um einen Unterschied in der Δ-Zeit zwischen Mäusen, die Wasser erhielten, und Mäusen, die Kaffee erhielten, zu erkennen.

Wenn die Ergebnisse des Experiments eine Hypothese stützen, erhöht sich das Vertrauen in die Gültigkeit der Hypothesen, aber sie „beweisen“ nicht, dass die Hypothese tatsächlich wahr ist. Zukünftige Experimente können gegenteilige Ergebnisse zeigen. Wenn beispielsweise eine Hypothese während eines Experiments abgelehnt wird, kann sie in einem nachfolgenden Experiment bestätigt werden (oder umgekehrt). Wenn das Experiment viele Male mit demselben Ergebnis wiederholt wird, kann die Hypothese von der größeren wissenschaftlichen Gemeinschaft validiert werden. Wissenschaftliche Hypothesen werden jedoch nie als „bewiesen“ bezeichnet, da neue Daten oder alternative Hypothesen auftauchen können, um zuvor unterstützte Hypothesen zu widerlegen.

Abbildung 11. Pasteurs Experiment zum Testen von Spontangeneration und Biogenese. Pasteur erfand die Schwanenhalsflasche, um eine Umgebung zu schaffen, von der bekannt ist, dass sie keine Mikroorganismen anbaut. Nachdem er eine Nährbrühe in diesen Flaschen sterilisiert hatte, entfernte er die Schwanenhälse der Proben in der Kontrollgruppe. Mikroorganismen wuchsen in der Kontrollgruppe, aber nicht in der experimentellen Gruppe, was die Biogenese unterstützte und die spontane Bildung ablehnte.

Pasteurs Experiment zum Testen der Spontangeneration

Louis Pasteur ist vor allem für seine Forschungen mit Mikroorganismen und die Erfindung des Prozesses bekannt, der seinen Namen trägt, der Pasteurisierung, bei der Flüssigkeiten wie Milch oder Bier, die auf eine Temperatur zwischen 60 ° C und 100 ° C erhitzt wurden, viele der Mikroorganismen abtöteten, die diese Flüssigkeiten verderben. Einmal pasteurisiert und versiegelt, verderben die Flüssigkeiten nicht mehr. Diese Entdeckung veranlasste Pasteur, einer seiner Tage verbreiteten Theorie nicht zuzustimmen. spontane Generation

Die spontane Generation sagt voraus, dass lebende Organismen aus unbelebter Materie hervorgehen. Flöhe entstehen aus Staub oder Maden aus Fleisch, alles spontan ohne Einmischung von lebenden Organismen. Die Theorie klingt für uns heute lächerlich, aber zu Pasteurs Zeit wurde sie weithin als Tatsache angesehen, mit einer langen Geschichte (über zwei Jahrtausende), die bis auf Aristoteles und darüber hinaus zurückreicht. Alte Ideen sind schwer zu ändern.

In seiner Entwicklung des Pasteurisierungsprozesses begann Pasteur, die spontane Erzeugung anstelle einer alternativen Hypothese zu bezweifeln, Biogenese, die Hypothese, dass alles Leben aus vorexistierendem Leben stammt.

Um diese konkurrierenden Hypothesen zu testen (Abb. 11), entwickelte er die Schwanenhalsflasche, von der bekannt ist, dass sie das Wachstum von Mikroorganismen in einer sterilisierten Brühe verhindert. Er stellte die Hypothese auf, dass die Biegung im Hals verhindert, dass Partikel in der Luft mit der Nährbrühe in Kontakt kommen. Das Neigen des Schwanenhalskolbens, so dass die Brühe in das Röhrchen eintrat und den Luftpartikeln ausgesetzt war, führte zu einer trüben Brühe. Er stellte eine Nährbrühe her und füllte die Brühe in zwei Schwanenhalsflaschen. Er kochte die Flaschen mit der Brühe, um alle Mikroorganismen abzutöten. Entfernen des Schwanenhalses von einem der Kolben, um die Brühe der Luft auszusetzen.

Der Schwanenhalskolben blieb steril, während der offene Kolben trübe wurde, was die Anwesenheit von Mikroorganismen anzeigte. Er kam zu dem Schluss, dass sich Mikroorganismen in einer nährstoffreichen Brühe nicht spontan bilden können, da der Kolben, der nicht der Luft ausgesetzt ist, steril bleibt. Vielmehr war Brühe, die der Luft ausgesetzt war, mit unsichtbaren (und nicht gut verstandenen) Mikroorganismen besiedelt, die sich in der Brühe vermehrten, was die Hypothese der Biogenese über die spontane Erzeugung stützt.


Beispiel einer wissenschaftlichen Methode: Toasten nicht möglich

Lassen Sie uns eine Intuition für die wissenschaftliche Methode aufbauen, indem wir ihre Schritte auf ein praktisches Problem aus dem täglichen Leben anwenden.

1. Machen Sie eine Beobachtung.

Nehmen wir an, Sie holen sich zwei Brotscheiben, legen sie in den Toaster und drücken den Knopf. Ihr Brot toastet jedoch nicht.

Warum wurde mein Brot nicht geröstet?

EIN Hypothese ist eine mögliche Antwort auf die Frage, die irgendwie getestet und falsifiziert werden kann. Unsere Hypothese könnte in diesem Fall beispielsweise sein, dass der Toast nicht geröstet hat, weil die Steckdose defekt ist.

Diese Hypothese ist nicht unbedingt die richtige Erklärung. Stattdessen ist es eine mögliche Erklärung, die wir testen können, um zu sehen, ob sie wahrscheinlich richtig ist oder ob wir eine neue Hypothese aufstellen müssen.

EIN Vorhersage ist ein Ergebnis, das wir erwarten würden, um zu sehen, ob die Hypothese richtig ist. In diesem Fall können wir voraussagen, dass das Problem durch das Anschließen des Toasters an eine andere Steckdose behoben werden sollte, wenn die Steckdose defekt ist. Vorhersagen erfolgen häufig in Form einer Wenn-Dann-Anweisung.

Um die Hypothese zu testen, müssen wir eine Beobachtung machen oder ein Experiment im Zusammenhang mit der Vorhersage durchführen. In diesem Fall würden wir beispielsweise den Toaster an eine andere Steckdose anschließen und sehen, ob er toastet.

Wenn der Toaster toastet, wird die Hypothese unterstützt, was bedeutet, dass sie wahrscheinlich richtig ist.

Wenn der Toaster nicht toastet, wird die Hypothese nicht unterstützt, was bedeutet, dass sie wahrscheinlich falsch ist.

Die Ergebnisse eines Tests können eine Hypothese entweder unterstützen oder widerlegen – widerlegen oder widersprechen. Ergebnisse, die eine Hypothese stützen, können nicht schlüssig beweisen, dass sie richtig ist, aber sie bedeuten, dass sie wahrscheinlich richtig ist. Auf der anderen Seite, wenn Ergebnisse einer Hypothese widersprechen, ist diese Hypothese wahrscheinlich nicht richtig. Sofern der Test keinen Fehler aufwies – eine Möglichkeit, die wir immer in Betracht ziehen sollten – bedeutet ein widersprüchliches Ergebnis, dass wir die Hypothese verwerfen und nach einer neuen suchen können.

Der letzte Schritt der wissenschaftlichen Methode besteht darin, unsere Ergebnisse zu reflektieren und sie für unsere nächsten Schritte zu nutzen.

Wenn die Hypothese bestätigt wurde, könnten wir zusätzliche Tests durchführen, um sie zu bestätigen oder sie genauer zu überarbeiten. Zum Beispiel könnten wir untersuchen, warum die Steckdose kaputt ist.

Wenn die Hypothese nicht bestätigt wurde, würden wir eine neue Hypothese aufstellen. Die nächste Hypothese könnte beispielsweise sein, dass im Toaster ein Drahtbruch vorliegt.

In den meisten Fällen ist die wissenschaftliche Methode eine iterativ Prozess. Mit anderen Worten, es ist eher ein Zyklus als eine gerade Linie. Das Ergebnis einer Runde wird zu Feedback, das die nächste Fragerunde verbessert.


Die traditionelle wissenschaftliche Methode: Hypothesengetriebene Deduktion

Forschung ist die unbestrittene Kernaktivität, die die Wissenschaft definiert. Ohne Forschung käme die Weiterentwicklung der wissenschaftlichen Erkenntnisse zum Erliegen. Während es offensichtlich ist, dass Forscher nach neuen Informationen oder Erkenntnissen suchen, ist der Begriff „Forschung“ etwas rätselhaft. Ganz zu schweigen von der Vorsilbe „re“, die einfach „zurückkommen und es immer wieder tun“ bedeutet, das Wort „Suche“ scheint darauf hinzudeuten, dass der Forschungsprozess etwas willkürlich ist, dass nicht viel Strategie in dem Prozess enthalten ist. Man könnte argumentieren, dass die Forschung vor einigen hundert Jahren den Charakter hatte, auf genügend Glück zu hoffen, um etwas Neues zu finden. Die Alchemisten kommen einem in den Sinn bei ihrer Suche, Quecksilber oder Blei in Gold zu verwandeln oder ein Elixier für die ewige Jugend zu finden, mit Methoden, die wir heute für lächerlich halten.

Die heutigen Wissenschaften sind im krassen Gegensatz dazu eindeutig anders. Ja, wir versuchen immer noch, etwas Neues zu finden – und brauchen vielleicht eine gute Portion Glück – aber der Prozess ist alles andere als unstrukturiert. Tatsächlich wird es mit solcher Strenge verschrieben, dass es den weithin bekannten Spitznamen „wissenschaftliche Methode“ trägt. Diese wissenschaftliche Methode hat tiefe Wurzeln, die auf Aristoteles und Herophilus (ca. 300 v. Chr.), Avicenna und Alhazen (ca. 1.000 n. Chr.), Grosseteste und Robert Bacon (ca. 1.250 n. Chr.) Qualitätsforschung im 17. und 18. Jahrhundert [1–7]. Insbesondere Sir Francis Bacon (1561–1626) und René Descartes (1596–1650) werden oft als Begründer der wissenschaftlichen Methode angesehen, da sie auf sorgfältige, systematische Beobachtungen von hoher Qualität bestanden und nicht auf metaphysische Spekulationen, die in Mode unter den Gelehrten der Zeit [1, 8]. Im Gegensatz zu ihren Kollegen strebten sie nach Objektivität und bestanden darauf, dass Beobachtungen und nicht Vorurteile oder Aberglauben eines Forschers die Grundlage für die Formulierung einer Forschungsidee sein sollten [7, 9].

Bacon und sein Nachfolger John Stuart Mill aus dem 19. 7]. Anders ausgedrückt versucht induktives Denken, allgemeine Prinzipien oder Gesetze direkt aus empirischen Beweisen abzuleiten [10]. Ein Beispiel ist das Epigramm des Arztes Rudolf Virchow aus dem 19. Omnis cellula und cellula. Es gibt keinen Beweis dafür, dass tatsächlich „jede Zelle aus einer Zelle stammt“, aber wie Virchow haben wir die Beobachtung immer wieder gemacht und sind nie auf etwas anderes gestoßen.

Im Gegensatz zur Induktion basiert die weit verbreitete, traditionelle wissenschaftliche Methode auf der Formulierung und Überprüfung von Hypothesen. Aus den Ergebnissen dieser Tests wird abgeleitet, ob die Hypothese vermutlich wahr oder falsch ist. Diese Art der hypothetischen Argumentation geht auf William Whewell, William Stanley Jevons und Charles Peirce im 19. Jahrhundert zurück [1].Bis zum 20. Jahrhundert war die deduktive, hypothesenbasierte wissenschaftliche Methode tief in der wissenschaftlichen Psyche verwurzelt und wird heute bereits in der Mittelschule gelehrt, um den Schülern gültige Methoden der Entdeckung zu vermitteln [8, 11, 12]. Die wissenschaftliche Methode hat nicht nur die meisten Forschungsstudien geleitet, sondern auch unsere Denkweise über den Prozess der wissenschaftlichen Entdeckung grundlegend beeinflusst.

Da die Biologie fast keine allgemeinen Gesetze kennt, ist eine Ableitung im engeren Sinne leider schwierig. Es kann daher vorzuziehen sein, den Begriff Entführung zu verwenden, der sich auf den logischen Schluss auf die plausibelste Erklärung bei einer Reihe von Beobachtungen bezieht, obwohl diese Erklärung nicht bewiesen werden kann und nicht unbedingt wahr ist.

Im Laufe der Jahrzehnte erfuhr die hypothesenbasierte wissenschaftliche Methode hier und da Variationen, ihr konzeptionelles Gerüst blieb jedoch im Wesentlichen unverändert (Abb. 1). Sein Schlüssel ist ein Prozess, der mit der Formulierung einer Hypothese beginnt, die entweder im Nasslabor oder rechnerisch rigoros getestet werden soll.

Das zentrale Konzept der traditionellen wissenschaftlichen Methode ist eine falsifizierbare Hypothese über ein interessantes Phänomen. Diese Hypothese soll experimentell oder rechnerisch überprüft werden. Die Testergebnisse unterstützen oder widerlegen die Hypothese und lösen eine neue Runde der Hypothesenformulierung und -prüfung aus.

Darüber hinaus argumentierte der prominente Wissenschaftsphilosoph Sir Karl Popper, dass eine wissenschaftliche Hypothese niemals verifiziert, aber durch ein einziges Gegenbeispiel widerlegt werden kann. Er forderte daher, dass wissenschaftliche Hypothesen falsifizierbar sein müssten, da sonst eine Prüfung hinfällig wäre [16, 17] (siehe auch [18]). Wie Gillies es ausdrückte, sind „erfolgreiche Theorien diejenigen, die die Eliminierung durch Fälschung überleben“ [19]. Kelley und Scott stimmten bis zu einem gewissen Grad zu, warnten jedoch davor, dass ein vollständiges Beharren auf Falsifizierbarkeit zu restriktiv ist, da dies viele Rechentechniken, statistische Hypothesentests und sogar Darwins Evolutionstheorie als nicht wissenschaftlich markieren würde [20].

Während die hypothesenbasierte wissenschaftliche Methode sehr erfolgreich war, ist ihre ausschließliche Abhängigkeit von deduktiven Argumenten gefährlich, da gemäß der sogenannten Duhem-Quine-These Hypothesentests immer eine unbekannte Anzahl expliziter oder impliziter Annahmen beinhalten, von denen einige steuern können den Forscher von Hypothesen ab, die unplausibel erscheinen, obwohl sie tatsächlich wahr sind [21]. Dieser Bias kann laut Kuhn die Anerkennung von Paradigmenwechseln [22] behindern, die ein Überdenken bisher akzeptierter „Wahrheiten“ und die Entwicklung radikal neuer Ideen erfordern [23, 24]. Das Testen simultaner Alternativhypothesen [25–27] mildert dieses Problem zu einem gewissen Grad, aber nicht vollständig.

Die traditionelle wissenschaftliche Methode wird oft in diskreten Schritten präsentiert, sollte aber eigentlich als eine Form des kritischen Denkens gesehen werden, die einer Überprüfung und unabhängigen Validierung unterliegt [8]. Es hat sich als sehr einflussreich erwiesen, nicht nur durch das Vorschreiben von validen Experimenten, sondern auch für die Art und Weise, wie wir versuchen, die Natur zu verstehen [18], für das Lehren [8, 12], für die Berichterstattung, die Veröffentlichung und den anderweitigen Austausch von Informationen [28] für Gleichaltrige Begutachtung und Vergabe von Mitteln durch forschungsunterstützende Einrichtungen [29, 30], für die medizinische Diagnostik [7] und sogar in Rechtsstreitigkeiten [31].

Eine zweite Dimension der wissenschaftlichen Methode: Data-Mining – inspirierte Induktion

Mit der Omics-Revolution des frühen 21. Plötzlich wurde es möglich, Hochdurchsatzexperimente durchzuführen, die Tausende von Messungen generierten und typischerweise die Expression oder Häufigkeit von sehr vielen – wenn nicht allen – Genen, Proteinen, Metaboliten oder anderen biologischen Größen in einer Probe charakterisieren.

Die Strategie, viele Items ungezielt zu messen, unterscheidet sich grundlegend von der traditionellen wissenschaftlichen Methode und bildet eine neue, zweite Dimension der wissenschaftlichen Methode. Anstatt Hypothesen aufzustellen und zu testen, ob Gen X unter veränderten Bedingungen hochreguliert wird, stellt sich die Hauptfrage, welches der Tausenden von Genen in einer Probe hoch- oder herunterreguliert wird. Diese Fokusverlagerung erhebt die Daten zu der herausragenden Rolle, neue Erkenntnisse selbst zu enthüllen (Abb. 2). Als wichtiger, allgemeiner Vorteil gegenüber der traditionellen Strategie ist diese zweite Dimension frei von vorgefassten Meinungen des Forschers über die molekularen Mechanismen, die das interessierende Phänomen bestimmen, die ansonsten der Schlüssel zur Formulierung einer Hypothese sind. Die prominenten Biologen Patrick Brown und David Botstein kommentierten, dass „die Expressionsmuster oft ausreichen, um mit der Neuentdeckung potenzieller Genfunktionen zu beginnen“ [32].

Datengetriebene Forschung beginnt mit einer ungezielten Erkundung, bei der die Daten für sich selbst sprechen. Maschinelles Lernen extrahiert Muster aus den Daten, die Hypothesen vorschlagen, die im Labor oder rechnerisch getestet werden sollen.

Dieser datengesteuerte Ansatz zur Generierung von Entdeckungen ist ansprechend und herausfordernd zugleich. Einerseits werden sehr viele Daten gleichzeitig und im Wesentlichen unvoreingenommen untersucht. Auf der anderen Seite stellen die großen Datensätze, die diesen Ansatz unterstützen, eine echte Herausforderung für das Verständnis und die Interpretation der experimentellen Ergebnisse dar, da die Tausenden von Datenpunkten, die oft mit einer beträchtlichen Menge an Rauschen überlagert sind, es schwierig machen, sinnvolle Unterschiede zwischen Probe und Kontrolle zu erkennen. Dieser Situation kann nur mit rechnerischen Verfahren begegnet werden, die zunächst die Daten „bereinigen“, beispielsweise durch die statistisch valide Entfernung von Ausreißern, und dann mithilfe von maschinellem Lernen statistisch signifikante, unterscheidende Molekülprofile oder Signaturen identifizieren. In günstigen Fällen weisen solche Signaturen auf bestimmte biologische Pfade hin, während andere Signaturen sich einer direkten Erklärung entziehen, aber zum Ausgangspunkt für Folgeuntersuchungen werden können [33].

Heutige Wissenschaftler sind mit dieser erfindungsgetriebenen Erforschung von „was da draußen“ bestens vertraut und mögen es für eine kuriose Eigenart der Geschichte halten, dass diese Strategie zunächst weithin als „Fischerexpedition“ gezüchtigt und verspottet wurde [30, 34]. Strenge Traditionalisten waren empört darüber, dass die Wissenschaft mit dem neuen Ansatz von der Strenge zurückgelassen wurde und dass keine ausreichenden Richtlinien zur Verfügung standen, um die Validität und Reproduzierbarkeit der Ergebnisse zu gewährleisten [10, 35, 36].

Aus wissenschaftstheoretischer Sicht nutzt diese zweite Dimension der wissenschaftlichen Methode induktives Denken und spiegelt Bacons Idee wider, dass Beobachtungen die zu untersuchende Fragestellung diktieren können und sollen [1, 7]. Allen [36] wies diese Art von Argumentation energisch zurück und erklärte: „Der Gedanke geht dahin, wir können jetzt erwarten, dass Computerprogramme Bedeutung, Relevanz und Bedeutung aus Informationsbrocken ableiten, seien es Nukleotidsequenzen oder Genexpressionsprofile … Im Gegensatz zu dieser Ansicht, viele sind überzeugt, dass kein rein logischer Prozess aus Beobachtung Verstehen machen kann.“ Seine Überzeugung geht zurück auf den Philosophen des 18. ]. Keine Anzahl von Beobachtungen, auch wenn sie immer das gleiche Ergebnis haben, kann vor einer Ausnahme schützen, die die Allgemeinheit eines aus diesen Beobachtungen abgeleiteten Gesetzes verletzen würde [1, 35]. Schlimmer noch, Popper argumentierte, dass wir durch Induktion durch Induktion nicht einmal die Wahrscheinlichkeit wissen können, dass etwas wahr ist [10, 17, 36].

Andere argumentierten, dass sich datengetriebene und hypothesengetriebene Forschung im Prinzip nicht allzu sehr unterscheiden, solange zwischen der Entwicklung neuer Ideen und deren sorgfältiger Prüfung ein Kreislauf stattfindet [27]. Tatsächlich behaupteten Kell und Oliver [34], dass die ausschließliche Akzeptanz von hypothesengesteuerten Programmen die Komplexität der biologischen Wissensgenerierung falsch darstellt. In ähnlicher Weise widerlegten Platt [26] und Beard und Kushmerick [27] die prominente Deduktionsregel und argumentierten, dass wiederholtes induktives Denken, das als starke Inferenz bezeichnet wird, einem logisch fundierten Entscheidungsbaum entspricht, der Hypothesen widerlegt oder verfeinert, die dennoch schnell zu festen Schlussfolgerungen führen können, Platt musste zugeben, dass induktive Inferenz nicht so sicher ist wie Deduktion, weil sie ins Unbekannte projiziert. Lander verglich die Aufgabe, Kausalität durch Induktion zu gewinnen, mit dem Problem, aus Input-Output-Messwerten auf das Design eines Mikroprozessors zu schließen, was im engeren Sinne unmöglich ist, weil der Mikroprozessor trotzdem beliebig kompliziert sein könnte, Rückschlüsse führen oft zu neuen Einsichten und ist daher wertvoll [39].

Ein interessanter Spezialfall des fast rein induktiven Denkens ist die Epidemiologie, wo hypothesengetriebenes Denken selten ist und stattdessen die grundlegende Frage ist, ob datenbasierte Evidenz ausreicht, um Gesundheitsrisiken mit spezifischen Ursachen in Verbindung zu bringen [31, 34].

Jüngste Fortschritte beim maschinellen Lernen und beim „Big-Data“-Mining haben den Einsatz von induktivem Denken auf beispiellose Höhen getrieben. Beispielsweise kann maschinelles Lernen bei der Entdeckung von Mustern, beispielsweise in biologischen Sequenzen, sehr hilfreich sein [40]. Noch einen Schritt weiter ging ein markiger Artikel von Andersen [41], dass wir möglicherweise nicht mehr nach Kausalität oder mechanistischen Erklärungen suchen müssen, wenn wir nur genügend Korrelationen haben: „Mit genügend Daten sprechen die Zahlen für sich selbst, Korrelation ersetzt Kausalität, und Wissenschaft kann auch ohne kohärente Modelle oder einheitliche Theorien Fortschritte machen.“

Der Vorschlag, die Suche nach der Kausalität aufzugeben, führte natürlich sowohl aus philosophischen als auch aus mathematischen Gründen zu Rückschlägen. Allen [10, 35] hielt die Vorstellung für „absurd“, dass Datenanalysen das Verständnis ohne Hypothese verbessern könnten. Er war überzeugt, „dass selbst die beeindruckende Kombination von Rechenleistung mit einfachem Zugang zu Daten keine qualitative Veränderung in der Art und Weise bewirken kann, wie wir Wissenschaft betreiben: Das Aufstellen von Hypothesen bleibt ein unverzichtbarer Bestandteil des Wissenswachstums“ [36]. Succi und Coveney [42] widerlegten die „extravagantesten Behauptungen“ der Big-Data-Befürworter ganz anders, nämlich indem sie die Theorien analysierten, auf denen maschinelles Lernen beruht. Sie stellten die diesen Theorien zugrunde liegenden Annahmen, wie das Gesetz der großen Zahlen, der mathematischen Realität komplexer biologischer Systeme gegenüber. Insbesondere identifizierten sie sorgfältig echte Merkmale dieser Systeme, wie Nichtlinearitäten, Nichtlokalität von Effekten, fraktale Aspekte und hohe Dimensionalität, und argumentierten, dass sie einige der statistischen Annahmen, die der Big-Data-Analyse implizit zugrunde liegen, wie die Unabhängigkeit von Ereignissen, grundlegend verletzen. Sie kamen zu dem Schluss, dass diese Diskrepanzen „zu falschen Erwartungen und im Tiefpunkt sogar zu gefährlichen sozialen, wirtschaftlichen und politischen Manipulationen führen können“. Um die Situation zu verbessern, bräuchte das Feld der Big-Data-Analyse neue starke Theoreme, die die Gültigkeit seiner Methoden und die Anzahl der Daten charakterisieren, die für die Gewinnung zuverlässiger Erkenntnisse erforderlich sind. Succi und Coveney gehen sogar so weit, dass zu viele Daten genauso schlecht sind wie unzureichende Daten [42].

Während philosophische Zweifel an induktiven Methoden immer bestehen bleiben, kann man nicht leugnen, dass -omics-basierte Hochdurchsatzstudien in Kombination mit maschinellem Lernen und Big-Data-Analysen sehr erfolgreich waren [43]. Ja, die Induktion kann keine wirklichen allgemeinen Gesetzmäßigkeiten aufdecken, egal wie groß die Datensätze sind, aber sie liefern Einsichten, die sich stark von dem unterscheiden, was die Wissenschaft zuvor geboten hat, und können zumindest auf neue Muster, Trends oder Prinzipien hinweisen. Wenn beispielsweise viele transkriptomische Studien darauf hindeuten, dass ein bestimmter Gensatz an bestimmten Phänomenklassen beteiligt ist, ist die Beobachtung wahrscheinlich etwas wahr, auch wenn sie mathematisch nicht beweisbar ist. Keplers Gesetze der Astronomie wurden wohl ausschließlich aus induktivem Denken abgeleitet [34].

Ungeachtet der gegensätzlichen Ansichten zu induktiven Methoden prägen erfolgreiche Strategien unser Denken über Wissenschaft. Um alle experimentellen Möglichkeiten zu nutzen und gleichzeitig die Qualität der Forschung zu gewährleisten, dürfen wir daher nicht zulassen, dass „alles geht“, sondern Standardverfahren und -kontrollen identifizieren und charakterisieren, die diese aufkommende wissenschaftliche Methode valide und reproduzierbar machen. Ein lobenswerter Schritt in diese Richtung war die breite Akzeptanz von „Minimum Information about a Microarray Experiment“ (MIAME) Standards für Microarray Experimente [44].

Eine dritte Dimension der wissenschaftlichen Methode: Allochthonous Reasoning

Parallel zum Aufblühen der Molekularbiologie und dem schnellen Anstieg der Leistungsfähigkeit und Verfügbarkeit der Computer im späten 20. Jahrhundert wurde der Einsatz mathematischer und computergestützter Modelle zunehmend als relevant und nützlich für das Verständnis biologischer Phänomene anerkannt. Tatsächlich erreichten mathematische Modelle schließlich einen Eckpfeiler im neuen Gebiet der Computersystembiologie.

Mathematische Modellierung wird seit langem als Werkzeug der biologischen Analyse verwendet [27, 45–48]. Interessant für die Diskussion hier ist, dass der Einsatz von mathematischer und computergestützter Modellierung in der Biologie einem wissenschaftlichen Ansatz folgt, der sich deutlich von den traditionellen und den datengetriebenen Methoden unterscheidet, da er auf zwei völlig getrennte Wissensdomänen verteilt ist. Das eine besteht aus der biologischen Realität von DNA, Elefanten und Rosen, während das andere die Welt der Mathematik ist, die von Zahlen, Symbolen, Theoremen und abstrakten Arbeitsprotokollen bestimmt wird. Da die Denkweisen – und sogar die Sprachen – in diesen beiden Bereichen unterschiedlich sind, schlage ich vor, diese Art des Wissenserwerbs „allochthon“ (wörtlich griechisch: in oder von einem „anderen Stück Land als zu Hause“) zu nennen könnte es vielleicht in den modernen Jargon als „außerhalb der eigenen Komfortzone“ übersetzen). De facto beziehen sich die meisten allochthonen Argumentationen in der Biologie derzeit auf Mathematik und Informatik, aber man könnte beispielsweise auch die Anwendung linguistischer Methoden bei der Analyse von DNA-Sequenzen oder Proteinen in Betracht ziehen [49].

Man könnte argumentieren, dass Biologen seit langem „Modelle“ verwenden, etwa in Form von „Modellorganismen“, Zelllinien oder In-vitro-Experimenten, die mehr oder weniger getreu Merkmale der Organismen von wahrem Interesse widerspiegeln, aber einfacher zu manipulieren. Diese Art der Verwendung biologischer Modelle unterscheidet sich jedoch ziemlich von allochthoner Argumentation, da sie den Bereich der Biologie nicht verlässt und dieselbe Sprache und oft ähnliche Methodiken verwendet.

Eine kurze Diskussion von drei Erfahrungen aus unserem Labor kann die Vorteile des allochthonen Denkens veranschaulichen. (1) In einer Fallstudie zum Nierenzellkarzinom konnte ein dynamisches Modell ein beobachtetes, aber nicht intuitives Stoffwechselprofil durch die während der Erkrankung veränderten enzymatischen Reaktionsschritte erklären [50]. (2) Eine Transkriptomanalyse hatte mehrere Gene identifiziert, die signifikant unterschiedliche Expressionsmuster während einer Malariainfektion im Vergleich zum Gesundheitszustand aufweisen. Für sich allein betrachtet und ausschließlich auf Gene fokussiert, die für bestimmte Enzyme des Purinstoffwechsels kodieren, zeigten die Ergebnisse Muster, die keinen Sinn ergaben. Die Integration der Veränderungen in ein dynamisches Modell zeigte jedoch, dass sich der Purinstoffwechsel als Reaktion auf Malaria global von Guaninverbindungen zu Adenin, Inosin und Hypoxanthin verlagerte [51]. (3) Daten, die die Dynamik von Malariaparasiten erfassten, legten Wachstumsraten nahe, die biologisch unmöglich waren. Spekulationen über mögliche Erklärungen führten zu der Hypothese, dass sich viele rote Blutkörperchen, die Parasiten beherbergen, vor der Zirkulation und damit vor dem Nachweis im Blutkreislauf „verstecken“ könnten. Während die experimentelle Prüfung der Machbarkeit der Hypothese teuer gewesen wäre, bestätigte ein dynamisches Modell, dass ein solcher Verschleierungsmechanismus die scheinbar sehr hohen Wachstumsraten tatsächlich quantitativ erklären könnte [52]. In allen drei Fällen wären die induktiv gewonnenen Erkenntnisse aus der Computermodellierung mit rein experimentellen Labormethoden nur schwer zu gewinnen gewesen. Rein deduktives allochthones Denken ist das ultimative Ziel der Suche nach Gestaltungs- und Funktionsprinzipien [53–55], die zu erklären versucht, warum bestimmte Strukturen oder Funktionen immer wieder von der Natur verwendet werden. Ein Beispiel ist ein linearer Stoffwechselweg, bei dem die Rückkopplungshemmung im Wesentlichen immer auf den ersten Schritt ausgeübt wird [56, 57]. Diese Verallgemeinerung lässt den Schluss zu, dass ein bisher nicht untersuchter linearer Weg höchstwahrscheinlich (oder sogar sicher) im ersten Schritt gehemmt wird. Nicht streng deduktiv – sondern eher abduktiv – war eine Studie in unserem Labor, in der wir Zeitreihendaten mit einem mathematischen Modell analysierten, das es uns erlaubte, auf die wahrscheinlichste regulatorische Struktur eines Stoffwechselwegs zu schließen [58, 59].

Eine typische allochthone Untersuchung beginnt im Bereich der Biologie mit der Formulierung einer Hypothese (Abb. 3). Anstatt diese Hypothese mit Laborexperimenten zu überprüfen, wird das die Hypothese umfassende System in den Bereich der Mathematik verlagert. Dieser Zug erfordert zwei Sätze von Zutaten. Ein Set besteht aus der Vereinfachung und Abstraktion des biologischen Systems: Alle störenden Details, die keinen Bezug zur Hypothese und ihrem Kontext zu haben scheinen, werden weggelassen oder zusammen mit anderen Details dargestellt. Dieser Vereinfachungsschritt birgt das größte Risiko des gesamten Modellierungsansatzes, da das Weglassen scheinbar vernachlässigbarer, aber in Wahrheit wichtiger Details leicht zu falschen Ergebnissen führen kann. Der zweite Satz von Zutaten besteht aus Korrespondenzregeln, die jede biologische Komponente oder jeden biologischen Prozess in die Sprache der Mathematik übersetzen [60, 61].

Dieser mathematische und rechnerische Ansatz verteilt sich auf zwei Bereiche, die durch Korrespondenzregeln verbunden sind.

Sobald das System übersetzt ist, ist es ein vollständig mathematisches Konstrukt geworden, das rein mit mathematischen und rechnerischen Mitteln analysiert werden kann. Die Ergebnisse dieser Analyse sind ebenfalls streng mathematisch. Sie bestehen typischerweise aus Variablenwerten, Prozessgrößen, Sensitivitätsmustern, Vorzeichen von Eigenwerten oder qualitativen Merkmalen wie dem Einsetzen von Schwingungen oder dem Potenzial für Grenzzyklen. Korrespondenzregeln werden wieder verwendet, um diese Ergebnisse wieder in den Bereich der Biologie zu verlagern. Als Beispiel ist das mathematische Ergebnis, dass „zwei Eigenwerte positive Realteile haben“ für viele Biologen wenig sinnvoll, während die Interpretation, dass „das System im fraglichen stationären Zustand nicht stabil ist“, leicht erklärt wird. Neue biologische Erkenntnisse können zu neuen Hypothesen führen, die entweder durch Experimente oder durch eine Rückkehr in die Mathematik überprüft werden. Modelldesign, Diagnose, Verfeinerung und Validierung bestehen aus mehreren Phasen, die in der biomathematischen Literatur ausführlich diskutiert wurden.Wichtig ist, dass jede Iteration einer typischen Modellanalyse aus einem Übergang vom biologischen zum mathematischen Bereich und zurück besteht.

Die Argumentation im Bereich der Mathematik ist oft deduktiv, in Form eines aristotelischen Syllogismus, wie dem bekannten „Alle Menschen sind sterblich, Sokrates ist ein Mensch, also ist Sokrates sterblich“. Die Argumentation kann jedoch auch induktiv sein, wie es bei groß angelegten Monte-Carlo-Simulationen der Fall ist, die beliebig viele „Beobachtungen“ generieren, obwohl sie keine universellen Prinzipien oder Theoreme aufdecken können. Ein Beispiel ist eine Simulation, bei der zufällig Zahlen gezogen werden, um zu zeigen, dass jede reelle Zahl eine Umkehrung hat. Die Simulation wird diese Hypothese immer bestätigen, aber die Wahrheit nicht entdecken, da sie niemals zufällig 0 ziehen wird. Allgemein können Computermodelle als Hypothesen angesehen werden, die als Gleichungen oder als Algorithmen formuliert sind, die unsere Wahrnehmung eines komplexen Systems widerspiegeln [27] .

Einfluss der multidimensionalen wissenschaftlichen Methode auf das Lernen

Fast alles, was wir in der Biologie wissen, stammt aus Beobachtungen, Experimenten und Interpretationen. Die traditionelle wissenschaftliche Methode bot nicht nur eine klare Orientierung für diese Erkenntnisgewinnung, sondern prägte auch unser Denken über die Erforschung der Natur grundlegend. Wenn Wissenschaftler mit einer neuen Forschungsfrage konfrontiert wurden, wurden sie darin geschult, sofort in Hypothesen und Alternativen zu denken, über die am besten praktikablen Wege zu ihrer Prüfung nachzudenken und in ihren Köpfen starke Kontrollen zu entwerfen, die die Auswirkungen bekannter oder unbekannter Störfaktoren begrenzen würden. Geprägt von der Starrheit dieses sich ständig wiederholenden Prozesses wurde unser Denken darauf trainiert, einen gut geplanten Schritt nach dem anderen voranzutreiben. Dieser Modus Operandi war streng und genau. Es minimierte auch das irrige Streben nach langen spekulativen Gedankengängen, da jeder Schritt getestet werden musste, bevor eine neue Hypothese aufgestellt wurde. Der Prozess war zwar effektiv, aber auch sehr langsam und von Einfallsreichtum – sowie Voreingenommenheit – des Wissenschaftlers angetrieben. Dieser Bias war manchmal ein Hindernis für notwendige Paradigmenwechsel [22].

Hochdurchsatz-Datengenerierung, Big-Data-Analyse und mathematisch-computergestützte Modellierung haben all dies innerhalb weniger Jahrzehnte verändert. Insbesondere die Akzeptanz induktiver Prinzipien und der allochthone Einsatz nichtbiologischer Strategien zur Beantwortung biologischer Fragen schuf eine beispiellose Mischung aus Erfolg und Chaos. Zum Entsetzen der Traditionalisten wurde die Bedeutung von Hypothesen minimiert und die Vermutung verbreitet, dass die Daten für sich selbst sprechen würden [36]. Wichtig ist, dass sich in diesem Nebel von „Alles geht“ die grundlegende Frage stellte, wie man feststellen kann, ob ein Experiment gültig ist.

Da vereinbarte Arbeitsabläufe den Forschungsfortschritt und die Interpretation, das Denken, das Lehren und das Teilen von Ergebnissen beeinflussen, erfordert diese Frage eine Entfaltung wissenschaftlicher Strategien. Hier schlage ich vor, dass die einzelne wissenschaftliche Methode der Vergangenheit zu einem Vektorraum wissenschaftlicher Methoden erweitert werden sollte, mit aufspannenden Vektoren, die verschiedenen Dimensionen der wissenschaftlichen Methode entsprechen (Abb. 4).

Die traditionelle hypothesenbasierte deduktive wissenschaftliche Methode wird in einen 3D-Raum erweitert, der synergistische Methodenmischungen ermöglicht, die vom Data-Mining inspirierte, induktive Wissensgewinnung und mathematisch modellbasiertes allochthones Denken umfassen.

Alle drei Dimensionen haben natürlich ihre Vor- und Nachteile. Die traditionelle, hypothesengetriebene deduktive Methode ist philosophisch „sauber“, außer dass sie durch Vorurteile und Annahmen durcheinander gebracht wird. Die vom Data-Mining inspirierte induktive Methode kann keine universellen Wahrheiten bieten, hilft uns jedoch, sehr große Räume von Faktoren zu erkunden, die zu einem Phänomen beitragen. Allochthones, modellbasiertes Denken kann mental, mit Papier und Bleistift, durch rigorose Analyse oder mit einer Vielzahl von Berechnungsmethoden durchgeführt werden, die präzise und widerlegbar sind [27]. Gleichzeitig sind sie unvergleichlich schneller, billiger und viel umfassender als Experimente in der Molekularbiologie. Diese Reduzierung von Kosten und Zeit sowie die Erhöhung der Abdeckung können schließlich weitreichende Folgen haben, wie wir bereits aus einem Großteil der modernen Physik ergründen können.

Aufgrund ihrer langen Geschichte wird die traditionelle Dimension der wissenschaftlichen Methode durch klare und sehr starke Standardarbeitsanweisungen unterstützt. Ebenso müssen für die anderen beiden Dimensionen starke Verfahren entwickelt werden. Ein hervorragendes Beispiel sind die MIAME-Regeln für die Microarray-Analyse [44]. An der Front der mathematischen Modellierung sind solche Regeln noch nicht allgemein akzeptiert, aber Tendenzen zu ihnen scheinen sich am Horizont abzuzeichnen. Beispielsweise scheint es gängige Praxis zu sein, Sensitivitätsanalysen in typische Modellierungsstudien einzubeziehen und die Identifizierbarkeit oder Schlampigkeit von Ensembles von Parameterkombinationen zu bewerten, die gut zu einem gegebenen Datensatz passen [62, 63].

Aus philosophischer Sicht erscheint es unwahrscheinlich, dass Einwände gegen induktives Denken verschwinden werden. Anstatt jedoch hypothesenbasiertes deduktives Denken gegen Induktivität auszuspielen, scheint es sinnvoller zu sein, zu bestimmen, wie die verschiedenen Methoden synergistisch kombiniert werden können (cf. [18, 27, 34, 42]) als Linearkombinationen der drei Vektoren des Wissenserwerbs (Abb. 4). Es ist an dieser Stelle unklar, inwieweit die identifizierten drei Dimensionen wirklich unabhängig voneinander sind, ob zusätzliche Dimensionen hinzugefügt werden sollten [24] oder ob die verschiedenen Versionen zu einer einzigen wissenschaftlichen Methode zusammengefasst werden könnten [18], insbesondere wenn es wird lose als eine Form des kritischen Denkens definiert [8]. Nobelpreisträger Percy Bridgman kam sogar zu dem Schluss, dass „Wissenschaft das ist, was Wissenschaftler tun, und es gibt so viele wissenschaftliche Methoden wie es einzelne Wissenschaftler gibt“ [8, 64].

Kombinationen der drei aufspannenden Vektoren der wissenschaftlichen Methode sind seit einiger Zeit im Entstehen. Viele Biologen verwenden bereits induktive Hochdurchsatzverfahren, um spezifische Hypothesen zu entwickeln, die anschließend mit deduktiven oder weiteren induktiven Verfahren überprüft werden [34, 65]. Was die mathematische Modellierung anbelangt, sind Physik und Geologie seit langem führend, oft mit einer theoretischen Untersuchung, bevor ein tatsächliches Experiment durchgeführt wird. Es wird der Biologie nützen, sich mit dieser Strategie zu befassen und bewährte Verfahren für allochthone Argumentation zu entwickeln.

Das Mischen von Methoden kann ganz unterschiedliche Formen annehmen. Schon früh schlugen Ideker und Kollegen [65] einen integrierten experimentellen Ansatz für die Pathway-Analyse vor, der einen Einblick in neue experimentelle Strategien im Bereich wissenschaftlicher Methoden bot. In ähnlicher Weise schlossen Covert und Kollegen [66] Computermethoden in einen solchen integrierten Ansatz ein. Weitere Beispiele für Blended-Analysen in der Systembiologie sind in anderen Arbeiten zu finden, z. B. [43, 67–73]. Generell ist es oft von Vorteil, mit Big Data zu beginnen, Muster in Assoziationen und Korrelationen zu bestimmen und dann in den mathematischen Bereich zu wechseln, um im Hochdurchsatz falsche Korrelationen herauszufiltern. Wird dieses Verfahren iterativ durchgeführt, haben die „überlebenden“ Assoziationen ein erhöhtes Vertrauen und sind gute Kandidaten für weitere experimentelle oder computergestützte Tests (persönliche Mitteilung von S. Chandrasekaran).

Folgt jede Komponente einer gemischten wissenschaftlichen Methode strengen, gemeinsam vereinbarten Richtlinien, können auch „Linearkombinationen“ im 3D-Raum objektiv per Dekonvolution überprüft werden. Darüber hinaus sollten Leitlinien für synergistische Mischungen von Komponentenverfahren entwickelt werden. Wenn wir solche Mischungen genau beobachten, wird die Zeit vermutlich zeigen, welche Methode für welche Aufgabe am besten geeignet ist und wie sich die verschiedenen Ansätze optimal gegenseitig informieren. Es wird zum Beispiel interessant sein zu untersuchen, ob es für eine bestimmte Aufgabenklasse eine optimale Abfolge von Experimenten entlang der drei Achsen gibt. Big-Data-Analysen zusammen mit induktivem Denken könnten optimal sein, um erste Hypothesen zu erstellen und möglicherweise falsche Spekulationen zu widerlegen („wir hatten gedacht, dass dieses Gen beteiligt ist, aber anscheinend ist es das nicht“). Wenn die Logik einer aufkommenden Hypothese mit mathematischen und computergestützten Werkzeugen getestet werden kann, wird dies mit ziemlicher Sicherheit schneller und billiger sein als ein sofortiger Einstieg in Nasslabor-Experimente. Es ist auch wahrscheinlich, dass mathematische Argumentation in der Lage sein wird, einige scheinbar machbare Hypothesen zu widerlegen und Änderungen vorzuschlagen. Letztlich müssen die „überlebenden“ Hypothesen noch durch konventionelle Experimente auf ihre Gültigkeit überprüft werden. Die Entflechtung aktueller Praktiken und die Optimierung der Kombination von Methoden innerhalb des 3D- oder höherdimensionalen Raums wissenschaftlicher Methoden wird wahrscheinlich zu einer besseren Planung von Experimenten und zu synergistischen Mischungen von Ansätzen führen, die das Potenzial haben, einige der großen Herausforderungen in der Biologie anzugehen.


Einführung

Biologen untersuchen die lebende Welt, indem sie Fragen dazu stellen und wissenschaftlich fundierte Antworten suchen. Dieser Ansatz ist auch in anderen Wissenschaften üblich und wird oft als wissenschaftliche Methode bezeichnet. Die wissenschaftliche Methode wurde bereits in der Antike verwendet, wurde jedoch erstmals von Englands Sir Francis Bacon (1561 und 1626) dokumentiert (Abbildung 1.5), der induktive Methoden für wissenschaftliche Untersuchungen aufstellte. Die wissenschaftliche Methode wird nicht ausschließlich von Biologen angewendet, sondern kann als logische, rationale Problemlösungsmethode auf fast alle Studienrichtungen angewendet werden.

Der wissenschaftliche Prozess beginnt typischerweise mit einer Beobachtung (oft ein zu lösendes Problem), die zu einer Frage führt. Denken Sie über ein einfaches Problem nach, das mit einer Beobachtung beginnt, und wenden Sie die wissenschaftliche Methode an, um das Problem zu lösen. Eines Montagmorgens kommt ein Schüler in die Klasse und stellt schnell fest, dass es im Klassenzimmer zu warm ist. Das ist eine Beobachtung, die auch ein Problem beschreibt: Der Klassenraum ist zu warm. Der Schüler stellt dann eine Frage: &bdquoWarum ist es im Klassenzimmer so warm?&rdquo


Kapitel 1.4 - Der Prozess des Lebens

1. Biologie ist das wissenschaftliche Studium des Lebens.
2. Der allgemeine Wissenschaftsprozess soll durch diese Stufenfolge gekennzeichnet sein.

B. Überwachung

1. Wissenschaftler glauben, dass die Natur geordnet und messbar ist.
2. Die Wissenschaft ist auch der Ansicht, dass sich Naturgesetze mit der Zeit nicht ändern.
3. Phänomene können daher aus Beobachtungen verstanden werden.
4. Tatsächliche wissenschaftliche Forschung kann auch Zufall beinhalten (z. B. Alexander Flemings Entdeckung des Penicillins).

*Dieses wissenschaftliche Prinzip ist bekannt als NATÜRLICHE KAUSALITÄT, schließt von Natur aus übernatürliche Phänomene aus*

Welche Dinge gelten als übernatürlich?

Shows wie Geisterjäger geben nur vor, wissenschaftlich zu sein. Warum ist es unmöglich, dieses Phänomen wirklich zu studieren?

C. Hypothese

1. Induktiv Argumentation ermöglicht es einer Person, isolierte Fakten zu einem zusammenhängenden Ganzen zu kombinieren.

Beispiele für induktives Denken.

2. A Hypothese ist eine mögliche Erklärung für ein Naturereignis - muss überprüfbar sein

Beispiele für Hypothesen, überprüfen Sie diejenigen, die gültig sind und getestet werden können

_____Bluebirds singen, um Partner anzulocken.
_____ Bluebird-Songs sind wunderschön.
_____ Nur männliche Drosseln singen.
_____ Spatzen verlassen Gebiete, in denen sie Bluebird-Gesänge hören.
_____ Drosseln hassen Spatzen.

Erstellen Sie Ihre eigene Hypothese:

D. Experimente/Weitere Beobachtungen

1. Das Testen einer Hypothese beinhaltet entweder weitere Beobachtungen oder die Durchführung eines Experiments.
2. Deduktive Argumentation beinhaltet eine “wenn, dann”-Logik, die auf der Grundlage der Hypothese voraussagt, was passieren wird.

Beispiel für deduktives Denken:

Warum müssen alle Hypothesen FALSIFIABLE sein?

Warum ist es unmöglich, ein Negativ zu beweisen?

1. Daten sind Ergebnisse von Experimenten, beobachtbar und objektiv.
2. Daten werden oft in einem Diagramm oder einer Tabelle angezeigt.
3. Oft müssen die Daten auf die Wahrscheinlichkeit untersucht werden, dass die Daten zufällig einen Zusammenhang zeigen könnten dies
ist ein Maß für “Bedeutung.”

F. Fazit

1. Ob die Daten die Hypothese unterstützen oder ablehnen, ist die Grundlage für die “Fazit.” - vermeiden Sie das Wort "beweisen"
2. Wissenschaftliche Erkenntnisse werden in wissenschaftlichen Zeitschriften veröffentlicht, damit die Ergebnisse der Forschungsgemeinschaft zur Verfügung stehen (Peer-Review).
3. Die Experimente und Beobachtungen müssen wiederholbar sein oder die Forschung ist verdächtig.

****Erklären Sie mit eigenen Worten (oder mit einer Grafik) den Unterschied zwischen deduktivem und induktivem Denken.****

G. Wissenschaftliche Theorie

1. Das ultimative Ziel ist es, die natürliche Welt in wissenschaftlichen Theorien zu verstehen, konzeptionelle Schemata, die durch eine breite Palette von Daten unterstützt werden. Was bedeutet das?

2. Die Begriffe „Prinzip“ und „Gesetz“ werden auch für allgemein anerkannte Theorien verwendet.

Grundlegende Theorien der Biologie sind:

A. Zelltheorie: Alle Organismen bestehen aus Zellen.
B. Biogenese-Theorie: Leben kommt nur aus Leben.
C. Evolutionstheorie: Lebewesen haben einen gemeinsamen Vorfahren und sind angepasst.
D. Gentheorie: Organismen enthalten kodierte Informationen, die ihre Form, Funktion und
Verhalten.
e. Keimtheorie - schlägt vor, dass Mikroorganismen die Ursache vieler Krankheiten sind
F. Heliozentrische Theorie - die Sonne ist das Zentrum des Sonnensystems, Planeten kreisen um die Sonne
g. Gravitationsgesetz - Massen ziehen sich an

Was ist der Unterschied zwischen einer Theorie und einem Gesetz?

Warum gilt Kreationismus nicht als Wissenschaft?

H. Eine kontrollierte Studie

1. Einige Untersuchungen werden dort durchgeführt, wo die Bedingungen konstant gehalten werden können - das traditionelle Experiment, das in naturwissenschaftlichen Klassenzimmern und für naturwissenschaftliche Projekte durchgeführt wird.

A. EIN Variable ist ein Faktor, der eine beobachtbare Änderung verursachen kann.
B. Die experimentelle (unabhängige) Variable ist der Schritt, der absichtlich manipuliert wird (was Sie geändert haben).
C. Eine abhängige Variable ist das, was Sie messen (die Ergebnisse).

Beispiele für experimentelle (unabhängige) und abhängige Variablen

Frage: Beeinflusst farbiges Licht das Pflanzenwachstum?

Was ist die experimentelle Variable?

Was ist die abhängige Variable?

2. Ein weiteres Beispiel für eine kontrollierte Studie. Eine Kontrollgruppe ist eine Gruppe, die keine experimentelle Behandlung erhält

Beobachtung: Babys werden mit schweren Geburtsfehlern geboren, Mütter dieser Babys berichten, dass sie während der Schwangerschaft das Medikament Thalidomid gegen morgendliche Übelkeit eingenommen haben.

Frage: Verursacht Thalidomid Geburtsfehler?
Hypothese: Thalidomid verursacht Geburtsfehler.

Kontrollgruppe: Mäuse, denen während der Schwangerschaft kein Thalidomid verabreicht wurde
Versuchsgruppe: Mäusen, denen während der Schwangerschaft Thalidomid verabreicht wurde

In diesem Experiment weisen Mäuse, die sowohl aus der Kontroll- als auch aus der variablen Gruppe geboren wurden, keine Geburtsfehler auf. Dieses Experiment wurde durchgeführt, lange bevor Thalidomid auf den Markt kam und schwangeren Frauen verschrieben wurde.

Bedeutet dies, dass die Hypothese nicht unterstützt wird?

Was ist ein Bestätigungsbias?

Wie gehen Wissenschaftler mit diesem Problem um?


WWW: Die wissenschaftliche Methode

Jedes Quartal, CBE𠅋iowissenschaften Bildung macht auf mehrere Websites von pädagogischem Interesse für die Life-Science-Community aufmerksam. Die Zeitschrift befürwortet oder garantiert nicht die Richtigkeit der Informationen auf einer der aufgeführten Websites. Wenn Sie die Auswahl kommentieren oder zukünftige Aufnahmen vorschlagen möchten, senden Sie bitte eine Nachricht an [email protected] Die unten aufgeführten Seiten wurden zuletzt am 1. Dezember 2005 aufgerufen.

Die Themenauswahl der wissenschaftlichen Methode für die Kolumne dieses Quartals wurde teilweise durch die jüngste Überarbeitung der K�-Standards für den naturwissenschaftlichen Unterricht durch das Kansas State Board of Education am 8. November 2005 veranlasst ( Abbildung 1 ).

Kansas State Board of Education.

Viele haben die November-Aktionen des Kansas State Board of Education so interpretiert, dass sie die Lehre von ȁintelligentem Design” als Alternative zur biologischen Evolution ermöglichen. Die vom Vorstand befürworteten wissenschaftlichen Standards können von der oben genannten Website heruntergeladen werden. Ein Teil ihrer Gründe für die Änderung wird unten dargestellt.

In Bezug auf die wissenschaftliche Theorie der biologischen Evolution fordern die Lehrplanstandards, dass die Studierenden die besten Beweise für die moderne Evolutionstheorie kennenlernen, aber auch Bereiche kennenlernen, in denen Wissenschaftler die Theorie wissenschaftlich kritisieren. Diese Curriculum-Standards spiegeln das Ziel des Boards wider: 1) den Schülern zu helfen, das gesamte Spektrum der wissenschaftlichen Ansichten zu diesem Thema zu verstehen, 2) das kritische Denken und das Verständnis der wissenschaftlichen Methode zu verbessern, indem sie die Schüler ermutigen, unterschiedliche und gegensätzliche wissenschaftliche Erkenntnisse zu studieren und 3) sicherzustellen, dass der naturwissenschaftliche Unterricht in unserem Staat "säkular, neutral und nicht ideologisch" ist.

Während die Debatte über die Maßnahmen des Kansas State Board of Education andauert, bedarf es für viele einer Klärung der Rolle der wissenschaftlichen Methode im Wissenschaftsprozess.

Die wissenschaftliche Methode ist die wichtigste Methode, mit der biologisches Wissen gewonnen und verbreitet wird. So grundlegend die wissenschaftliche Methode auch sein mag, ihre historische Entwicklung ist wenig verstanden, ihre Definition ist variabel und ihr Einsatz ist uneinheitlich. Wissenschaftlicher Fortschritt kann ohne die Beschränkungen erfolgen, die durch die formale Anwendung der wissenschaftlichen Methode auferlegt werden. Dieser Bericht untersucht Webressourcen, die sich mit der Definition, Geschichte und Verwendung der wissenschaftlichen Methode befassen.

Ein guter Ausgangspunkt für diese Odyssee ist die Organisation namens Science Service. Science Service, eine gemeinnützige Organisation mit Sitz in Washington, DC, ist vor allem als Herausgeber von . bekannt Wissenschaftsnachrichten und als Veranstalter der Internationalen Fachmesse für Wissenschaft und Technik. Zur Förderung der High-School-Wissenschaft stellt Science Service eine Webseite zur Verfügung, die die wissenschaftliche Methode beschreibt ( Abbildung 2 ).

Man kann eine sorgfältig formulierte Beschreibung der wissenschaftlichen Methode finden, die aus folgenden Schritten besteht: Problem/Zweck, Hypothese, Vorgehensweise, Materialien, Beobachtung/Daten/Ergebnisse, Analyse und Schlussfolgerung. Die meisten würden zustimmen, dass diese Darstellung der wissenschaftlichen Methode für einen angehenden jungen Wissenschaftler angemessen wäre, insbesondere für einen, der ein Science-Fair-Projekt vorbereitet.

Eine weitere Organisation, die den naturwissenschaftlichen Unterricht für das K�-Publikum fördert, ist eMINTS (Verbesserung von Missouris Instructional Networked Teaching Strategies Abbildung 3).

Diese von drei Behörden in Missouri (University of Missouri, Missouri Department of Elementary and Secondary Education und Missouri Department of Higher Education) entwickelte Organisation setzt sich für Folgendes ein: 𠇎MINTs verändert die Art und Weise, wie Lehrer unterrichten und Schüler lernen. Sein Unterrichtsmodell bietet einen forschungsbasierten Ansatz zur Organisation des Unterrichts und kann in jedem Fachgebiet auf jedem Niveau eingesetzt werden.” eMINTS bietet eine Seite über die wissenschaftliche Methode. http://www.emints.org/ethemes/resources/S00000408.shtml

Diese eMINTS-Webseite zur wissenschaftlichen Methode bietet Links zu sehr hochwertigem und traditionellem Material, das Aktivitäten wie “Schwimmt Seife?” und das Scramble der wissenschaftlichen Methode umfasst. Einer der verfügbaren Links führt zur Discovery School, die von Discovery Communications verwaltet wird (Abbildung 4).

Science Fair Central bietet eine fünfstufige Erklärung für die wissenschaftliche Methode: Forschung, Problem, Hypothese, Projektexperiment und Projektabschluss. Das Material stammt aus Janice VanCleaves Leitfaden zu den besten Science Fair-Projekten, eine Veröffentlichung von John Wiley & Sons (New York).

Jede der drei oben aufgeführten Websites bietet eine traditionelle und allgemein akzeptierte Sichtweise der wissenschaftlichen Methode, wie sie zur Unterstützung von Unterrichtsaktivitäten zu finden ist. Die meisten Menschen stimmen darin überein, dass man Wissenschaft betreiben muss, um Wissenschaft zu verstehen. Das Argument fährt fort, dass man, um Wissenschaft zu betreiben, die wissenschaftliche Methode anwenden muss, als ob es eine Form des Katechismus wäre, mit starker Betonung der Schritte, die von der wissenschaftlichen Methode verwendet werden. Ein Beispiel für die Betonung der Schritte zur Methode finden Sie auf der folgenden Website ( Abbildung 5 ):

Frank Wolfs Einführung in die wissenschaftliche Methode.

Dr. Frank Wolfs vom Department of Physics and Astronomy an der University of Rochester (Rochester, NY) stellt einen wissenschaftlichen Methodenanhang zu den Laborhandbüchern zur Verfügung, die mit den Physikeinführungskursen des College in Rochester verbunden sind. Er, wie viele seiner wissenschaftlichen Kollegen, stellt fest, dass die wissenschaftliche Methode vier Schritte umfasst: 1) Beobachtung und Beschreibung eines Phänomens oder einer Gruppe von Phänomenen 2) Formulierung einer Hypothese zur Erklärung der Phänomene (in der Physik nimmt die Hypothese oft die Form eines kausalen Mechanismus oder einer mathematischen Beziehung) 3) Verwendung der Hypothese, um die Existenz anderer Phänomene vorherzusagen oder die Ergebnisse neuer Beobachtungen quantitativ vorherzusagen und 4) Durchführung experimenteller Tests der Vorhersagen durch mehrere unabhängige Experimentatoren und ordnungsgemäß durchgeführte Experimente .

Das Laborhandbuch für meinen Embryologie- oder Histologiekurs könnte eine ähnliche Aussage haben. Während wir unsere Schüler in den Wald der Wissenschaft führen, kodifizieren wir den Prozess als vorgeschriebene Schritte, und diese Schritte müssen wie Brotkrumen durch den Wald befolgt werden. Diese Unterrichtspraxis führt dazu, dass die Menschen Wissenschaft als formelhaft und vielleicht weniger als einen kreativen Prozess betrachten, als sie wirklich ist. Diese Tendenz, den Prozess pedantisch zu machen, wird durch die Informationen auf der folgenden Website veranschaulicht (Abbildung 6):

Lambert Dolphins Schritte in der wissenschaftlichen Methode.

Lambert Dolphin aus Palo Alto, CA, legt die wissenschaftliche Methode in Form eines Flussdiagramms dar. Dolphin vermischt diese Darstellung wissenschaftlicher Methodik auch mit einer Diskussion über persönliche Philosophie und Religion.

Ein weiteres Beispiel für die Einbindung der wissenschaftlichen Methode in eine persönliche Philosophie ist mit der folgenden Website verbunden (Abbildung 7).

Norman W. Edmunds Idee der wissenschaftlichen Methode.

Norman W. Edmund ist der Gründer des bekannten Edmund Scientific (Tonawanda, NY), einem Versandhaus für Wissenschaftsbedarf. Sein Unternehmen wurde verkauft und in ein neues Unternehmen namens Scientifics eingegliedert. Edmund betrachtet die wissenschaftliche Methode 𠇍ie größte Idee aller Zeiten.” Er definiert die wissenschaftliche Methode wie folgt: Aktivitäten), die in der Master-Methode vorkommen, mit der wir Wissen in allen Bereichen erwerben, verfeinern, erweitern und anwenden.”

Die Verwendung des Begriffs wissenschaftliche Methode durch den Wissenschaftsdienst und eMINTS würde im Bereich der naturwissenschaftlichen Bildung allgemein akzeptiert. Die Verwendung von Dolphin und Edmund wäre für viele problematisch. Und in der gängigen Praxis, wie sie in den Physiklaborhandbüchern dargestellt wird, wird die wissenschaftliche Methode als starrer Prozess dargestellt, der wie eine religiöse Doktrin verfolgt wird. Diese Praktiken führen uns zurück zum Kansas Board of Education: “säkular, neutral und nichtideologisch.” An dieser Stelle ist es an der Zeit, Charles Darwin zu besuchen.

Dr. Ian C. Johnston vom Department of Liberal Studies am Malaspina University-College (Nanaimo, British Columbia, Kanada) hat ein Handbuch für Studierende der Geisteswissenschaften verfasst, die sich mit Wissenschaftsgeschichte beschäftigen. Er gibt seine Interpretationen zu den Ursprüngen der Evolutionstheorie und gibt damit Einblicke in die wissenschaftliche Methode ( Abbildung 8 ).

Ian C. Johnstons Interpretationen der Ursprünge der Evolutionstheorie.

Darwins Verzögerung bei der Veröffentlichung seiner Theorie war auf andere Faktoren als das stürmische politische Klima zurückzuführen. Denn was er vorschlug, markierte eine bedeutende Abkehr von der konventionellen englischen empirischen Wissenschaft. Im Zentrum der Naturphilosophie in England stand, wie wir bereits gesehen haben, der Schwerpunkt auf Beobachtung und Experiment. Auch wenn die meisten Wissenschaftler nicht genau der Baconschen Betonung der primären Rolle der empirischen Beobachtung folgten, erkannten sie dennoch die entscheidende Bedeutung der experimentellen Überprüfung bestimmter Hypothesen.

Diese Forderung stellte Darwin vor ein gravierendes methodisches Problem, einfach weil er eine Theorie vorschlug, in der direkte Beobachtung und Experiment eindeutig unmöglich waren, zumindest in dem Sinne, dass ein Biologe die Hypothese der natürlichen Auslese bestätigen konnte, indem er sie in der Wirkung von signifikanten eine Art in eine andere verwandeln. Offensichtlich war aufgrund der Zeitspanne und der oft winzigen Abfolge von Variationen, durch die sich eine Art aus einer ganz anders aussehenden Art (z.

Um dieser Schwierigkeit zu begegnen, entwickelte Darwin ein neues wissenschaftliches Verfahren, das heute als hypothetisch-deduktive Methode bekannt ist. Er entwickelte zunächst eine Theorie, die sich auf Analogie und Deduktion stützte, um eine plausible Erklärung ohne direkte empirische Beweise zu organisieren, und wandte diese Theorie dann auf eine breite Palette von Tatsachen an, um die Erklärungskraft seiner Vorschläge zu demonstrieren.

Johnston erinnert uns daran, dass sich die wissenschaftliche Methode im Laufe der Zeit weiterentwickelt hat und dass die lange Lücke zwischen Darwins Beagle-Reise und der Veröffentlichung der Entstehung der Arten hatte mit den Einschränkungen der damaligen Methodik der Wissenschaft zu tun. Da wir sowohl Ironie als auch Humor darin fanden, dass Darwin zur Entwicklung der wissenschaftlichen Methode beiträgt, wandten wir uns an Google (htpp://www.google.com), um nach einer Geschichte der wissenschaftlichen Methode zu suchen.

Michael James hat einen interessanten Aufsatz zur Geschichte der wissenschaftlichen Methode vorgelegt. Der Aufsatz wird häufig von vielen Suchmaschinen angeklickt ( Abbildung 9 ).

Michael James' Essay zur Geschichte der wissenschaftlichen Methode.

James ist Doktorand im Fachbereich Humangeographie an der Open University in England. Er schließt seinen Aufsatz mit folgendem Gedanken ab: 𠇏ür jeden Einzelnen erwirbt die Wissenschaft systematisches Wissen über die Wahrheit und die Gesetze der natürlichen oder physikalischen Phänomene, die die Welt beherrschen. Die Wissenschaft klassifiziert nach bestimmten Regeln. "Wissenschaftlich" zu sein bedeutet, den Prinzipien der Wissenschaft zuzustimmen und in ihnen gut unterwiesen zu sein. Die Art und Weise, mit geordneten Mitteln zu einem Ziel zu gelangen, ist „Methode“. Der Anschein, dass die Verwendung wissenschaftlicher Methoden einfach logisch ist, kann irreführend sein, es gibt keine komplexere Frage, wie wir zu unseren Gedanken kommen.” Es scheint, als würde James argumentieren, dass das Flussdiagramm, das die wissenschaftliche Methode zeigt, das Denken nicht abdeckt in den Prozess eingebunden.

Die mittlerweile allgegenwärtige Wikipedia, die Internet-Enzyklopädie, bietet eine Reihe von Portalen zur Geschichte der wissenschaftlichen Methode ( Abbildung 10 ).

Wikipedia-Eintrag zu Karl Popper.

Francis Bacon, ein Zeitgenosse Shakespeares, entwickelte eine Methode des wissenschaftlichen Denkens und der Untersuchung, die mehrere Jahrhunderte lang weit verbreitet war. Johnston (oben) spielt darauf an, dass Darwin sich mit der Baconschen Methode auseinandersetzen musste. Karl Popper hat die hypothetisch-deduktive Methode im 20. Jahrhundert entwickelt und in ihrer Praxis wird die Hypothese falsifiziert. Es ist der Fälschungsgedanke, der stark zum heutigen Missverständnis darüber beiträgt, was Wissenschaft ist und wie die moderne Version der wissenschaftlichen Methode verwendet wird. Das Thema der Fälschung ist auch der Punkt, an dem das Kansas Board of Education in Dantes Göttliche Komödie und steigt hinab ins Inferno. Das Ziel des Boards ist es, den Studierenden zu helfen, die gesamte Bandbreite der wissenschaftlichen Ansichten zu diesem Thema zu verstehen.”

Wie viele Naturwissenschaftslehrer oder Naturwissenschaftler kennen den Wiener Kreis der Wissenschaftsphilosophen der 1920er Jahre? Diese Personen entwickelten eine Sicht der analytischen Philosophie einschließlich des logischen Positivismus. Karl Popper führte die Revolte gegen den logischen Positivismus des Wiener Kreises an. Wie viele verstehen die Idee des Bestätigungsholismus, bei dem eine Hypothesenfälschung rückgängig gemacht werden kann? Wer von den Befürwortern und Kritikern der Evolutionstheorie hat Lakatos und Feyerabends Modifikation der Popperschen Ideen gelesen? Das Kansas Board of Education möchte „kritisches Denken und das Verständnis der wissenschaftlichen Methode fördern“. Abbildung 11).

Ein Vergleich von Poppers, Kuhns und Feyerabends Ideen über wissenschaftliche Theorien.

Die wissenschaftliche Methode hat sich weiterentwickelt. Die wissenschaftliche Methode hat auch Kritiker. Ein Ort, an dem Kritik verzeichnet wird, ist die Website, die als bekannt ist Wissenschaft Hobbyist. William J. Beaty, ein Elektroingenieur am Department of Chemistry der University of Washington (Seattle, WA) betreibt diese Site. Er hat eine Seite auf der Website mit dem Titel “Ten Myths of Science: Reexamining What We Think We Know. ” ( Abbildung 12 ).

Zehn Mythen der Wissenschaft: Überprüfung dessen, was wir zu wissen glauben.

McComas argumentiert, dass 𠇊 General and Universal Scientific Method Exists” ein Mythos ist.

Die Vorstellung, dass alle Forscher einer gemeinsamen Reihe von Schritten folgen, muss zu den am weitesten verbreiteten Mythen der Wissenschaft gehören, da eine solche Liste in den einleitenden Kapiteln vieler wissenschaftlicher Texte vor dem College erscheint. Dieser Mythos ist seit seinem Vorschlag des Statistikers Karl Pearson (1937) Teil der Folklore der Schulwissenschaft. Die für die wissenschaftliche Methode aufgeführten Schritte variieren von Text zu Text, umfassen aber in der Regel a) das Problem definieren, b) Hintergrundinformationen sammeln, c) eine Hypothese bilden, d) Beobachtungen machen, e) die Hypothese testen und f) Schlussfolgerungen ziehen . Einige Texte schließen ihre Liste der Schritte der wissenschaftlichen Methode ab, indem sie als letzte Zutat die Mitteilung der Ergebnisse aufführen.

Einer der Gründe für den weit verbreiteten Glauben an eine allgemeine wissenschaftliche Methode kann die Art sein, wie Ergebnisse zur Veröffentlichung in Forschungszeitschriften präsentiert werden. Der standardisierte Stil lässt den Anschein erwecken, dass Wissenschaftler einem Standardforschungsplan folgen. Medawar (1990) reagierte auf den üblichen Stil von Forschungsarbeiten, indem er die wissenschaftliche Arbeit als Betrug bezeichnete, da der Abschlussbericht der Zeitschrift selten die tatsächliche Art und Weise der Untersuchung des Problems skizziert.

Wissenschaftsphilosophen, die Arbeitswissenschaftler studiert haben, haben gezeigt, dass keine Forschungsmethode universell angewendet wird (Carey, 1994 Gibbs & Lawson, 1992 Chalmers, 1990 Gjertsen, 1989). Die Vorstellung einer einzigen wissenschaftlichen Methode ist so allgegenwärtig, dass viele Studenten enttäuscht sein müssen, wenn sie feststellen, dass Wissenschaftler keine gerahmten Kopien der Schritte der wissenschaftlichen Methode hoch über jedem Labortisch hängen.

Bei genauerem Hinsehen wird sich zeigen, dass Wissenschaftler mit Fantasie, Kreativität, Vorwissen und Ausdauer an Probleme herangehen und diese lösen. Dies sind natürlich die gleichen Methoden, die von allen Problemlösern verwendet werden. Die Lektion, die man daraus lernen muss, ist, dass sich die Wissenschaft bei der Untersuchung von Rätseln nicht von anderen menschlichen Bemühungen unterscheidet.

Ein ungewöhnlicher Ort, um einen Diskurs über die wissenschaftliche Methode zu finden, ist Dharma-Haven, ein Ort, der sich mit tibetischer Medizin und westlicher Wissenschaft beschäftigt. Dr. Terry Halwes aus New Haven, CT, betreibt die Site und veröffentlicht eine Vielzahl interessanter Aufsätze. Eine davon beschäftigt sich mit dem Mythos der wissenschaftlichen Methode ( Abbildung 13 ).

Der Mythos der wissenschaftlichen Methode.

Halwes argumentiert wie folgt: �s Verfahren, das als „die wissenschaftliche Methode“ gelehrt wird, ist völlig irreführend. Viel interessanter ist es, zu untersuchen, was Wissenschaftler tatsächlich tun. 𠇍ie Site ist umfangreich und manchmal weitläufig, wirft jedoch interessante Beobachtungen auf.

Es gibt keine so einzigartige Standardmethode —wissenschaftlicher Fortschritt erfordert viele Methoden�r den Studenten in Einführungskursen in die Naturwissenschaften wird beigebracht, dass 'Die wissenschaftliche Methode' ein einfaches Verfahren ist, bei dem aus Theorien abgeleitete Hypothesen getestet werden, um diese Theorien zu testen. Das „hypothetisch-deduktive“ Schema, das den Schülern vermittelt wird, wurde überhaupt nicht als Methode entwickelt: Es sollte eine logische Analyse sein, wie wissenschaftliche Theorien von Evidenz gestützt werden, und es wurde in einem Prozess entwickelt, der eine Berücksichtigung des Prozesses bewusst ausschließt der Entdeckung in der Wissenschaft.

Eine weitere Kritik an der wissenschaftlichen Methode findet sich an der University of New South Wales. Dr. John A. Schuster vom Department of History and Philosophy of Science stellt eine Webressource mit dem Titel The Scientific Revolution: An Introduction to the History and Philosophy of Science (Abbildung 14) bereit.

Die wissenschaftliche Revolution: Eine Einführung in die Geschichte und Philosophie der Wissenschaft.

Schusters Kapitel 9 ist entzückend und muss vollständig gelesen werden. Die folgenden zwei Auszüge geben den Geschmack seiner Argumente:

Methode ist eine großartige Geschichte, die eine wunderbare Geschichte von mindestens 2500 Jahren hat, die bis zu Aristoteles zurückreicht, der die allgemein anerkannte Methodengeschichte erfand. Im 17. Jahrhundert haben wir Leute wie Francis Bacon, Galileo, Newton, die diese Geschichte aktualisiert und genehmigt haben. Die Geschichte der Methode hat eine echte Funktion in der Wissenschaft, die uns leider nicht sagen soll, wie Wissenschaft gemacht wird. Tatsächlich besteht ihre Aufgabe darin, uns in die Irre zu führen, wie Wissenschaft gemacht wird. Die Methode funktioniert wie ein kultureller Mythos, der Wissenschaft und Wissenschaftler schützt, weil sie es ihnen ermöglicht, Nichtwissenschaftlern zu sagen, warum sie (Wissenschaftler) besonders sind und warum sie in Ruhe gelassen werden sollten. Der Mythos besagt, dass es in der Wissenschaft einen Weg gibt, Dinge zu tun, die Menschen außerhalb der Wissenschaft nicht kennen oder nicht richtig anwenden können. Und so gibt es in diesem Jahrhundert, obwohl diese Geschichte kritisiert wurde, Philosophen und andere Leute, die uns immer noch sagen wollen, dass die wissenschaftliche Methode existiert. Sie glauben, dass eine andere Version der wissenschaftlichen Methode entwickelt werden kann, die praktikabel ist, eine, die endlich die richtige Version ist. Mit anderen Worten, Menschen wie ich liegen falsch, wenn endlich eine gute Version der Methode verfügbar ist. Im 20. Jahrhundert ist eine neue Methodengeschichte des 20. Jahrhunderts entstanden. Ihr Autor, Sir Karl Popper, der bedeutendste Wissenschaftsphilosoph dieses Jahrhunderts, wollte sich allem, worüber wir gerade gesprochen haben, entziehen und verwerfen. Viele gebildete Leute glauben, dass es ihm gelungen ist und dass eine Poppersche Version der Methode funktioniert und tatsächlich zu allen Zeiten und an allen Orten die wahre Methode der Wissenschaft war. Wir werden nun sehen, was diese neue Methodengeschichte beinhaltet, was ihre unbestrittenen Stärken sind und warum wir am Ende wahrscheinlich feststellen müssen, dass sie, wie alle vorherigen Methodengeschichten, von Aristoteles bis Newton, nur als Mythos und rhetorische Verpackung fungiert.

All dies führt zum dritten Ziel des Kansas Board of Education: “ sicherzustellen, dass der naturwissenschaftliche Unterricht in unserem Staat „säkular, neutral und nichtideologisch“ ist.” Geht es in der Wissenschaft darum, Entscheidungen zu treffen? Dieses Experiment ist richtig. Dieses Experiment ist falsch. Diese Schlussfolgerung ist richtig. Diese Schlussfolgerung ist falsch. Basierend auf diesen Entscheidungen schreitet die Wissenschaft voran. Wenn naturwissenschaftlicher Unterricht “neutral,” sein soll, dann kann man keine Entscheidungen treffen. Auf die Ergebnisse getesteter Hypothesen kann nicht reagiert werden. Handeln bedeutet, dass man nicht mehr neutral sein kann. Eine Definition von Ideologie ist 𠇍ie Ideen und die Denkweise, die für eine Gruppe, eine soziale Klasse oder ein Individuum charakteristisch sind.” Keine Ideologie zu haben bedeutet, dass die Gruppe keine Ideen oder Denkweise hat. Man könnte annehmen, dass das Kansas Board of Education möchte, dass die Wissenschaft keine Denkweise hat, sozusagen keine wissenschaftliche Methode, denn eine Methode zu haben ist ein Ausdruck von Ideologie. Wenn Wissenschaftler sich auf ein bestimmtes Naturphänomen einig sind, ist es dann ideologisch, dieser “Theorie” zuzustimmen und danach zu handeln?

Konzentriert man sich auf die wissenschaftliche Methode, ist diese präskriptiv oder deskriptiv? Natürlich ist die Antwort ja und nein. Es beschreibt einen Prozess, durch den Wissenschaft gemacht werden kann. Und doch sind viele gültige Experimente in der heutigen Wissenschaft nicht hypothesengetrieben. Wenn ein Experiment nicht hypothesengetrieben ist, folgt es dann der wissenschaftlichen Methode? Kann Wissenschaft nur durch Schritte durchgeführt werden, die mit der wissenschaftlichen Methode verbunden sind? In gewisser Weise wird die Methode also als präskriptiv behandelt. Wenn die Wissenschaft das Baby ist, ist die wissenschaftliche Methode dann das Badewasser? Ist das Risiko, das Baby zu verlieren, zu groß, wenn wir das Badewasser wegschütten?

Die wissenschaftliche Methode ist eine bequeme Möglichkeit, Schüler in den Prozess der Wissenschaft einzuführen. Es ist eine Annäherung. Wenn der Schüler reifer wird, sollte auch die Art und Weise, wie wir lehren, was die wissenschaftliche Methode ausmacht, reifen, um weniger Schwarzweiß und mehr Grau einzubeziehen. Wir vertrauen darauf, dass dieser kurze Überblick über Webressourcen zum Thema wissenschaftliche Methode Ihren Schülern helfen wird, den Prozess der Wissenschaft und ihre Beziehung zu ihrer Philosophie besser zu verstehen.


Schau das Video: Hypoteser og teorier (Kann 2022).