(5) Vom Verhältnis zwischen Empirie und Theorie 1

Sind wir durch Daten bekehrbar?

Wir hatten im letzten Kapitel „EBM in Aktion“ gesehen: Die aktuellen Leitlinien der amerikanischen Gesellschaft für Anästhesiologie empfehlen zur Behandlung chronischer Rückenschmerzen u.a. nichtsteroidale Entzündungshemmer (sog. NSAID), also einfache Schmerzmittel. Sie stützen sich dabei auf fünf Studien, von denen zwei sich auf Schmerzmittel beziehen, die aufgrund ihrer Nebenwirkungen vom Markt genommen wurden – und von den restlichen 3 Studien sind zwei so klein und kurz, dass sie eigentlich wenig aussagekräftig sind. Hingegen ignoriert die Leitlinie eine autoritative Überblicksarbeit mit 53 Studien, im Jahr 2000 publiziert, die zum Schluss kommt, dass Schmerzmittel zur Therapie chronischer Rückenschmerzen unbrauchbar sind.

Ich habe dieses Beispiel nicht deswegen ausgewählt, weil ich irgend jemanden anschwärzen wollte, sondern ich hatte es mir selbst zur Recherche- und Demonstrationsaufgabe gemacht, weil ich einmal überprüfen wollte, wie übertragbar Daten aus solchen klinischen Studien auf Praxispopulationen sind. Letztlich war diese Fragestellung irrelevant und auch nicht zu beantworten, weil sich eine andere Frage in den Vordergrund schob: Wie kommt es, dass eine wissenschaftliche Fachgesellschaft angesichts überwältigend negativer Daten, angesichts der allseits hochgelobten „Evidenz“ konventioneller medizinischer Forschung, die es ja auch gerade hier beileibe gibt, solche Leitlinien herausgibt? Wie kann es sein, dass wissenschaftliche Daten – erinnern wir uns: „Evidence Based Medicine (EBM)“ heisst, richtig übersetzt, „auf wissenschaftliche Daten gestützte Medizin“ – so eklatant ignoriert werden?

Dafür gibt es mindestens drei Gründe:

  1. Teil der EBM ist auch die klinische Erfahrung des Arztes. Diese geht auf dem Weg der Befragung der Fachpanel-Mitglieder mit in die Bewertung ein. Und diese Erfahrung kann durchaus positiv sein, obwohl wissenschaftliche Daten ein anderes Bild zeichnen. Warum? Ganz einfach, weil der Placebo-Effekt eine enorm große Rolle spielt, und weil man auch mit der Mobilisierung von Hoffnung, Erwartung, Entspannung und durch schlichte Konditionierung, also Lernerfahrung aus früheren Behandlungen, erstaunlich gute Erfolge erzielen kann. Das ist auch gar nicht schlecht, im Gegenteil. Ich war schon immer dafür zu gewinnen, dass der beste Therapeut derjenige ist, der Selbstheileffekte beim Patienten mobilisiert. Allerdings ist es gerade bei NSAIDs so, dass diese Effekte mit einem enorm hohen Nebenwirkungspotenzial erkauft werden. Daher wäre es vermutlich nicht nur klüger, sondern sogar ethischer, Placebo-Effekte von Therapien zu nutzen, die ansonsten nur sehr geringe, manchmal vielleicht gar keine spezifischen Effekte haben, dafür aber sehr hohe Placebo-Effekte, jedenfalls bei den Patienten, die auf sie schwören. Dazu gehören vor allem Verfahren der Komplementärmedizin; Akupunktur, Homöopathie, Radionik, Bioresonanz und Co. Also, halten wir fest: ein Grund, warum NSAIDs immer noch in den Leitlinien stehen, ist die Tatsache, dass sie vermutlich in den Händen der befragten Spezialisten hohe Placebo-Effekte erzeugen, vermutlich weil eben jene Spezialisten auf sie schwören.
  2. Es gibt einen ausgesprochenen Bias. „Bias“ ist Statistikerdeutsch und heißt „Verzerrung“. Damit ist hier eine Verzerrung der Wahrnehmung gemeint, die dazu führt, dass die befragten Experten diese Therapien wohlmeinender bewerten, als es aufgrund der Daten angemessen wäre. Das wollen wir heute nicht weiter vertiefen. Der Schlüssel dazu findet sich im sog. „conflict of interest“, also im Interessenskonflikt. Es ist bekannt und von der Presse schon oft angeprangert worden, dass in vielen Expertengremien die solche und ähnliche Leitlinien verfassen mehrheitlich Forscher sitzen, die Forschungsgelder, Honorare oder gar Anteile von Pharmafirmen haben, die diese Produkte herstellen. Das erzeugt Bias. Verzerrung erzeugt Fehlwahrnehmung. Fehlwahrnehmung erzeugt Resistenz gegenüber der oft traurigen Wirklichkeit.
  3. Das führt mich zum Dritten Punkt und zum heutigen Thema: Der Einfluss unser Vorerfahrungen. Wir sind alle in der Regel weniger gute Empiriker, als wir es gerne hätten. Stattdessen werden wir geleitet von Vormeinungen, die sich nur in Grenzen durch Daten verändern lassen. Und das ist die wissenschaftliche Crux der ganzen Sache. Denn obwohl viele Menschen, Wissenschaftler zumal, so tun, als würden sie auf empirische Daten hören, passiert in Wirklichkeit folgendes: sie haben aufgrund ihrer Ausbildung, aufgrund ihrer Erfahrung, aufgrund dessen, was sie in ihrer Kultur und von ihren Kollegen und Gleichgesinnten gehört haben eine bestimmte Erwartung geformt darüber, wie sich die Wirklichkeit aller Wahrscheinlichkeit nach verhalten wird, was also vernünftigerweise zu erwarten ist. In dieses Weltbild wird all das eingeordnet, was uns an Erfahrungen zustößt. Und wissenschaftliche empirische Daten sind auch nur eine Form der Erfahrung, zwar eine sehr strukturierte und informativ dichte Erfahrung, aber eben nur eine unter vielen. Je gefestigter unser Weltbild ist, je mehr Vorerfahrungen wir haben, desto schwieriger wird es für eine neue Erfahrung, dieses unser Weltbild zu verändern. Meistens werden Erfahrungen dahingehend bewertet, ob sie mit unserer Erwartung übereinstimmen, oder nicht. Sind sie konsistent und erwartungskonform, nehmen wir sie dankbar, nickend und mit Wohlgefühl zur Kenntnis, speichern sie vielleicht unter der Kategorie „habe ich doch immer schon gesagt“ ab – und gehen zur Tagesordnung über. Ist die Erfahrung, sind wissenschaftliche Daten, inkonsistent mit der Erwartung die wir haben, haben wir zwei Möglichkeiten: wir ignorieren sie und denken „das war jetzt eine Ausnahme“ oder „Ausreißer, Einzelfall, Zufall“. Oder aber wir nehmen die Erfahrung ernst und müssen unsere Vormeinung ändern. Wann tun wir das? Und tun wir es überhaupt? Ich behaupte: wir tun es selten, allzu selten. Denn wir sind von der biologischen Struktur her Bayesianer (s.u.). D.h. wir tendieren dazu, unsere Vormeinung zu bestätigen und uns solche Informationen zu suchen, die genau das tun und diejenige Informationen zu ignorieren, die unsere Vormeinung in Frage stellen. Jedenfalls in der Regel, meistens und bei den meisten Leuten ist das so. Und leider auch allzu oft bei Wissenschaftlern.

Ich will das etwas ausführen und auch zunächst erklären, warum das möglicherweise biologisch sinnvoll, aber wissenschaftlich gefährlich ist. Ich will auch kurz erklären, was ein „Bayesianer“ ist; zur entsprechenden Statistik kommen wir erst später. Fangen wir von hinten an:

Wir sind alle Bayesianer – Oder: Warum es sich lohnen könnte auf Vormeinungen zu beharren

Thomas Bayes und Ausgangswahrscheinlichkeiten
Ein Bayesianer ist einer, der vorgeht, wie das von dem presbyterianischen Priester und Mathematiker Thomas Bayes (1702-1761) in seinem Theorem formalisiert worden war. Bayes hat sich u.a. auch mit Fragen der Wahrscheinlichkeit befasst. Normalerweise denken wir über Wahrscheinlichkeit folgendermaßen: Nehmen wir an, in einer Schachtel befinden sich 50 schwarze und 50 weiße Kugeln. Wir fragen uns dann: Wie groß ist die Wahrscheinlichkeit, eine weiße Kugel zu ziehen, wenn alle gut durchmischt sind? Klarerweise ½, weil es zwei Optionen gibt, die gleich oft vorkommen. Bayes drehte den Spiess um. Er fragte sich: Angenommen ich habe ein paar Kugeln gehzogen und damit ein klein wenig Ausgangsinformation, was weiß ich über die Kugeln in der Schachtel? Bayes formalisierte also den Glauben über die Wirklichkeit, gegeben wir haben ein paar Ausgangsinformationen und Erfahrungen oder empirische Daten über sie. Und er stellte fest – was ja intuitiv ganz einleuchtend ist: wie wir Daten bewerten, also die Wirklichkeit, hängt davon ab, was wir vorher über sie wissen, bzw. zu wissen glauben. Wissen wir wenig über sie, ist also die Ausgangswahrscheinlichkeit (in Bayes’scher Terminologie die „prior probability“) für ein bestimmtes Ereignis etwa genauso groß wie sein mögliches Gegenteil, dann erreichen wir mit relativ wenig empirischem Aufwand eine bestimmte Sicherheit, wie wir die Wirklichkeit bewerten (die sog. „posterior probability“). Das ist die Formalisierung der Tatsache, wie empirische Wirklichkeit und Erfahrung Meinungen verändert. Wenn wir keine dezidierte Meinung zu einem Thema haben, dann kann ein bisschen Information unsere Meinung rasch bilden helfen bzw. uns eine gewisse Meinung vermitteln. Haben wir aber bereits eine sehr stark geprägte und ausgesprochen klare Meinung zu einem Thema, dann heißt das auch, dass das Gegenteil sehr unwahrscheinlich für uns ist, dass wir also sehr viel empirische Daten und sehr viel Überzeugungsarbeit benötigen, bevor wir diese Meinung verändern. [1]

Beispiel 1: Wenn ein Experte aufgrund einer langjährigen Ausbildung, Lektüre von zahllosen Studien, aufgrund einer dauernden Informationsüberflutung mit Nachrichten über die Nützlichkeit bestimmter Präparate, befördert durch ausreichend finanzielle Anreize durch Arzneimittelhersteller erst einmal die Meinung gewonnen hat, NSAIDs seien nützliche Arzneien, dann wird er diese Meinung erst dann aufgeben, wenn sehr gewichtige Erfahrungen dagegen sprechen. Eine solche Erfahrung könnte sein, dass seine Frau aufgrund einer solchen Behandlung an ernsthaften Nebenwirkungen erkrankt, oder vielleicht sogar eine Serie von guten Studien, die ihn eines besseren belehren. Aber vermutlich würde eine einzige Studie nicht reichen, vermutlich müssten es mehrere sein. Ein einfacher Review, auch wenn er noch so systematisch ist, würde daran wohl nichts ändern, denn Reviews sind ja auch nichts anderes als eine einzige Publikation, manchmal fehlerbehaftet, etc.

Beispiel 2: Wenn ein Wissenschaftler erst mal die Meinung gefasst hat, Homöopathie könne gar nicht funktionieren, weil ja bekanntlich in homöopathischen Substanzen keine Moleküle mehr drin sind, dann werden auch ganze Heerscharen von positiven Daten nichts an dieser Meinung ändern können. Ich habe neulich auf einer Tagung das apostrophiert gesehen: Barney Oliver, zu der Zeit Chef der Forschungabteilung bei HP, hat einmal geschrieben: „This is the sort of thing I would not believe, even if it were true” (Das würde ich nicht mal dann glauben, wenn es wahr wäre) Klingt zwar doof, ist aber absolut konsequent und bayesianisch: wer einmal eine wirklich klare Vormeinung aufgrund anderer Erfahrung hat, gibt sie nicht mehr so leicht preis.

Unser Gehirn ist eine Wirklichkeitskonstruktionsmaschine
Meiner Meinung nach ist dies biologisch vorgeprägt und macht daher auch – in Grenzen – Sinn. Inwiefern und warum? Das hat mit unserer Neurobiologie zu tun. [2] Wir kommen auf die Welt als einigermaßen unbeschriebene Blätter. Zwar gibt es genetisch ein paar Vorgaben, aber im wesentlichen ist unser neuronales System noch nicht verschaltet, sondern tut dies in den ersten Wochen, Monaten, Jahren mit enormer Geschwindigkeit und Plastizität. Diese Plastizität bleibt zwar erhalten, aber nicht mehr mit der gleichen Dynamik wie in den frühen Lebensjahren. Daher können kleine Kinder viele Sachen viel leichter lernen als Erwachsene – Sport, Musikinstrumente, Sprachen, Jonglieren. Kleine Kinder in China lernen chinesisch in drei Jahren, manche Erwachsene lernen es nie. Unsere Erfahrungen prägen uns und gestalten die Art, wie unser Gehirn reagiert.

Wir wissen heute, dass es sehr viel konstruktiver ist, als wir denken. Der Hirnforscher Raichle hat einmal das Wort von der dunklen Energie des Gehirns geprägt. Darunter versteht man in etwa folgenden Sachverhalt: etwa 98% aller Gehirnaktivität, die in uns abläuft, ist damit beschäftigt, interne Reize zu verarbeiten und nur maximal 2% aller Energie verwendet das Gehirn darauf, Reize, die von außen kommen zu verarbeiten. Anders gesagt: Daten und Information von außen modulieren allenfalls, was im Gehirn andauernd passiert. Was passiert dort? Wir entwerfen eine Welt aus der Erfahrung, die wir gemacht haben, projizieren sie nach draußen und passen diesen Entwurf nur dort an, wo er sich grob an der Wirklichkeit stößt. Nochmals anders ausgedrückt: Wir nehmen nicht die Welt wahr, sondern wir konstruieren sie dauernd neu, aufgrund unserer früheren Erfahrung. Was wir als Wahrnehmung der Welt empfinden, ist „in Wirklichkeit“ (was auch immer wir jetzt darunter verstehen wollen) eine Konstruktion, sanft moduliert durch eine zwar regelmäßige, aber doch moderate Überprüfung an der Wirklichkeit.

Wir arbeiten nicht wie eine digitale Kamera oder sonst ein technisches Gerät, das wir erfunden haben, das naiv und blanko die Wirklichkeit ablichtet. Wir sind mehr wie ein Wirklichkeitsgenerator, der hin und wieder überprüft, ob die entworfene Wirklichkeit nicht allzu sehr von der erfahrenen abweicht. Denn für das Überleben muss der Organismus nicht die Wirklichkeit als Ganzes getreu abbilden, sondern nur Bereiche der Wirklichkeit so passend in seine Wahrnehmung und sein Verhalten einbauen, dass das Überleben gesichert ist.

Ein solches Vorgehen ist ja auch biologisch nicht dumm. Denn es kostet wesentlich mehr Zeit und Energie, jede Sekunde alles wieder ganz neu von vorne zu entwerfen. Viel einfacher ist es davon auszugehen: alles bleibt wie gewohnt – und nur das, was anders ist, wird in der Innenrepräsentation und im Entwurf abgeändert.

So funktionieren wir biologisch als Lebewesen. Was für uns als individuelle Wesen mit komplexem kognitivem Apparat gilt, gilt auch für uns als Wissenschaftler und gilt auch für die Wissenschaft, die ja eine Ansammlung solcher Wissenschaftler ist. Das bedeutet: Es muss uns gar nicht wundern, dass konventionelle Schmerztherapeuten NSAIDs bei chronischen Schmerzen für wirksam halten, obwohl sie es gemäß aktueller Daten gar nicht sind. Ihre Ausgangswahrscheinlichkeit für eine solche Aussage ist sehr hoch. So konstruieren sie die Wirklichkeit. Daher müsste es sehr viele negative Daten geben oder eine sehr starke Erfahrung, die sie verändert. Und deshalb wundert es mich auch nicht, auch wenn es mich ärgert, dass Kritiker der Komplementärmedizin offenbar so datenblind sind. Auch hier gilt: die Ausgangswahrscheinlichkeit, dass Komplementärmedizin oder Homöopathie funktioniert, ist so gering in den Augen der Kritiker, dass selbst ein Riesenhaufen positiver Daten, den es ja auch in manchen Bereichen gibt, kaum, oder zunächst kaum, einen Unterschied machen würde.

Konkretisierungen und Beispiele
Sie können das durchprobieren. Ich habe ein hübsches Programm im Internet gefunden, das Sie die entsprechenden Berechnungen vornehmen lässt; es zeigt Ihnen, wie konventionelle statistische Ergebnisse ausgedrückt als p-Werte oder Irrtumswahrscheinlichkeiten Vormeinungen verändern bzw. aufgrund bestehender Vormeinungen anders interpretiert werden müssen: http://www.graphpad.com/quickcalcs/DistMenu.cfm

Gehen Sie zu „interpret a p-value“. Sie kommen zu einem Eingabe-Menü. Dieses fordert Sie auf, einen p-Wert zu definieren. Nehmen wir an, Sie hätten eine Studie mit konventionellem Signifikanzniveau von 0.05. Nehmen wir weiter an, die Studie hätte ordentliche statistische Mächtigkeit gehabt, also Eingabe 90% (das werde ich in einem anderen Blog genauer erläutern). Nun kommt die Korrektur für die Ausgangswahrscheinlichkeit. Nehmen wir an, Sie sind Experte im Gremium und vorab der Meinung, Arzneimittel sind gut für die Welt und Schmerzmittel wirken, auch im chronischen Fall. Ihre Ausgangswahrscheinlichkeit ist also ebenfalls 90%.

Sie klicken auf „Berechne“ und sehen: eine einzige Studie dieser Art wird ihren Glauben, dass Schmerzmittel wirken in eine virtuelle Sicherheit, nämlich in eine Wahrscheinlichkeit von beinahe 100% verwandeln (Posterior probability = 0.9939). Angenommen, Sie würden in einer solchen Situation ein nicht-signifikantes Ergebnis sehen, so wäre ihre nachgeordnete Wahrscheinlichkeit, dass es sich dabei um einen Irrtum handelt, etwa 50%. Gehen wir davon aus, dass die Ausgangswahrscheinlichkeit für Sie 99% ist, dass Schmerzmittel bei chronischem Rückenschmerz wirken, dann wird ein signifikantes Ergebnis ihnen praktisch 100%ige Sicherheit bescheren und ein negatives Ergebnis Ihnen immer noch einen 91%igen Spielraum lassen für die Interpretation, dass das Ergebnis einfach nur ein Missgriff war.

Simulieren wir umgekehrt einen Homöopathie-Skeptiker, der nur bereit ist mit einer 1%igen Wahrscheinlichkeit anzunehmen, dass Homöopathie funktionieren kann. Eine signifikante positive Studie dieser Art, mit 90%iger statistischer Mächtigkeit wird diese Ausgangswahrscheinlichkeit nur auf 15% Wahrscheinlichkeit steigern. Ein negatives hingegen seine 99%ige Sicherheit, dass es einen solchen Effekt nicht geben kann auf 99.89% erhöhen also noch stärker in Richtung Sicherheit bewegen. Ist ein Kritiker nur bereit, mit einem Promille davon auszugehen, dass Homöopathie funktioniert, wird eine Studie dieses Promille zu einem Prozent verschieben.

Wir sehen: die Ausgangswahrscheinlichkeiten, die wir in unserem Kopf unterhalten, und zwar als Resultat unserer vergangenen Erfahrung, unserer Vormeinung, unserer Eitelkeiten, oder warum auch immer, beeinflussen sogar in einer formalisierbaren Weise, wie empirische Daten unsere Vormeinung, unsere Sicht der Wirklichkeit verändern können oder auch nicht. Je höher die Ausgangswahrscheinlichkeit, desto leichter akzeptieren wir ein empirisches Ergebnis und umgekehrt. Wir sind eben alle Bayesianer. Daher können Experten NSAIDs als wirksam bei chronischen Rückenschmerzen ansehen, obwohl sie es nicht sind, und Homöopathiekritiker die vorhandenen Daten ignorieren (und dabei gleichzeitig anderen vorwerfen, sie täten dies).

Aktuelles Beispiel: Prof. Ernst sagt, ich würde mich nicht von meinen eigenen negativen Daten bekehren lassen und sei deshalb kein ernsthafter Wissenschaftler. Ich finde: das Gegenteil ist der Fall. Ich habe eine der methodisch saubersten klinischen Studien zur Homöopathie durchgeführt (sagt Ernst). [3] Diese ist negativ ausgegangen. Daraus habe ich Konsequenzen gezogen, die vielen Homöopathen sauer aufgestoßen sind, und seither immer gesagt, was auch immer dort passiert, es hat nichts mit einer konventionell-kausalen Pharmakologie zu tun. Sonst würden wir anders geartete Effekte sehen. Gleichzeitig habe ich auch noch eine Fülle anderer Erfahrungsdaten zur Verfügung: meine eigene persönliche Erfahrung mit der Homöopathie, viele Fallberichte aus erstklassiger Hand und aus der Literatur.

Ich habe also eine andere Ausgangswahrscheinlichkeit. Daraus habe ich den Schluss gezogen: irgendwas ist hier ganz komisch und die einfache Hypothese „alles nur Placebo“ kann so auch nicht stimmen. Ich habe dann ein paar Arzneimittelprüfungen gemacht. Das sind experimentelle, verblindete Untersuchungen an Gesunden. Schon die ersten beiden Pilotstudien haben interessante Daten zutage gefördert. Die Hauptstudie, bestehend aus zwei Teilstudien, hat einen klaren signifikanten Effekt erzeugt. Eine zweite, davon unabhängige Studie ebenfalls. [4] Daraus habe ich den Schluss gezogen: mindestens manchmal zeigen homöopathische Arzneimittel andere Symptome an gesunden Freiwilligen als Placebos. Wissenschaftslogisch heißt dies: die Aussage „Homöopathie ist immer und unter allen Umständen gleichzusetzen mit Placebo“ kann pauschal so nicht stimmen. Nicht mehr, und nicht weniger. Interessant ist nun folgendes: Kritiker ignorieren diesen Teil meiner Daten geflissentlich. Als eine Spiegelredakteurin mir vor einiger Zeit per E-Mail einen Satz von Fragen zur Homöopathie schickte, hatte ich ihr, wohl ahnend, dass sie einen Homöopathieverriss im Begriff war zu schreiben, genau diese Daten geschickt mit der Bitte, sie zu berücksichtigen. Das hat sie aber nicht getan.

Wochen vorher hatte die selbe Redakteurin öffentlich auf einem Podium verkündet, die Homöopathie gehöre in die Medizingeschichte und ihre Aufgabe sei es, sie dorthin zu befördern. Hier sehen wir Vormeinung und Pastor Bayes in Aktion. Wenn so etwas geschieht, helfen Daten nie weiter, einfach deshalb, weil sie eine sichere Weltsicht erschüttern würden, und das ist unbequem. Aus genau dem gleichen Grund zitiert mich Edzard Ernst auch falsch, weil ihm der Rest meiner Daten nicht in sein theoretisches Weltbild passt. Ich finde das schade, aber verständlich. Denn Menschen sind halt so. Wir sind, in der Regel, Bayesianer.

Ausblick
Einen guten Wissenschaftler unterscheidet von Möchtegernwissenschaftlern oder selbsternannten Wissenschaftspäpsten normalerweise seine Bereitschaft, von Daten zu lernen, seine Theorie der Erfahrung preiszugeben und anzupassen und die Offenheit für neue Erfahrungen, obwohl er eine eigene Theorie hat. [5] Wie aber kann das gehen, werden Sie sagen, nachdem wir doch offenbar als Bayesianer verdammt sind zu leben, schon aufgrund unserer Biologie? Dafür gibt es ein kleines, aber sehr patentes Heilmittel: systematisches Vergessen von Sicherheiten und Automatismen, systematisches Üben von Offenheit, systematische Kultur unseres Geistes. Das kann man üben, z.B. durch Meditation, in der wir den Geist frei machen und wieder neu ausrichten und öffnen für das Geheimnis des Lebens und die Überraschungen, die es für uns bereithält. Je neu. Das ist die Essenz des Lebens, der Spiritualität, und, jawohl, auch der Wissenschaft. [6] Dadurch werden wir von einem vorgeprägten Bayesianer zu einem offenen Menschen. Wenn wir es nämlich schaffen, einer empirischen Option, ob es NSAIDs bei chronischen Rückenschmerzen sind oder Homöopathie, eine offene 50%ige Wahrscheinlichkeit einzuräumen, dass sie funktioniert, dann reicht eine einzige gute Studie aus, um uns, im positiven Falle zu 95% zu überzeugen, dass die Studie die Wirklichkeit abbildet und im negativen Falle ebenso. Offenheit spart enorm Ressourcen, und würde uns viele Kämpfe ersparen.

Anmerkungen:

  1. Bayes’sche Statistik und entsprechendes Denken ist nicht ganz trivial. Daher ist es auch so wenig verbreitet, obwohl es eigentlich viel natürlicher ist, als die herrschende frequentistische Statistik. Ich habe als Einführung sehr nützlich gefunden die unten zitierten Arbeiten von Pamar et al. (2001), Raha (2011) und ein sehr gutes Beispiel liefert Tressoldi (2011). Auch die Wikipedia Einträge zum Thema „Bayes“ und „Bayesian…“ helfen weiter. Auf der englischen Seite finden sich ein paar Anmerkungen, von denen einige weiterführen zu online-Tutorien, auf denen man sich weiter kundig machen kann.
  2. Was ich hier umreisse, ist Standard-Neurobiologie. Jedes Lehrbuch enthält entsprechende Informationen. Ich fand sehr nützlich Roth (1997). Die zentrale Arbeit ist Raichle (2006).
  3. Siehe Walach et al. (1997). Die entsprechenden wichtigen Kritiken wurden von Vithoulkas und Oberbaum formuliert. Meine Repliken darauf in Walach (2002a, b) und ein paar Gedanken dazu, wohin mich diese Daten geführt haben in Walach (2000). Man muss nicht mit mir einer Meinung sein, aber man kann hier erkennen: ich habe meine Daten ernst genommen und meine Vormeinung drastisch geändert.
  4. Die ersten Pilotstudien waren Möllinger et al (2004) und Walach et al (2004). Die entsprechenden Folgestudien waren Walach et al (2008) und Möllinger et al (2009): Link Ich habe alle meine Arzneimittelprüfungsdaten zusammengefasst in einem Buchkapitel Walach (2009).
  5. Das ist zwar trivial, ist aber immer wieder wert betont zu werden, weil es oft vergessen geht. Gerade dieser Tage kann man es bei den Lobreden auf die neuen Nobelpreisträger immer wieder lesen: Gutes Beispiel ist Daniel Shechtman, der Entdecker der Quasikristalle. Er sah sie im Elektronenmikroskop, traute seinen Augen (und seiner Erfahrung) und änderte seine Meinung, die er aus dem Lehrbuch kannte und die alle Kollegen teilten. Er widerstand der Skepsis seiner Kollegengruppe fast 20 Jahre lang und erhielt schliesslich den Nobelpreis. Siehe z.B. „Nobelpreis für den Glauben ans Unmögliche“ oder „Nobelpreis für Chemie geht nach Israel„.
  6. Ich habe Gedanken dazu vorgelegt in meinem Spiritualitätsbuch Walach (2011) und einem entsprechend kleineren Kapitel in Walach (2008). Demnächst vielleicht ein Exkurs-Kapitel zum Thema.
  • Literatur
    Möllinger, H., Schneider, R., Löffel, M., & Walach, H. (2004). A double-blind, randomized, homeopathic pathogenetic trial with healthy persons: Comparing two high potencies. Forschende Komplementärmedizin und Klassische Naturheilkunde, 11, 274-280.
  • Möllinger, H., Schneider, R., & Walach, H. (2009). Homeopathic pathogenetic trials produce symptoms different from placebo. Forschende Komplementärmedizin, 16, 105-110.
  • Parmar, M. K. B., Griffiths, G. O., Spiegelhalter, D. J., Souhami, R. L., Altman, D. G., van der Scheuren, E., et al. (2001). Monitoring of large randomised clinical trials: a new approach with Bayesian methods. Lancet, 358, 375-381.
  • Raha, S. (2011). A critique of statistical hypothesis testing in clinical research. Journal of Ayurveda and Integrative Medicine, 2, 105-114.
  • Raichle, M. E. (2006). The brain’s dark energy. Science, 314, 1249-1250.
  • Roth, G. (1997). Das Gehirn und seine Wirklichkeit. Kognitive Neurobiologie und ihre philosophischen Konsequenzen. Frankfurt: Suhrkamp.
  • Rawlins, M. (2008). De Testimonio – On the Evidence for Decisions about the Use of Therapeutic Interventions. The Harveian Oration. Delivered before the Fellows of the Royal College of Physicians of London on Thursday 16 October 2008. London: Royal College of Physicians.
  • Tressoldi, P. E. (2011). Extraordinary claims require extraordinary evidence: the case of non-local perception, a classical and Bayesian review of evidence. Frontiers in Psychology, 2(2), Art 117.
  • Walach, H., Gaus, W., Haeusler, W., Lowes, T., Mussbach, D., Schamell, U., et al. (1997). Classical homoeopathic treatment of chronic headaches. A double-blind, randomized, placebo-controlled study. Cephalalgia, 17, 119-126.
  • Walach, H. (2000). Magic of signs: a non-local interpretation of homeopathy. British Homeopathic Journal, 89, 127-140.
  • Walach, H. (2002a). Response to Vithoulkas: Homeopathic fantasies about science, a meta-critique. Homeopathy, 91, 35-39.
  • Walach, H. (2002b). Reply to Vithoulkas and Oberbaum. Homeopathy, 91, 189-191.
  • Walach, H. (2008). Wissenschaft und Spiritualität. In G. Hüther, W. Roth & M. von Brück (Eds.), Damit das Denken Sinn bekommt. Spiritualität, Vernunft und Selbsterkenntnis (pp. 77-96). Freiburg: Herder
  • Walach, H. (2009). Homeopathic pathogenetic trials – A summary of 20 years of reflection, data collection, and analysis. In C. Witt & H. Albrecht (Eds.), New Directions in Homeopathy Research: Advice from an Interdisciplinary Conference (pp. 43-66). Essen: KVC-Verlag.
  • Walach, H. (2011). Spiritualität: Warum wir die Aufklärung weiterführen müssen. Klein Jasedow: Drachen Verlag.
  • Walach, H., Sherr, J., Schneider, R., Shabi, R., Bond, A., & Rieberer, G. (2004). Homeopathic proving symptoms: result of a local,non-local, or placebo process? A blinded, placebo-controlled pilot study. Homeopathy, 93, 179-185.