Antidepressive Wirkung von Omega-3

Im Bereich der Supplemente ist Omega-3 das am besten erforschte Mittel bezüglich antidepressiver Wirkung. Schon seit zwei Jahrzehnten werden kontrollierte Experimente (RCTs) damit durchgeführt und es gibt mehr als ein Dutzend Meta-Analysen dieser RCTs. Die größte Meta-Analyse ist diese. Sie umfasst eine stolze Anzahl von 35 RCTs mit knapp 11.000 Probanten (6700 in Behandlungsgruppen, 4300 in Placebogruppen). Ich wollte vor allem mal einen Blick auf Publikationsbias werfen, was mir auch die Möglichkeit gibt, mein eigenes Programm zur automatischen Ermittlung und Korrektur von Publikationsbias zu testen.

Zwei wichtige Punkte vorab:

  • Eine solide antidepressive Wirkung existiert. Dies gilt jedoch nur für depressive Probanten. Bei gesunden Probanten tut Omega-3 nichts.
  • Omega-3 Supplemente enthalten stets einen gewissen Anteil DHA und EPA. Die Meta-Analyse zeigt deutlich, dass die antidepressive Wirkung von EPA kommt. Das DHA hat keine solche Wirkung. Für eine antidepressive Wirkung sollte also anteilig soviel EPA wie möglich beim Supplement enthalten sein.

Es lohnt sich somit, die weitere Analyse auf die Subgruppe “EPA-reiches Supplement + depressive Probanten” zu beschränken. Die Meta-Analyse enthält nützlicherweise den Forest Plot für genau jene Subgruppe:

Sie stellt für diese Gruppe diese Effektstärke fest:

d = 0,61 [0,37 – 0,84]

Hier der Output aus meinem Programm, jedoch mit Ausschluss des Experiments, in dem Omega-3 als Zusatz zu einer anderen Behandlung gegeben wurde (da Silva et al 2008 Augmented). Man sieht daran, dass die Einschränkung auf diese Subgruppe eine Einschränkung auf circa 900 Probanten bringt und die durchschnittliche Anzahl Probanten pro RCT knapp 40 ist.

Der kleine Unterschied im Ergebnis liegt an der unterschiedlichen Berechnung von Tau² (siehe Hinweis unten). Interessant ist die Frage, ob Publikationsbias besteht und wenn ja, welcher Effekt nach Korrektur verbleibt. Die Autoren der Studie stellen fest, dass ein Publikationsbias bemerkbar ist und kommen mittels Trim-And-Fill auf:

d_korrigiert = 0,42 [0,18 – 0,65]

Ich halte das immer noch für überschätzt, da es a) zu hoch ist um plausibel zu sein, siehe z.B. Vergleich mit Effektstärken von CBT oder SSRI, und viel wichtiger b) nicht mit der Effektstärke übereinstimmt, zu denen die größten RCTs konvergieren. Rechnet man die Meta-Analyse unter Beschränkung auf die sechs größten RCTs nach, aus guten Gründen auch mit Verschiebung statt Neuberechnung des 95 % Konfidenzintervalls, dann bekommt man:

d_korrigiert = 0,33 [0,09 – 0,56] mit p < 0,01

Ich würde es mit Blick auf die beiden mit größten RCTs sogar noch etwas niedriger ansetzen, etwa bei d = 0,30. Wieso die Diskrepanz zu dem, was die Autoren angeben? Korrektur von Publikationsbias ist keine harte Wissenschaft. Trim-And-Fill findet den korrigierten Wert durch Eliminierung von Asymmetrie im Funnel Plot. Das ist ein guter Ansatz. Die obige Methode geht davon aus, dass je größer die RCTs, desto besser die Konvergenz zum echten Effekt. Auch das ist ein guter Ansatz. Im Idealfall kommt man damit auf das Gleiche, in der Realität wird die Übereinstimmung nie perfekt sein.

Ich traue eher dem zweiten Ansatz, da er unabhängig von sehr kleinen RCTs mit wenig statistischer Aussagekraft ist (Probantenzahlen < 30, in dieser Subgruppe 10 der 22 RCTs). Diese RCTs, welche man eher als Pilotprojekte betrachten sollte, sind nützlich in den ersten Phasen der Forschung. Ohne erfolgreiche Pilotprojekte findet sich in der Regel keine Finanzierung für größere RCTs. Sobald jedoch umfangreichere RCTs bestehen, ist die Inklusion der Pilotprojekte in Meta-Analysen eher fragwürdig. Vor allem da diese RCTs fast immer den Großteil des Publikationsbias ausmachen.

Das Programm stellt korrekterweise fest, dass der Einfluss des Publikationsbias auf die Effektstärke signifikant ist (mit p < 0,05) und auch die Sicherheit bei der Ablehnung der Nullhypothese etwas verändert, jedoch nicht auf kritische Weise. Es macht Sinn diese beiden Aspekte getrennt zu betrachten. Korrektur von Publikationsbias kann Effektstärken stark verändern, was aber nicht immer die Ablehnung der Nullhypothese berührt. Es kann auch nach Korrektur noch viel Luft zur Null bleiben. Alternativ kann bei einem schwachen Effekt schon eine kleine Veränderung der Effektstärke die Ablehnung der Nullhypothese gefährden.

Eine Analyse der Asymmetrie des Funnel Plots bestätigt, was die Autoren erwähnen und der erste Teil der automatisierten Analyse gefunden hat. Und zeigt auch sehr schön, wieso eine Regression am Funnel Plot (z.B. Egger’s Test) nicht immer ausreichend ist, um Publikationsbias zu identifizieren. Zentriert man die Effektstärken der RCTs auf d_korrigiert = 0,33 und erzeugt dann das Standardfehler-Effektstärke-Diagramm, dann ergibt sich für die Linie durch die Effektstärken über 0 praktisch diesselbe Steigung wie für die Linie für Effektstärken unter 0. Dieser Test zeigt den Publikationsbias in diesem Fall also nicht.

Dass er trotzdem besteht, sieht man an anderen Möglichkeiten, Asymmetrien des Funnel Plots zu quantifizieren. Einmal über banales Zählen der RCTs (mehr RCTs über 0 als unter 0), Zählen der Ausreißer (mehr Ausreißer über 0 als unter Null), der Summe der Effekt-Distanzen zum korrigierten Effekt (höhere Summe über 0 als unter 0) und die Werte der maximalen Effekt-Distanzen (größer über 0 als unter 0). Insgesamt implizieren die Asymmetrien einen recht saftigen Publikationsbias und implizieren, dass nur knapp 40 % der unerwünschten RCT-Ausgänge publiziert werden.

Alles in Kurz:

Omega-3 Supplemente, sofern reich an EPA und verabreicht an depressive Probanten, zeigen eine gute antidepressive Wirkung, die auch einem strikten statistischen Härtetest standhält. Die Effektstärke sollte man, basierend auf dem Grundgedanken, dass die größten RCTs zur echten Effektstärke konvergieren, bei um die d = 0,30 Standardabweichungen oberhalb des Placebo-Effekts vermuten.

Hinweis: Es gibt verschiedene Anssätze um die Varianz zwischen Studien (Tau²) zu berechnen, siehe hier. Ich habe den “Two-Step Estimator” von Dersimonian / Laird benutzt, weil er sich recht direkt und ohne besonders viel Schmerz implementieren lässt. Je nach Wahl der Methode bekommt man jedoch ein leicht verschiedenes Tau² heraus. Tau² wird zur Varianz jedes Experiments hinzugerechnet. Man kann es sich gut vorstellen als “zusätzliches Rauschen”, welches eingeführt wird, um einer hohen Varianz (wenig Übereinstimmung) zwischen den Experimenten Rechnung zu tragen. Ist die Varianz sehr klein (hohe Übereinstimmung), dann ist Tau² = 0 und man spricht von einer Fixed-Effects Meta-Analyse. Bei Tau² > 0 von einer Random-Effects Meta-Analyse. Mit dem Tau² ändern sich die jeweiligen RCT Gewichte und die gewichtete Effektstärke verschiebt sich. So können leichte Unterschiede entstehen.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s