Antidepressive Nahrungsergänzung

Ich hatte schon mal über das Thema geschrieben, aber wollte es doch noch genauer wissen und habe deshalb die Suche systematischer und nachprüfbarer gestaltet. Es folgt eine Übersicht über alle Meta-Studien zu Nahrungsergänzungsmittel, denen eine antidepressive Wirkung nachgesagt wird.

Erstmal sehr knapp und auf einen Blick:

NahrungsergänzungsmittelEffektstärkeStudienumfangDatenqualität
Omega-3d = 0,34235 RCTs / 7900 ProbantenSehr gut
Probiotischd = 0,2882 RCTs / 2300 ProbantenSehr gut
Kurkumad = 0,4926 RCTs / 800 ProbantenMäßig
Safrand = 1,0343 RCTs / 1600 ProbantenSchlecht
L-Carnitind = 1,1012 RCTs / 800 ProbantenSchlecht

Zur Einordnung der Effektstärken: CBT bringt eine Reduktion depressiver Symptome von d = 0,70 (basierend auf 9000 Probanten), Mindfulness-Interventionen bringen d = 0,52 (basierend auf 5300 Probanten) und Fitness-Interventionen d = 0,58 (basierend auf 4200 Probanten).

Sehr gut empirisch gesichert ist demnach die antidepressive Wirkung von Omega-3 (sofern die Formulierung EPA-reich ist und die Dosis hoch) und probiotischer Mittel. Die Effektstärke liegt zwar ein gutes Stück unter dem Gold-Standard, kann sich aber trotzdem gut sehen lassen, vor allem vor dem Hintergrund der Verfügbarkeit und einfachen Implementation. Kurkuma zeigt eine etwas höhere Effektstärke, jedoch ist die Datenlage noch relativ überschaubar und es findet sich ein mäßig-starker Publikationsbias. Man darf die antidepressive Wirkung als gesichert ansehen, sollte aber die Effektstärke mit Vorsicht genießen. Vermutlich wird die tatsächliche Effektstärke auch in der Umgebung von Omega-3 und probiotischen Mitteln liegen.

Noch mehr Vorsicht sollte man bei Safran und L-Carnitin walten lassen. Die Effektstärken sind unrealistisch hoch und die Meta-Studien zeigen sehr umfassende Hinweise auf Publikationsbias. Bei Safran kommt hinzu, dass die meisten der RCTs aus einem einzelnen iranischen Institut kommen. Jedoch bleibt bei beiden Mitteln nach Bias-Korrektur mittels der Trim-And-Fill Methode ein signifikanter Effekt übrig. Ein Versuch ist es also allemal Wert.

Hier alle Meta-Studien zu Omega-3 inklusive Link. Der Mittelwert ist gewichtet nach der Wurzel der Probantenzahl (und somit proportional zum vermuteteten Standardfehler). Subgruppenanalysen zeigen desöfteren, dass für eine antidepressive Wirkung das Mittel anteilig sehr viel EPA enthalten muss und hochdosiert sein soll. Ist das gegeben, kann man von Effektstärken gut über dem gewichteten Mittel von d = 0,34 ausgehen.

RCTs / ProbantenJahrEffektstärkeLink
35 / 66702018g = 0,31https://www.cambridge.org/core/journals/the-british-journal-of-psychiatry/article/efficacy-of-omega3-highly-unsaturated-fatty-acids-in-the-treatment-of-depression/0BA58661B400602D20E7CEE34B17BAE7
312019d = 0,15https://ueaeprints.uea.ac.uk/id/eprint/72390/
282008d = 0,29https://www.tandfonline.com/doi/abs/10.1080/07315724.2009.10719785
26 / 21602019d = 0,28https://www.nature.com/articles/s41398-019-0515-5
192014d = 0,38https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0096905
15 / 9202010d = 0,53https://www.psychiatrist.com/jcp/depression/meta-analysis-effects-eicosapentaenoic-acid-epa-clinical/
13 / 7312012d = 0,01https://www.nature.com/articles/mp2011100
13 / 12332016d = 0,40https://www.nature.com/articles/tp201629
12 / 5542006d = 0,47https://europepmc.org/article/med/19752840
10 / 3292006d = 0,61https://brainnutrient.securearea.eu/Files/2/42000/42087/PageHomeDownloadDocs/8867_nl.pdf
10 / 9102020d = 0,91https://bmcpsychiatry.biomedcentral.com/articles/10.1186/s12888-020-02656-3
92018d = 0,20https://www.sciencedirect.com/science/article/abs/pii/S0165032718306220
82016g = 0,61https://ajp.psychiatryonline.org/doi/full/10.1176/appi.ajp.2016.15091228
8 / 6382020d = 0,65https://www.nature.com/articles/s41398-020-00886-3
6 / 46102018g = 0,12https://www.sciencedirect.com/science/article/abs/pii/S027153171730502X
n = 7900
Weighted
d = 0,34

Hier die Studien zu probiotischen Mitteln. Subgruppenanalysen zeigen, dass der Effekt für depressive Probanten stärker ist. Bei depressiven Probanten ergeben sich Effektstärken weit über dem Mittel von d = 0,28. Hinweise auf Publikationsbias findet keine der Meta-Studien, zumindest keine, bei der die Analyse zugänglich war.

RCTs / ProbantenJahrEffektstärkeBias?Link
342019d = 0,24LOWhttps://www.sciencedirect.com/science/article/abs/pii/S0149763419300533
19 / 19002019d = 0,31https://www.sciencedirect.com/science/article/abs/pii/S0165178119312156
10 / 13502018d = 0,13LOWhttps://www.sciencedirect.com/science/article/abs/pii/S016503271731488X
72017d = 0,34https://www.liebertpub.com/doi/abs/10.1089/acm.2016.0023
7 / 2002020d = 0,48LOW-MIDhttps://www.ncbi.nlm.nih.gov/pmc/articles/PMC7257376/
7 / 4002021d = 0,00https://www.mdpi.com/2077-0383/10/4/647
52016d = 0,30LOWhttps://www.mdpi.com/2072-6643/8/8/483
n = 2300
Weighted
d = 0,28
LOW

Hier die Meta-Studien zu Kurkuma:

RCTs / ProbantenJahrEffektstärkeBias?Link
10 / 5902021d = 0,32MIDhttps://www.sciencedirect.com/science/article/abs/pii/S0165032720332481
10 / 5302019g = 0,75MIDhttps://www.tandfonline.com/doi/abs/10.1080/10408398.2019.1653260
6 / 3802016d = 0,34LOWhttps://www.sciencedirect.com/science/article/abs/pii/S1525861016306752
n = 800
Weighted
d = 0,49
MID

Weiter mit Safran. Die größte Studie enthält Hinweise auf massiven Publikationsbias. Man sollte davon ausgehen, dass viele Safran-Studien mit negativem Ergebnis in den Schubladen verschwunden sind. Entsprechend bleibt unklar, wie es um die antidepressive Wirkung von Safran tatsächlich steht.

RCTs / ProbantenJahrEffektstärkeBias?Link
23 / 12402019g = 0,99HIGHhttps://academic.oup.com/nutritionreviews/article/77/8/557/5499264?login=true
112019g = 0,89https://pubmed.ncbi.nlm.nih.gov/30036891/
72018d = 1,22LOWhttps://www.ncbi.nlm.nih.gov/pmc/articles/PMC5967372/
22013d = 1,62https://www.sciencedirect.com/science/article/abs/pii/S2095496414601412
n = 1600
Weighted
d = 1,03
HIGH

Und last but not least L-Carnitin. Hier gibt es bisher nur eine Meta-Studie zur antidepressiven Wirkung und diese enthält Hinweise auf einen mäßigen Publikationsbias. Leider auch eine unklare Lage.

RCTs / ProbantenJahrEffektstärkeBias?Link
12 / n = 7902018d = 1,10MIDhttps://pubmed.ncbi.nlm.nih.gov/29076953/

Was die Dosierung angeht sollte man am besten einen Blick darauf werfen, wie das Mittel in den RCTs dosiert wurde. Das ein oder andere lässt sich (zumindest kurzfristig) mit mehr “Wumms” einsetzen als die oftmals recht konservativen Angaben der Hersteller hergeben. Als wirkliche Alternative zu einem SSRI kann wohl keines dieser Mittel dienen, jedoch ist etwas besser als nichts.

Wer Träumt? Und Wer Träumt Nicht?

Die wichtigste und empirisch am besten gesichterte Erkenntnis der Traumforschung der letzten 50 Jahre ist die Kontinuitätshypothese: Träume sind eine Inszenierung der Ideen, Sorgen und Interessen des Wachlebens. Diese Hypothese ist im Prinzip das Newtonsche Gesetz der Traumforschung. Sie wurde vielfach experimentell getestet und hat, im Gegensatz zu den anekdotischen Thesen von Freud und Jung, der akribischen Prüfung standgehalten. Auch einem Test an einem Datensatz mit n = 524 Teilnehmern aus dem Harvard Dataverse hält sie erstaunlich gut stand.

Sorgen des Wachlebens ergeben sich zu einem großen Teil aus unerfüllten Bedürfnissen, welche man, säuberlich kategorisiert und der Wichtigkeit nach gestuft, der Maslowschen Bedürfnispyramide entnehmen kann. Eine Regression zeigt, dass der wichtigste Faktor beim Träumen soziale Bedürfnisse (gemäß Maslow) sind. Unter jenen, die sich häufig Sorgen über die Erfüllung ihrer sozialen Bedürfnisse machen, berichten etwa 80 % von fast täglichen, intensiven Träumen. Unter jenen, die solche Sorgen nicht haben, sind es nur knapp 20 %. Der Effekt ist sehr stark, mit einem standardisierten Regressionskoeffizienten ß = 0,36 und p < 0,001. Soziale Sorgen erhöhen die Wahrscheinlichkeit für intensives Träumen um den Faktor Vier.

An zweiter Stelle stehen Sorgen um Sicherheitsbedürfnisse. 70 % der Leute, die sich um ihre Sicherheitsbedürfnisse sorgen, erleben tägliche, intensive Träume. Unter jenen, bei denen diese Bedürfnisse in solcher Weise erfüllt sind, dass sich Sorgen erübrigen, sind es nur 20 %. Wieder ein starker Effekt mit ß = 0,20 und p < 0,001.

Nicht überraschend ist der Zusammenhang mit dem Persönlichkeitsmerkmal Offenheit / Intellekt, wobei dieser nicht die Kontinuitätshypothese berührt. Offene Menschen sind u.a. charakterisiert durch viel Kreativität und Vorstellungskraft. Dies übersetzt sich auch in intensivere Träume. Unter jenen, die den höchsten Score auf der Skala erzielen, berichten 55 % von täglichen, intensiven Träumen. Am unteren Ende der Skala sind es nur 15 %. Ein moderater Effekt mit ß = 0,17 und p < 0,001.

Daneben spielt auch der Konsum psychoaktiver Substanzen eine Rolle, ß = 0,20 und p < 0,001. Streng genommen wurde in der Umfrage bezüglich psychoaktiver Stoffe nur nach Alkohol, Cannabis und Antidepressiva gefragt, wobei jedes davon einen ähnlich großen traumförderlichen Effekt zeigt. Man darf aber vermuten, dass dies auch für andere deutlich psychoaktive Stoffe gilt. Für wenig psychoaktive Stoffe wie Koffein oder Nikotin zeigt sich kein Einfluss auf das Träumen.

Die Ergebnisse zeigen sehr deutlich, wie die Sorgen des Wachlebens, vor allem jene um die Erfüllung der Bedürfnisse gemäß Maslow, das Träumen antreiben. Eine gute Interpretation eines Traumes a) stellt diese Verbindung her und b) zieht Lehren daraus. Von einer Diskontinuität des Denkens beim Einschlafen sollte man nicht ausgehen. Man beschäftigt sich weiter mit jenen Themen, mit denen man sich auch im Laufe der Tage beschäftigt, jedoch in einer anderen Sprache. Der ungewohnte (symbolische) Ansatz des Weiterdenkens ist womöglich nur ein Folge davon, dass bestimmte Areale des Gehirns, vor allem jene, die Logik und Grammatik berühren, im Schlaf ausgeschaltet sind. So bleibt nur die Sprache symbolischer Bilder und Töne.

Es gibt noch einen wichtigen Punkt anzufügen: Es gibt keine positiven oder negativen Träumer. Die Korrelation zwischen Träumen und Alpträumen ist sehr eng. Man kann nicht viel träumen ohne Alpträume. Und wer fast nie Alpträume hat, der träumt auch nicht viel. Diese Erkenntnis aus dem Datensatz deckt sich mit dem Ergebnis der Traumforschung, dass sich positive und negative Emotionen in Träumen im Großen und Ganzen aufwiegen. Und Träume somit auch eine emotionsregulierende Funktion erfüllen.

P.S. Menschen, die angeben den Tag über sehr beschäftigt zu sein, scheinen auch etwas intensiver zu träumen. Der Effekt ist gut signifikant, jedoch relativ schwach (ß = 0,10 und p < 0,01). Fraglich, ob sich das replizieren ließe.

Häufigkeit von Personen in Träumen (DreamBank)

Über die Plattform DreamBank kann man schnell und einfach zehntausende Traumberichte durchsuchen, welche in akademischen Studien gesammelt wurden. Die Plattform wurde errichtet von George Domhoff, Professor für Psychologie und Soziologie an der University of California (Santa Cruz) und einer der führenden Namen in der evidenzbasierten Traumforschung. Mich hat interessiert, mit welcher Häufigkeit bestimmte Personen, Personenkonzepte und Personenrollen in Träumen vorkommen. Hier das Ergebnis, basierend auf 13.500 Traumberichten (1)

In circa 3 von 4 Träumen:

  • Eine Person, bekannt oder unbekannt (72,5 %)

In circa 2 von 4 Träumen:

  • Eine bekannte Person (41,8 %)

In circa 1 von 4 Träumen:

  • Eine nicht näher bestimmte männliche Person (28,2 %)
  • Eine nicht näher bestimmte weibliche Person (23,1 %)
  • Eine nicht näher bestimmte Gruppe an Personen (26,8 %)
  • Ein oder beide Elternteile (23,1 %)

In circa 1 von 7 Träumen:

  • Die Mutter (14,8 %)
  • Ein oder mehrere Freunde (14,1 %)

In circa 1 von 10 Träumen:

  • Der Vater (10,8 %)
  • Eine nicht näher bestimmte Gruppe an Männern (8,9 %)

In circa 1 von 15 Träumen:

  • Ein Geschwisternteil (6,5 %)
  • Eine nicht näher bestimmte Gruppe an Frauen (6,2 %)

In circa 1 von 20 Träumen:

  • Ein romantischer Partner, bekannt oder unbekannt (5,2 %)

In circa 1 von 25 Träumen:

  • Ein Baby (3,9 %)
  • Ein Bruder (3,6 %)
  • Eine Schwester (3,6 %)
  • Ein Polizist (3,6 %)

In circa 1 von 40 Träumen:

  • Ein Lehrer (2,4 %)

In circa 1 von 60 Träumen:

  • Ein Großelternteil (1,7 %)
  • Eine Tante (1,6 %)

In circa 1 von 80 Träumen:

  • Ein Onkel (1,4 %)
  • Ein Arzt (1,4 %)
  • Ein Teenager (1,3 %)
  • Eine Großmutter (1,2 %)
  • Eine unbekannte alte Person (1,2 %)
  • Ein Nachbar (1,2 %)

In circa 1 von 120 Träumen:

  • Ein Zombie (0,9 %)
  • Ein Vorgesetzter (0,9 %)
  • Ein Großvater (0,8 %)

In circa 1 von 140 Träumen:

  • Ein Mörder (0,7 %)
  • Ein Schauspieler (0,7 %)
  • Ein Mitarbeiter (0,7 %)

In circa 1 von 200 Träumen:

  • Eine Krankenschwester (0,6 %)
  • Ein Anführer (0,5 %)
  • Ein Arbeiter (0,5 %)

In circa 1 von 250 Träumen:

  • Eine Leiche (0,4 %)
  • Ein Geist (0,4 %)
  • Ein Monster (0,4 %)
  • Ein König (0,4 %)
  • Ein Promi (0,4 %)

In circa 1 von 330 Träumen:

  • Ein Soldat (0,3 %)
  • Ein Präsident (0,3 %)

Hinweis: “Ein” heißt hier immer “Ein oder mehrere”. Die Plural-Form wurde in die Suche miteinbezogen.

Gemäß der Kontinuitätshypothese, hier eine fantastische Präzisierung des Begriffs durch Domhoff, reflektieren diese Häufigkeiten wie eingängig sich Menschen im Allgemeinen während des Wachlebens mit diesen Personen und Rollen (und dem, was sie repäsentieren) beschäftigen. Dabei geht es in erster Linie nicht um die objektiv verbrachte Zeit mit einer Person oder Rolle, sondern um die Präsenz in den Gedanken des Wachlebens.

(1) Verwendet wurden die Traumberichte der folgenden sechs Personen: Barb Sanders (n = 3110), Elisabeth (n = 1710), Emma (n = 1220), Izzy (n = 4350), Kenneth (n = 2020), Pegasus (n = 1090). Details zu diesen Personen siehe hier.

Männer mit Kinderwunsch

Ich habe einen Datensatz mit n = 133 kinderlosen Männern zwischen 18 und 40 Jahren durchforstet, um zu sehen, ob es Indikatoren gibt, an denen man abschätzen kann, ob ein Mann einen Kinderwunsch hat oder nicht. Es kommen nur wenige verlässliche Indikatoren zu Tage, hier grob zusammengefasst als Cluster:

  • Freude an Berührung: Unter Männern, die angeben gerne andere Menschen oft auf freundschaftliche Weise zu berühren (z.B. Schulter auf den Arm), geben 60 % an, Kinder haben zu wollen. Bei denen, die dies nicht machen, sind es nur 20 %.
  • Freude an Umarmung: Hier ist es ähnlich. Bei Männern, die gerne andere umarmen, wollen 55 % Kinder haben, am anderen Ende des Spektrums sind es nur 8 %.
  • Romantische Filme: Es gab in der Umfrage genau einen Mann, der angegeben hat, sehr häufig romantische Filme zu schauen und der möchte Kinder :) Aber auch sonst ist ein Trend erkennbar. Unter den Männern, die häufig romantische Filme schauen, wollen 45 % Kinder haben, bei denen, die das nie tun, nur 20 %.
  • Empathie: Unter Männern, mit hohen Scores of der Empathie-Skala, finden sich 40 % mit Kinderwunsch, unter Männern, mit sehr wenig Empathie, nur 20 %.

  • Lebensglück: Unter Männern, die angeben glücklich mit ihrem Leben zu sein, möchten 55 % Kinder haben. Bei unglücklichen Männern sind es nur 12 %.
  • Neurotizismus: 53 % der Männer mit niedrigen Werten auf der Neurotizismus-Skala (emotional stabil) haben einen Kinderwunsch, bei emotional instabilen Männer sind es nur 30 %.

  • Ambitionen: Unter Männern, die von sich sagen, dass sie ambitioniert sind, haben 40 % einen Kinderwunsch. Unter jenen, die sagen, dass das überhaupt nicht auf sie zutrifft, sind es 0 %.

  • Ältestes Kind: Unter Männern, die in der Familie als ältester Bruder aufgewachsen sind, wollen nur 18 % Kinder. Bei Männern, die nicht ältester Teil der Geschwisternschaft waren oder keine Geschwister haben, sind es 45 %.

  • Frühe Trennung der Eltern: 57 % der Männer, bei denen sich die Eltern vor dem Alter von 10 Jahren getrennt haben, möchten Kinder. Es sind nur 28 % bei jenen Männern, bei denen dies nicht der Fall war. Eine Trennung im Alter 10+ zeigt hingegen keinen Effekt.

Der Jackpot scheint also die Kombination “sozial warm + emotional stabil + ambitioniert” zu sein. Aber der Datensatz ist recht klein, die Konfidenzintervalle sehr weit. Das Problem ist, dass der Datensatz, der im Original sehr groß war, erst ordentlich gekürzt werden musste: Alle Frauen raus, alle Teilnehmer außerhalb des Alters 18-40 raus, alle Teilnehmer mit Kinder raus. Die obigen Effekte waren trotzdem alle signifikant mit p < 0,05 in einer Regression (Signifikanz des Trends). In der ANOVA (Signifikanz der Gruppenunterschiede) war fast keiner der Effekt signifikant, was aber bei dem kleinen Datensatz zu erwarten war.

Wutgefühle in der Pandemie

Ich habe vorgestern einen neuen Datensatz entdeckt, der interessante Erkenntnisse zum Thema Wutgefühle in der Pandemie bringt. Der Datensatz basiert auf einer Umfrage mit n = 301 Teilnehmern, erhoben in der USA, Erhebungszeitraum Jan 2021, 53 % Männer, Mittleres Alter 37 Jahre, Spanne von 18 bis 83 Jahren. Erstmal das Große und Ganze. Eine der enthaltenen Fragen lautete grob übersetzt: “Wie haben sich bei Ihnen Wutgefühle im Laufe der Pandemie geändert?”. Zur Verfügung standen die Antwortmöglichkeiten “stark reduziert” (-2), “etwas reduziert” (-1), “unverändert” (0), “etwas erhöht” (1) und “stark erhöht” (2).

Nicht alle haben verstärkte Wutgefühle. 16 % berichten, dass sich bei ihnen Gefühle der Wut reduziert haben. Bei 45 % ist die Lage unverändert. Und 39 % haben eine Verstärkung von Wutgefühlen bei sich bemerkt. Im Mittel entspricht das einer klaren Erhöhung. Auf jeden, der reduzierte Gefühle von Wut hat, kommen mehr als zwei, bei denen das Gegenteilige der Fall ist. Welche Faktoren spielen eine Rolle?

Sowohl bei Männern als auch bei Frauen zeigt sich eine statistisch signifikante Erhöhung von Wutgefühlen (95 % Konfidenzintervalle enthält nicht die Null). Ein statistisch signifikanter Unterschied zwischen Männern und Frauen gibt es jedoch nicht (95 % Konfidenzintervalle überlappen sich deutlich). Es scheint also nicht so, als ob das Geschlecht eine Rolle spielen würde.

Auch der Beziehungsstatus hat keinen großen Einfluss. Zwar zeigt sich, im Gegensatz zu den anderen Gruppen, bei Kurzzeitsingles (< 4 Jahre) keine signifikante Erhöhung von Wutgefühlen, aber auch hier überlappen sich Konfidenzintervalle deutlich. Kaum der Rede wert der Effekt.

Die Wohnsituation hat ebenso wenig bis keine Aussagekraft. Meine Vermutung war, dass Menschen, die alleine wohnen, eine etwas stärkere emotionale Reaktion auf die Pandemie zeigen, aber zumindest im Hinblick auf Wutgefühle scheint dies nicht der Fall zu sein. Das Konfidenzintervall der Gruppe “Living with Roommates” ist so groß, weil es in der Umfrage relativ wenige Teilnehmer in dieser Gruppe gab.

Einen signifikanten Trend gibt es beim Sozialisieren. Menschen, die trotz Pandemie regelmäßig Freunde getroffen haben, verspüren weniger Wutgefühle als jene, die sich strenger isoliert haben.

Den gleichen Trend sieht man auch bei Menschen, die sich trotz Pandemie mit der engen Familie getroffen haben. Isolation scheint ein Risikofaktor für erhöhte Wutgefühle zu sein.

Noch deutlicher (man beachte die Zahlenwerte) ist der Einfluss der finanziellen Situation auf Wutgefühle. Menschen, die durch die Pandemie in eine schlechtere finanzielle Situation gerutscht sind, berichten häufiger von verstärkten Wutgefühlen. Das wüsste man wohl auch ohne Datensatz.

Auch bei dem Konsum von sozialen Medien ergibt sich ein ziemlich kräftiger Effekt. Menschen, die mehr Zeit auf Social Media Plattformen verbringen, haben verstärkte Wutgefühle. Das gilt auch sehr knapp für Menschen mit unverändertem Social Media Konsum. Menschen, die seit Anfang der Pandemie weniger Zeit auf Social Media Seiten verbringen, zeigen jedoch keine statistisch signifikante Verstärkung von Wutgefühlen.

Die Veränderung des Gewichts ist ebenfalls assoziiert mit Veränderung von Wutgefühlen. Die wenigen Menschen, die ihr Gewicht stark senken konnten (siehe Länge des Konfidenzintervalls), berichten von reduzierten Wutgefühlen. Ein geringer Gewichtsverlust ist mit unveränderter Wut assoziiert. Unverändertes Gewicht oder Gewichtszunahme mit der Verstärkung von Wutgefühlen.

Dazu später noch etwas mehr, aber erhöhte Wutgefühle korrelieren in dem Datensatz sehr eng mit erhöhten Gefühlen von Angst und Depression. Gerade beim Gewicht stellt sich die Frage nach dem Huhn und dem Ei. Veranlasst die Gewichtszunahme negativere Gefühle? Oder kommen negativere Gefühle und es folgt die Gewichtszunahme? Wahrscheinlich beides zugleich.

Die Persönlichkeit gemäß dem Five Factor Modell wurde ebenfalls in der Umfrage gemessen, mittels einer 10 Item Kurzskala. Menschen, die geringe Werte auf der Agreeableness-Skala erzielen (wenig empathisch, wenig herzlich), zeigen sehr deutlich erhöhte Gefühle von Wut. Bei Menschen mit hoher Agreeableness findet sich eine solche Erhöhung nicht. Viel Empathie scheint zumindest in der Pandemie ein Schutz vor Wutgefühlen zu sein.

Menschen mit hohen Werten von Conscientiousness (ordentlich, gut organisiert, verlässlich) kommen in der Pandemie auch besser weg. Conscientiousness zeigt sich als solider Schutzfaktor vor Wutgefühlen.

Der im Hinblick auf Effektstärke wichtigste Faktor ist Neuroticism (emotional labil, depressiv). Je neurotischer eine Person, desto deutlicher die Verstärkung von Wutgefühlen. Ich habe auf einen Sättigungseffekt gehofft. Da emotional labile Menschen schon im Alltag viele Gefühle von Wut zeigen, könnte man vermuten, dass bei ihnen die der Anstieg nicht ganz so extrem ist. Etwa weil eine Sättigungsgrenze erreicht ist. Das ist aber definitiv nicht der Fall. Es gilt: Wer vorher schon oft negative Gefühle hatte, bei dem hat die Pandemie diese Gefühle verstärkt. Wer diese Gefühle vorher sehr selten hatte, hat sie in der Pandemie sogar noch seltener. Das Merkmal Neurotizismus hat sich schlicht extremer ausgeprägt in der Pandemie.

Bezüglich Alter zeigen sich erhöhte Wutgefühle vor allem bei Menschen mittleren Alters. Das erinnert an die U-Kurve des Glücks. Junge und alte Menschen sind in Umfragen typischerweise am glücklichsten, Menschen zwischen 30-50 am unglücklichsten. Das scheint auch hier gut zu passen.

Wie schon angemerkt korrelieren alle negativen Gefühlen in der Umfrage eng miteinander. Wer aufgrund der Pandemie verstärkte Wutgefühle verspürt, verspürt mit hoher Wahrscheinlichkeit auch gleichzeitig erhöhte Gefühle von Stress, Angst und Depression. Und wer wenig von einem spürt, spürt i.d.R. auch wenig von allen anderen. Die Korrelation ist so eng, dass man die vier Variablen als eine Skala auffassen könnte (mit Cronbach’s Alpha = 0,84).

Ein Regressionsmodell auf Basis aller Variablen des Datensatzes liefert folgendes Ergebnis (dritte weiße Spalte der standardisierte Regressionskoeffizient, letze Spalte der p-Wert):

Jetzt wird die Formulierung etwas umständlich: Der Großteil der erklärbaren Varianz in der Variable “Wutgefühle” wird durch Neurotizismus erklärt (20 % der gesamten Varianz und 74 % der erklärbaren Varianz). Ist die Variable “Wutgefühle” erstmal danach bereinigt, bleiben nur noch relativ schwache Effekte der anderen Variablen übrig (7 % der gesamten Varianz und 26 % der erklärbaren Varianz). Das Meiste, was man in den obigen Graphen sieht, scheinen also Nebeneffekte von erhöhtem Neurotizismus zu sein. Was leider auch heißt, dass es schwer ist in der Pandemie Abhilfe zu finden, sollte der Neurotizismus hoch sein. Man muss schon Gewichtsverlust, Freunde und Abstinenz von sozialen Medien kombinieren, um die Wirkung von erhöhtem Neurotizismus ausgleichen zu können. Wobei bessere Abhilfen natürlich CBT & SSRI sind.

Soviel ich gehört habe, gehen Fachärzte (im Wissen um die Wirkung der Pandemie und Überschaubarkeit der verfügbaren Therapieplätze) gerade recht liberal mit SSRI um. Wenn es doch kein SSRI sein soll, dann gibt es auch Alternativen aus der Nahrungsergänzung, die ich hier zusammengefasst habe. Die Effektstärken dieser Mittel kommen definitiv nicht an SSRI heran, können sich aber sehen lassen. Wer keine Lust hat, das alles zu lesen, kann sich einfach folgendes beschaffen: Omega-3 (> 60 % EPA, > 1,5 g pro Tag), probiotische Ergänzung inkl. Inulin, L-Carnitin (> 1,5 g pro Tag), Safran (30 mg Extrakt pro Tag, eventuell geht auch 45-60 mg). Die anti-depressive Wirkung dieser Mittel ist solide durch Meta-Studien belegt.

Körpergröße bei Männern als psychologischer Faktor

Gibt es einen Unterschied in der Persönlichkeit zwischen kleineren und größeren Männern? Bevor ich eine (nicht DIE) Antwort gebe, erstmal ein Wort zur Interpretation statistischer Unterschiede. Die Aussage “Frauen sind empathischer als Männer” ist korrekt, jedoch handelt es sich hier um eine Aussage über die Mittelwerte der beiden Gruppen, keine Aussage über bestimmte Individuen. Die richtige Interpretation der obigen Aussage ist: Wählt man zufällig eine Frau und einen Mann, dann ist die Wahrscheinlichkeit, dass die zufällig gewählte Frau einen höheren Wert auf der Empathie-Skala erzielt als der Mann, größer als 50 % (der genaue Wert ist 60 %). Bei zehn zufälligen Ziehungen würde man also erwarten, dass in sechs Fällen die Frau empathischer ist und in vier Fällen der Mann. Auf diese Weise sind auch alle folgenden Unterschiede zu interpretieren. Es geht nie um Individuen, sondern immer um Unterschiede im Mittel.

Jetzt, wo Einigkeit über die Interpretation besteht, hier ein Unterschied, der deutlich zu Tage kommt in dem Datensatz (n = 254): Kleinere Männer sind im Mittel empfänglicher für eine große Bandbreite psychischen Problemen als große Männer. Ich mache den Anfang beim Selbstbewußtsein. In der Gruppe der Männer, die sich im Bereich 160 cm Körpergröße bewegen, berichten knapp 65 % (2 von 3) von einem geringen Selbstbewußtsein. In der Gruppe der Männer um 185 cm sind es nur 35 % (1 von 3). Der Übergang scheint recht kontinuierlich zu sein.

Kleinere Männer scheinen auch empfänglicher für praktisch alle Arten von Ängsten zu sein. Die Skala unten ist eine Zusammenfassung typischer Phobien (Flugzeug, Achterbahn, Sozial, und so weiter). Die Effektstärke ist beachtlich. Zur Einordnung: Eine effektive Psychotherapie wie z.B. CBT kann Symptome um 1 bis 1,5 Standardabweichungen senken. Der Unterschied zwischen der Gruppe der kleineren und größeren Männern beträgt knapp 1 Standardabweichung. Er fällt also deutlich ins Gewicht.

Kleinere Männer erzielen im Mittel auch einen höheren Wert auf einer Borderline-Skala. Hier sieht man ebenfalls eine beachtliche Effektstärke:

Änhliches gilt für suizidale Gedanken:

Auch bei Psychopathie (gemessen mittels dem “Dirty Dozen” Fragebogen der dunklen Triade) erzielen kleinere Männer im Mittel höhere Werte, wobei sich hier am oberen Ende der Skala ein plötzlicher Anstieg gegen den Trend zeigt. Unmöglich zu sagen, ob es sich um einen realen Effekt handelt oder nur um eine bedeutungslose statistische Schwankung. Beides ist gut denkbar.

Narzissmus gehört ebenfalls zur dunklen Triade und wurde hier mit dem gleichen Fragebogen erfasst. Entgegen dem, was man im Allgemeinen vermuten mag, erzielen größere Männer geringere Werte auf der Narzissmus-Skala als kleinere Männer.

Diese psychische Aufwühlung macht sich auch im Schlaf bemerkt. Kleinere Männer berichten von einer größeren Häufigkeit intensiver Träume:

Und häufigeren Alpträumen:

Wenig überraschend auch von mehr Schlafproblemen, aber ich habe vergessen den Graphen abzuspeichern. Vielleicht liegen die Schlafprobleme aber nicht nur an der psychischen Aufwühlung. Pragmatischere Gründe sind denkbar, denn kleinere Männer verdienen im Mittel weniger:

Und berichten häufiger, dass sie mit Finanzproblemen kämpfen:

Trotz all diesen Empfänglichkeiten sind kleinere Männer im Mittel nicht weniger glücklich als größere Männer. Wobei man mit etwas Fantasie auch hier eine U-Kurve (umgekehrt) sehen kann. Ob realer Effekt oder bloße Schwankung muss leider offen bleiben.

Einer der gängisten Meinung über große Männer ist, dass sie beim anderen Geschlecht mehr Erfolg haben. Interessanterweise gibt es hierfür keine Hinweise. Große Männer sind nicht seltener Single:

Produzieren nicht mehr Kinder:

Und haben auch nicht häufiger Sex:

Zumindest gemäß dieses Datensatzes scheint die (absolute) Körpergröße kein bedeutendes Selektionsmerkmal zu sein. Vielleicht weil bei Paaren die relative Körpergröße der Partner wichtiger ist als die absolute Körpergröße des Mannes? Andere Körpermerkmale relevanter sind? Oder die Persönlichkeit mehr zählt? Wie dem auch sei, das Nullresultat springt ins Auge.

BMI – Normal und Ideal

Die Welt ist über die letzen Jahrzehnte deutlich dicker geworden. Das gilt nicht nur für westliche Länder (USA, praktisch alle europäischen Staaten), sondern auch für viele Entwicklungsländer (Mexiko, Brasilien, Türkei). Dadurch hat sich eine Diskrepanz ergeben zwischen BMI-Werten, die von der Medizin empfohlen werden (Idealbereich), und den Werten, die in den Gesellschaften tatsächlich gemessen werden (Normalbereich). Wie groß ist diese Diskrepanz in Deutschland?

Dazu muss man neben dem Mittelwert auch die Standardabweichung kennen. Laut Our World in Data (Scrollen zur Kategorie Obesity / BMI) ist der mittlere BMI in Deutschland zwischen den Jahren 1975 und 2016 von 24,7 auf 27,5 (Männer) beziehungsweise 24,3 auf 26,0 (Frauen) gestiegen. Die Standardabweichung lässt sich medizinischen Publikationen entnehmen, zum Beispiel hier und hier. Sie beträgt grob 0,15*BMI für Männer, was dem Wert 4,1 bei dem obigen Mittelwert entspricht, und 0,22*BMI für Frauen, oder 5,5.

Damit ergeben sich unter Zuhilfenahme eines beliebigen Rechners für die Normalverteilung (ich nutze immer diesen) folgende Bereiche für Deutschland:

Männer: 27,5 ± 4,1

33 % liegen innerhalb 25,8 und 29,2 (z = 0,42)
50 % liegen innerhalb 24,7 und 30,3 (z = 0,68)
75 % liegen innerhalb 22,8 und 32,2 (z = 1,15)
90 % liegen innerhalb 20,7 und 34,4 (z = 1,66)

Frauen: 26,0 ± 5,5

33 % liegen innerhalb 23,7 und 28,3 (z = 0,42)
50 % liegen innerhalb 22,3 und 29,7 (z = 0,68)
75 % liegen innerhalb 19,7 und 32,3 (z = 1,15)
90 % liegen innerhalb 16,9 und 35,1 (z = 1,66)

Der Normalbereich in Deutschland liegt also bei 25-30 für Männer und 22-30 für Frauen. In diesem um den Mittelwert zentrierten Bereich liegt der BMI von 50 % der Deutschen des jeweiligen Geschlechts. Das natürlich unter der Annahme einer repräsentativen Altersverteilung. Beschränkt man sich auf junge Männer oder Frauen, verschiebt sich der Normalbereich in Richtung niedrigerer Werte, für eine Beschränkung auf ältere Männer und Frauen in Richtung höherer Werte.

Die Diskrepanz zu den Empfehlungen der Medizin ist sehr deutlich. Bei Männern spricht man zwischen 20-25 von Idealgewicht (leider verwirrenderweise auch oft Normalgewicht genannt), 26-30 von Übergewicht und ab 31 von Adipositas. Für Männer in Deutschland, das stimmt auch für sehr viele andere Länder, ist Übergewicht seit ein bis zwei Jahrzehnten die Norm. Nur 25 % der Männer (jeder Vierte) liegen im Idealbereich.

Bei Frauen ist die Situation ähnlich. Hier liegt der Idealbereich bei 19-24, der Bereich von Übergewicht bei 24-30 und der Bereich von Adipositas bei 31 aufwärts. Auch wenn die Überschneidung von Normal- und Idealbereich in diesem Fall etwas größer ist, gilt auch hier, dass Übergewicht die Regel ist. Gemäß dem Mittelwert und der Standardabweichung liegen nur 35 % der Frauen (jede Dritte) im Idealbereich.

Über Gründe für die Entwicklung der letzten Jahrzehnte will ich nicht spekulieren. Ich kann aber noch die Risikofaktoren für erhöhte BMI-Werte aus einem Datensatz mit n = 361 Leuten (USA) anfügen:

  • Alter
  • Persönlichkeit: Geringe Conscientiousness (Gewissenhaftigkeit)
  • Persönlichkeit: Hohe Neigung zu Ungeduld
  • Persönlichkeit: Hohe Neigung zu Langeweile
  • Ernährung: Hoher Konsum zuckerhaltiger Getränk
  • Ernährung: Hoher Konsum von Fleisch
  • Ernährung: Hoher Konsum frittierter Lebensmittel
  • Ernährung: Hoher Konsum von Pizza
  • Ernährung: Geringer Konsum von Nüssen
  • Ernährung: Selten kochen
  • Bewegung: Selten spazieren gehen
  • Bewegung: Selten trainieren (Mid-Intensity bis High-Intensity)

Alles nur korrelativ. Manches davon wird tatsächlich ursächlich sein, anderes davon nur Indikator für ursächliche Faktoren, welche an anderer Stelle aufgelistet oder durch die Umfrage gar nicht erfasst wurden. Das jeweilige Signifikanzniveau ist mindestens p < 0,05.

Wieso man sich auf das Altern SEHR freuen sollte

Unter Begriff Ageism werden Vorurteile gesammelt, die man unter jungen Menschen oft über alte Menschen hört. Viele denken hier an Einsamkeit, Traurigkeit, Bitterkeit, Schwäche. Von der Realität können diese Vorurteile aber kaum weiter entfernt sein. Tatsächlich gilt: Mit dem Alter wird alles besser und zwar sehr deutlich. Altern bringt Herzlichkeit, Glück, Entspannung, Stabilität. Behaupten kann man natürlich viel, deshalb lasse ich ab hier die Daten (n = 582 / USA / Alter: 14 bis 86) sprechen.

Mit dem Alter dreht sich die Persönlichkeit sehr deutlich ins Positive. Menschen werden im Mittel extrovertierter (weniger schüchtern, kontaktfreudiger):

Das Merkmalcluster Sozialverträglichkeit (Herzlichkeit, Empathie, Rücksicht) bekommt einen deutlichen Schub:

Das Gleiche gilt für das Cluster Gewissenhaftigkeit (Verlässlichkeit, Ordentlichkeit):

Und noch schöner: Alle Aspekte des Clusters Neurotizismus (Ängstlichkeit, emotionale Instabilität, Selbstwertprobleme, negativer Fokus) erfahren eine klare Entspannung.

Vor dem Hintergrund des abnehmenden Neurotizismus leuchtet es ein, dass man umso glücklicher wird, je älter man wird. Senioren fühlen sich viel glücklicher als Menschen mittleren Alters:

Der reduzierte Neurotizismus bringt auch einen besseren Schlaf. Schlafprobleme lösen sich nach und nach auf:

Einschlafen geht schneller:

Und Alpträume werden seltener:

Alle Aspekte der dunklen Triade beginnen sich ebenso zu verabschieden. Es zeigt sich eine deutlich geringere Tendenz zu Psychopathie:

Eine Reduktion bei machiavellistischen Denkmustern:

Und auch weniger Narzissmus:

Kleiner Zusatz: Bei den Clustern Sozialverträglichkeit, Psychopathie und Machiavellismus zeigen sich Geschlechterunterschiede. Das Drehen ins Positive geschieht bei Frauen schneller und deutlicher.

Sozialverträglichkeit:

Psychopathie:

Machiavellismus:

Für Borderline gilt dasselbe wie für die dunkle Triade: Es verabschiedet sich.

Ebenso die suizidale Ideation:

Ältere Menschen fühlen sich viel seltener grundlos erschöpft. Auch das ist wohl eine Folge des sinkenden Neurotizismus.

High-Intensity-Training funktioniert später natürlich nicht mehr so gut:

Aber zumindest was spazieren gehen angeht, zeigt sich bei Senioren keine signifikante Abnahme. Viel Bewegung ist auch im Seniorenalter gut möglich:

Dass man etwas dicker wird, lässt sich trotzdem nur schwer vermeiden:

Das Einkommen sinkt wieder, was man aber vor der Hintergrund des deutlich erhöhten Lebensglücks sicherlich verschmerzen kann:

Noch zwei Hinweise: Die Freude am Reisen bleibt auch im hohen Alter bestehen!

Und die Freude am Tanzen scheint sogar ein kleines bisschen zuzunehmen:

Es zeigt sich also ein Bild, dass sich klar von den gängigen Vorurteilen unterscheidet. Einsamkeit, Traurigkeit und Bitterkeit ist eher etwas für jungen Menschen. Ältere Menschen sind im Mittel kontaktfreudiger, sozialer, verlässlicher, positiver und vor allem glücklicher als junge Menschen. Vieles davon tritt auch schon viel früher ein, ab den 40ern und 50ern. Es handelt sich nicht um einen plötzlichen Wandel mit dem Eintritt in das Rentenalter, sondern um einen stetigen Prozess des Besserns. Wie dem auch sei, jede Metrik sagt ganz klar: Man darf sich auf das Altern freuen.

Lebensglück für Neurotiker

Lebensglück ist zu einem guten Teil (um die 30 %) durch das Maß an Neurotizismus bestimmt, eine Komponente der Persönlichkeit, die sich recht früh ausbildet und danach nur noch recht schwerfällig auf Einflüsse reagiert. Für die Ausprägung von Neurotizismus gilt sehr grob die Faustregel: Genetik + Erfahrungen bis zum Alter von 5 Jahren. Und schwerfällig bedeutet in diesem Kontext: Permanente Änderungen benötigen eine konstante Einwirkung über Jahre, nicht etwa Wochen oder Monate.

Ein Problem vieler Analysen zum Thema Lebensglück ist die Vermengung von Menschen mit niedrigem und hohem Neurotizismus. Implizit wird Annahme verwendet, dass das, was für wenig neurotische Menschen funktioniert, auch für hochneurotische Menschen funktioniert. Dieser Ansatz stellt nicht immer ein Problem dar. Für viele Faktoren gilt diese Annahme in sehr guter Näherung. Es gibt aber auch Faktoren, bei denen sich eine sehr deutliche Diskrepanz findet und gerade diese Diskrepanzen können aufschlussreich sein.

Zuerst mal jene Dinge, die bei beiden Gruppen funktionieren. Egal ob stabil oder neurotisch, einer der Hauptfaktoren für das Lebensglück bleibt die (empfundene) Stütze durch Freunde, mit einem Korrelationskoeffizient r = 0,30 für stabile und r = 0,29 für neurotische Menschen. Auch die Zukunftsorientierung ist für beiden Gruppen für das Lebensglück zentral. Je häufiger der Gedanke an die Zukunft und je seltener der Gedanke an die Vergangenheit, desto höher das resultierende Lebensglück. Zukunftsorientierung und Lebensglück zeigen eine Korrelation r = 0,26 für stabile und r = 0,32 für neurotische Menschen.

Hier beginnen jedoch Diskrepanzen. In der Gruppe der wenig neurotischen Menschen besteht kein signifikanter Zusammenhang zwischen dem Beziehungsstatus und dem Lebensglück. Bei hochneurotischen Menschen ist ein Zusammenhang jedoch klar erkennbar (r = 0,27). Lebensglück und Single-Dasein scheinen sich in dieser Gruppe nur schwer zu vertragen.

Mit der Fitness verhält es sich ähnlich. Bei wenig neurotischen Menschen ist Sport kein bestimmender Faktor im Bezug auf Lebensglück, hochneurotische Menschen können hier jedoch viel rausholen, insbesondere durch Bewegung mittlerer Intensität (r = 0,18). Auch Mindfulness-Übungen zeigen nur bei hochneurotischen Menschen einen Einfluss auf das Lebensglück (r = 0,17). Interessant hierbei ist, dass sich diese hebende Wirkung auf das Lebensglücks auch bei jenen Teilnehmern zeigt, die angeben, in der Vergangenheit mal intensiv Mindfulness betrieben zu haben, aber es derzeit nicht tun. Intensive Phasen von Mindfulness-Training scheinen sich also lange auf das Lebensglück auswirken zu können.

Eine weitere Diskrepanz findet sich bei Nachrichtenkonsum. Während sich bei wenig neurotischen Menschen erhöhter Nachrichtenkonsum eher positiv auf das Lebensglück auswirkt (r = 0,12), hat dasselbe bei hochneurotischen Menschen einen merklich negativen Einfluss (r = -0,15). Der Effekt bleibt auch nach Altersbereinigung des Nachrichtenkonsums bestehen. Hier sieht man sehr schön, dass wenn man beide Gruppen mit denselben Information konfrontiert, der Fokus nicht unbedingt auf dasselbe fällt. Die Veranlagung liest immer mit.

Was ist eine Standardabweichung? Was sind Z-Werte?

Der Mittelwert m ist die populärste Kennzahl der Statisik und sie ist i.d.R. das Erste, was berechnet wird, wenn man Daten beurteilen bzw. zusammenfassen möchte. Die Standardabweichung s fristet im Gegensatz dazu eher ein Schattendasein und das, obwohl sie genauso wichtig und nützlich bei der Beurteilung von Daten ist. Während der Mittelwert angibt, welche Werte man im Mittel erwarten kann, gibt die Standardabweichung an, wie weit die Werte um diesen Mittelwert streuen.

Eine Welt, in der die Körpergröße eine hohe Standardabweichung besitzt, würde sehr anders aussehen als eine, in der man nur eine geringe Standardabweichung hat. Und das selbst dann, wenn man in beiden Fällen denselben Mittelwert hat. Angenommen es leben auf Insel A Menschen, die im Mittel eine Körpergröße von m = 180 cm und eine Standardabweichung von s = 7 cm haben. In diesem Szenario würde man erwarten, dass circa 70 % (siehe Faustregeln unten) der Menschen eine Körpergröße zwischen 180-7 = 173 cm und 180+7 = 187 cm besitzen. Und 95 % der Menschen auf Insel A liegen zwischen 180-2*7 = 166 cm und 180+2*7 = 194 cm. Menschen unter einer Größe von 160 cm oder über 200 cm wären also auf dieser Insel eine ziemliche Seltenheit. Bei einer Stichprobe mit sehr vielen Menschen würde man auch Menschen mit solch extremen Körpergrößen finden, aber sie würden deutlich aus der Masse herausstechen. Diese Körpergrößen liegen auf Insel A weit außerhalb der gewöhnlichen Schwankungsbreite.

Anders wäre das auf Insel B mit demselben Mittelwert m = 180 cm und einer Standardabweichung s = 15 cm. Hier haben circa 70 % der Menschen eine Körpergröße 165 cm bis 195 cm. Und 95 % eine Körpergröße 150 cm bis 210 cm. Menschen um die 160 cm oder 200 cm Körpergröße würden hier nicht sonderlich herausstechen, trotz der deutlichen Entfernung zum Mittelwert. Extreme Körpergrößen beginnen hier eher ab 140 cm für das eine Ende der Skala und 220 cm für das andere Ende. Um beurteilen zu können, welche Werte innerhalb normaler Schwankungen liegen und welche Werte extrem sind, ist es also unbedingt notwendig die Standardabweichung zu kennen. Der Mittelwert gibt keinen Auskunft darüber. Als Faustformel kann man sich merken:

  • 70 % der Werte liegen zwischen Mittelwert minus einer Standardabweichung (m-s) und Mittelwert plus einer Standardabweichung (m+s)
  • 95 % der Werte liegen zwischen Mittelwert minus zwei Standardabweichungen (m-2*s) und Mittelwert plus zwei Standardabweichungen (m+2*s)

Das gilt zwar strikt nur dann, wenn die Werte normalverteilt sind, aber auch für andere Verteilungen (sofern nicht radikal verschieden) sind es verlässliche Richtwerte. Noch ein weiteres Beispiel, gefolgt von einem Argument dafür, wieso man am besten gleich den Schritt zum “Z-Wert” machen sollte. Angenommen es wird ein Test zur Messung von Selbstbewusstsein entworfen. 30 Fragen, je nach Antwort gibt es pro Frage 0-3 Punkte. Je höher die Punktzahl, desto besser das Selbstbewusstsein. Die Gesamtzahl der Punkte kann also zwischen 0 und 90 liegen. Angenommen man würde den Test 1000 Leuten vorlegen und fände einen Mittelwert von 60 Punkten. Wie ist das Selbstbewusstsein einer Person zu beurteilen, die nur 50 Punkte erreicht hat? Normale Schwankung? Grund zur Sorge?

Das hängt offensichtlich davon ab, wie weit die Punktzahl für gewöhnlich schwankt. Ohne die Standardabweichung zu kennen, lässt sich diese Frage nicht beantworten. Beträgt die Standardabweichung s = 10 Punkte, so gäbe es keinen Grund zur besonderen Sorge. Man darf erwarten, dass 70 % der Resultate (gegeben wie zukünftig) zwischen 50 und 70 Punkten liegen. Und 95 % der Resultate im Bereich von 40 bis 80. Wo genau man den Punkt “Grund zu besonderer Sorge” anlegt, ist natürlich nirgendwo definiert, aber die Punktzahl 50 liegt noch klar in der Zone normaler Schwankungen.

Solche Diskussionen werden deutlich einfacher und einheitlicher, wenn man statt der beiden Begriffe Mittelwert und Standardabweichung den Begriff Z-Wert heranzieht. Der Z-Wert gibt direkt an, wo ein Wert im Bezug auf den Mittelwert unter Berücksichtigung der Schwankungsbreite liegt. Die Punktzahl 50 entspricht dem Z-Wert z = -1 weil dieser genau eine Standardabweichung unter dem Mittel liegt. Die Punktzahl 40 entspricht analog z = -2. Für die andere Richtung hat man z = 0 für die Punktzahl 60 (der Mittelwert), z = 1 für die Punktzahl 70 und z = 2 für die Punktzahl 80.

Auch bei der Körpergröße lassen sich leicht Z-Werte angeben. Nochmal zu Insel A mit einem Mittelwert m = 180 cm und einer Standardabweichung s = 7 cm. Eine Körpergröße von 180 cm entspricht z = 0, die Größe 187 cm entspricht z = 1, die Größe 173 cm entspricht z = -1, die Größe 194 cm entspricht z = 2, die Größe 166 cm entspricht z = -2, und so weiter. Eine Diskussion in Z-Werten ist sehr nützlich weil man nicht immer an den exakten Skalenwerten interessiert ist und sich die Berechnung der Schwankungsbereiche erspart. Angenommen Wissenschaftler entwickeln eine Skala für Narzissmus. Den Leser interessiert der Mittelwert m = 4,1 und die Standardabweichung s = 0,4 i.d.R. recht wenig. Diese Werte haben keine klare direkte Interpretation und würden sich außerdem auch ändern, wenn man die Skala modifiziert. Etwa indem man mehr Fragen hinzunimmt oder die Anzahl erreichbarer Punkte pro Frage verändert.

Was aber trotzdem eine direkte Aussagekraft behält sind die Z-Werte. Weiß man, dass ein Teilnehmer ein Resultat entsprechend z = 2 erhalten hat, dann weiß man dass dies einer ziemlich deutlichen Erhöhung von Narzissmus entspricht. Weiß man, dass ein ein Teilnehmer ein Resultat entsprechend z = 2 bei der Selbstbewusstseinskala erhalten hat, dann weiß man dass dies einer ziemlich deutlichen Erhöhung des Selbstbewusstseins entspricht. Und weiß man, dass ein Mensch eine Körpergröße entsprechend z = 2 hat, dann weiß man dass dies einer ziemlich deutlichen Erhöhung der Größe entspricht. Egal welche Skala verwendet wird, es lohnt sich in Z-Werten zu denken, weil hier Mittelwert und Schwankungsbreite schon sinnvoll verarbeitet sind.

Die Z-Werte meiner Persönlichkeit sind grob:

  • Extraversion: z = +0,5
  • Sozialverträglichkeit / Empathie: z = +1,5
  • Gewissenhaftigkeit: z = -1,5
  • Offenheit: z = +2,0
  • Stabilität: z = -1,0

Diese Werte machen Sinn und lassen sich gut beurteilen ohne die jeweiligen Mittelwerte und Standardabweichungen der Big-Five-Skalen zu kennen. Eine Diskussion mit Mittelwerten und Schwankungsbreiten wäre deutlich aufwendiger gewesen und hätte den Blick auf das Zentrale wohl nur verwaschen. Die Z-Werte machen die Einordnung so klar wie möglich.

Zurück zur Standardabweichung. Sie eignet sich also gut zur Beurteilung von Abweichungen zum Mittelwert, ist jedoch auch bei der Beurteilung von Effektstärken extrem nützlich. Angenommen man möchte wissen, wie groß der Einfluss von Koffeinkonsum auf die Einschlafdauer ist. Dazu sammelt man Daten (Wieviel Koffein trinkst du pro Tag? Wie lange brauchst du normalerweise zum Einschlafen?) und führt eine Regression durch. Der Königsweg zur Beurteilung der Effektstärke läuft über den standardisierten Regressionskoeffizienten Beta. Beta hat eine sehr klare und nützliche Interpretation. Der Wert gibt an, um wieviel Standardabweichungen sich Y ändert, wenn man X um genau eine Standardabweichung erhöht. Für unseren Fall: Um wieviele Standardabweichungen sich die Einschlafdauer ändert, wenn man den Koffeinkonsum um eine Standardabweichung erhöht.

Angenommen man fände Beta = 0,5. Man kann dann sagen, dass Leute, deren Koffeinkonsum z = 1 Standardabweichung erhöht ist, eine Erhöhung der Einschlafdauer um z = 0,5 Standardabweichungen haben. Und Leute, deren Koffeinkonsum z = 2 Standardabweichungen über dem Konsum-Mittelwert liegt, müssen mit einer Erhöhung der Einschlafdauer um z = 1 Standardweichung über dem Einschlafdauer-Mittelwert rechnen. Leute, die es schaffen ihren Koffeinkonsum um z = 3 Standardabweichungen zu senken, werden mit einer Senkung der der Einschlafdauer um z = 1,5 Standardabweichungen belohnt. Der Wert Beta erfasst also sehr klar die Stärke des Zusammenhangs, ohne auf die Details der jeweiligen Skalen eingehen zu müssen.

In diesem speziellen Fall wäre es tatsächlich sinnvoll, etwas weiterzurechnen, um die obigen Aussagen in bekannte Einheiten umzurechnen (z.B. Minuten Reduktion in der Einschlafdauer bei Reduktion es Konsums um 100 ml). Aber das ist nicht immer so. Man denke z.B. an den Zusammenhang zwischen emotionaler Stabilität und Gedächtnis. Oder Zustimmung zu Verschwörungstheorien und Angst vor Kontrollverlust. Hier gäbe es keine gängigen Einheiten zur Umrechnung. Der standardisierte Regressionskoeffizient Beta, und somit die Interpretation über Standardabweichungen, ist der Königsweg weil der Wert so schön skalenunabhängig ist. Und die Diskussion um Effektstärken somit auch einfach und einheitlich macht.

Man könnte hier noch einen Hinweis zum p-Wert anfügen. Das Statistik-Programm spuckt zu jedem Beta noch einen p-Wert raus. Dieser Wert sagt nichts über die Stärke eines Effekts. Er ist nur die Verlässigkeit des Resultats gegeben den Daten. Ein Wert p < 0,001 oder auch p < 0,01 sagt, dass man sich recht sicher sein darf, dass der Beta-Wert und alle Schlussfolgerungen daraus der Realität entsprechen. Es sind also genügend Daten vorhanden um der Regression “blind” glauben zu schenken. p < 0,05 ist schon etwas kritischer. Man kann den Wert Beta nehmen und seine Schlussfolgerungen ziehen, sollte sich der Sache aber nicht zu sicher sein. Eventuell interpretiert man hier eine zufällige Schwankung in den Daten als einen Effekt, der in der Realität gar nicht existiert. Und für p > 0,05 sollte man den Wert Beta verwerfen. Eventuell gibt es diesen Effekt. Aber man hat definitiv nicht genügend Daten, um sich dessen sicher zu sein.

Kratom Use: Reported Dosage and Self-Medication

Kratom has become a popular, semi-legal drug for recreational use and self-medication in both the US and European countries. The vast majority of people who report using it for self-medication usually do so to counter symptoms of mental disorders (depression, anxiety) or to manage chronic pain. I analyzed comments on r/Kratom to see how many grams users commonly consume in one sitting and over a whole day. I’ll first present the descriptive statistics and correlations and then go on to add a few words on limitations.


Here is the distribution of the dosage per sitting. The average dosage is 5 grams, with reported values ranging from a minimum of 1 gram to a maximum of 35 grams. Most users seem to stay within a moderate dosage of 3-6 grams, though 7-10 grams also doesn’t seem that uncommon. Note that the final data points are off-scale.

The dosage per sitting seems to depend on both the reason for consumption as well as the experience with the drug. People, who report taking Kratom to manage pain, report a higher dosage on average (7 grams or 40 % above the median) than those taking it for reasons of mental issues or those that did not state a reason.

Looking at the duration of usage, there seems to be an increase in dosage per sitting over the first two years of consumption. People seem to start out with a dosage of around 2.5 grams (roughly one teaspoon) and increase that to a typical value of 4 grams per sitting after one year and 6 grams after two years. The dosage per sitting keeps increasing past this time frame as well, but one can observe a massive divergence, with some users leveling off at around 6 grams after two years and others steadily increasing that.


This is what consumption per day looks like. The average is 12 grams per day, with values ranging from mere 2 grams to an impressive 100 grams. Most users stay within 4-20 grams per day, but a noticeable minority also settles somewhere in the range 34-42 grams. Again the last two data points are off-scale.

The dependency on reason seems to hold true here as well. People, who use Kratom to manage pain, take a higher daily dosage (22 grams or 80 % above the median) than those who take it to combat mental issues and those who did not state a reason.

Consumption per day also increases with experience and here the explained variance is even higher. People seem to start out with 4.5 grams a day and increase that to 8.5 grams after one year and 13 grams after two years. Past this time frame the average consumption keeps increasing, though with the same noticeable divergence with some users leveling off after two years.


Further remarks:

  • Not surprisingly, there is a strong correlation between dosage in one sitting and daily dosage. The linear regression line should not give the impression that a linear dependency should be assumed. It is just there to highlight the trend. The same is of course also true for the two regression lines seen above.
  • Most users did not provide a reason for Kratom consumption in the comment that laid out their pattern of consumption, though among those that did, 22 % reported using it to combat symptoms arising from a mental illness alone and 78 % said that they are using it to manage chronic pain and the mental fallout from that. No one stated purely recreational use, though there are certainly people who do this.

Limitations:

  • The population of users discussing their consumption on r/Kratom is not necessarily representative of the population of all Kratom users. So the averages found above should be assumed to be biased.
  • Sample size is only n = 138 users, which is good, but not great.

Berechnung verlorener Lebensjahre

In vielen Ländern liegt das mittlere Alter der Todesfälle infolge von Corona nur knapp unter der Lebenserwartung, in manchen Ländern liegt es sogar darüber. Das verleitet zur Annahme, dass jene Menschen, die an dem Virus gestorben sind, auch ohne Corona bald (innerhalb der nächsten Wochen / Monate) gestorben wären. Dagegen sprechen aber sehr klar zwei Dinge:

  1. Mathematik
  2. Abwesenheit des Harvesting Effect

Hier soll es um Nummer 1 gehen. In Deutschland beträgt die Lebenserwartung 82 Jahre. Vor diesem Hintergrund ist es interessant, sich folgende Frage zu stellen: Was ist die Lebenserwartung eines 90-Jährigen? Null Jahre? Minus 8 Jahre? Beides macht keinen Sinn. Glücklicherweise muss man nicht raten, sondern kann die gesuchte Antwort leicht ermitteln: Man kontaktiert einhundert 90-Jährige und verfolgt diese über die nächsten Jahre. Daraus lässt sich die durchschnittliche Lebenserwartung eines 90-Jährigen ermitteln. Und das Ergebnis ist natürlich weder Null noch kleiner als Null. Es stellt sich aber die Frage, wie diese Lebenserwartung sich mit mit der Angabe einer Lebenserwartung von 82 Jahre verträgt.

Dazu ein kleiner Umweg. Im Mittelalter war die Lebenserwartung um die 40 Jahre ab Geburt. Da es aber eine sehr hohe Säuglingssterblichkeit gab, hat sich diese Lebenserwartung sehr stark von der Lebenserwartung ab dem Alter 1 Jahr unterschieden. Ab Geburt 40 Jahre, aber wer das erste Jahr geschafft hatte, bei dem war die Lebenserwartung in der Umgebung von 60 Jahren. Es macht also wenig Sinn, von einer einzigen Lebenserwartung zu sprechen. Es gibt die Lebenserwartung ab Geburt, ab dem Alter 1, ab dem Alter 2 und entsprechend auch die Lebenserwartung ab dem Alter 90. Die 90-Jährigen sterben nicht plötzlich, nur weil sie die magische Grenze von 82 Jahre überschritten haben. Jeder 90-Jährige darf erwarten, eine gewisse Anzahl Jahre weiterzuleben.

Entsprechend ist es sinnlos, die Anzahl verlorener Lebensjahre durch Vergleich mit der Lebenserwartung ab Geburt zu berechnen. Was zählt, ist die Lebenserwartung ab dem Alter, in welchem die Person an Corona verstorben ist. Die Lebenserwartung eines 80-Jährigen in Deutschland beträgt 8 Jahre. Wenn also eine 80-jährige Person an Corona stirbt, dann sind ihm 8 Lebensjahre verloren gegangen, und nicht etwa 2 Jahre, wie man durch Vergleich mit der Lebenserwartung ab Geburt vermuten könnte.

Die genaue Berechnung funktioniert wie folgt: Sei T eine Zufallsvariable, die das Alter bei Eintritt des Todes ausdrückt, und f(t) die entsprechende Dichtefunktion. Die Wahrscheinlichkeit, vor dem Alter t zu sterben, ist dann F(t) = P(T < t) = int (0,t) f(t) dt, wobei int das Integral ausdrückt. Die Dichtefunktion f(t, T > t0) der Zufallsvariablen T unter der Annahme, dass T schon den Wert t0 erreicht hat, muss unterhalb von t0 den Wert Null haben und oberhalb davon ein Vielfaches von f(t) sein:

f(t, T > t0) = 0 für t < t0 und f(t, T > t0) = k*f(t) sonst

Da f(t, T > t0) eine Dichtefunktion ist, muss int (0,unendlich) f(t, T > t0) dt = 1 sein, also:

int (0,unendlich) f(t, T > t0) dt = int (t0,unendlich) k*f(t) dt = k*(1 – int (0,t0) f(t) dt) = k*(1 – F(t0)) = 1

Es ist also:

f(t, T > t0) = f(t) / (1 – F(t0)) für t > t0

Die Lebenserwartung ab dem Alter t0 ist dann:

E(T | T > t0) = int (t0,unendlich) t * f(t) / (1 – F(t0)) dt

Für die Gesamtanzahl verlorener Lebensjahre bekommt man die Summe:

G = sum (t0 = 0,unendlich) N(t0) * E(T | T > t0)

Wobei N(t0) die Anzahl Menschen sind, die im Alter t0 verstorben sind. Für die erfassten Todesfälle in Deutschland ergeben sich so 185.000 verlorene Lebensjahre bei 19.000 Todesfällen oder im Mittel:

  • 9,7 verlorene Lebensjahre pro Todesfall

Verwendet zur Berechnung wurde die Sterbetafel und der aktuelle Lagebericht des RKI (8.12.20). Diese Zahl ist offensichtlich sehr weit entfernt von der Annahme, dass die betroffenen Menschen auch ohne Corona bald gestorben wären. Tatsächlich hätten sie im Mittel noch 9-10 Jahre weitergelebt. Es ist sogar so, dass weniger als 1 % der Verstorbenen eine verbliebene Lebenserwartung unter 2 Jahre hatten. Der Mythos, dass diese Menschen sehr bald gestorben wären, reflektiert nur den zu saloppen Gebrauch des Begriffs Lebenserwartung im Allgemeinen.

Lucifer’s Hammer – Tsunamis durch Asteroiden

Vor kurzem habe ich Lucifer’s Hammer gehört, ein spannender Roman über die Folgen des Einschlags eines Asteroiden, der in Größe und Energie vergleichbar mit dem Chicxulub-Impactor ist. Die zerstörende Wirkung beginnt mit einem Megatsunami, gefolgt von Dauerregen, Fluten, Stürmen, Abkühlung, Hungersnot, etc … Mich hat interessiert, welche Größe ein solcher Tsunami wirklich erreichen würde und Google Scholar gibt hier glücklicherweise Aufschluß.

Erstmal die Theorie: Simulationen und empirische Ergebnisse von atomaren Unterwassertests zeigen, dass sich die Größe des Tsunamis aus drei Parametern berechnen lässt, der kinetischen Energie des Asteroiden beim Aufprall auf das Wasser (E), der Wassertiefe an der Aufprallstelle (w) und der Entfernung vom Beobachter zur Aufprallstelle (x). Genauer gilt für die Höhe des Tsunamis (h) die folgende Proportionalität:

h ~ E^(1/4)*w/x

Wobei sich die kinetische Energie aus der Dichte des Asteroiden (D), seinem Durchmesser (d) und der Geschwindigkeit (v) ergibt:

E ~ D*d^3*v^2

Die Proportionalitätskonstante lässt sich durch numerische Simulationen eichen. Eine sehr umfassende Simulation findet man hier. Die Forscher simulieren eine Kollision, die nach derzeitigem Wissenstand am 16. März 2880 passieren könnte. Es geht dabei um einen Asteroiden mit Durchmesser d = 1,1 km, deutlich kleiner als der Chicxulub-Impactor, der die Erde mit einer Geschwindigkeit v = 18 km/s treffen würde. Die kinetische Energie entspricht 60.000 Megatonnen TNT, etwa 9 % davon konvertiert sich in Wasserwellen. Die vermutete Einschlagstelle liegt im Atlantischen Ozean, 600 km von der Ostküste der USA und 5.200 km von der Westküste Europas entfernt, mit einer Wassertiefe von w = 5 km. Die Simulation ergibt folgendes:

  • Der Tsunami würde nach 2 h die USA erreichen und dort mit einer maximalen Höhe von h = 140 m auftreffen
  • Nach 10 h würde der Tsunami Westeuropa erreichen, mit einer maximalen Höhe von h = 20 m

Damit ergibt sich für die Proportionalitätskonstante grob der Wert 1200, also h = 1200*E^(1/4)*w/x sofern die Angabe der Werte in den oben genannten physikalischen Einheiten erfolgt. An der Simulation sieht man, dass selbst ein relativ kleiner Asteroid (in geologischen Zeiträumen gedacht) einen massiven Tsunami produzieren kann, der mittelgroße Küstenstädte überragen kann.

Der Einschlag eines Asteroiden dieser Größe ist alle 400.000 Jahre zu erwarten, d.h. die Wahrscheinlichkeit, einen solchen Einschlag im Laufe eines vollen Lebens zu erleben, beträgt zum Glück nur 0,02 % (1 zu 5000). Dazu kommt: Asteroiden dieser Größe sind auffällig genug, um frühzeitig entdeckt zu werden und lassen sich entsprechend leicht umlenken. Nicht an den Film “Armageddon” denken, einen Asteroiden sprengt man nicht in die Luft, außer man möchte die Situation verschlimmern. Eine minimale Ablenkung orthogonal zum Geschwindigkeitsvektor durch einen Gravitationstraktor ist vollkommen ausreichend, um eine Kollision zu verhindern.

Aber zurück zu Tsunamis: Was passiert wenn ein Asteroid in der Liga von Chicxulub (d = 10 km, E = 10^8 MT TNT) die Erde trifft? Ein Einschlag an der selben Stelle wie der obige Asteroid würde laut der Formel einen Tsunami von etwa h = 1000 m Höhe erzeugen und somit die Skylines der großen Städte gut um das Doppelte überragen. In den Flachländern der Küstenregionen wäre ein Überleben ausgeschlossen. Der Tsunami, der durch Chicxulub ausgelöst wurde, war kleiner als in obigen Beispiel angegeben (300 m), was sich durch die geringe Wassertiefe an der Einschlagstelle erklärt. Und, das eher als interessanter Zusatz, es hat 6-8 h gedauert, bis der Chicxulub-Krater wieder mit Wasser gefüllt war.

Wie weit würde der Tsunami über Festland kommen? Könnte man ihm mit 2 h Vorwarnung zu Fuß entkommen? Gäbe es einen entsprechend hohen Hügel oder Berg, dann lautet die Antwort natürlich ja. Aber wie sieht es bei Flachland aus? Erstmal etwas Theorie: Tsunamis verlieren über Land ihre Energie über viskose Reibung und die Reibungskraft ist proportional zum Geschwindigkeitsgradienten (Änderungsrate der Geschwindigkeit über die Höhe an der Landoberfläche, also dv/dh bei h = 0). In der einfachsten Näherung kann man also F ~ -v/h setzen. Es ist laut Newton und der Kettenregel F = m*dv/dt = m*dv/dx*dx/dt = m*dv/dx*v also dv/dx*v ~ -v/h oder geteilt durch die Geschwindigkeit:

dv/dx ~ -1/h

Der Geschwindigkeitsverlust pro Streckeneinheit über Land dv/dx ist also grob inversiv proportional zur Tsunamihöhe. Um hier weiterrechnen zu können, müsste man wissen, wie sich die Höhe mit der Strecke über Land ändert. Der einfachste Ansatz wäre h(x) = h-k*x und somit:

0 – v0 = -int(0,xmax)(dx/(h-k*x)) = (1/k)*(ln(h-k*xmax)-ln(h))

exp(-k*v0) = 1-xmax/h

xmax = h*(1-exp(-k*v0))

Hier ist v0 nicht die Tiefwassergeschwindigkeit, welche bei Tsunamis egal welcher Größe enorm groß ist, vergleichbar zur Schallgeschwindigkeit, sondern die Geschwindigkeit beim Auftreffen auf Land. Diese ist schwierig abzuschätzen, aber man kann sagen, dass mindestens xmax ~ h, mit einer vernünftigen Abhängigkeit zwischen v0 und h wohl eher xmax ~ h^1,5.

Der Lovatnet-Tsunami von 1905 hatte eine Höhe von h = 40 m und hat ein Boot x = 300 m weit auf das Land getragen. Nimmt man das als Eichpunkt, so dürfte ein Tsunami mit h = 140 m also xmax = 1 bis 2 km über Land kommen, selbst bei moderater Steigung des Landes. Und bei einer Tsunamihöhe von h = 1000 m sind sogar xmax = 8 bis 38 km gut möglich. Bei zwei Stunden Vorwarnung wäre, je nachdem welcher Bereich der Schätzung der Realität näher kommt, ein knappes Entkommen zu Fuß vielleicht sogar noch möglich. Man sieht jedoch, dass trotz der enormen Höhe des Tsunamis der Schaden auf Küstenregionen beschränkt wäre. Mal über Land, verlieren sie recht schnell ihre Energie.

Natürlich wäre der Tsunami nur der Anfang. Beim Aufprall auf den Ozean werden massive Mengen an Wasser verdampft, was weltweit dauerhafte Wolkendecken und Starkregen zur Folge hat. Fluten und Zerstörung jeglicher landwirtschaftlichen Produkte wären vorprogrammiert. Ebenso eine globale Abkühlung bis hin zu einer neuen Eiszeit. Hinzu kommen Stürme und Erdbeben. Aber auch hier gilt: Wäre ein solcher Asteroid über die kommenden tausend Jahre auf Kollisionskurs mit der Erde, hätte man ihn längst entdeckt und es bliebe genug Zeit, um ihn abzulenken.

Die Mythen über Einzelkinder sind falsch

Manchmal sind Nullresultate die interessantesten Resultate. Vor allem dann, wenn einem Thema viele Mythen anhängen. Bei Einzelkindern gibt es viele gängige Vorurteile: verwöhnt, egoistisch, wenig sozial aktiv, etc … Tatsächlich gibt es im Mittel praktisch keine Unterschiede zwischen Menschen, die als Einzelkind aufgewachsen sind und jenen, die Geschwister haben. Hier ist ein guter Spiegel-Artikel darüber, aber ich wollte mir selber ein Bild machen mit einer Umfrage aus dem Harvard-Dataverse (n = 584 mit n = 70 Einzelkindern). Der Datensatz bestätigt schön, dass sich kein statistisch signifikanter Unterschied in den fünf Dimensionen der Persönlichkeit finden lässt und es auch keine Unterschiede gibt im Lifestyle (z.B. Alkohol, Zigaretten, Fitness) oder im allgemeinen Denken (z.B. Selbstbewusstsein, Zeitfokus, politische Einstellung). Die einzigen Effekte, die ich finden konnte, sind wie folgt. Die Effekte sind allesamt sehr schwach. Signifikant für p < 0,05 in einer ANOVA, aber nichts wofür ich meine Hände ins Feuer legen würde:

  • Einzelkinder sind etwas weniger narzisstisch als Menschen mit Geschwister, Effektstärke z = 0,4
  • Einzelkinder zeigen einen etwas stärkeren Fokus auf die Mutter, Effektstärke z = 0,4
  • Einzelkinder zeugen etwas seltener Kinder, im Mittel 0,4 Kinder pro Kopf im Gegensatz zu 0,65 Kindern pro Kopf bei Menschen mit Geschwistern
  • Einzelkinder sind möglicherweise etwas weniger körperbetont, im dem Sinne, dass sie seltener angeben, andere gerne zu umarmen (nicht signifikant) und auch seltener angeben, andere oft zu freundschaftlich berühren (signifikant).

Das Hauptresultat ist aber definitiv, dass sich über dutzende Variablen keine Unterschiede feststellen lassen. Einzelkinder sind nicht egoistischer (das hätte man am Agreeableness-Score gesehen) und auch nicht weniger sozial aktiv (siehe Extraversion-Score). Die Anwesenheit von Geschwister in der Kindheit scheint keinen messbaren Einfluss auf das spätere Leben zu zeigen. Das ist mir schon oft bei anderen Datensätzen aufgefallen. Manche Aspekte, wie Geschwister Ja/Nein oder Anzahl Geschwister, Ethnie oder Hautfarbe, Geschlecht, ländliche versus städtische Kindheit, tauchen extrem selten in Regressionen auf, egal wie lange man die Daten durchforstet. Andere Aspekte hingegen, wie Big-Five-Merkmale, Parentifikation, Beziehung zu den Eltern, zeigen sich als übliche Verdächtige. Aspekte also, die eine breite Wirkung auf fast alle Bereiche des Lebens und Denkens haben. So lernt man schnell, was wirklich einen großen Einfluss auf Menschen hat und was relativ irrelevante Merkmale sind. Oder zumindest Merkmale, die sehr wenig Aussagekraft über einen Menschen besitzen. Geschwister, Hautfarbe und Geschlecht sind gemäß meiner Erfahrung die besten Beispiele für Variablen der letzten Kategorie.

Wie findet man (heimlich) raus, ob eine Person neurotisch ist?

Manche Fragen sind sehr schlecht für erste Treffen, selbst man die Antworten manchmal gerne wüsste. Und stellt man diese Fragen doch, entgegen guter Etikette, so ist die Wahrscheinlichkeit recht gering, dass man eine ehrliche Antwort bekommt. Dazu gehören Fragen wie:

  • Bist du emotional stabil?
  • Hast du oft Stimmungsschwankungen?
  • Hast du oft Wutausbrüche?
  • Bist du oft grundlos erschöpft?
  • Bist du geplagt von Ängsten?

All diese Fragen messen Neurotizismus, ein relativ stabiles Merkmal der Persönlichkeit (siehe Big-Five-Modell). Glücklicherweise gibt es recht harmlos erscheinende Fragen, die eine exzellente Korrelation mit Neurotizismus zeigen. Es ist sehr einfach, das Maß an Neurotizismus einer Person zu bestimmen, ohne persönliche und geladene Fragen zu stellen. Vier Aspekte, die eine erstaunlich gute Korrelation mit Neurotizismus zeigen, sind Gedächtnis (r = -0,56), Selbstkritik (r = 0,52), Vergangenheitsfokus (r = 0,36) und Einschlafdauer (r = 0,33). Diese vier Aspekte zusammengenommen sagen das Level an Neurotizismus praktisch perfekt voraus – siehe hier den Vergleich zwischen dem Mittelwert der Antworten auf diese vier Fragen und dem Level an Neurotizismus gemessen mittels eines validierten Big-Five-Inventories.

  • Hast du ein gutes Gedächtnis?
  • Bist du sehr selbstkritisch?
  • Denkst du oft über die Vergangenheit nach?
  • Brauchst du lange zum Einschlafen?

Ein klares Ja gefolgt von drei klaren Nein sind praktisch ein Garant für geringen Neurotizismus (hohe emotionale Stabilität). Bei einem klaren Nein gefolgt von drei klaren Ja darf man mit an Sicherheit grenzender Wahrscheinlichkeit davon ausgehen, dass die Person hochneurotisch ist. Für alles dazwischen übersetzt sich der Mittelwert dieser Antworten fast eins-zu-eins in das Maß an Neurotizismus, wobei die erste Frage natürlich umgekehrt codiert einfließt.

Interessant wäre zu wissen, wieso das funktioniert. Also wieso jene vier Aspekte eine so starke Korrelation mit Neurotizismus zeigen. Und ob es sich hier um ursächliche Beziehungen handelt oder ob verborgene dritte Variablen für die Beziehung sorgen. Ich habe meine Theorien zum Zusammenhang zwischen Gedächtnis und emotionaler Labilität, aber für die Anwendung spielt es zum Glück keine Rolle, wieso die Korrelationen in dieser Form bestehen. Es reicht zu wissen, dass dieser kurze Fragebogen ganz wundervoll funktioniert.

Will man es noch etwas genauer wissen, wobei der zusätzliche Nutzen nicht besonders groß ausfällt, könnte man noch die negative Wertung der Schulzeit (r = 0,29) und Impulsivität (r = 0,29) hinzunehmen. Bei Frauen, bei Männern jedoch nicht, haben sich zusätzlich Tagträumerei (r = 0,32) und Ambitioniertheit (r = -0,30) als verlässliche Indikatoren für Neurotizismus gezeigt, wobei Ambitioniertheit hier auch umgekehrt codiert werden muss.

PS: Die Analyse basiert auf einem recht großen Datensatz aus dem Harvard Dataverse mit 584 Umfrage-Teilnehmern. Demographie: 45 % Frauen, 40 % Singles, 63 % kinderlos, mittleres Alter 36 Jahre (von 14 bis 84 Jahren).

Energieverbrauch beim horizontalen Laufen / Joggen

Es gibt verschiedene Ansätze, um den Energieverbrauch beim Laufen oder Joggen zu berechnen. Die Publikation Energy expenditure during level human walking: seeking a simple and accurate predictive solution (Ludlow / Weyand), erschienen 2015 im Journal für angewandte Physiologie, ist eine Verfeinerung des in Medizin häufig verwendeten ACSM-Modell. Der große Vorteil des neuen Modells ist:

  • Es wird nur eine Gleichung (statt zwei) verwendet, um den gesamten Bereich möglicher Geschwindigkeiten abzudecken
  • Die Geschwindigkeit fließt nichtlinear ein, so wie es biomechanische Modelle des Laufens vorhersagen*
  • Es ist laut der Publikation genauer als das ACSM-Modell

Ein Nachteil ist jedoch, dass es Steigungen nicht berücksichtigt. Es erlaubt nur die Berechnung des Energieverbrauchs bei horizontaler Bewegung. Bei nicht-vernachlässigbaren Steigungen muss daher das ACSM-Modell benutzt werden. Nach den Konvertierungen von ml O2 zu kcal sieht die Formel für den Energieverbrauch E (in kcal) so aus:

E = (0,036+0,03*v²/h)*m*t

Wobei v die Lauf- bzw. Jogging-Geschwindigkeit ist (in m/s), h die Körpergröße (in m), m die Körpermasse (in kg) und t die Zeit (in min). Für die Umrechnung von km/h in m/s, einfach den km/h-Wert durch 3,6 teilen. Die typische Geschwindigkeit beim Laufen ist knapp 5 km/h = 1,4 m/s und die typische Geschwindigkeit beim Jogging 9 km/h = 2,5 m/s.

Bei einer Stunde laufen t = 60 min mit der typischen Geschwindigkeit v = 1,4 m/s (moderates Laufen), einer Körpergröße von h = 1,75 und Masse = 75 kg verbraucht man also grob 310 kcal, was gut mit experimentell-gemessen Werten übereinstimmt. Diesselbe Zeit joggen bei v = 2,5 m/s und denselben Körpermaßen bringt einen Verbrauch von 640 kcal. Wer die metabolische Rate (ml O2 pro min und kg) berechnen will, findet die Formel im Abstract der Publikation. Ich finde die Rechnung in kcal nützlicher.

Für v = 0 erhält man den Ruheverbrauch in dem gewählten Zeitraum und das erlaubt zu bestimmen, um welchen Faktor die Bewegung den Energieverbrauch gegenüber dem Ruheverbrauch erhöht. Bei t = 60 min und m = 75 kg ergibt sich ein Ruheverbrauch von 160 kcal. Laufen bei moderatem Tempo verdoppelt also grob den Energieverbrauch, Joggen steigert den Energieverbauch um das Vierfache. Beim Sprinten, auch für Normalsterbliche gut möglich mit v = 20 km/h = 5,6 m/s, erhält man eine Steigerung des Energieverbauchs um den Faktor Sechzehn.

  • E(Laufen) = 2*E(Ruhe)
  • E(Joggen) = 4*E(Ruhe)
  • E(Sprinten) = 16*E(Ruhe)

Wer nicht jedesmal die Formel auspacken möchte und es so genau auch gar nicht wissen muss, könnte sich einmal den Ruheverbrauch berechnen und in Zukunft einfach die obigen Ergebnisse als Faustformel nehmen. Richtwerte für den Ruheverbrauch pro Stunde sind:

50 kg60 kg70 kg80 kg90 kg100 kg
110 kcal130 kcal150 kcal170 kcal195 kcal215 kcal

Mit der Formel lässt sich auch berechnen, wie es um die entsprechenden Geschwindigkeiten v und v’ bestellt sein muss, damit zwei Personen verschiedener Körpermaße (oder eine Person nach Veränderung der Körpermaße) denselben Leistungsoutput erbringt:

(0,036+0,03*v²/h)*m = (0,036+0,03*v’²/h’)*m’

Legt der obige Jogger zum Beispiel 15 kg an Körpergewicht zu, also von m = 75 kg (die guten alten Zeiten) zu m’ = 90 kg, dann reicht statt der Geschwindigkeit v = 2,5 m/s = 9 km/h die Geschwindigkeit v = 2,3 m/s = 2,2 m/s = 7,9 km/h um denselben Leistungsoutput (gemessen in kcal pro Minute) zu erreichen. Das natürlich nur als mathematische Rechtfertigung, wieso meine Geschwindigkeit beim Jogging unter dem Durchschnitt liegt.

;)

Und auch am Rande: Die Kräfte auf die Beine / Gelenke steigen ebenfalls quadratisch mit der Geschwindigkeit. Das folgt aus der Erhaltung des Impulses, siehe hier. vI ist hier die Impact-Velocity (Aufprallgeschwindigkeit des Fußes), nicht die Laufgeschwindigkeit. Es besteht aber ein einfacher empirischer Zusammenhang zwischen Aufprall- und Laufgeschwindigkeit, nämlich vI = 0,2*v. Beim Joggen v = 9 km/h liegt die Aufprallgeschwindigkeit also grob bei vI = 1,8 km/h, die typische Maximalbeschleunigung beim Aufprall im Bereich 3-6 g. Dämpfend wirkt sI, die Strecke, über welcher diese Geschwindigkeit abgebaut wird. Diese wird vor allem bestimmt durch die Härte des Bodens und der Federung der Schuhe. Schonend joggen heißt also: langsam, weicher Untergrund, gute Schuhe.

Der Rest ist für Nerds: Für zeitlich variable Geschwindigkeiten v(t), wie etwa einer linearen Abnahme der Geschwindigkeit mit der Zeit, was für Jogging recht typisch ist, oder abwechselnden Phasen von Laufen / Joggen bzw. Joggen / Sprinten, lässt sich folgende Formel verwenden:

E = (0,036+0,03/h*int(0,t)(v(η)²dη))*m

Wobei int(0,t) das Integral von 0 bis t bezeichnet. In diesem Fall müssen vor der Rechnung die Zeiteinheiten angepasst werden, also entweder die Zeit in Sekunden verwenden oder die Geschwindigkeit in m/min ausdrücken. Zur Vereinfachung der Rechnung kann man eine lineare oder exponentielle Abnahme der Geschwindigkeit verwenden, für die meisten Fälle dürfte das absolut ausreichend sein. Will man es aber “auf die Dezimale” genau wissen, so empfiehlt sich der Ansatz:

v(t) = v0*(a^n)/(a^n+t^n)

Mit v0 als Anfangsgeschwindigkeit und zwei positiven Konstanten a und n. Diese Formel erfasst den typischen Verlauf der Geschwindigkeit beim Joggen besser: Eine recht konstante Geschwindigkeit v0 in einer gewissen Anfangszeit (Plateau), gefolgt von einer stetigen Abnahme. Beim linearen und exponentiellen Modell reduziert sich die Geschwindigkeit von Beginn an, was sich, wie erwähnt, empirisch nicht halten lässt. Für n = 1 und n = 2 lässt sich das Integral über das Quadrat der Geschwindigkeit sogar schön lösen, der Ansatz ist also auch praktikabel.

*Hinweis zur Geschwindigkeitsabhängigkeit: Viele biomechanische Modelle sagen sogar einen größeren Exponenten als hoch zwei voraus, typischerweise im Bereich von hoch drei bis hoch vier. Insofern kann man davon ausgehen, dass Ludlow / Weyand 2015 noch nicht das letzte Wort ist. Aber zumindest stellt es in dieser Hinsicht eine deutliche Verbesserung gegenüber dem ACSM-Modell dar.

Empathie plus Impulsivität ergibt Selbstverachtung

Ich wollte eine Hypothese testen, die mir schon lange im Kopf geistert. Der Ausgangspunkt für die Hypothese ist folgende Frage: Wie kann man erklären, dass es Menschen gibt, die einerseits eine sehr soziale / empathische Persönlichkeit besitzen (gemessen am Big Five Merkmal Agreeableness), gleichzeitig aber von aggressiven / antisozialen Gedanken geplagt werden? Also ein Leben in einem konstanten Spannungsfeld zwischen einer sozialen Natur und aggressiven Gedanken verbringen? Das trifft natürlich auf jeden Menschen zu einem gewissen Grad zu, aber mich interessieren vor allem die Fälle, bei denen diese Diskrepanz einen großen Raum einnimmt und sich in entsprechendem Verhalten äußern kann.

Ein sehr einfacher Mechanismus, der das erklären könnte, wäre die Kombination aus hoher Agreeableness plus niedriger Impulskontrolle mit dem Zusatz, dass das Aufsteigen von aggressiven / antisozialen Impulsen ein ganz normaler Prozess ist. Es ist dann leicht zu sehen, wie ein ständiger Konflikt zwischen der sozialen Natur und fehlregulierten aggressiven Impulsen entsteht. Setzt man ein Mindestmaß an Reflektion voraus, darf man davon ausgehen, dass der Person dieser Konflikt bewusst ist und dies schlussendlich zu Selbstablehnung und Identitätskrisen führt.

Es ist natürlich einfach, schön-klingende und plausible Hypothesen zu basteln, jedoch umso schwieriger, diese auch zu testen. Wenn die Hypothese stimmt, müssten alle sich daraus ergebenden Vorhersagen in den Daten sehen lassen. Eine der zu testende Vorhersagen wäre wie folgt: Bei wenig sozialen Menschen führt eine höhere Impulsvität nicht (oder nur minimal) zu mehr Selbstablehnung, während bei sehr sozialen Menschen eine höhere Impulsivität recht deutlich zu mehr Selbstablehnung führt. Das beweist natürlich nicht, dass der vorgeschlagene Mechanismus stimmt. Aber zumindest könnte man den Mechanismus in den Müll werfen, sollte der Test versagen.

Ein Datensatz aus dem Harvard Dataverse mit n = 583 Teilnehmern (USA, 55 % Frauen, mittleres Alter 36 Jahre, Minimum 14 Jahre bis Maximum 84 Jahre, 40 % Singles) hilft hier weiter. Erstmal der 3D-Plot Selbstablehnung – Impulsivität – Agreeableness und die seperaten Regressionen für jede der vier Agreeableness-Gruppen von (VERY LOW, LOW, HIGH, VERY HIGH).

Man sieht, am Plot wie auch den Regressionen, dass der Test erfolgreich ist. In der Gruppe der wenig sozialen Menschen steigt die Selbstablehnung mit der Impulsivität an, aber nur in einem geringen Maß (ß = +0,13 oder +0,5 Standardabweichungen über die gesamte Skala, insignifikanter Effekt p > 0,05). Bei sehr sozialen Menschen steigt die Selbstablehnung viel stärker mit steigender Impulsivität an (ß = +0,34 oder +1,6 Standardabweichungen, signifikanter Effekt p < 0,001). Die Hypothese bleibt also nach diesem Härtetest plausibel.

Eine weitere (zugegebenermaßen sehr schwache) Stütze für die Plausibilität der Hypothese kommt aus der unterschiedlichen Empfindlichkeit für Moralität. Laut dem obigen Mechanismus führt erst die Reflektion der Diskrepanz zu Selbstablehnung. Die Diskrepanz zwischen der sozialen Natur und den aggressiven Gedanken muss also von der Person a) erkannt werden und b) als problematisch eingestuft werden. Reflektion wurde in dem Datensatz nicht gemessen, Moralempfindlichkeit jedoch schon, nämlich als Teil der Psychopathie-Skala:

Je sozialer / empathischer eine Person, desto mehr Wert legt die Person auf die Moralität von Gedanken und Handlungen. Der Zusammenhang ist mit ß = -0,64 außerordentlich stark. Bei Menschen sozialer Natur ist also die Wahrscheinlichkeit deutlich höher, dass eine solche Diskrepanz im Laufe der Reflektion als problematisch eingestuft wird. Das passt gut ins Bild. Ein nächster Schritt wäre die Rolle der Reflektion für Selbstablehnung zu testen, jedoch habe ich bisher keine geeigneten Datensätze dafür gefunden und muss es entsprechend dabei belassen. Kritik an allem obigen ist natürlich herzlich willkommen.

Borderline und Theory of Mind

Eine ziemlich spannende und recht aktive Forschungsrichtung ist die Einbettung der Borderline Persönlichkeitsstörung (BPD) in den Kontext der Theory of Mind (ToM) / Mentalisierung. Therapieformen basierend darauf werden als die nächste Generation der Therapien für BPD gehandelt. Knapper Abriss: ToM bezieht sich auf die Fähigkeit, dass Verhalten anderer durch Zuschreibung von mentalen Zuständen zu erklären. Wir schreiben anderen Menschen Wünsche und Emotionen (affektive ToM) bzw. Wissen und Überzeugungen (kognitive ToM) zu, um zu erklären, wieso ein Mensch so und nicht anders gehandelt hat. Diese Fähigkeit entwickelt sich bei gesunden Kindern im Alter von etwa 4 Jahren, bei autistischen Kindern im Alter von etwa 9 Jahren. Eye-Tracking-Experimente zeigen, dass diese Fähigkeit nicht auf Menschen beschränkt ist, auch andere Primaten können auf diese Weise mentalisieren.

Eine Meta-Analyse von 2018 zeigt, dass Borderliner und gesunde Kontrollen ähnlich gut bei der affektiven ToM abschneiden, Borderliner jedoch ein klares Defizit (Cohen’s D = 0,44 / p < 0,01) bei der kognitiven ToM besitzen. Siehe Bild unten. Borderliner können also treffsicher, oder zumindest so treffsicher wie gesunde Kontrollpersonen, anderen Menschen Emotionen zuschreiben, haben aber Schwierigkeiten dabei, die Überzeugungen anderer akkurat zu erkennen. Statt akkurater Überzeugungen schreiben Borderliner anderen Menschen negativere und extremere Überzeugungen zu und versuchen das Verhalten anderer auf Basis dieser extremen Überzeugungen zu erklären.

Neurologische Untersuchungen lassen vermuten, dass es sich um eine Störung im Superior Temporal Sulcus (pSTS) handelt. Dieser Teil des Gehirns ist zentral beteiligt an Mentalisierung, nur ein anderes Wort für ToM, und zeigt deutliche Beeinträchtigungen bei Borderlinern. Die Störung selbst könnte wiederum durch ein unsicher-ambivalentes Bindungsschema entstehen. Sind die Eltern stabil und positiv, so erleben Kinder die Vorhersagbarkeit der Bezugsperson und können so eine verlässliche und widerspruchsfreie ToM entwickeln. Auch bei stabilen und negativen Eltern ist dies der Fall, wobei sich hier statt der sicheren eine vermeidende Bindung ergibt. In beiden Fällen zeigt die entwickelte ToM im Großen und Ganzen Erfolg bei der Erklärung und Vorhersage von Verhalten.

Problematisch im Bezug auf die ToM wird es im Falle von emotional instabilen Bezugspersonen. Die Unvorhersagbarkeit des Verhaltens verhindert die Entwicklung einer erfolgreichen ToM. Jegliche Erklärungsversuche des Verhaltens der Bezugperson durch das Kind müssen an der Instabilität der Bezugsperson scheitern. Diese Kinder starten entsprechend mit einem unsicher-ambivalenten Bindungsschema und einer unterentwickelten ToM ins Erwachsenenleben, ein Nährboden für BPD.

Eine gängige Ausprägung der Störung der ToM bei Borderlinern ist, neben der Störung in der kognitiven ToM, die sogenannte Hypermentalisierung. Siehe zum Beispiel hier, hier und hier. Die Hypermentalisierung ist eine Hyperaktivität der ToM, Zuschreibungen erfolgen exzessiv und über das gesunde Maß hinaus. Der Zielperson wird eine unrealistische Menge an Emotionen und Überzeugungen zugeordnet und so verschiedene, konkurrierende Theorien des Verhaltens jener Person entwickelt. Es wird vermutet, dass eine solche exzessive Analyse die Emotionsregulation stark beeinträchtigen kann (der Kern jeder BPD). Diese Hypermentalisierung, wie auch die negative Tönung von Zuschreibungen, ist nicht exklusiv bei BPD zu finden. Auch bei Depressionen ist dieses Denkmuster präsent. Insofern ist es leicht zu sehen, dass Therapieformen basierend auf ToM auch bei anderen psychischen Störungen Abhilfe schaffen könnten.

Das Gegenteil von Hypermentalisierung, das nur am Rande, ist Hypomentalisierung. Menschen mit einer Störung in dieser Richtung sind im Allgemeinen unreflektiert, im Bezug auf sich wie auch im Bezug auf mentale Zustände anderer, denken in Schwarz-Weiß-Schemen, machen massive und unzulässige Generalisierungen und neigen dazu, Dinge wortwörtlich zu nehmen. Erzählungen von Erfahrungen besitzen keine abstrakte Komponente und stellen keine übergeordneten Verbindungen her, sondern folgen einem wortwörtlichen Schema wie etwa “Er hat gesagt, dann hat sie gesagt, dann hat er gesagt”.

Eine weitere Komponente der Störung der ToM bei Borderlinern ist der Mind-World-Isomorphismus. Das Wort Isomorphismus wird auch in der Mathematik verwendet, vor allem in der Gruppentheorie, und bezeichnet eine Identität. Es handelt sich also um ein Denkmuster, dass das eigene mentale Abbild der Welt mit der Realität der Dinge gleichsetzt. Anders formuliert: Ein Mangel in der Erkenntnis, dass die eigene Vorstellung der Welt und der Menschen in ihr i.A. deutlich von den tatsächlichen Gegebenheiten abweicht. Mein Bauchgefühl sagt mir, dass dies an der Intensität der erfahrenen Emotionen liegt. Je intensiver die Emotionen sind, und das sind sie bei Borderlinern durch die mangelhafte Emotionsregulation fast immer, desto schwieriger wird es, eine solche Abgrenzung vorzunehmen.

Brain Zaps, was ist das? Meine Erfahrungen damit

Brain Zaps sind ein spannendes Phänomen, zu dem es aber bisher praktisch keine Studien gibt. Das Wissen dazu stützt sich hauptsächlich auf Erfahrungsberichte. Alles Folgende basiert auf meinen eigenen Erfahrungen mit Brain Zaps (8 Jahre lang, heute nicht mehr) und Foreneinträgen anderer. Die Ursachen scheinen recht klar zu sein. In fast allen Berichten wird eines dieser beiden Aspekte als Ursache beschrieben:

Der gemeinsame Nenner ist hier die plötzliche und starke Veränderung des Serotonin-Spiegels, bei MDMA-Konsum über einen Zeitraum von einigen Stunden, beim SSRI-Absetzsyndrom verteilt über einige Tage. Ich vermute dieser plötzliche Eingriff in das Serotonin-System löst Brain Zaps aus und einmal ausgelöst, können sie einige Tage bis einige Jahre bestehen. Brain Zaps können verschwinden wenn der Konsum von SSRI wieder aufgenommen wird. Und bleiben wohl permanent weg, wenn beim erneuten Absetzen das Medikament wie empfohlen ausgeschlichen wird.

Der Kern des Brain-Zaps-Phänomens ist ein plötzlicher und umfassender elektrischer Strom im Gehirn, welcher nach meiner Einschätzung wohl zwischen 0,1-0,5 s anhält. In seltenen Fällen eventuell auch etwas länger, aber nie länger als eine Sekunde. Der Strom ist nicht schmerzhaft, woraus man schließen kann, dass er relativ schwach ist. Also überhaupt nicht zu vergleichen mit einem Stromschlag von außen. Es ist, selbst bei den stärksten Zaps, ein recht sanfter und erträglicher Stromfluss.

Im Gegensatz zu einem Stromschlag von außen ist er aber nicht klar lokalisiert, sondern der Fluss scheint gleichzeitig im gesamten Gehirn aktiv zu sein. Etwa so, als ob alle Neuronen gleichzeitig feuern würden. Das, sowie der Fakt, dass es ein Strom ist, der im Laufe des Zaps anschwillt, lässt mich vermuten, dass es sich um eine Art Kettenreaktion handelt. Ein Neuron feuert den Startschuss, das veranlasst 3 benachbarte Neuronen zu feuern, im nächsten Schritt feuern dann alle 3² = 9 Nachbarn, im nächsten Schritt alle 3³ = 27 Nachbarn, usw … Die Zahlen dienen natürlich nur der Demonstration, aber ein solcher Mechanismus würde erklären a) wieso der Strom praktisch über das ganze Gehirn verteilt fließt und b) wieso im Laufe des Prozesses der Strom in der Stärke anschwillt.

Ich weiß nicht, ob es Menschen gibt, die Brain Zaps auch am Tag erleben, aber bei mir waren diese streng begrenzt auf den Moment des Einschlafens. Nie bei voller Wachheit und auch nie beim Übergang in Tagträume. Wenn sie auftraten, dann nur beim Übergang in den Schlaf. Vom plötzlichen Aufschrecken im Moment des Einschlafens berichten viele Menschen, die Brain Zaps waren nichts anderes als das, nur eben begleitet durch den elektrischen Strom.

Interessanterweise ist der elektrische Strom stark genug um ihn zu hören, wohl durch Körperschall an das Ohr geleitet. Ein sehr hohes, verrauschtes Summen bei schwachen Brain Zaps, ein scharfer Zisch bei der starken Variante. Tiefe Anteile im Ton fehlen komplett. Ich schätze das, was man hört, sind alles Frequenzen > 1000 Hz. Diese Charakteristik kann am Strom selbst oder dem System der Weiterleitung an das Ohr liegen. Ich vermute den Strom selbst, da Körperschall i.d.R. tiefe Frequenzen gut weiterleitet bzw. sogar besser, als die hohen Frequenzen. Der Strom ist auch stark genug, um eine visuelle Empfindung auszulösen, wobei es sich immer um ein weißes Licht gehandelt hat. Starke Zaps können auch reflexhafte Bewegungen auslösen, wie etwa ein Zucken des Beines.

Brain Zaps scheinen eine psychosomatische Komponente zu haben. Ihre Häufigkeit und Stärke scheint an das allgemeine Stressniveau gekoppelt zu sein. In entspannten Phasen waren es ein Zap moderater Stärke pro Woche, in den stressigsten Phasen etwa ein starker Zap pro Tag. Auch mehrere Zaps hintereinander, jeweils bei erneuten Einschlafversuchen, sind in besonders stressigen Phasen aufgetreten.

Psychologen und Ärzte gehen davon aus, dass Brain Zaps keine Schädigung verursachen. Das genieße ich noch mit Vorsicht, da es keine entsprechenden Studien gibt, die dies zeigen würden, und das Verständnis des Gehirns im Allgemeinen noch in den Kinderschuhen steckt. Aber zumindest gibt es keinen bekannten Mechanismus, nach welchem Brain Zaps schädigend sein könnten und auch in den Erfahrungsberichten finden sich keine Geschichten von Schädigung.

Brain Zaps können sehr angenehm und entspannend sein! Die beste Analogie ist der Vergleich mit dem Reboot eines langsamen Computers. Lässt man einen Computer lange ohne einen Neustart laufen, dann wird der Computer durch die Summierung von Hintergrundprozessen immer langsamer, bis er nur noch kriecht. Nach einem Neustart läuft jedoch alles wieder wie geschmiert. Brain Zaps sind (manchmal) in der Qualität sehr ähnlich. Eine matschige Mischung an ungeordneten Gedanken wird durch den Brain Zap “defibrilliert” und danach besteht eine “ruhige Klarheit”. Auch bei Spannungen im Kopf bzw. Kopfschmerzen kann ein Brain Zap eine plötzliche und wohltuende Entspannung bringen. Ich gebe zu dass ich, wenn ich mal mit Kopfschmerzen ins Bett gegangen bin, sogar bewusst auf den entspannenden Brain Zap gewartet habe.

Interessant ist es, vor diesem Hintergrund den Bogen zur Elektroschock-Therapie zu schlagen. Diese wird schon seit Jahrzehnten (auch heute noch) bei der Behandlung von Depressionen eingesetzt, welche sich resistent gegenüber Psychotherapie und Medikamente zeigen und das mit Erfolg. Handelt es sich bei dem Brain-Zaps um Schocks ähnlicher Natur mit ähnlicher Wirkung? Eine Art hausgemachter Elektroschock-Therapie? Lohnt es sich, diese “Defibrillation matschiger Gedanken” zu optimieren und auszuweiten? Die Vorstellung, ein Gerät zu haben, mit welchem man mal schnell sein Gehirn rebooten kann, klingt jedenfalls verlockend. Definitiv ein Feature, dass ich mir für das iPhone 12 wünsche.

Eine neue Perspektive: Borderline als gutmütige Form der Psychopathie

Dieser Eintrag basiert auf der Studie mit dem imposanten Namen Genetic and environmental overlap between borderline personality disorder traits and psychopathy: evidence for promotive effects of factor 2 and protective effects of factor 1 von Hunt, veröffentlicht 2015 im Journal Psychological Medicine. Sie bietet einen guten Überblick zum Stand der Forschung zur Verbindung zwischen Borderline und Psychopathie und stützt die Erkenntnisse mit einem umfangreichen Zwillingsexperiment.

Psychopathie, so wie sie aktuell verstanden wird, wird i.d.R. in zwei Faktoren unterteilt. Faktor 1 umfasst die Aspekte der Persönlichkeit, die im Big Five Model durch die Dimensionen Agreeableness und emotionale Stabilität erfasst werden. Psychopathie ist immer eine Kombination aus niedriger Agreeableness (Mangel an Empathie, Egoismus) gepaart mit hoher emotionaler Stabilität (Furchtlosigkeit, Stressresistenz). Faktor 2 umfasst impulsiv-antisoziales Verhalten wie etwa Verantwortungslosigkeit, Empfänglichkeit für Langeweile, Agressivität, Kriminalität. Da die Faktoren selbst keine Korrelation zeigen, lassen sich vier Grenzfälle abstrahieren:

  • Fall 1: Niedriges F1 + Niedriges F2
  • Fall 2: Niedriges F1 + Hohes F2
  • Fall 3: Hohes F1 + Niedriges F2
  • Fall 4: Hohes F1 + Hohes F2

(Hinweis: Bei enger Korrelation von F1 und F2 würde die Betrachtung der mittleren beiden Fälle wenig Sinn machen)

Fall 1 ist Normalverhalten, Fall 4 ist Psychopathie, aber was liegt dazwischen? Hier kommt die obige Studie ins Spiel. Sie bestätigt mit dem Zwillingsexperiment was schon andere Studien angedeutet hatten, nämlich dass die Borderline-Persönlichkeit negativ mit F1 und positiv mit F2 korreliert und somit mit dem Fall 2 übereinstimmt. Menschen mit einer solchen Persönlichkeitsstruktur (oder bei sehr hoher Ausprägung: Störung) zeigen dasselben impulsive Verhalten wie sie von der Psychopathie bekannt ist, jedoch ohne die begleitende Empathielosigkeit und Furchtlosigkeit.

Die Studie formuliert dies etwas unglücklich, indem sie F1 als einen “schützenden Faktor” vor Borderline bezeichnet. Für mich liest sich das wie eine unangemessene Verharmlosung von Egoismus und Dämonisierung von impulsivem Verhalten. Ich interpretiere es gerne in einem positiveren Licht, nämlich Borderline als Schutz vor der Ausprägung von F1 bei Vorhandensein von F2. Kurz: Eine gutmütige Form von Psychopathie.

Eine weitere gutmütige Form bildet Fall 3: Der Schutz vor Ausprägung von F2 bei Vorhandensein von F1. Dies wären empathielose und furchtlose Menschen, die jedoch genug Selbstkontrolle besitzen, um sozialverträgliches Verhalten zu zeigen. Man darf vermuten, dass es sich hier um F1 in Kombination mit einer guten Portion des Big Five Merkmals Conscientiousness (Verlässlichkeit, Ordentlichkeit) handelt. Für diese Menschen gibt es keinen besonderen Namen, wahrscheinlich weil sie i.d.R. nicht auffallen. Durch das konforme Verhalten sind sie von außen nicht vom Normalfall zu unterscheiden.

Insgesamt erhalten wir also das folgende Schema:

  • Fall 1: Niedriges F1 + Niedriges F2 = Normalfall (1:1)
  • Fall 2: Niedriges F1 + Hohes F2 = Borderline (1:1)
  • Fall 3: Hohes F1 + Niedriges F2 = ? (20:1)
  • Fall 4: Hohes F1 + Hohes F2 = Psychopathie (20:1)

In Klammern habe noch ich die üblich festgestellten Verhältnisse der Geschlechter angefügt. Bei der Borderline-Persönlichkeit gibt es, entgegen dem oft wiederholten Mythos, kein Ungleichgewicht – Männer und Frauen sind etwa zum gleichen Teil betroffen (wie die obige Studie nochmals experimentell feststellt). Psychopathie ist hingegen klar männerdominiert. Diese Dominanz wird durch F1 erzeugt. Es gibt in der Literatur viele Nachweise dafür, dass Frauen zum einen eine höhere Agreeableness und eine niedrigere emotionale Stabilität besitzen – alles natürlich im Mittel. Geringe Unterschiede im Mittel können sich jedoch, wie ich in einem anderen Blog-Eintrag demonstriert habe, in sehr deutliche Unterschiede am Rand der Normalverteilung übersetzen. F1 ist somit eine klassische männliche Kombination der Big Five Persönlichkeitsmerkmale. Entsprechend dürfte Fall 3, ebenso wie die Psychopathie, ein starkes Ungleichgewicht in der Größenordnung 20:1 zeigen.

Die Studie geht auch auf die genetische Erblichkeit von F1, F2 und Borderline ein. Die Merkmale F1 und F2 werden in ihrer groben Ausprägung mit einer Wahrscheinlichkeit von etwa 60 % an Nachkommen weitergegeben, Borderline mit etwa 40 %. Das geht gut auf. Denkt man sich Borderline als Kombination von niedrigem F1 und hohem F2, so würde man aus der Erblichkeit von F1 und F2 eine Erblichkeit von 0,60² = 36 % für Borderline erwarten, praktisch eine Punktlandung.

Prädiktoren für Psychopathie

Mithilfe des Subs r/samplesize habe ich eine Umfrage durchgeführt (nach Bereinigung n = 595), von der ich wohl noch lange zehren kann. Eine Thema war dabei die dunkle Triade, gemessen mittels dem relativ kurzen, aber gut-validierten Dirty Dozen Instrument. Ich war vor allem daran interessiert, ob es neben dem offensichtlichen Faktor Empathie Aspekte der Kindheit gibt, die gute Prädiktoren für Psychopathie im späteren Leben sind. Eine Regression zeigt, dass Parentifikation ein deutlicher Riskofaktor für spätere Psychopathie ist (p < 0,001). Parentifikation ist eine Umkehrung der klassischen Eltern-Kind-Rolle. Statt Unterstützung der Eltern zu erfahren, wird das Kind dazu gezwungen sich um einen Elternteil zu kümmern, etwa weil dieser Elternteil schwerkrank ist, emotional instabil oder narzisstisch ist. Das führt natürlich nicht immer zu Psychopathie, ein prinzipieller Mangel an Empathie ist immer noch die grundlegende Vorraussetzung, aber es erhöht das Risiko für Psychopathie deutlich.

Daneben ist das Aufwachsen in einem wohlhabenden Haushalt ein signifikanter Risikofaktor für spätere Psychopathie (p < 0,001). Ich könnte nur darüber spekulieren, woher dieser Zusammenhang kommt und ob es sich hier um eine Ursache-Wirkung-Dynamik handelt. Aber das Resultat selbst scheint sehr verlässlich.

Der R² ist exzellent für so ein simples Modell – Psychopathie im späteren Leben lässt sich überraschend gut aus nur drei Faktoren (Empathie, Parentifikation, Wohlstand der Eltern) vorhersagen, wobei der Einfluss von Parentifikation logarithmisch statt linear ist. Diese Variabeln erklären 54 % der der gesamten Varianz um die 70 % der erklärbaren Varianz. Daraus kann man schließen, dass Psychopathie zu einem sehr großen Teil im Kindes- und Jugendalter entsteht.

Psychopathie ist nicht automatisch gleichzusetzen mit krimineller oder gewaltätiger Lebensführung. Viele Menschen, die eine hohe psychopathische Neigung besitzen, finden einen Weg sich in die Gesellschaft zu integrieren und begehen keine schweren Verbrechen. Abgesehen von den psychopathischen Überzeugungen handeln diese Menschen “wie du und ich”: sie führen Beziehungen, unternehmen etwas mit Freunden, gehen einem Job nach, etc … Jeder hat sicherlich schon einige Psychopathen getroffen, ohne es zu merken.

Nicht Lachen!

War die Alchemie ein Totalversagen? Die Alchemie, heute längst durch die Chemie abgelöst, wird gerne belächelt und das größtenteils auch zu Recht. Ich würde aber behaupten, dass sie nicht vollkommen unnütz war. Sie hat Forschern gelehrt, wie man Stoffe isoliert, die Eigenschaften von Stoffen beschreibt und katalogisiert, wie man Stoffe manipuliert und wie man grundlegende Messungen durchführt. All diese Dinge wurden von der Chemie übernommen und auf eine wissenschaftliche Basis gestellt.

Man kann vermuten, dass es sich mit der Psychologie und der Neurowissenschaft ähnlich verhält. Die Psychologie ist ein guter Wegbereiter, und jenes, was ausreichend repliziert ist, wird auch in die Neurowissenschaften Einzug finden. Es fehlt der Psychologie aber an biologischer Plausibilität und wissenschaftlicher Strenge. Letzteres sieht man sehr deutlich an der Replikationskrise. Ein umfassendes Projekt der Open Science Collaboration hat gezeigt, dass nur etwa ein Drittel aller publizierten psychologischen Effekte repliziert werden können. Plump gesagt ist Psychologie nur zu etwa ein Drittel eine echte Wissenschaft. Die verbleibenden zwei Drittel sind Zufallsresultate aufgrund zu geringer Stichprobengrößen und zu hoher Signifikanzniveaus in Kombination mit dem allgegenwärtigen Publication Bias.

Ein schönes Beispiel ist Konzept von Priming. Viele Studien, die den Effekt von Priming demonstrieren, haben bei der Replikation gnadenlos versagt. Es ist innerhalb weniger Jahre von einem Konzept, das unter fast allen Psychologen akzeptiert und in Therapien eingebunden wurde, zu einem Aushängeschild für miese Wissenschaft geworden. So wurde mir schon oft, von Laien wie auch professionellen Psychologen gesagt, dass ich einfach lächeln soll, wenn ich mich schlecht fühle. Mit dem (erzwungenen) Lächeln kommt automatisch die gehobene Stimmung. Klingt irgendwie plausibel und wenn es durch Studien wie auch Menschen, die viel intelligenter sind als ich, vertreten wird, muss wohl was daran sein. Richtig?

Die ernüchternde Realität ist, dass die beiden Originalstudien, auf denen der ganze Hype basiert, nur wenig Aussagekraft besitzen: Kleine Stichproben, Effekt nur knapp an der Grenze zur statistischen Signifikanz (jeweils p = 0.03). Replikationsversuche gab es lange Zeit keine, was nicht überraschend ist da nur 1-2 % aller publizierten Studien in der Psychologie Replikationsversuche sind. Das Resultat wurde so hingenommen und hat viel Resonanz gefunden. 2016 haben 17 Labore im Rahmen der Open Science Collaboration versucht, den Effekt zu replizieren und das ohne Erfolg. Der Effekt existiert nicht, so wie auch vieles anderes, was unter den Sammelbegriff Priming fällt. Wenn man sich schlecht fühlt, darf man sich natürlich zwingen zu lächeln, aber man sollte sich keine Besserung davon versprechen.

Wieso scheitert die Psychologie daran, echte Wissenschaft zu sein, obwohl sie sich der wissenschaftlichen Methode verschreibt? Das ist überraschend einfach zu sehen:

  • Replikation wird von Psychologen als wichtiger Pfeiler der wissenschaftlichen Methode akzeptiert, aber nicht praktiziert. Einzelne Studien genügen i.d.R. dem Standard, so beschrieben zu sein, dass sie sich von anderen Forschern replizieren lassen. Das ist aber wenig hilfreich, wenn kaum Replikationen betrieben werden.
  • Das Signifikanzniveau p < 0.05 ist sehr unzuverlässig. Die wenigsten Menschen arbeiten häufig mit Datensätzen und haben somit kein Gefühl dafür, wie oft die Replikation von Effekten mit dieser Signifikanz in der Praxis scheitert. Es wird als Standard für die Feststellung von Effekten gehandelt, sollte aber eher als ein “da könnte was dran sein, müssen wir mal näher beleuchten” verstanden werden. Ich bin mal dreist und sage dass viele Psychologen, vor allem jene, die sich eher durch Mathematik gekämpft haben und seitdem praktische Arbeit leisten, nicht erkennen wie wacklig solche Resultate sind und diesen deshalb großzügig Glauben schenken. Der Standard sollte p < 0.001 sein. Das würde leider sehr viel Geld kosten, könnte aber den Schritt von Alchemie zu Chemie bedeuten.

Das soll nicht heißen, dass man alles als Nonsense abtun muss. So wie die Chemie nützliche Erkenntnisse der Alchemie übernommen hat, wird auch der Nachfolger der Psychologie (ob das nun die Neurowissenschaft oder eine Psychologie 3.0 ist) viele gesicherte Erkenntnisse mit auf den Weg bekommen. Dazu gehört zum Beispiel die Vorhersagekraft des IQs wie auch die Idee des allgemeinen Faktors der Intelligenz, die Vorhersagekraft der Big Five Persönlichkeitsmerkmale, die Idee von Bindungsschemen, die Wirksamkeit von CBT (dieses CBT nicht dieses CBT), die Wirksamkeit von MBSR, etc … Nicht alles in der Psychologie basiert auf kleinen Stichproben von Studenten, die sich nur ein paar Credits verdienen wollen, und nicht alles wurde von der Replikation ausgenommen. Die obengenannten Konzepte, und viele weitere, stehen auf einem festen empirischen Fundament. Man muss nur sehr genau darauf achten, die Spreu vom Weizen zu trennen.

Die soziale Natur von Träumen

(Nächtliche) Träume unterscheiden sich in zwei zentralen Aspekten vom Leben im Wachzustand: Aktivitäten mit hohem Arousal und soziale Interaktionen sind deutlich überrepräsentiert. Selten träumen Menschen davon, entspannt ein Buch zu lesen oder alleine den Abend zu verbringen, selbst wenn sie dies im Wachleben häufig tun. Selektiert werden stattdessen konsequent Aktivitäten, die eine hohe körperliche Aktivierung erfordern und ständige soziale Interaktion enthalten. Vor allem der soziale Aspekt ist in den letzten zehn Jahren in den Fokus der Traumforschung gerückt, siehe zum Beispiel hier.

Ausgehend von der Idee der sozialen Überrepräsentation kann man erwarten, dass Menschen, die einen hohen Score auf der Big-Five-Skala Agreeableness erzielen, ein Maß für Empathie und soziale Wärme, häufiger intensive Träume erleben. Das bestätigt sich in einem Datensatz aus dem Harvard Dataverse (n = 220) sehr schön, wobei der traumfördernde Effekt erst bei einem sehr hohen Level an Empathie auftritt.

Menschen im Bereich von Mangel an Empathie bis leicht überdurchschnittlicher Empathie berichten von derselben Häufigkeit intensiver Träumen (einige pro Monat), während Menschen, bei denen die Empathie um eine Standardabweichung oder mehr über dem Durchschnitt liegt, häufiger intensive Träume haben (einige pro Woche). Zur letzteren Gruppe, Empathie > 1 STD, gehören entsprechend der Normalverteilung von Empathie etwa 16 % aller Menschen. Der Unterschied in der Häufigkeit ist sowohl gemäß einer Regression wie auch gemäß einer ANOVA signifikant mit p < 0.001, ein verlässliches Ergebnis.

Die Regression offenbart einen weiteren interessanten Hinweis auf die soziale Natur von Träumen. Menschen, die davon berichten oft neidisch auf die Erfolge anderer Menschen zu sein, scheinen auch mit erhöhter Frequenz intensive Träume zu erleben. Hier ist der Effekt jedoch nur noch in der Regression statistisch signifikant und auch nur mit p < 0.05.

Nur am Rande: Ein anderer Aspekt, ein Klassiker der Traumforschung, zeigt sich in dem Datensatz auch sehr schön. Schon seit Freud wird spekuliert, dass Träume jenes auffangen, was im Wachzustand nicht ordentlich bearbeitet wird. Wer seine Probleme im Wachzustand beiseite schiebt, der wird in den Träumen davon eingeholt. Zumindest einen Teil dieser Hypothese sieht man im Datensatz. Menschen, die sich im Wachzustand von ihren Problemen ablenken, erleben häufiger intensive Träume. Ob die Träume dann auch wirklich diese Probleme bearbeiten, ist aus dem Datensatz leider nicht zu sehen. Man darf es aber vermuten. Und man darf vor dem Hintergrund der aktuellen Forschung auch vermuten, dass soziale Probleme stärker wirken als Probleme anderer Natur. Der Effekt ist in der Regression signifikant mit p < 0.01.

Wieso sind Träume sozialer Natur? Darüber kann man leider nur spekulieren. Soziale Interaktionen unterscheiden sich vor allem in der Komplexität von den Interaktionen mit der unbelebten Welt. In der unbelebten Welt führt derselbe Input immer zu demselben Output. Ist die Verbindung eines gewissen Inputs mit einem Output mal gemacht, dann ist jegliche Simulation des Prozesses hinfällig. Stein wird losgelassen, Stein fällt – das ändert sich nie. Bei Menschen hingegen kann derselbe Input zu radikal verschiedenen Ergebnissen führen. Eine Simulation verschiedener Ausgänge und der optimalen Reaktion darauf kann somit einen Vorteil bringen und manchmal sogar einen, der relevant für die Reproduktion oder das Überleben ist. Es erscheint zumindest plausibel, dass ein solcher Mechanismus im Rahmen der Evolution bevorzugt selektiert wird. Die Überrepräsentation von Aktivitäten mit hoher Aktivierung, darunter oft auch Gefahrensituation, unterstreicht diese Idee.

Das klingt schlüssig, jedoch gibt es einige Probleme an der Theorie des Traums als (zweckgetriebene) soziale Simulation. Eine Simulation, die Nutzen stiftet, muss einen ausreichend geringen Vorhersagefehler besitzen. Und somit auf Bildern und Regeln basieren, die ein plausibles Abbild der Welt erzeugen. Wer sich gedanklich auf ein Job-Interview vorbereitet, wird eine plausible Repräsentation eines Büros simulieren, dieses mit einer plausiblen Repräsentation eines HR-Mitarbeiters füllen und jener Person plausible Regeln zur Interaktion verleihen. Die Realität ist immer anders als gedacht, aber sofern die Vorhersagefehler nicht zu grob sind, lässt sich dem einen Nutzen entlocken.

Träume hingegen scheinen i.d.R. kein plausibles Abbild der Welt zu bieten. Traumwelten basieren auf dem Prinzip der Verfügbarkeit von Bildern. Eingang finden Bilder, welche erst kürzlich erlebt wurden und somit leicht zugänglich sind. Bilder, welche eine besondere Präsenz im Wachleben besitzen, etwa weil sie wiederkehrend sind. Und Bilder, welche assoziativ eng mit jenen Bildern verbunden sind, die sich schon in der Traumwelt befinden. Interaktionen können temporär plausibel sein, aber auch schnell bizarre Züge annehmen. Kann eine Simulation in einer solchen Umgebung einen Nutzen im (sozialen) Wachleben stiften? Man darf es anzweifeln.

Eine einfachere Erklärung für die soziale Natur der Träume ist die Umkehrung des Verfügbarkeitsprinzips. Träume sind sozial geprägt weil soziale Bilder dem Gehirn leichter zugänglich sind. Und letzteres könnte sich schlicht daraus ergeben, dass unsere Gedanken im Wachleben von sozialen Beziehungen dominiert sind (wiederkehrende Bilder). Dieser Erklärungsansatz lässt die Frage nach dem Zweck von Träumen an sich natürlich unbeantwortet. Das muss aber keine Schwäche sein, denn es lässt Raum für die Theorie des Traums als Interpretation zufälliger elektrischer Entladungen im Gehirn, einer der elegantesten Theorien des Träumens.

Eine Frage bleibt noch: Wieso erleben empathische / sozial-warme Menschen häufiger intensive Träume? Nach der Umkehrung des Prinzips der Verfügbarkeit kann man erwarten, dass die Träume solcher Menschen stärker sozial geprägt sind. Aber ohne Zusatz erklärt das nicht, wieso sie auch häufiger intensive Träume erleben. Das Verfügbarkeitsprinzip berührt nur die Inhalte von Träumen, nicht deren Stärke oder Frequenz. Welcher Zusatz kann hier weiterhelfen?

Eine Idee wäre der Blick auf die emotionale Resonanz. Träume werden nicht nur gesehen, sondern auch emotional erlebt. Das zeigt sich ganz klar an Alpträumen, gilt aber auch für alle anderen Träume. Man kann erwarten, dass die reichlich im Traum vorhandenen sozialen Bilder bei empathischen Menschen eine stärkere emotionale Reaktion auslösen. Setzt man also die soziale Natur der Träume voraus, worauf vieles hindeutet, und berücksichtigt man die emotionale Komponente des Träumens, so ist es nur logisch, und sogar unausweichlich, dass Empathie ein guter Prediktor für intensive Träume darstellt.

Wie wahrscheinlich ist es, jemanden mit derselben Persönlichkeit zu treffen?

Jedes der Big-Five-Merkmale genügt einer Standardverteilung, so dass etwa 16 % aller Menschen eine Standardabweichung oder mehr unter dem Durchschnitt liegen (LOW), 68 % im Durchschnitt (AVERAGE) und nochmals 16 % eine Standardabweichung oder mehr über dem Durchschnitt (HIGH). Gegeben eine Person mit einem bestimmten Big-Five-Persönlichkeitsprofil, zum Beispiel:

  • Extraversion: AVERAGE
  • Agreeableness: HIGH
  • Conscientiousness: LOW
  • Openness / Intellect: HIGH
  • Neuroticism: HIGH

Wie wahrscheinlich ist es, dass eine zufällig gewählte Person exakt dasselbe Profil besitzt? Diese Wahrscheinlichkeit macht sich nur daran fest, wieviele der fünf Merkmale im Durchschnitt liegen (n). Im obigen Beispiel wäre n = 1, da es nur ein Merkmal gibt, das im Durchschnitt liegt. Mit etwas Nachdenken kommt man auf diese Formel für die Wahrscheinlichkeit, dass eine zufällig gewählte Person ein gegebenes Persönlichkeitsprofil erfüllt*:

p(n) = 0,68^n * 0,16^(5-n)

Liegen alle Merkmale einer Person im Durchschnitt, also n = 5, so ist die Wahrscheinlichkeit, dass eine Zufallsbekanntschaft in der Persönlichkeit übereinstimmend ist, etwa 15 % oder 1 zu 7. Hier die gesamte Tabelle:

  • n = 5 —> p = 15 % = 1/7
  • n = 4 —> p = 4 % = 1/25
  • n = 3 —> p = 1 % = 1/100
  • n = 2 —> p = 0,2 % = 1/500
  • n = 1 —> p = 0,05 % = 1/2.000
  • n = 0 —> p = 0,01 % = 1/10.000

Für das obige Profil, welches meines ist, beträgt die Wahrscheinlichkeit nur 1 zu 2.000 eine vollkommen gleichgestrickte Person zu treffen. In der Stadt Freiburg gäbe es demnach, das natürlich rein nach dem Big-Five-Profil beurteilt, 130 Versionen von mir. Wer überall im Normbereich liegt, findet hingegen stolze 37.000 Big-Five-Doppelgänger in Freiburg.

Man kann beides positiv oder negativ sehen. Romantische Beziehungen basieren, wie in anderen Blog-Einträgen festgestellt, vor allem auf dem Prinzip “Gleich und Gleich”. Auffälligkeiten in den Big-Five-Merkmal reduzieren somit den Pool an potentiellen Partnern sind vermutlich auch gute Prediktoren dafür, wie lange eine Person Single bleibt. Umgekehrt stiften Abweichungen in den Big-Five-Merkmalen mehr Identität für das Selbst, im Sinne von klaren und zeitlich-stabilen** Stärken und Schwächen sowie konstanten Interessen, und bieten auch mehr Möglichkeiten zum schnellen (und vor allem tiefgründigeren) Anknüpfen bei Personen, die bei einem der Merkmale eine übereinstimmende Abweichung zeigen.

* Diese Rechnung setzt vollkommene Unabhängigkeit der Big-Five-Merkmale voraus, welche in der Praxis nicht erfüllt ist. Das zeigt die Forschung zu den Big-Two bzw. dem generalisierten Faktor der Persönlichkeit. So treten z.B. Extraversion und Offenheit / Intellekt gehäuft zusammen auf und werden entsprechend in der Theorie der Big-Two zu einem Faktor (genannt Plasticity) zusammengefasst

** Jedes Big-Five-Merkmal zeigt einen typischen Altersverlauf, ist aber davon abgesehen über den Verlauf eines Lebens recht konstant

Koffein, Nikotin, Alkohol und Schlafprobleme

Es gibt eine solide Datenlage die zeigt, dass die obengenannten legalen Drogen sich negativ auf den Schlaf auswirken, interessant ist aber vor allem die Frage, ob es reicht den Konsum einige Stunden vor dem Schlaf einzustellen um den negativen Effekt zu eliminieren oder oder ob ein kompletter Entzug stattfinden muss. Hier ergeben sich einige Unterschiede.

Zu Koffein und Schlaf gibt es eine exzellente Übersicht über alle relevanten Studien von der Uni Zürich. Hier wird beschrieben, dass Koffein den Schlaf auch dann beeinträchtigt (gemessen durch Fragebögen zur Selbstbewertung wie auch objektive Instrumente wie z.B. EEGs), wenn es nur am Morgen konsumiert wird und kurz vor dem zu Bett gehen schon praktisch komplett aus dem Blut verschwunden ist. Ich wollte das nachprüfen mit einem Datensatz, in dem Leute einmal gefragt wurden, ob sie generell Koffein konsumieren und ob sie es auch in den Stunden vor dem Schlafen gehen tun. Die obige These bestätigt sich ziemlich deutlich:

Für Schlafprobleme relevant ist, wieviel Koffein man generell konsumiert. Ob dies kurz vor dem Schlafen gehen oder lange davor geschieht, spielt keine signifikante Rolle. Das sind schlechte Nachrichten für Koffein-Freunde. Einfach den Konsum zwei bis drei Halbwertzeiten (4-6 h) vor dem Schlaf einzustellen, reicht also nicht. Der Schaden ist mit dem Konsum schon getan, wann genau hat nur wenig Relevanz. Das könnte, Achtung Spekulation, am Aufbau eines Depots bei regelmäßigem Konsum liegen.

Anders scheint es bei Nikotin und Alkohol zu sein. Hier zeigt sich der allgemeine Konsum als recht unproblematisch für den Schlaf. Raucher oder regelmäßige Alkohol-Konsumenten schlafen generell nicht schlechter als andere. Ein negativer Effekt ergibt sich nur dann, wenn der Konsum in den Stunden vor dem zu Bett gehen stattfindet:

Mit Blick auf die Varianz hat Koffein den stärksten Einfluss: Es erklärt 9 % in der Varianz der Variable Schlafprobleme. Nikotin und Alkohol erklären jeweils um die 5 %.

Betreffend Alpträumen scheint vor allem Alkohol ein Problem darzustellen, Koffein und Nikotin zeigen keinen merklichen Einfluss. Hier die Regression nach Bereinigung der Alptraum-Häufigkeit nach dem Alter (starker Zusammenhang mit Alter und das auf nicht-lineare Weise, daher die Notwendigkeit einer separaten Bereinigung):

Generell werden Alpträume mit dem Alter seltener, aber zusätzlich gilt: Eine gute Ernährung reduziert das Risiko für Alpträume, Alkohol steigert es, sowohl wenn es kurz vor dem zu Bett gehen wie auch wenn es lange davor konsumiert wird. Das macht Sinn wenn man bedenkt, dass Alkohol als einzige der drei genannten legalen Drogen eine deutliche psychoaktive Wirkung besitzt. Koffein gibt einen Schub bei körperlicher Aktivierung, Nikotin bringt einen rapiden und kurzen Entspannungseffekt. Eine Veränderung des Bewusstseins findet bei beiden aber nicht statt.

In der Partnerschaft gilt: Gleich und Gleich gessellt sich gern

Bittet man Menschen, sich einen idealen Partner zu basteln, dann basteln sich die meisten Menschen ein Spiegelbild mit getauschtem Geschlecht. Dieses Prinzip besitzt robuste Gültigkeit und beide Geschlechter handeln danach. Der Traumpartner ist für die meisten Menschen ein Mensch mit denselben Big Five Persönlichkeitsmerkmalen und denselben Interessen. Für das alternative Modell, Gegensätze ziehen sich an, finden sich hingegen nirgendwo empirische Nachweise. Gut möglich, dass es vereinzelt gilt, vor allem bei Beziehungen, die von Anfang an auf Kurzzeit bedacht sind, aber auf die Mehrheit der Menschen trifft es nicht zu.

Hier einige Beispiele: Offene / intellektuelle Frauen wünschen sich offene / intellektuelle Männer und umgekehrt. Da die Offenheit eng mit der politischen Orientierung verbunden ist, zeigt das auch eine klare Tendenz zur Wahl eines Partners mit denselben politischen Vorstellungen.

Frauen:

Männer:

Herzliche / rücksichtsvolle Frauen wünschen sich herzliche / rücksichtsvolle Männer und umgekehrt. Interessant ist, dass hier bei beiden Geschlechtern die Beziehung zur Mutter eine Rolle spielt. Je besser die Beziehung zur Mutter, desto mehr Wert wird auf die Herzlichkeit des Partners gelegt.

Frauen:

Männer:

Ordentliche / zuverlässige Frauen wünschen sich ordentliche / zuverlässige Männer und umgekehrt. Bei Frauen spielt hier auch die Beziehung zur Mutter, das Alter und die Anzahl Kinder eine Rolle. In allen Fällen gilt: Je mehr davon, desto größer die Tendenz zu einem gewissenhaften Mann.

Frauen:

Männer:

Reisefreudige Frauen wünschen einen reisefreudigen Mann und umgekehrt. Der Effekt ist sogar deutlich stärker als bei den Persönlichkeitsmerkmalen. Die Reisefreudigkeit scheint für beide Geschlechter ein zentrales Selektionsmerkmal zu sein.

Frauen:

Männer:

Frauen, die keine Piercings oder Tattoos haben, wünschen sich in der Tendenz Männer ohne Piercings oder Tattoos und umgekehrt. Wobei bei Männern hier sogar die Gewissenhaftigkeit als Faktor Nummer Eins auftritt: Ordentliche / zuverlässige Männer bevorzugen Frauen, die weder Piercings noch Tattoos haben. Bei Frauen scheint das Alter hier eine Rolle zu spielen, wobei unklar ist, ob es sich um einen Alterseffekt oder Generationeneffekt handelt. Gut möglich, dass Millenial-Frauen, wenn sie erstmal die 50+ erreichen, nicht so abgeneigt gegen Tattoos sind wie Gen-X-Frauen oder Baby-Boomer-Frauen.

Frauen:

Männer:

All das zeigt, wie robust und umfassend das Prinzip “Gleich und Gleich” bei der Partnersuche ist. Es gilt für alle fünf Persönlichkeitsmerkmale, für Intelligenz und politische Richtung, für Interessen und für Methoden der Lebensführungen. Aber Achtung: Hier geht es nur um Wünsche. Ob Partnerschaften, die auf “Gleich und Gleich” basieren, auch erfolgreicher oder glücklicher sind als jene, die auf Gegensätzen / Ergänzungen basieren, lässt sich mit dem Datensatz nicht sagen.

Und generell gilt natürlich auch: Wer zu sehr auf “Gleich und Gleich” fixiert ist, dem gehen schnell die Optionen aus. Die Wahrscheinlichkeit, dass ein zufällig gewählter Mensch das gleiche Big-Five-Profil hat, beträgt, bei einer jeweiligen Einteilung in die Kategorien Niedrig / Mittel / Hoch, ganz grob 1 zu 250. Nur einmal unter 250 Dates wird man so jemanden treffen. Fordert man auch noch eine handvoll gleicher Interessen, landet man schnell bei 1 zu 10.000. Will man dazu noch einige Übereinstimmungen in der Lebensführung, dann bleibt man auf ewig Single. Ein rationaler Ansatz wäre einige Prioritäten zu bestimmen und den Rest gekonnt zu ignorieren. Oder Katzen.

Daddy’s Girl – Ganz so Falsch ist der Mythos nicht

Bei beiden Geschlechtern bestimmen sich die Präferenzen für einen Partner zu einem großen Teil aus der Persönlichkeit (nach dem Prinzip: Gleich und Gleich gessellt sich gern) sowie dem Alter. Doch besonders bei Frauen lässt sich auch ein deutlicher Einfluss durch die Beziehung mit den Eltern feststellen. Ein gutes Bild davon, wie groß der Einfluss verschiedener Bereiche ist, bekommt man durch die Betrachtung des Modellparameters R². Er gibt an, wieviel Varianz in der Zielvariable durch ein Set an unabhängigen Variablen erklärt wird. So sieht es bei Männern aus:

  • Eigene Persönlichkeit: 26 %
  • Alter: 23 %
  • Beziehung zur Mutter: 10 %
  • Beziehung zum Vater: 12 %

Man kann es so lesen: Der Faktor Persönlichkeit erklärt bei Männern 26 % der Varianz der Partnerpräferenzen. Bei 100 % könnte man die Partnerpräferenzen perfekt aus den Persönlichkeitsvariablen (hier die fünf Big Five Merkmale) vorhersagen, die gesame Varianz wäre erklärt, bei 0 % gäbe es hingegen keinerlei Zusammenhang. Man erkennt, dass zum einen Persönlichkeit und Alter einen gewichtigen Einfluss zeigen, 20-30 % der Varianz sind beachtlich für Modelle in der Psychologie, und dass zum anderen Persönlichkeit und Alter bei Männern einen stärkeren Einfluss auf die Partnerpräferenzen haben als die Beziehung zu den Eltern.

Bei Frauen ergibt sich ein etwas anderes Bild:

  • Eigene Persönlichkeit: 22 %
  • Alter: 29 %
  • Beziehung zur Mutter: 16 %
  • Beziehung zum Vater: 25 %

Persönlichkeit und Alter zeigen einen ähnlich starken Einfluss auf Partnerpräferenzen wie bei Männern, doch die Beziehung mit den Eltern, vor allem jene mit dem Vater, spielt hier eine gewichtigere Rolle. Es ist ein Klassiker der Küchenpsychologie, die Beziehungen von Frauen mit Bezug auf den Vater erklären zu wollen. Diese Idee zieht den Zusammenhang natürlich ins Groteske – ganz so alles-bestimmend ist der Einfluss nicht. Doch vollkommen unwahr ist der Mythos nicht. Die Beziehung mit dem Vater spielt eine deutlich größere Rolle bei Frauen als bei Männern wenn es um die Wahl eines Partners geht.

Eine alternative Möglichkeit die Stärke des Einflusses zu bewerten, wäre die Betrachtung der Summe der Absolutwerte der Regressionskoeffizienten in einem Modell, welches die Präferenzen aus der Beziehung zum Vater vorhersagt. Hier bestätigt sich das oben gesagte: Bei Männern beträgt diese Summe S = 0,52, bei Frauen S = 0,94. Ein recht ähnliches Verhältnis.

Wie konkret wirkt sich denn die Beziehung zum Vater bei Frauen aus? Frauen, die von einer guten Beziehung zum Vater berichten, legen mehr Wert auf einen Partner mit guter Karriere und Ambitionen. Aber Achtung vor Verallgemeinerungen! Erstens gibt es, wie bei allem mit viel Varianz, viele Ausnahmen von der Regel. Und zweitens muss man hier eher von Tendenz statt Regel sprechen. Dies im Hinterkopf, ist die Tendenz jedoch stark genug, dass man gemäß Cohen mit gutem Gewissen von einem starken Effekt sprechen darf.

Ebenso interessant und deutlich ausgeprägt ist diese Tendenz: Frauen mit guter Beziehung zum Vater legen auch mehr Wert auf einen empathischen / herzlichen Partner. Männern, denen diese Qualitäten fehlen, kommen besser bei Frauen an, denen die gute Bindung zum Vater fehlt. Auch hier kann man gemäß Cohen von einem starken Effekt sprechen.

Das bringt ein interessantes Problem: Menschen mit hohem Maß an Agreeableness erreichen seltener hohe Positionen als Menschen mit niedriger Agreeableness (und verdienen im Mittel auch weniger) weil sie sich seltener ohne Rücksicht auf andere durchsetzen und auch im Allgemeinen weniger konsequent ihre eigenen Interessen vertreten. Frauen mit guter Beziehung zum Vater scheinen also einen Typus Mann zu suchen, der in der Praxis nicht so gängig ist: Hohe Position plus viel Agreeableness.

Natürlich existieren diese Männer, aber die Kombination dieser Merkmale garantiert, dass der Pool an Kandidaten relativ klein ist. Und diese wenigen, die es gibt, werden auch entsprechend hart umworben sein. Besonders hart wird diese Suche für Frauen sein, die selbst eher wenig Herzlichkeit besitzen, denn herzliche Männer bevorzugen laut dem Datensatz sehr klar herzliche Frauen.

Die Geschichte hört hier nicht auf, aber ich werde den Rest kurz halten: Eine Frau mit guter Beziehung zum Vater gibt auch eher an, dass der Partner intelligent sein soll, aus der gleichen Kultur und Ethnie sein soll, psychisch gesund sein soll, reisfreudig sein soll und den Kontakt mit der Ex abbrechen soll. Praktisch an allen relevanten Punkten stellen Frauen mit enger Bindung zum Vater also höhere Ansprüche an den Partner.

Ist das gut oder schlecht? Es zeugt sicherlich davon, dass diese Frauen einen gesunden Selbstwert und klare Ziele besitzen. Problematisch ist es höchstens im Hinblick auf die Auswahl. Der Mann, der dies alles erfüllt, ist, wenn es ihn denn gibt, wohl längst vergeben oder hat es, bei all der freien Wahl, nicht eilig mit der Bindung. Kompromisse sind also vorprogrammiert.

Wie sich Partner-Präferenzen mit dem Alter ändern

Ein großer Datensatz (n = 530), bei dem Teilnehmer sich den idealen Partner basteln durften, zeigt dass sowohl bei Männern als auch bei Frauen das Alter einen Einfluss auf Partnerpräferenzen hat. Bei Frauen ist der Effekt deutlich stärker und umfassender als bei Männern. Der Datensatz liefert eine Erklärung dafür: Männer sind recht stark auf den Körper einer potentiellen Partnerin fokussiert und dieser Faktor bleibt bestimmend, egal ob der Mann nun 18 oder 60 Jahre alt ist. Bei Frauen ist die Situation differenzierter. Hier ergeben sich fundamentale Unterschiede bzgl Partnerpräferenzen mit steigendem Alter. Frauen werden auch, und das nur am Rande und als Vormerkung für eine spätere Analyse, viel stärker in ihren Präferenzen von der Beziehung zur Mutter und zum Vater beeinflusst. Vor allem der Einfluss durch den Vater sticht hervor. Aber zurück zum Alter.

Einen deutlichen Trend gibt es bei Frauen bezüglich der emotionalen Stabilität und der allgemeinen psychischen Gesundheit des Partners. Mit steigendem Alter legen Frauen mehr Wert darauf, dass der Partner eine gesunde Psyche besitzt. Bei Männern hingegen gibt es diesen Trend nicht. Hinweis: Die Kategorie* Developing umfasst Alter von 18 bis Mitte / Ende 20. Seniors beginnt ab 60 Jahren.

Auch die Intelligenz, Karriere und Humor des Partners gewinnt für Frauen mit steigendem Alter an Bedeutung und auch hier lohnt es sich anzumerken, dass bei Männern ein ähnlicher Trend nicht erkennbar ist.

Überraschend stark ist bei Frauen auch der Wandel hin zu Partnern aus der selben Kultur und Ethnie. Während junge Frauen bis Mitte / Ende 20 sehr offen gegenüber Partnern aus anderen Kulturkreisen sind, verschwindet diese Offenheit im höheren Alter. Die Effektstärke ist beeindruckend. Bei Männern, man mag es sich schon denken, gibt es diesen Trend nicht.

Vor allem sticht bei Frauen ins Auge, dass der Wandel in den Präferenzen bei vielen Variablen relativ abrupt geschieht – einmal im Alter Mitte / Ende 20 und dann nochmals im Seniorenalter. Ersteres lässt sich wohl damit erklären, dass Frauen in jenem Alter sich ernsthaft der Familiengründung hinwenden und somit Indikatoren für gute psychische und finanzielle Ressourcen (Stabilität, Karriere) an Bedeutung gewinnen.

Aber was ist mit den Männern? Wie erwähnt bleibt der Hauptfokus auf dem Körper der Partnerin, wobei sie jedoch auch, und das zur Verteidigung der Männer, Intelligenz und Humor hoch schätzen. Einer der wenigen statistisch signifikanten Änderungen ist der Blick auf die Ambitionen der Partnerin. Junge Männer möchten bevorzugt ambitionierte Partnerinnen. Dieser Blick schwindet mit fortschreitendem Alter.

Ältere Männer scheinen im Gegensatz zu jungen Männern auch nicht mehr so sehr darauf zu achten, ob eine potentielle Partnerin sportlich aktiv ist. Hier ist der Trend zum Ende hin recht abrupt.

Abgesehen von den Alterstrends gilt für beide Geschlechter jedoch insgesamt und mit deutlicher Tendenz, dass gleich und gleich sich gerne gessellt. Extrovertierte Frauen wollen extrovertierte Männer und umgekehrt. Empathische Frauen wollen empathische Männer und umgekehrt. Ordentliche Frauen wollen ordentliche Männer und umgekehrt. Offene Frauen wollen offene Männer und umgekehrt. Stabile Frauen wollen stabile Männer und umgekehrt. Wenn wir uns unseren idealen Partner basteln dürfen, dann basteln die meisten einen Partner, der diesselbe Persönlichkeit besitzt. Querkorrelationen sind selten und schwach. So möchten zum Beispiel stabile Menschen auch eher einen extrovertierten Partner, aber der Trend ist kaum der Rede wert. Gleich und gleich ist und bleibt der König unter Partnerpräferenzen.

Bleibt anzumerken, dass das, was sich Menschen als Ideal wünschen, nicht immer auch das ist, was sie in der Praxis wählen. Ob nun aus einem mangelndem Pool an Kandidaten oder der Realisation, dass gar keine Spannung in den Persönlichkeiten eine sehr langweilige Sache sein kann.

* Kategorien sind aufgespaltet mittels Fuzzy Logic

** Alle Änderungen sind in den Graphen in Einheiten Standardabweichung gegeben. Zur Bewertung der Stärke des Effekts findet sich hier eine Tabelle. Alles über 0,5 STD darf man als merklichen Effekt bezeichnen, alles über 0,8 STD als starken Effekt. Gemäß dieser Konvention sind praktisch alle oben aufgeführten Effekte stark.

Selbstfahrende Autos – Wer ist offen für den Wandel?

Vollautonome Autos haben sich in Tests gut behauptet und werden innerhalb der nächsten 10-20 Jahren die Straßen erobern. Aus psychologischer Sicht ist der Schritt eine große Herausforderung: Die Kontrolle wird den Insassen komplett entzogen, das Leben liegt in den Händen der Technik. Das ist zwar heute schon an vielen Stellen der Fall, zum Beispiel bei Landungen in CAT III-Bedingungen, bei denen die Landung durch einen Menschen sogar untersagt ist. Hier muss der Computer das Flugzeug landen. Doch das bleibt den Passagieren verborgen. Eine so offene Übergabe des Lebens an einen Computer wie sie im Zuge des Wandels im Individualverkehr kommen wird, ist eine Neuerung. Und nicht jeder ist offen dafür. Welche Faktoren sind gute Prediktoren für die Bereitschaft, sich dem selbstfahrenden Auto hinzugeben?

Ein Regressionsmodell auf Basis eines kleinen Datensatzes (n = 210, Harvard Dataverse, 58 % Männer, Mittleres Alter 40 Jahre, 44 % Singles) erlaubt einen Einblick. Alle Zusammenhänge haben eine solide statistische Signifikanz und dürften somit gut reproduzierbar sein, jedoch zeigt der geringe R²-Wert, dass das Modell in der vorliegenden Form noch unvollständig ist. Eine höhere Erklärungskraft lässt sich auf Basis dieser Umfrage leider nicht erreichen.

Solide Computerkenntnisse sind der wichtigste Prediktor. Wer in seinem Leben viele Erfahrungen mit Computern gesammelt hat und weiß, wie man sie bedient, ist eher bereit dazu, sein Leben in die Hand eines fahrenden Computers zu geben. Das ist wenig überraschend – Erfahrungen bringen Vertrautheit und Vertrautheit bringt Vertrauen. Das wäre natürlich auch ein exzellenter Ansatzpunkt für Menschen, die Angst vor dem selbstfahrenden Auto haben: Computer-Kurse besuchen, positive Erfahrungen in der digitalen Welt sammeln und Programme entdecken, die Freude bringen. In der Umfrage zeigen vor allem offene Menschen und Männer solide Kenntnisse im Umgang mit Computern.

Extravertierte (sozial aktive) Menschen scheinen den selbstfahrenden Autos kritischer gegenüber zu stehen als introvertierte Menschen, sogar deutlich kritischer. Einen Erklärungsansatz kann ich nicht bieten und auch der Datensatz liefert hier keine weiteren Hinweise. Eine vermittelnde Variable, die den Zusammenhang näher erklären könnte, lässt sich in der Umfrage leider nicht finden.

Der Faktor Need For Fairness zeigt sich ebenso als bedeutender Prediktor. Menschen, die ein hohes Bedürfnis zum Herstellen von Fairness haben (das sind natürlich vor allem Menschen, die auf der Agreeableness-Skala einen hohen Wert erreichen), begrüßen den technologischen Wandel. Das leuchtet ein wenn man bedenkt, dass die selbstfahrenden Autos den Menschen mit eingeschränkter Mobilität oder mit Ansätzen von Senilität ihre individuelle Freiheit zurückgeben werden. Auch Teenager werden von diesen Autos problemlos Gebrauch machen können. Der Individualverkehr gewinnt durch den Wandel ohne Zweifel an Fairness.

Ein etwas obskurerer Faktor ist Cannabis-Konsum. Kiffer scheinen das selbstfahrende Auto freimütiger zu akzeptieren. Ähnliches gilt, obwohl nicht im Modell gelistet, auch für Menschen mit erhöhtem Alkoholkonsum. Hier könnten pragmatische Überlegungen der Grund sein. Wer psychoaktive Stoffe konsumiert, der muss einige Stunden warten, bis er sich wieder ins Auto setzen kann. Diese Einschränkung wird mit dem selbstfahrenden Auto selbstverständlich fallen. Ein vollautonomes Auto ist ein Individualtaxi und Nüchternheit, oder überhaupt Wachheit, irrelevant.

Schlussendlich zeigt sich auch, dass Menschen, die empfänglich für Verschwörungstheorien sind, dem selbstfahrenden Auto relativ kritisch gegenüberstehen. Die Empfänglichkeit selbst scheint sich zu einem guten Teil aus dem Angst vor Kontrollverlust zu ergeben, ein möglicher Erklärungsansatz. Ein alternativer, oder ergänzender Erklärungsansatz wäre, dass diese Menschen eher den möglichen Missbrauch der Technologie im Blick haben. Das selbstfahrende Auto als Instrument der staatlichen Überwachung zum Beispiel. Oder das selbstfahrende Auto als Mordinstrument durch Hacking des Computers.

Schlafprobleme – Ein umfassendes Modell

Das folgende Regressionsmodell basiert auf einem Datensatz aus dem Harvard Dataverse mit n = 410 Teilnehmern (USA, 49 % Männer, Mittleres Alter 39 Jahre) und erklärt etwa 40 % in der Varianz der Variablen Schlafprobleme, was einer zufriedenstellenden Erklärungskraft entspricht. Weitere Hinweise zur Güte des Modells füge ich am Ende des Eintrags an.

IB bedeutet “In Bed”. Das bezieht sich auf Verhalten und Denkweisen, die beim Hinlegen zum Schlafen verfolgt werden. BB bedeutet “Before Bed”. Das bezieht sich auf jenes, was einige Stunden vor dem zu Bett gehen gemacht wird. Hier einige Beobachtungen:

  • Fitness hat den stärksten Effekt, wobei der förderliche Effekt erst ab Bewegung mit mittlerer Intensität (Jogging) beginnt. Bewegung mit niedriger Intensität (spazieren gehen) fördert zwar das allgemeine Wohlempfinden, kann jedoch Schlafprobleme nicht mildern.
  • Der Fokus auf den Körper nach dem Hinlegen zeigt solide eine Milderung von Schlafproblemen, was wiederum gefördert wird durch a) Fitness und b) aktives Betreiben von Mindfulness-Übungen (Meditation, Yoga).
  • Eine laute Nachbarschaft bringt Schlafprobleme, einmal auf direktem Wege (z.B. geweckt werden durch Geräusche) und zum anderen durch eine höhere körperliche Aktivierung beim Schlafen gehen.
  • Der Fokus auf Probleme nach dem Hinlegen ist Gift für den Schlaf. Dieser Fokus steht in enger Wechselwirkung mit der körperlichen Aktivierung beim Schlafen gehen und wird darüber hinaus gefördert durch eine lange Zeit vor einem elektronischen Bildschirm (>= 4 h).
  • Die körperliche Aktivierung nach dem Hinlegen ist neben der Fitness der Faktor mit der stärksten Wirkung. Sie ist praktisch ein Garant für schlechten Schlaf. Schon genannt ist der Einfluss durch laute Nachbarschaft und die Wechselwirkung mit dem Problemfokus, an diesem Punkt zeigt sich zusätzlich die Wirkung von Koffein.
  • Neben Koffein bringen auch die legalen Drogen Nikotin und Alkohol eine merkliche Verschlechterung des Schlafs, wobei das Modell bis auf Koffein leider keinen kausalen Weg der Wirkung aufzeigt. Als Faustregel ist es sicherlich empfehlenswert, zwei bis drei Halbwertzeiten* vor dem Schlafen gehen keine dieser legalen Drogen mehr zu konsumieren.
  • Interessant ist auch, was keinen Einfluss zeigt: Essen vor dem Schlafen gehen ist, entgegen gängiger Überzeugungen, kein Problem. Das Licht frühzeitig zu dämmen zeigt keine Wirkung, ebenso das Schlafen in kompletter Dunkelheit. Mittagsschläfchen haben auch keinen Einfluss auf Schlafprobleme. Die Uhrzeit des Schlafengehens zeigt einen minimalen Einfluss, ist aber nicht der Rede wert. Ob man um 20 Uhr oder 2 Uhr morgens ins Bett geht, macht zumindest im Hinblick auf Schlafprobleme keinen Unterschied.
  • Was einen Einfluss zeigt, aber nicht aufgelistet wird: Lesen vor dem Schlafen gehen ist förderlich für guten Schlaf, Filme und Serien schauen hat verstärkt Schlafprobleme. Im Modell sind diese Wirkungen enthalten da sie an statistischer Signifikanz verlieren wenn die obigen sechs Hauptfaktoren berücksichtigt werden, jedoch sind die Pfade unklar.
  • Hinweis zu Screen Time: Die Zeit vor dem Bildschirm zeigt keinen linearen Einfluss. Eine lineare Variation zeigt sich nur von im Bereich von 0 h bis zu 4 h. Ab 4 h bleibt die Wirkung konstant. Es macht für Schlafprobleme also keinen Unterschied, ob man 4 h oder 8 h vor dem Bildschirm verbringt. Bei 4 h ist der “Schaden” schon getan. Für eine förderliche Wirkung, muss die Zeit vor einem elektronischen Bildschirm mindestens unter 4 h bleiben. Alle anderen Variablen zeigen über den gesamten Bereich einen zufriedenstellend linearen Einfluss.
  • Die Regression getrennt nach Männern und Frauen zeigt keinen nennenswerten Unterschied. Man darf also davon ausgehen, dass das Modell für beide (bzw. alle) Geschlechter Gültigkeit besitzt. Auch die getrennte Analyse mit Bildungsgrad oder Anzahl Kinder als Selektionsvariable offenbart nichts, was der Rede wert wäre.

Das Modell zeigt, dass alleine regelmäßiges Jogging kombiniert mit Einhaltung der Regeln zu legalen Drogen eine Reduktion von 1 bis 1,5 Standardabweichungen bei Schlafproblemen bringen kann, was genug ist, um moderate Schlafprobleme komplett zu lösen und starke Schlafprobleme sehr deutlich zu mildern. Wird zusätzlich der Fokus nach dem Hinlegen bearbeitet, vom rationalem Denken weg zur Wahrnehmung des Körpers und dem Spinnen von Fantasien**, so ist auch eine Reduktion von zwei Standardabweichungen gut im Bereich des Möglichen. Die Verlagerung des Fokuses stellt sich zum Teil automatisch durch die erhöhte Fitness ein, kann aber auch zusätzlich durch Mindfulness-Übungen oder Hörbücher geschult werden. Der merkliche Einfluss einer lauten Nachbarschaft könnte dafür sprechen, Oropax beim Schlafen zu nutzen.

Hinweise zur Güte des Modells: Es erklärt etwa adj R² = 40 % der Varianz in der Variable Schlafprobleme. Der direkte Effekt der jeweiligen Variablen, berechnet nach dem Modell, deckt sich recht gut mit dem direkten Effekt, der im Datensatz beobachtet wird. Die Residuen genügen nur grob einer Normalverteilung, aber noch nahe genug daran um es zu akzeptieren. Für extreme Werte der Variable Schlafprobleme zeigt sich ein Trend in der Verteilung der Residuen, was bedeutet, dass das Modell bei diesen Werten nur begrenzte Gültigkeit besitzt. Probleme mit Kollinearität gibt es keine und für alle Teilnehmer ist Cook’s Distance < 0,30. Somit gibt es keine Ausreißer, die den Wert der Koeffizienten verzerren könnten. Für alle Variablen ist p < 0,01, Probleme mit Reproduktion sind dementsprechend keine zu erwarten. Insgesamt ist die Güte des Modells zufriedenstellend.

* Für die Halbwertzeit kann man für jede der legalen Drogen grob 2 h annehmen. Nach einer Halbwertzeit ist die Konzentration 50 % des Maximalwerts, nach zwei Halbwertzeiten 25 % und nach drei Halbwertzeiten 12,5 %. Je höher der Konsum, desto höher die maximale Konzentration, desto mehr Halbwertzeiten sollte man dem Körper vor dem Schlafen gehen geben, um die Stoffe abzubauen. Zwei Halbwertzeiten, entsprechend 4 h, könnten bei moderatem Konsum ausreichend sein, bei starkem Konsum eher drei Halbwertzeiten, entsprechend 6 h.

** Das Fantasieren nach dem Hinlegen an sich ist (gemessen am direkten Effekt) weder förderlich noch hinderlich für guten Schlaf. Es erweist sich aber als förderlich, wenn es als Substitut für den schädigenden Fokus auf Probleme verwendet wird.

Offenheit – Der aktuelle Stand der Forschung

Das Konstrukt Offenheit (Openness to Experience) ist eines der fünf Persönlichkeitsmerkmale gemäß dem Big Five Modell, dem Standardmodell für Persönlichkeit in der Psychologie. Die Offenheit einer Person bildet sich, wie auch die anderen vier Merkmale, schon im frühen Kindesalter aus (vor dem Alter von etwa fünf Jahren) und bleibt dann im Großen und Ganzen über die gesamte Lebenszeit unverändert. Anders gesagt: Menschen, die im Jugendalter nicht offen sind, sind es auch im Seniorenalter nicht und umgekehrt. Diese Stabilität über die Lebensdauer rechtfertigt die Bezeichnung von Offenheit als festes Merkmal der Persönlichkeit.

Das Merkmal Offenheit bestimmt die politische Einstellung einer Person. Generell gilt: Menschen mit hoher Offenheit sind liberal, Menschen mit geringer Offenheit sind konservativ. Der Zusammenhang ist sehr stark, mit einem Korrelationskoeffizienten in der Größenordnung r = -0,45. Offene Menschen zeigen auch eine deutlich geringere Empfänglichkeit für rechtsautoritäre Einstellungen (r = -0,35), weniger Vorurteile (r = -0,30) und einen geringeren Hang zu religiösem Fundamentalismus (r = -0,35). Aus psychologischer Sicht sind rechter und religiöser Extremismus zwei Seiten der gleichen Medaille, nämlich dem Mangel an Offenheit.

Openness ~rSizeSource
Conservativism-0,4174https://onlinelibrary.wiley.com/doi/abs/10.1111/j.0022-3506.2004.00276.x
Conservativism-0,57184Riemann et al. (1993)
Conservativism-0,31173Van Hiel and Mervielde (1996a; 1996b)
Right-Wing Authoritarianism-0,4174https://onlinelibrary.wiley.com/doi/abs/10.1111/j.0022-3506.2004.00276.x
Right-Wing Authoritarianism-0,36198Peterson et al. (1997)
Right-Wing Authoritarianism-0,33157Peterson et al. (1997)
Prejudice-0,30MetaDOI: 10.1177/1088868308319226
Religious Fundamentalism-0,4231Correlates of the Openness to Experience Domain (Proctor)

Offenheit zeigt sich neben der politischen Einstellung auch in der Denkweise: Offene Menschen denken kreativ (r = 0,50). Das bedeutet vor allem, nicht nur die Pfade der wahrscheinlichsten Assoziationen zu verfolgen, wie es beim strikt rationalen Denken geschieht, sondern auch unwahrscheinliche Assoziationen zu verfolgen. Eine Gefahr, bei hoher Offenheit in den Bereich absurder Assoziationen zu gelangen, scheint nicht zu bestehen. Zumindest zeigt sich keine Korrelation zwischen Offenheit und Psychotizismus oder der schizoiden Persönlichkeitsstörung.

Openness ~rSizeSource
Creative Thinking0,44234https://psycnet.apa.org/record/1987-28199-001
Creative Thinking0,58189Openness to experience, plasticity, and creativity: Exploring lower-order, high-order, and interactive effects (Silvia)
Creative Thinking0,46310Conceptions and Correlates of Openness to Experience (McCrae)
Creative Writing0,311035doi: 10.1111/jopy.12156
Creative Achievement0,361035doi: 10.1111/jopy.12156
Psychoticism0528Openness To Experience, Intellect, Schizotypal Personality Disorder, And Psychoticism (Chmielewski)

Vor dem Hintergrund des Hangs zur kreativen Denkweise überrascht es nicht, dass offene Menschen vor allem auch an ihrem Interesse an Kunst, Ästhetik und Musik zu erkennen sind:

Openness ~rSizeSource
Awe for Space Images0,48103Openness to Experience and Awe in Response to Nature and Music (Silvia)
Awe for Music0,35103Openness to Experience and Awe in Response to Nature and Music (Silvia)
Art Interest0,5325Correlates of the Openness to Experience Domain (Proctor)
Aesthetic Sense0,40254Conceptions and Correlates of Openness to Experience (McCrae)

Deutlich wirkt sich das Maß an Offenheit auch auf die Intelligenz aus (gemessen an den allgemeinen kognitiven Fähigkeiten, dem g-Faktor). Der Zusammenhang liegt in der Größenordnung r = 0,40. Wieso man sich die Intelligenz als abgeschlossenes Konstrukt denken kann, und der IQ-Test dieses Konstrukt auch verlässlich misst, habe ich hier aufgeschrieben.

Openness ~rSizeSource
Gen Cog Ability (g)0,50177doi: 10.1111/jopy.12156
Gen Cog Ability (g)0,39239doi: 10.1111/jopy.12156
Gen Cog Ability (g)0,24124doi: 10.1111/jopy.12156
Gen Cog Ability (g)0,46305doi: 10.1111/jopy.12156
Gen Cog Ability (g)0,37125DOI: 10.1080/00223891.2013.806327
Gen Cog Ability (g)0,31189DOI: 10.1080/00223891.2013.806327
Gen Cog Ability (g)0,33Ackerman and Heggestad (1997)
Gen Cog Ability (g)0,43Gignac, Stough, and Loukomitis (2004)
Childhood Intelligence0,33406doi: 10.1037/a0029066

Sehr interessant ist, dass trotz des Zusammenhangs mit Kreativität und Intelligenz, die Offenheit in keinem Zusammenhang mit Leistungen in der Uni oder auf der Arbeit steht. Offene Menschen erreichen keinen höheren akademischen Grad als Menschen mit geringer Offenheit und zeigen auch keine bessere Leistung im beruflichen Bereich. Dies liegt vor allem daran, dass Leistungen zum größten Teil durch die Dimensionen Gewissenhaftigkeit und Stabilität bestimmt werden und diese keine Relation, weder im positiven noch im negativen, mit Offenheit haben.

Openness ~rSizeSource
Job Performance0MetaDOI: 10.1111/j.0965-075X.2004.278_1.x
Job Satisfaction0MetaDOI: 10.1037//0021-9010.87.3.530
Academic Success0MetaMeta-Analysis of the Relationship Between the Big Five and Academic Success (Trapmann)

Hier noch einige weitere Nullresultate: Offene Menschen sind weder sportlich aktiver noch weniger sportlich aktiv als Menschen mit geringer Offenheit, zeigen keine Unterschiede bzgl. Zigarettenkonsum, haben keine Auffälligkeiten bzgl Chronotyp und, der wichtigste Punkt, zeigen keine besondere Repräsentation bei Persönlichkeitsstörungen. Dies macht die Offenheit zum Ausreißer unter den Persönlichkeitsmerkmalen. Jedes andere Merkmal lässt bei gewissen Persönlichkeitsstörungen gehäuft beobachten (siehe hier). Zum Beispiel die Extraversion bei Narzissmus oder der Neurotizismus bei Borderline. Offene Menschen zeigen jedoch, außer einer sehr geringen Überrepräsentation bei der histrionischen Persönlichkeitsstörung, an keiner Stelle eine merkliche Häufung.

Openness ~rSizeSource
Physical Activity0Metadoi: 10.1136/bjsm.2006.028860
Current Smoking0Metadoi: 10.1111/add.13079
Chronotype0MetaDOI: 10.1002/per.754
Openness ~rSizeSource
Personality Disorder0Metadoi: 10.1016/j.cpr.2008.07.002
Personality Disorder0MetaPersonality Disorders And The Five-Factor Model (Costa)
Histronic PD0,26102Representation of personality disorders in circumplex and five-factor space (Soldz)
Histronic PD0,20581Conceptions of Personality Disorders and Dimensions (Wiggins)
Histrionic PD0,25229Perceptions of people with personality disorders based on thin slices of behavior (Oltmanns)
Histrionic PD0,15Metadoi: 10.1016/j.cpr.2008.07.002
Histrionic PD0,15Metadoi: 10.1016/j.cpr.2008.07.002
Histrionic PD0,18233On The Relationship Of The Five-Factor Personality Model To Personality Disorders (Coolidge)

Für die Zukunft der Forschung ist vor allem der Zusammenhang zwischen Offenheit und Extraversion von Relevanz. Basierend auf der Beobachtung, dass die Big Five Merkmale in der Praxis häufig auf zwei Faktoren zusammenfallen, wobei die Offenheit und Extraversion einen gemeinsamen Faktor bilden (genannt Plasticity), gehen viele Forscher mittlerweile davon aus, dass die Big Five die Facetten einer Big Two oder eines allgemeinen Faktors der Persönlichkeit bilden (ähnlich dem g-Faktor in der Intelligenzforschung). Diese Interpretationen sind noch umstritten, die Korrelation zwischen Offenheit und Extraversion ist jedoch gut belegt.

Openness ~rSizeSource
Extraversion0,2579Openness and extraversion are associated with reduced latent inhibition (Peterson)
Extraversion0,261006Relationships among extraversion, openness to experience,and sensation seeking (Aluja)
Extraversion0,23140DOI: 10.1037/a0013742
Extraversion0,35175Sources of Openness/Intellect (DeYoung)

Intelligenz hat nur einen Faktor – Was bedeutet das?

Um zu verstehen, was der Satz “Intelligenz hat nur einen Faktor” bedeutet und welche Implikationen das hat, hier ein einleitendes Beispiel. Viele Menschen teilen Intelligenz in verschiedene Kategorien ein. Kategorien, von denen einige Hand in Hand gehen (sprachliche und musikalische Intelligenz) und andere gefühlt kollidieren (sprachliche und mathematische Intelligenz). Angenommen wir hätten einen Test, der sehr umfassend das Verständnis und die Fähigkeiten in den folgenden vier Kategorien testet:

  • Sprachlich
  • Musikalisch
  • Mathematisch
  • Wissenschaftlich

Gemäß den allgemeinen Vorstellungen sollte man erwarten, dass zwischen den sprachlichen und musikalischen Fähigkeiten eine starke positive Korrelation besteht (zum Beispiel +0.5) und ebenso zwischen den mathematischen und wissenschaftlichen Fähigkeiten (sagen wir +0.5). Wir würden desweiteren erwarten, dass es zwischen manchen Kategorien eine negative Korrelation gibt, zum Beispiel bei den Kategorien sprachlich und mathematisch. Setzen wir hier -0.5. Die Werte sind nur zum Zwecke der Demonstration, es zählt vor allem das Vorzeichen. Insgesamt sollte das Experiment also eine Korrelationstabelle der folgenden Art liefern:

SpracheMusikMatheWissenschaft
Sprache1+0,5-0,5-0,5
Musik+0,51-0,5-0,5
Mathe-0,5-0,51+0,5
Wissenschaft-0,5-0,5+0,51

An dieser Matrix erkennt man schnell, was mit was Hand in Hand geht und was eher miteinander kollidiert. Das einzige Problem: Es ist falsch. Die Experimente der letzten 100 Jahre sagen, dass die Tabelle eher so aussieht:

SpracheMusikMatheWissenschaft
Sprache1+0,5+0,5+0,5
Musik+0,51+0,5+0,5
Mathe+0,5+0,51+0,5
Wissenschaft+0,5+0,5+0,51

Alle Kategorien von komplexen kognitiven Fähigkeiten gehen Hand in Hand. Es gibt keine sprachliche oder mathematische Intelligenz, keine musikalische oder wissenschaftliche Intelligenz. Sondern nur einen allgemeinen Faktor der Intelligenz, welcher in der Psychologie als g-Faktor bezeichnet wird. Die obige Tabelle haben Wissenschaftler im Kopf, wenn sie davon sprechen, dass Intelligenz nur einen Faktor hat. Mit hoher Verlässlichkeit gilt: Wer leicht Sprachen lernt, der lernt auch schnell Musikinstrumente, kann flott bei Mathe durchsteigen und sich relativ mühelos in die Wissenschaft einarbeiten. Und umgekehrt: Wer in einer dieser Kategorien des kognitiven Schaffens viel Mühe hat, dem wird es auch in anderen Kategorien so gehen.

Das ist auch der Grund, wieso der IQ-Test in der Praxis soviel Aussagekraft besitzt, obwohl er nur eine kleine Selektion an kognitiven Fähigkeiten misst (viele davon sogar scheinbar ohne Relevanz zu tatsächlichen Aufgaben im Alltag oder der Arbeitswelt). Die Selektion in Art und Umfang ist nämlich im Großen und Ganzen irrelevant. Kognitive Fähigkeiten verschiedener Richtungen sind so eng verwoben, dass es reicht eine handvoll davon zu messen, um zu wissen wie es um alle restlichen bestellt ist. Es ist wie mit der Wassertemperatur. Möchte man die Temperatur des Wassers in der Badewanne wissen, muss man nicht jede mögliche Stelle messen. Es reicht, die Probe an einer Stelle zu nehmen und die Natur der Dinge versichert, dass es in der restlichen Wanne ähnlich aussieht. Die Temperatur an der Stelle ist der IQ, die Temperatur über die gesamte Wanne der g-Faktor. Sie sind, bis auf minimale Abweichungen, im Wert übereinstimmend.

Der klassische Einwand, dass der Begriff Intelligenz so zu eng gefasst wird ist legitim, aber auch etwas irreführend. Man muss unterscheiden zwischen Intelligenz, dem Begriff aus dem Volksmund und Intelligenz, dem Begriff aus der Wissenschaft. Im Volksmund möchte man oft emotionale und soziale Skills zur Intelligenz hinzurechnen. In der Wissenschaft zählen diese beiden Aspekte jedoch zur Persönlichkeit und nicht zur Intelligenz. Emotionale Skills sind bei dem Big-Five-Merkmal Stabilität zu finden, soziale Skills bei dem Merkmal Extraversion. Diese Unterscheidung ist sinnvoll, weil a) dies eine viel feinere Differenzierung erlaubt und b) es keine Korrelation zwischen g-Faktor, Stabilität und Extraversion gibt. Ohne besonderen Grund zur Zusammenfassung, etwa weil alle Prediktoren für eine bestimmte Variable sind, sollte man sie auch nicht zusammenfassen.

Die Besprechung der Konsequenzen dieser Ein-Faktor-Intelligenz ist leider eine unangenehme Geschichte. Ein niedriger IQ ist demnach ein Garant dafür, dass ein Mensch in keinem Bereich gute kognitive Leistungen erbringen wird und auch nie einen komplexen Berufe ergreifen kann. Was heißt in diesem Kontext niedrig? Das US-Militär hat mehr IQ-Tests als jede andere Institution der Welt durchgeführt und ist auf diesem Wege zu dem Schluss gekommen, dass Menschen mit einem IQ < 85 (etwa 10 % aller Menschen) prinzipiell abgewiesen werden müssen, da es keine Aufgaben gibt, zu denen diese sinnvoll eingesetzt werden können.

Das hat natürlich auch gesellschaftliche Konsequenzen über das Militär hinaus: Wird die Arbeitswelt komplexer, etwa weil eine Gesellschaft sich von der Landwirtschaft und Produktion hin zu Dienstleistungen bewegt, dann trifft es diese 10 % der Bevölkerung besonders hart. Da Umschulungen in diesem Falle nicht erfolgreich sein können, bleibt nur der Kampf um die wenigen verbleibenden Jobs mit niedriger Komplexität und die Stütze durch den Sozialstaat. Die Daten zeigen aber, dass in solchen Gesellschaften der IQ Schritt hält (Flynn-Effekt). Nimmt durch den Wandel die wirtschaftliche Leistung zu, so steigt auch der mittlere IQ an.

Noch unangenehmer ist die Diskussion um die ethnischen Unterschiede in der allgemeinen Intelligenz. Jüdische und asiatische Menschen, ob nun in den Heimatländern oder in der Diaspora lebend, zeigen einen IQ über dem Durchschnitt: 110-115 IQ-Punkte und somit eine Standardabweichung über der Norm von 100 (bei der weiße Europäer und Amerikaner liegen). Schwarze Menschen, in den USA wie auch in Afrika, liegen unter dem Durchschnittswert, im Mittel bei 80-90 IQ-Punkte. Natürlich ist das kein Grund, alte Rassentheorien auszugraben, denn der IQ ist nur zum Teil durch die Genetik bestimmt. Ein anderer Teil (20-50 %) stammt aus der Sozialisierung und Bildung. Wer in einem vernachlässigten Ghetto aufwächst oder noch schlimmer, mangelernährt in einem Dorf im Kongo, der bekommt nicht die gleichen Chancen zur Entwicklung der Persönlichkeit und Intelligenz wie ein wohl-versorgtes Kind in Deutschland.

Dass diese sozioökomischen Faktoren einen sehr großen Einfluss haben, zeigt, neben der engen Korrelation zwischen IQ und GDP, auch der Unterschied der allgemeinen Intelligenz innerhalb Deutschlands. Der IQ von Menschen in Ostdeutschland lag in den Zeiten vor der Wiedervereinigung etwa zehn Punkte unterhalb des IQs von Menschen in Westdeutschland. Eine genetische Erklärung, wie man sie oben noch vermuten könnte, ist hier natürlich praktisch ausgeschlossen. Intelligenz ist also kein Wert, den man im Vakuum betrachten kann, und nichts, was einer Ethnie eigen wäre. Unterschiede im Mittel von 10-20 IQ-Punkten lassen sich vollständig durch Unterschiede in Sozialisierung und Bildung erklären, ganz ohne Hinzunahme von Genetik. Das heißt natürlich nicht, dass eine genetische Kompenente fehlt. Intelligenz ist grob so stark vererblich (50-80 %) wie Alkoholismus oder Borderline-Persönlichkeitsstörungen.

Das Selbstverständliche muss nicht gesagt werden, darf aber auch nicht fehlen: Intelligenz hat nichts mit dem Wert eines Menschen zu tun, weder rechtlich noch unter Anwendung des gesunden Menschenverstands. Dazu kommt: Es gibt keine Korrelation* zwischen den Persönlichkeitsmerkmalen des Big-Five-Modells und Intelligenz. Eine höhere Intelligenz garantiert nichts außer der besagten stromlinienförmigen Kognition. Die Forschung zeigt ganz klar, dass Soziales Denken, Empathie, Lebensglück, etc … Dimensionen sind, die komplett abgekoppelt von Intelligenz sind. Kein Fall von Hand in Hand, kein Fall von Widerspruch, sondern einfach davon unabhängige Dimensionen. Entsprechend können intelligente Menschen Wohltäter sein, wie etwa Bill Gates, oder durchweg Bösartig, wie etwa Ted Bundy oder Dr. Josef Mengele.

*Ausnahme: Eine positive Korrelation zwischen Offenheit und Intelligenz in der Größenordnung r = 0.35. Sicherlich ein merklicher Zusammenhang, erklärt jedoch nur 0.352 = circa 12 % in der gesamten Varianz von Intelligenz.

Wahrnehmung beim Frontalcrash eines Flugzeugs

Vor langer Zeit habe ich mal diese Frage in einem Forum gelesen: Wenn man bei einem Flugzeug, das frontal in einen Berg crasht, hinten in der Kabine sitzt, würde man noch wahrnehmen wie die Kabine sich komprimiert? Also wie die Vorderwand sich nähert? Um das zu beantworten, benötigt man erstmal die Zeit, die ein Stimulus benötigt, um bewusst zu werden. Die Schätzungen in der Literatur gehen auseinander:

  • Efron 1967: > 60 ms
  • Pockett 2002: 50-80 ms
  • Koch 2004: 250 ms

Die Spanne der Schätzungen reicht also von 50-250 Millisekunden oder 1/20-1/4 einer Sekunde. Erstmal die Situation bei einem Crash mit Cruising-Geschwindigkeit. Diese ist typischerweise bei 850 km/h = 235 m/s. Ein A320 hat (ohne Abtrennungen) eine Kabinenlänge von etwa 35 m. Die Dauer der Kompression wäre, ohne Berücksichtigung des Widerstands, den die Kompression selbst der Bewegung entgegensetzt, 35 m / 235 m/s = 0,15 s = 150 ms. Durch den Widerstand des Materials könnte das auch gut bei 200 ms liegen. Welchen Wert man auch nimmt, eine klare Antwort ist nicht möglich. Laut Efron und Pockett würde ein Passagier im hinteren Teil des Flugzeugs die Kompression noch wahrnehmen, laut Koch läge die letzte bewusste Wahrnehmung wohl noch vor der Kompression.

Geschieht die Kollision im Landeanflug, dann wird die Interpretation verlässlicher. Im Landeanflug beträgt die Geschwindigkeit um die 280 km/h = 75 m/s. Das macht eine Kompressionszeit von 0,47 s = 470 ms ohne Widerstand und etwas mehr, vielleicht 550 ms, mit Widerstand. Jedenfalls ist es hier recht wahrscheinlich, dass ein Passagier die Kompression noch bewusst wahrnehmen würde. Und eventuell sogar noch darauf reagieren könnte, da Reaktionszeiten in Gefahren im nüchternen Zustand nur um die 200-300 ms betragen.

Diese Rechnung hat sich ausschließlich auf visuelle Stimuli bezogen, gilt wohl aber auch für das auditive Stimuli. Die durch die Luft vermittelten Schallwellen würden zwar einige Zeit benötigen, um hinten in der Kabine anzukommen (35 m / 320 m/s = 0.11 s = 110 ms). Und durch die Verzögerung kann es gut sein, dass diese Wellen selbst beim Crash im Landeanflug nicht mehr oder nur sehr knapp wahrnehmbar sind. Jedoch gelangt in einem Flugzeug der Schall auch durch das feste Material in den hinteren Bereich. Hier sind die Übetragungsgeschwindigkeiten deutlich höher. Bei Aluminium etwa 3000 m/s, so dass die Übetragungszeit nur 1 ms beträgt. Ein signifikanter Unterschied zwischen der Ankunft des Lichts und des Schalls ist, wenn man den Körperschall miteinbezieht, nicht zu erwarten.

Wo sind die Aliens? – Der Stand der Technik

Es ist auffällig still in der Milchstraße. Trotz jahrzehntelanger Suche wurde noch kein Signal empfangen, dass auf eine außerirdische Zivilisation hindeutet. Das sollte aber kein Grund zur Sorge sein. Denn selbst wenn es zehntausende solcher Zivilisationen in der Milchstraße gäbe, hätte man sie mit dem aktuellen Stand der Technik praktisch nicht bemerken können. Und sie hätten auch uns nicht bemerken können.

Zuerst mal der Blick auf Signale planetarer Kommunikation. Jede technologisch fortgeschrittene Zivilisation wird elektromagnetische Strahlung nutzen, um planetare Kommunikation zu betreiben. Dies ermöglicht Radio, Funk, Fernsehen, Internet via Satelliten, etc … Da die zu überbrückenden Distanzen im Vergleich zu galaktischen Strecken ziemlich klein sind, ist die Intensität dieser Strahlung entsprechend gering. Mit dem aktuellen Stand der Technik könnten wir solche Signale bis zu einer Entfernung von etwa 50 Lichtjahren bemerken. Wenn es in unserer näheren Umgebung (eine Kugel mit Radius 50 Ly) Aliens gäbe, welche elektromagnetische Kommunikation unter sich betrieben, dann hätten wir das bereits bemerkt. Aber 50 Ly sind wirklich sehr wenig.

Eine Kugel mit Radius 50 Ly hat ein Volumen von 0,5 Millionen Kubik Ly. Die Milchstraße ist ein Zylinder mit einem Radius von 50.000 Ly und einer Höhe von 1000 Ly, entsprechend einem Volumen von 8 Billionen Ly. Der Bereich, in welchem wir eine solche planetare Kommunikation sehen könnten, umfasst demnach nur ein sechzehn Millionstel der gesamten Galaxie. Noch enttäuschender ist das Ergebnis, wenn man die Rechnung nicht auf das Volumen, sondern die Anzahl Sterne bezieht.

Wir leben im Kasachstan der Milchstraße. Gemittelt über die ganze Galaxie gibt es etwa 0,031 Sterne für jeden Lichtjahr-Quader, in unserer näheren Umgebung beträgt die Dichte an Sternen jedoch nur mickrige 0,004 Sterne pro Kubik Ly. Also knapp ein Zehntel des galaktischen Durchschnitts. Das macht 2000 Sterne in unserer näheren Umgebung verglichen mit 250 Milliarden Sternen galaxieweit. Unsere nähere Umgebung umfasst also nur ein einhundertzwanzig Millionstel aller Sterne der Galaxie. Jegliche planetare Kommunikation über diesen infitesimalen Teil hinaus könnten wir derzeit nicht wahrnehmen. Ein extrem kleines Sample.

Aber es gibt auch noch gerichtete Strahlung. Auf der Erde sind das insbesondere Radar-Signale in Richtung Oberfläche, Horizont, aber auch in das Universum hinaus. Solche gerichteten Signale mit der derzeitigen Stärke könnte man mit derzeitigen Technik bis zu 100.000 Ly sehen. Radar-Signale, welche vom anderen Ende der Galaxie auf uns gerichtet werden, ob nun aus Vorsatz oder Zufall, könnten wir also tatsächlich erkennen. Natürlich gibt es auch hier ein Problem. Die großen Distanzen bedeuten, dass die Wahrscheinlichkeit, dass ein Signal direkt auf uns gerichtet ist, praktisch Null ist. Schickt man ein gerichtetes Signal von einem Planeten d Lichtjahre von der Erde entfernt in zufälliger Richtung in den Himmel, so beträgt die Wahrscheinlichkeit, dass das Signal unseren Querschnitt trifft:

p = 1 / (8.333.000.000.000.000.000 * d²)

Selbst aus der näheren Umgebung abgeschickt, ist ein solcher Zufallstreffer fast unmöglich. Bei d = 50 Ly ist p = 1:20.825.000.000.000.000.000.000. Eins zu irgendwas auf gutem Weg zur Unendlichkeit. Auch unter der Annahme zehntausender Zivilisationen in der Galaxie, würden wir demnach solche Signale nicht sehen. Anders ausgedrückt: Die Abwesenheit dieser Signale lässt nicht den Schluss zu, dass wir alleine sind. Das gilt für die Eingangs besprochene planetare Kommunikation wie auch für gerichtete Strahlung in “zufälliger” Richtung.

Aber was ist mit “unzufälliger” Richtung? Außerirdische könnten natürlich viel bessere Teleskope als wir haben und somit auch von größerer Distanz unsere TV-Signale sehen. Danach benötigt es nur noch einen gerichteten Strahl moderater Stärke auf die Erde, den wir wiederum sehen könnten, und die Kommunikation könnte beginnen. Wieso ist das noch nicht passiert? Man muss bedenken, dass die Menschheit erst seit etwa 100 Jahren elektromagnetische Strahlung ins All schickt. Jeder außerhalb 100 Ly könnte unmöglich von unserer Existenz wissen, egal wie stark das verwendete Teleskop ist. Die Strahlung ist dort noch nicht angekommen.

Wieder die Überschlagsrechnung: Eine Kugel mit Radius 100 Ly hat ein Volumen von etwa 4,2 Millionen Kubik Ly. Unsere Strahlung deckt demnach, bezogen auf das Volumen, bisher nur ein zwei Millionstel der Galaxie ab. Dazu kommt, dass auch das Signal zu uns hin nochmal einige Zeit benötigt. Wenn eine 100 Ly entfernte außerirdische Zivilisation heute unsere Signal wahrnimmt, braucht die Antwort nochmals 100 Jahre. Kurz: Auch die Abwesenheit einer solchen direkten Kommunikation sollte nicht zum Schluss verleiten, dass wir alleine sind.

Ist es sinnvoll, Träume zu deuten?

Beim Thema Träumen und Traumdeutung bewegt man sich immer auf sehr dünnem Eis, da es bisher in der Wissenschaft keine allgemein akzeptierte oder empirisch bestätigte Theorie gibt, was hinter dem Phänomen Träumen steckt. Eine mögliche und plausible Theorie besagt, dass es sich bei Träumen um die Interpretation zufälliger elektrischer Entladung im Gehirn handelt. Diese Theorie ist plausibel da sie zum einen auf einem beobachtbaren Fakt basiert, nämlich den Zufallsentladung während des Schlafens, und zum anderen auch schlüssig erklären würde, wieso die Inhalte der Träume so inkohärent, wechselhaft und bizarr sind.

Dass das Gehirn zufälligen Signalen Beudeutung verleihen möchte ist ein altbekanntes Phänomen. Es gibt verschiedene clevere Experimente dazu, mir kommt hier ein Experiment in den Sinn, bei dem Wissenschaftler Versuchspersonen ein Spiel vorgelegt haben, bei welchem diese den Verlauf einer Kurve mit verschiedenen Tasten steuern konnten. Das Ziel war die Kurve nach oben gehen zu lassen und so einen Gewinn zu erzielen. Jedoch wurde den Versuchspersonen nicht gesagt, wie man dies erreichen kann. Die Teilnehmer mussten dies durch Trial-And-Error selbst herausfinden.

Die meisten Versuchspersonen hatten recht bald eine Strategie entwickelt. Eine Kombination an Tasten, oft nach einem ausufernd komplexen Schema, mit der sie die Kurve steuern und den Gewinn abgreifen konnten. Viele Teilnehmer waren sich am Ende des Experiments sicher, das System durchschaut zu haben. In Wirklichkeit lag der Kurve jedoch kein Spiel zugrunde, die zeitliche Entwicklung war komplett durch einen Zufallsgenerator gesteuert. Die Tasteneingaben der Teilnehmer hatten keinen Einfluss auf den Verlauf der Kurve. Das demonstriert sehr schön, wie groß das Verlangen ist, eine Ordnung zu sehen, wo es gar keine Ordnung gibt. Oder, um den Bogen zur Realität zu schlagen, wo die Ordnung so komplex ist, dass sie mit menschlicher Vorstellungskraft nicht verstanden werden kann und somit zufällig erscheint.

Aus evolutionärer Sicht macht dieses Verlangen Sinn. Um in einer Umgebung überleben zu können, müssen die Zusammenhänge in der Umgebung verstanden werden. Das heißt: Ursache und Wirkung kennen lernen oder, wenn trotz aller Mühe keine Ursache identifizierbar ist, zumindest ein System zu finden, nach dem die Wirkungen auftreten. Die ständige Suche nach Zusammenhängen ist also keine bloße und unnütze Begleiterscheinung kognitiver Prozesse, sondern ein zentrales Element des Denkens und Überlebens.

Aber wie ist das bei zufälligen Signalen? Wenn Träume Interpretationen zufälliger Signale sind, macht deren Interpretation überhaupt Sinn? Durchaus. Denn wie ein zufälliges Signal interpretiert wird, ist ein sehr individueller und somit aufschlussreicher Prozess. Zwei Personen werden das gleiche zufällige Signal unterschiedlich deuten, und zwar, wie man vermuten darf, stark geprägt von ihren individuellen Erfahrungen und ihrer Persönlichkeit. Das Signal mag ein bedeutungsloser Primer sein, doch die Bilder, die dabei heraus kommen, haben Aussagekraft über den, der das Signal interpretiert.

Um wieder zurück auf das dünne Eis zu gehen, darf man die Bilder wohl als eine Wechselwirkung zwischen dem Signal und deren Verfügbarkeit sehen. Die Verfügbarkeit erklärt, wieso gewisse Bilder als Kandidaten für kommende Bilder des Traums in Frage kommen während das Signal den Weg von dem einen zum nächsten Bild beeinflussen kann. Hier von Verfügbarkeit zu sprechen macht Sinn, da die Bilder, die man im Traum sieht, vor allem zwei Wurzeln haben: das kürzliche Geschehen im physikalischen Leben und assoziative Verbindungen zwischen Bildern. Nach dem Tiger sieht man die Katze weil man erst kürzlich ein Erlebnis mit einer Katze hatte oder weil im Gehirn prinzipiell eine enge Assoziation zwischen den Bildern “Tiger” und “Katze” besteht. Das einende Prinzip der Abfolge ist hier die Verfügbarkeit des Bildes.

Der assoziative Weg spricht auch für die Universalität von Traumbildern, die von verschiedenen Quellen angeführt wird. Lexika für Traumsymbole erhalten ihre Rechtfertigung dadurch, dass gewisse Assoziationen durch Erfahrungen und Lernen in fast jedem Menschen in derselben Form vorliegen. Solche Lexika sind also im Prinzip nichts anderes, als eine Katalogisierung der gängisten symbolhaften Assoziationen, die Menschen im Verlauf ihres Lebens knüpfen. Da Träume jedoch immer auf der individuellen Ebene interpretiert werden müssen, sollte deren Verwendung mit Maßen geschehen. Nicht immer trägt man diesselben Assoziationen wie die Mehrheit der Menschen und nicht immer ist das verfügbare Bild im Traum eine Assoziation. Das Bild kann auch einem kürzlichen Erlebnis oder intensiv gespürtem Verlangen entnommen sein und in diesem Fall kann das Lexikon irreführen. Für Anfanger können solche Lexika trotzdem eine gute Orientierung bieten, da sie den Fokus konsequent auf die Ebene der Assoziationen lenken.

Glaubt man den obigen Ausführungen, dann besitzen Träume Aussagekraft über den Träumenden und es kann somit Sinn machen, also Nutzen stiften, Träume genauer zu betrachten. Aber offen bleibt die Frage, ob Träume selbst einen Sinn haben. Wieder sehr dünnes Eis, hier eine abschließende Antwort geben zu wollen, aber nichts an dem obigen Prozess deutet darauf hin, dass ein Traum einen übergeordneten Sinn besitzt. Also etwas “mitteilen möchte”. Träume sind ein Blick in die Psyche des Träumenden, sein Befinden, seine Erlebnisse und Verknüpfungen, aber wie es scheint ein Blick ohne eine kohärente Richtung. Der Sinn des Traums als eine Sache wird wohl der bleiben, den man dem Traum im Nachhinein zuordnet. Aber dies kann selbst wieder ein wichtiger Teil des Nutzens sein.

Man kann die Sache also so angehen: nicht den übergeordneten Sinn suchen, die verborgene Nachricht, sondern den Nutzen, der gestiftet werden kann durch die Analyse der verborgenen Prozesse. Was sagt der Traum über das Befinden des Träumenden, Präsens des Erlebten und Assoziationsmuster? Ist ein kürzliches Erlebnis präsenter, als man vermuten würde? Und wieso? Existiert eine ungesunde Assoziation? Woher kommt diese? Und wie lässt sich diese bearbeiten?

Eine persönliche Feststellung, die mir oft bei diesen Fragen geholfen hat und deren Grundlage ich erst viel später gesehen habe, bezieht sich auf die Richtung der Deutung. Das beeinflussende Signal ist zufällig und Assoziationen gehen immer in beide Richtungen. Ist der Tiger mit der Katze assoziiert, dann ist auch die Katze mit dem Tiger assoziiert. Daraus folgt, dass es nicht notwendig ist, den Traum in der Richtung des zeitlichen Verlaufs zu analysieren. Oft erzielt man sogar bessere Resultate, wenn man den Traum “von hinten nach vorne” bearbeitet.

Die besten Katzen-Subreddits (illustriert)

Ich hatte schon lange geplant, eine Link-Zusammenstellung zu den besten Subreddits für Katzenbilder und -videos zu machen. Here we go!


Illegally Smol Cats (233 000 Mitglieder)
Katzen, die so klein sind, dass es illegal sein sollte!

Kittens (103 000 Mitglieder)
Noch mehr Bilder von Baby-Kätzchen

What’s Wrong With Your Cat? (175 000 Mitglieder)
Alles über Katzen, die irgendwie defekt sind

Scrunchy Cats (58 000 Mitglieder)
Mein Favorit: Ein Subreddit speziell für Bilder von Katzen, die gerade am Niesen sind oder zumindest so aussehen, als ob sie Niesen müssen

Stuff on Cats (128 000 Mitglieder)
Bilder von Katzen, auf denen Zeug liegt

Tucked in Kitties (270 000 Mitglieder)
Katzen, die zugedeckt sind :)

Kneady Cats (131 000 Mitglieder)
Videos von Katzen, die gerade kneten! Eine Verhaltensweise, die bei Katzen Zufriedenheit und Wohlsein ausdrückt, ähnlich dem Schnurren

Cats Standing (527 000 Mitglieder)
Stehende Katzen

Cat Bellies (118 000 Mitglieder)
Alles zu Katzen, die auf dem Rücken liegen :)

Cat Pictures (124 000 Mitglieder)
Einfach noch mehr Bilder von Katzen!

Bengal Cats (10 000 Mitglieder)
Bilder von Bengal-Katzen! Bengal-Katzen haben eine zierliche Körperform, ein charakteristisches Fellmuster und sind die mutigste Katzenart

In dieser Videoreihe, in dem ein junges Bengal-Kätzchen in einen neuen Haushalt eingeführt wird, sieht man sehr schön den stürmischen Charakter

Cats Sitting Down (28 000 Mitglieder)
Bilder von Katzen, die wie Menschen dasitzen

Blurry Pictures of Cats (87 000 Mitglieder)
Auch sehr unterhaltsam: Verschwommene Bilder von Katzen xD

Startled Cats (797 000 Mitglieder)
Videos von Katzen, die sich erschrecken

Mildly Startled Cats (48 000 Mitglieder)
Katzen, die leicht überrascht dreinschauen

Cats Who Yell (255 000 Mitglieder)
Katzen, die laut miauen!

Drei wichtige Zusätze:
Katzen, die zwitschern
Katzen, die trillern
Katzen, die quieken

Cats Riding Motherfucking Roombas (14 000 Mitglieder)
Videos von Katzen, die auf Roombas (Saugrobotern) fahren

Cats Hugging Things (3 000 Mitglieder)
Ein kleines aber feines Sub mit Bilder umarmender Katzen!

Blep (315 000 Mitglieder)
Katzen, die ihre Zunge draußen haben :)

Das waren die Subs, denen ich folge, aber wer immer noch nicht genug hat, kann sich mal durch diesen Index für Katzen-Subs blättern.

Ungenauigkeit von Antikörpertests

Bei Antikörperstudien kann die Ungenauigkeit der Tests das Ergebnis grob verzerren. Die zentrale Größe ist hier die Specificity des Tests. Daran sieht man, wie wahrscheinlich es ist, dass der Test eine Person, die den Virus nicht trägt (also negativ ist), als fälschlicherweise als positiv eingestuft wird. Bei einer Specificity von 98 % werden zum Beispiel 2% aller noch-nie-Infizierten fälschlicherweise als positiv eingestuft. Das ist natürlich ein großes Problem wenn die tatsächliche Rate der Infektionen selbst nur einige Prozent beträgt. Es gibt verschiedene Wege das zu sehen.

Ein Weg wäre zu betrachten, wie wahrscheinlich es ist ein deutlich von Null verschiedenes Ergebnis zu finden, obwohl niemand in der Bevölkerung tatsächlich Antikörper trägt. Bei einer Specificity von 98 % würde man mit den folgenden Wahrscheinlichkeiten eine Infektionsrate von 3 % oder mehr finden, obwohl in der Realität niemand infiziert ist. Die Variable ist hier die Größe der Stichprobe, die Berechnung kann man mit der oberen kumulativen Verteilungsfunktion dieses Binominalrechners machen.

10014 %
5005 %
10001 %
5000circa 0 %

Vor allem bei kleinen Antikörperstudien gibt es also die Gefahr, dass eine Studie eine signifikante Verbreitung der Antikörper findet, die in der Realität gar nicht besteht. Glücklicherweise lässt sich dieses Problem durch die Erhöhung der Stichprobengröße einfach umgehen. Vor allem da sich erwartete False Positives auch herausrechnen lassen. Hier nochmal diesselbe Rechnung mit der Annahme schlauer Wissenschaftler. Also die Frage, wie wahrscheinlich es wäre bei der gegebenen Specificity eine Infektionsrate von 3 % oder mehr finden, wenn man vor der Auswertung die erwarteten False Positives abzieht:

1002 %
500circa 0 %
1000circa 0 %
5000circa 0 %

Geht es darum zu vermeiden, eine verbreitete Infektion zu finden wo keine ist, muss die Stichprobengröße also nicht ganz so groß sein, wie es die erste Tabelle impliziert. Durch Herausrechnen der erwarteten Anzahl von False Positives reichen schon N > 150, um nicht in diese Falle zu treten. Natürlich funktioniert das auch in die andere Richtung. Ab einer gewissen Stichprobengröße wird es, trotz der Ungenauigkeit der Tests, extrem unwahrscheinlich dass man eine Verbreitung im Stil des Herdenschutzes hat, obwohl man in der Studie kaum eine Verbreitung festgestellt hat.

Verlorene Lebensjahre pro Infektion

Eine interessante Metrik bei Krankheiten / Unfällen / Verbrechen ist die Anzahl verlorener Lebensjahre pro Ereignis. Hierbei wird nicht nur berücksichtigt, wie sich die Mortalität mit dem Alter verändert, sondern auch wie weit Betroffene jeweils von der Lebenserwartung entfernt sind. Die Differenz zur Lebenserwartung wird dabei als die Anzahl verlorener Lebensjahre im Falle eines Todes gewertet. Rechnet man das für Covid-19 durch mit a) dieser Verteilung der Mortalität und b) dieser Verteilung der Infektionen (nicht gut aufgebrochen, aber für eine Schätzung ausreichend), dann bekommt man folgendes:

  • Pro Infektion gehen 0,25 Lebensjahre verloren
  • Der Gruppe der 60-69 Jährigen gehen pro Infektion am meisten Lebensjahre verloren (circa 0,1 Lebensjahre)
  • Obiges Resultat kann man sich so denken: 60-69 Jährige haben zwar eine geringere Mortalität als 70-79 Jährige, aber ihnen geht pro Todesfall mehr Lebenszeit verloren als den 70-79 Jährigen.

Interessant ist auch die Frage, ob öffentliche Maßnahmen und die Zuwendung von Ressourcen sich an der reinen Verteilung der Mortalität orientieren sollten oder stattdessen an der Verteilung der verlorenen Lebenszeit. Während bei ersterem der Fokus auf dem Schutz der 80+ Jährigen liegen würde, ginge es bei letzterem vor allem um den Schutz von Menschen im “frischen Rentenalter”. Wie man es wohl macht bleibt es unfair.

Hinweis: Unerkannte Fälle würden diesen Wert stark beeinflussen. Kommen auf jeden erkannten Fall fünf unerkannte Fälle, eine konservative Schätzung, so wären es 0,05 verlorene Lebensjahre pro Infektion. Die Verhältnisse der Altersgruppen könnten sich dabei auch verschieben wenn das Verhältnis erkannter zu nicht-erkannter Fälle selbst altersabhängig ist.

Ist das Alter ein Risikofaktor bei Covid-19?

Da ältere Menschen eine deutlich höhere Lethalität bei Covid-19 zeigen als jüngere Menschen, scheint die obige Frage sich selbst zu beantworten. Die Lethalität ist für 80-Jährige etwa hundertmal höher als für 30-Jährige. Das alleine beantwortet die Frage jedoch nicht, da der typische 80-Jährige auch deutlich häufiger Diabetes, Bluthochdruck, eine Herzkrankheit und COPD hat als ein typischer 30-Jähriger. Um festzustellen, ob das Alter an sich ein Risikofaktor ist oder nicht, muss man einen “fairen Vergleich” machen.

Also nicht den typischen 80-Jährigen mit dem typischen 30-Jährigen vergleichen, sondern einen gesunden 80-Jährigen (kein Diabetes, kein Bluthochdruck, keine Herzkrankheit, kein COPD) mit einem gesunden 30-Jährigen. Denn trotz der offensichtlichen Ungleichheit in der Lethalität wäre es ohne eine solche Analyse denkbar, dass der Virus für einen 30-Jährigen mit all den genannten Risikofaktoren eine größe Gefahr darstellen kann als für einen gesunden 80-Jährigen.

Die Datenlage sagt im Moment leider Ja und Nein. Hier die Resultate einer Studie der Risikofaktoren, die im Lancet veröffentlicht wurde:

Der Blick sollte auf die Spalte Multivariable OR (Odds Ratio) fallen. Das zeigt die Erhöhung des Risikos wenn man alle relevanten Variablen gleichzeitig in ein Regressionsmodell nimmt. Kleine Anmerkung: Alle heißt hier Fünf. Die Anzahl an Variablen, die man in die Regression aufnehmen kann, ist praktisch durch die Anzahl Studienteilnehmer begrenzt. Als Faustformel gilt ein Prediktor pro zehn Teilnehmer. In der Studie wurden 54 Todesfälle betrachtet und entsprechend nur fünf Prediktoren gewählt.

An der Zeile Diabetes sieht man, dass nicht alles, was man erhöht bei Teilnehmern feststellt, wirklich ein Risiko darstellt. Manche Dinge sind einfach nur über eine Assoziation verknüpft. Ein blödes Beispiel, dass diese Idee veranschaulichen soll: Hätte man alle Patentien vorher gefragt, welche politische Einstellung sie haben, hätte man später feststellen können, dass es unter den Todesfällen mehr konservative Menschen gibt als in einer repräsentativen Vergleichsgruppe bzw. der Gruppe der Überlebenden. Das heißt natürlich nicht, dass konservative Einstellungen die Krankheit verstärken. Es ist nur eine assoziative Verbindung. Ältere Menschen sind eher konservativ. Ältere Menschen sterben eher an Covid-19. Entsprechend sterben konservative Menschen eher an Covid-19.

Wirklich interessant ist die Frage, was von einem Effekt übrig bleibt wenn man nach allen anderen Variablen bereinigt. Bereinigt man nach dem Alter, würde man sehen dass konservative Einstellungen kein Risikofaktor oder Schutzfaktor darstellen (OR = 1). Die Tabelle sagt also: Bereinigt man nach Diabetes, Bluthochdruck, eine Herzkrankheit und COPD, dann bleibt der Effekt des Alters bestehen. Das Alter ist also auch für sich genommen ein Risikofaktor. Ein gesunder 80-Jähriger ist durch den Virus gefährdeter als ein gesunder 30-Jähriger. Und wohl auch gefährdeter als ein 30-Jähriger mit einer handvoll Risikofaktoren.

Aber so richtig klar scheint das nicht zu sein. Ob ein Effekt übrig bleibt, kann davon abhängen welche Prediktoren verwendet werden. In dieser Studie wurden einige der obigen Risikofaktoren nicht aufgenommen, dafür aber der BMI hinzugenommen. Hier ist das Ergebnis:

Gemäß dieser Studie ist das Alter kein Risikofaktor. Auch Diabetes nicht. Hier zeigt sich nur das Geschlecht und der BMI als Risikofaktor. Mit etwas Fantasie auch der Bluthochdruck. Der P-Wert ist 0.08, also etwas höher als der normale Cut-Off, aber noch akzeptabel. Zumindest ist dieser p-Wert ein guter Hinweis darauf, dass kein p-Hacking betrieben wurde. Ehrliche Studien scheitern auch mal knapp.

Der Grund, wieso mehr alte Menschen an Covid-19 sterben, ist laut dieser Tabelle der bei alten Menschen erhöhte BMI und Blutdruck. Ein normalgewichtiger 80-Jähriger hätte die gleichen Chancen wie ein normalgewichtiger 30-Jähriger. Und sogar ein geringeres Risiko als ein übergewichtiger 30-Jähriger. Dieses Resultat darf man natürlich anzweifeln. Man sollte prinzipiell jedes Resultat jeder Studie anzweifeln solange es keine Replikationen gibt. Aber das Obige wäre der logische Schluss.

Diese Abweichungen in den Studien sollten kein Grund zur Sorge sein. Beide Studien sind sehr klein und es werden noch viele kleine Studien mit widersprüchlichen Ergebnissen erscheinen. Die Wahrheit wird sich in den Meta-Analysen zeigen.

PS: Bei der Interpretation der zweiten Studie habe ich etwas getrickst indem ich angenonmmen habe, dass ein höheres Risiko zur Notwendigkeit mechanischer Ventilation mit einem höheren Sterberisiko einhergeht. Die Schlussfolgerungen stehen und fallen mit der Richtigkeit dieser Annahme.

Faustformel zur Durchseuchung mit konstanter Rate

Nimmt man an, dass eine Population mit konstanter Rate (also einer gleichbleibenden Anzahl neuer Fälle pro Tag) durchseucht wird, dann lässt sich aus dem SEIR-Modell eine knappe und nützliche Faustformel für die maximale Anzahl neuer Fälle herleiten. Es gilt:

Maximale Rate = Betten-Kapazität / Dauer der Hospitalisierung

Wobei die Dauer der Hospitalisierung pro infizierter Person (und nicht etwa pro eingeliefertem Patient) berechnet wird. Solange die Durchseuchung mit dieser oder unterhalb dieser Rate erfolgt, wird das Gesundheitswesen der Pandemie standhalten. Schätzwerte für die Größen gebe ich unten an. Die Herleitung der Formel benötigt viel Schreibarbeit, folgt aber direkt aus nur zwei Annahmen:

  • Der Ausbruch erfolgt nach dem SEIR-Modell
  • Es gibt eine konstante Anzahl neuer Fälle pro Tag

Hier ist die Rechnung:

Die Differentialgleichung für E lässt sich durch Seperation der Variablen lösen, die Gleichung für I mit der Methode des integrierenden Faktors. Beide Lösungen genügen den Anfangsbedingungen E(0) = E0 und I(0) = I0. TE ist die Inkubationszeit, TI die symptomatische Zeit. Die Lösungen zeigen, dass nach einem kurzen Einschwingvorgang auch die Anzahl der Exponierten und Anzahl der Infizierten einen konstanten Wert einnehmen, auf dem sie bis zum Ende der Durchseuchung bleiben. Diese Grenzwerte sind wie folgt:

Anzahl Exponierte = Anzahl neuer Fälle pro Tag * Inkubationszeit

Anzahl Infizierte = Anzahl neuer Fälle pro Tag * Symptomatische Zeit

Letzteres unter der Annahme, dass E0 und I0 etwa Null sind. Behält man diese Annahmen bei und nimmt zur Vereinfachung noch TI >> 1 an, dann folgt die obige Formel. Welche Werte ergeben sich für Deutschland? Es gibt derzeit etwa 30.000 Betten mit Beatmungsmöglichkeit. Nehmen wir an, dass 20.000 davon für Covid-19-Patienten zur Verfügung stehen.

Bei der mittleren Dauer der Hospitalisierung ist es wichtig, auch jene miteinzubeziehen, die nicht ins Krankenhaus müssen. Mit einer Dunkelziffer von 1:5 von erfassten zu nicht-erfassten Fällen, folgt nach dieser Statistik, dass etwa 3 % aller Infizierten ins Krankenhaus müssen. Wir nehmen an, dass diese im Mittel dort 13 Tage verbleiben. Die mittlere Dauer der Hospitalisierung wäre also:

0.97 * 0 Tage + 0.03 * 13 Tage = 0,4 Tage pro infizierter Person

Damit folgt, dass das deutsche Gesundheitswesen etwa 50.000 neue Infektionen pro Tag abfangen könnte (1). Ohne Ausbau der Betten wäre das die maximale Rate, mit der die Bevölkerung durchseucht werden kann. Eine Durchseuchung von 42,5 Millionen Menschen (50 Millionen notwendig für Herdenschutz minus 15 % schon infiziert) wäre damit frühstens in 28 Monaten zu schaffen. Nimmt man jedoch an, dass die Anzahl verfügbarer Betten für Covid-19-Patienten auf 40.000 gesteigert werden kann, was machbar klingt, so würde sich dies auf 14 Monate reduzieren.

(1) Zum Vergleich: Laut Schätzung von Harald Lesch beträgt die Kapazität des deutschen Gesundheitswesens 40.000 neue Fälle pro Tag

Numerische Simulation: Der Effekt von Tests & Isolierung

Das Standard-SIR-Modell lässt sich leicht erweitern (siehe unten), um zu berücksichtigen das ein Teil der Infizierten isoliert wird. Wie strikt isoliert wird, hat einen sehr deutlichen Effekt auf a) die Belastung des Gesundheitswesens und b) der schlussendlichen Infektionsrate. Hier einmal der Verlauf, wenn Tests & Isolierung nur ungenügend betrieben werden (z.B. das Verlassen auf Selbstisolierung). Grün sind die Nie-Infizierten, Rot die nicht-isolierten Infizierten und Blau die isolierten Infizierten.

Bei strengerer Isolierung der Infizierten ergibt sich, wieder beginnend mit den Werten H = 100, M = I = 10, der folgende Verlauf:

Die Belastung des Gesundheitwesens kann man an der maximalen Steigung der Kurven erkennen. Mit ungenügender Isolierung beträgt die Abnahme der Nie-Infizierten in den ersten fünf Zeiteinheiten etwa 15 Einheiten pro Zeiteinheit, während bei strengerer Isolierung dieser Wert auf 11 Einheiten pro Zeiteinheit abnimmt. In der Praxis kann das den Unterschied zwischen funktionierender Pflege und der Notwendigkeit von Triage ausmachen. Man sieht auch, dass bei ungenügender Isolierung ein Virus auch sehr schnell fast die gesamte Population durchläuft, während sich durch Isolierung ein klar von Null verschiedenes Plateau einstellen kann.

Das alles wird deutlicher, wenn man die Isolierung noch strenger verlaufen lässt. Hier statt 5 Tage von Infektion zu Isolierung (erster Graph) und 3 Tage von Infektion zu Isolierung (zweiter Graph) der Verlauf wenn die Isolierung im Mittel schon 1 Tag nach Infektion erfolgen würde:

Hier das modifizierte SIR-Modell:

H sind die Nie-Infizierten, M die nicht-isolierten Infizierten, I die isolierten Infizierten und R die Erholten (mit Immunität). d/dt sind die entsprechenden Änderungsraten mit der Zeit. Es wird eine Tödlichkeit von Null angenommen. Der Kehrwert von Beta gibt die mittlere Dauer von Infektion zu Isolierung, der Kehrwert von Gamma die mittlere Dauer der Infektion, der Kehrwert von Delta die mittlere Dauer in Isolierung. Es muss gelten: 1/Beta+1/Delta = 1/Gamma.

Analytisch lässt sich das System leider nicht lösen, es lässt sich aber zeigen dass unter der Annahme H = const. (gut erfüllt für sehr große Populationen in der Anfangszeit des Ausbruchs) das Verhältnis I/M, also die Anzahl der Isolierten pro Nicht-Isoliertem, für hohe M einen Grenzwert annimmt, der vor allem davon abhängt, wie intensiv getestet wird. Das macht natürlich Sinn, da erst das Testen eine effektive Isolierung ermöglicht.

Die Simulation durchführen kann man mit dem Cell Server von Sage Math. Habe ich erst gestern entdeckt, ist eine sehr tolle Sache für Leute die Mathe machen wollen, aber keine Ahnung von Programmierung haben (wie ich). So sieht der Code zum Einfügen aus:

sage: (H,M,I,t) = var(‘H,M,I,t’)
sage: des = [-0.01*M*H, (0.01*H-0.8-0.2)*M, 0.8*M-0.2*I]
sage: ans = desolve_system_rk4(des, [H,M,I], ics=[0,100,10,10], ivar=t, end_points=20)
sage: tH=[[a[0],a[1]] for a in ans]
sage: tM=[[a[0],a[2]] for a in ans]
sage: tI=[[a[0],a[3]] for a in ans]
sage: line(tH,color=’green’)+line(tM,color=’red’)+line(tI,color=’blue’)

Die Strenge der Isolierung kann man variieren, indem man die 0,8 (in beiden Gleichungen gleichermaßen) verändert. Hohe Werte bedeuten schnelle Isolierung, niedrige Werte langsame Isolierung. Die jeweiligen Anfangswerte der Populationen kann man durch die Zahlen hinter ics= steuern. Einfach reinkopieren, bei Bedarf verändern und Evaluate drücken! Der Graph wird automatisch erzeugt.

Was Hamster-Käufer mit selbst-vernichtenden Bakterien gemein haben

Gestern ist mir eine witzige Sache aufgefallen. Entwickelt man ein simples Modell für den Verlauf von Hamster-Käufen, landet man bei der folgenden Differentialgleichung für die prozentuale Veränderung der Population der Hamster-Käufer:

Eine Gleichung dieser Form (Wachstum wird durch das Integral über die Population behindert) habe ich schon mal in einem Buch gesehen. Und zwar bei dem Wachstum einer Bakterien-Kolonie, die gifitge Gase erzeugt und so das eigene Wachstum wieder behindert. Diese Kolonie würde sich sogar komplett selbst vernichten, sofern es keinen Abzug für diese Gase gibt. Das Phänomen Hamstern folgt dieser Entwicklung.

Am Integral sieht man, dass Hamstern immer ein temporäres Phänomen bleiben muss und eine Normalisierung der Situation schnell folgt. Eine handvoll Shopping-Touren bringt einen Hamster-Käufer in die Population der Versorgten, wo er dann über Monate bleibt. So leert sich die Population der Hamster-Käufer trotz der Anstecklichkeit des Hamster-Verhaltens sehr schnell und bleibt auch leer. Der Spuk ist umso schneller vorbei a) je mehr Hamster es anfänglich und im Mittel gibt und b) je mehr jeder Hamster pro Einkauf mitnimmt. Das Motto sollte also lauten: “Kauft halt euren Scheiss und bleibt dann daheim”.

Das Modell unten ist eine Vereinfachung eines allgemeineren Modells für den Fall dass die Anzahl Hamster H immer weit unter der Anzahl der Normalkäufer N bleiben. V sind die Versorgten. Den Kehrwert von Gamma darf man als einen Parameter auffassen, der ausdrückt wie umfangreich ein einzelner Einkauf eines Hamsters ist. Beta drückt aus, wie sehr sich Normalkäufer von dem Hamster-Verhalten anstecken lassen. N würde sich natürlich streng genommen auch mit der Zeit verändern, aber nimmt man immer H klein gegen N an, darf man das vernachlässigen. Durch diese Annahme wird es erst analytisch lösbar.

Faltung: Was Echos und Pandemien gemeinsam haben

Echos, Todesfälle in Pandemien, aktive Kraftwerke und die Anlieferung radioaktiver Stoffe. All diese Dinge habe eine Sache gemeinsam: man berechnet sie auf exakt diesselbe Weise. Das Stichwort ist Faltung. Als ich vor kurzem auf Google nach Faltung gesucht habe, war ich überrascht davon dass scheinbar keine deutsche Webseite eine allgemein-verständliche Erklärung dafür liefert. Und das, obwohl es ein sehr spannendes und nützliches mathematisches Konzept ist. Ich möchte versuchen den Grundgedanken hinter der Faltung hier so zu erklären, dass man es auch ohne Vorwissen gut nachvollziehen kann.

Wie würde man ein Echo berechnen? Genauer gesagt werde ich hier von Hall sprechen: das Nachklingen von Tönen durch Reflektionen an Wänden und Gegenständen. Aber da im Volksmund Echo und Hall meistens synonym verwendet werden, bleibe ich trotzdem bei dem Begriff Echo.

Stellen wir uns vor, dass eine Person am Klavier sitzt und durch Drücken der Tasten Töne erzeugt. Die Höhe der Töne ist egal, es geht nur um die Lautstärke. Er startet eine Stoppuhr und erzeugt zur Zeit t = 1 s einen Ton, nochmal einen zur Zeit t = 2 s, wieder einen zur Zeit t = 3 s und einen letzten Ton zur Zeit t = 4 s. Die jeweiligen Lautstärken L sind:

  • t = 1 s — L = 40 dB
  • t = 2 s — L = 70 dB
  • t = 3 s — L = 90 dB
  • t = 4 s — L = 40 dB

Also leise, lauter, sehr laut und wieder leise. Gäbe es kein Nachklingen der Töne, etwa weil die Töne sofort durch die Wände verschluckt werden (wie z.B. in Tonstudios), dann wäre die Lautstärke zu Zeit t = 5 s gleich Null. In der Praxis wird die Lautstärke zu t = 5 s aber nicht Null sein, da alle Töne durch Reflektionen an Wänden und Gegenständen nachklingen. Aber wie berechnet man diesen Wert?

Der Grundgedanke: Je weiter ein Ton in der Vergangenheit liegt, desto weniger wird von ihm noch da sein. Von dem Ton, der zu t = 1 s erzeugt wurde, wird später weniger übrig sein als von dem Ton bei t = 4 s. Man muss also vor der Berechnung eine Verteilung bestimmen die sagt, wieviel von vergangenen Tönen jeweils übrig bleibt. Diese Verteilung nennt man die Impulsantwort und charakterisiert das Echoverhalten eines Raumes vollständig. Hier eine mögliche Impulsantwort. Von Tönen, die vor X Sekunden erzeugt wurden, bleibt noch der Anteil Y übrig:

  • X = 0 s — Y = 100 %
  • X = 1 s — Y = 50 %
  • X = 2 s — Y = 25 %
  • X = 3 s — Y = 12,5 %
  • X = 4 s — Y = 6,25 %

Jede Sekunde verschluckt der Raum also die Hälfte des verbleibenden Wertes. Sobald die Impulsantwort bekannt ist, kann man diese Impulsantwort (die Prozentwerte) mit dem Signal (die Lautstärken) falten. Wie laut ist das Echo zu t = 5 s?

  • 1 s vor t = 5 s wurde ein Ton mit Lautstärke 40 dB erzeugt. Laut Impulsantwort ist davon noch 50 % vorhanden, also 20 dB.
  • 2 s vor t = 5 s wurde ein Ton mit Lautstärke 90 dB erzeugt. Laut Impulsantwort ist davon noch 25 % vorhanden, also 22,5 dB.
  • 3 s vor t = 5 s wurde ein Ton mit Lautstärke 70 dB erzeugt. Laut Impulsantwort ist davon noch 12,5 % vorhanden, also 8,8 dB.
  • 4 s vor t = 5 s wurde ein Ton mit Lautstärke 40 dB erzeugt. Laut Impulsantwort ist davon noch 6,25 % vorhanden, also 2,5 dB.

Gegeben dieser Impulsantwort, beträgt die Lautstäke des Echos zu t = 5 s also 53,5 dB. Und zu t = 6 s?

  • 2 s vor t = 6 s wurde ein Ton mit Lautstärke 40 dB erzeugt. Laut Impulsantwort ist davon noch 25 % vorhanden, also 10 dB.
  • 3 s vor t = 6 s wurde ein Ton mit Lautstärke 90 dB erzeugt. Laut Impulsantwort ist davon noch 12,5 % vorhanden, also 11,3 dB.
  • 4 s vor t = 6 s wurde ein Ton mit Lautstärke 70 dB erzeugt. Laut Impulsantwort ist davon noch 6,25 % vorhanden, also 4,4 dB.
  • 5 s vor t = 6 s wurde ein Ton mit Lautstärke 40 dB erzeugt. Laut Impulsantwort ist davon noch 3,13 % vorhanden, also 1,3 dB.

Zu t = 6 s bleibt noch ein Echo von 27 dB. Man sieht, dass man so zu jedem Zeitpunkt (und das nicht nur für t > 4 s, sondern auch darunter) die Lautstärke des Echos berechnen kann. In der Praxis sind die Zeitschritte natürlich viel feiner unterteilt als in 1-Sekunden-Schritten. Dort sind es Millisekunden-Schritte. Aber das ist der einzige Unterschied. Die Berechnung funktioniert exakt so.

Wenn niemand zuhört, nenne ich die Faltung eine “gewichtete Vergangenheitssumme”. Ich denke das fasst am besten zusammen, was man hier macht. Man nimmt einen Signalwert aus der Vergangenheit und lässt ihn gewichtet mit einem Prozentwert in die Summe einfließen. Sowohl die Signalkurve als auch die Verteilung der Prozentwerte bleibt unverändert, also hängen nicht davon ab, zu welchem Zeitpunkt man das Echo auswertet. Was sich ändert ist nur, wie man die beiden kombiniert. Bei t = 5 s kombiniert man die Kurven etwas anders wie bei t = 6 s. Aber das Prinzip, die Signalkurve und die Impulsantwort bleiben immer gleich.

Man könnte meinen, dass ein Echo, das mathematisch erzeugt wurde sicherlich anders klingt als eine echte Aufnahme in einem Raum. Interessanterweise gibt es hier keinen Unterschied. Das berechnete Echo klingt weder schief noch künstlich, da die Impulsantwort, sofern sauber gemessen, alle Informationen zur Echobildung enthält. Es charakteristiert das Echoverhalten eines Raumes vollständig und kann jedem trockenen (unverhallten) Signal ohne Qualitätsverlust hinzugefügt werden.

Die Impulsantwort ist auch sehr einfach messbar. Man erzeugt einen normierten, knallartigen Ton (z.B. mittels einer Schreckschusspistole) und zeichnet das Echo auf. An der Kurve lässt sich leicht sehen, wieviel Prozent des Tones nach welcher Zeit noch übrig bleibt. Bis auf einen Faktor hat man die Impulsantwort also schon vor sich. Diese Verteilung kann man in einen Computer speisen und mittels Faltung jedem Signal hinzufügen, dem man dieses Echo geben möchte.

Was hat das mit Pandemien zu tun? Nehmen wir mal folgende Fallzahlen zu den jeweiligen Tagen an. Das wird unser Signal:

  • Tag 1 — 100 neue Fälle
  • Tag 2 — 200 neue Fälle
  • Tag 3 — 400 neue Fälle
  • Tag 4 — 800 neue Fälle
  • Tag 5 — 1600 neue Fälle

Zu der Tödlichkeit der Krankheit nehmen wir folgende (der Krankheit typische) Verteilung an. Von denen, die sich vor einer Zeit T angesteckt haben, sterben heute D Prozent. Das ist das Analog zur Impulsantwort.

  • T = 0 — D = 0 %
  • T = 1 — D = 0 %
  • T = 2 — D = 0 %
  • T = 3 — D = 0 %
  • T = 4 — D = 1 %
  • T = 5 — D = 2 %
  • T = 6 — D = 1 %
  • T = 7 — D = 0 %
  • T = 8 — D = 0 %

Also am gefährlichsten ist die Krankheit an Tag 5 nach der Ansteckung. 2 % der Menschen, die sich anstecken, sterben nach dieser Zeit an der Krankheit. Auch an Tag 4 und Tag 6 nach Ansteckung kann die Krankheit tödlich sein. Aber davor gibt es keine Todesfälle (Symptome haben sich noch nicht entwickelt) und danach auch nicht (Symptome klingen wieder ab). Wieviele Todesfälle sind an Tag 6 der Pandemie zu erwarten?

  • T = 1 Tag vor Tag 6 haben sich 1600 Leute infiziert. Von diesen sterben an diesem Tag 0 %, also 0 Menschen.
  • T = 2 Tage vor Tag 6 haben sich 800 Leute infiziert. Von diesen sterben an diesem Tag 0 %, also 0 Menschen.
  • T = 3 Tage vor Tag 6 haben sich 400 Leute infiziert. Von diesen sterben an diesem Tag 0 %, also 0 Menschen.
  • T = 4 Tage vor Tag 6 haben sich 200 Leute infiziert. Von diesen sterben an diesem Tag 1 %, also 2 Menschen.
  • T = 5 Tage vor Tag 6 haben sich 100 Leute infiziert. Von diesen sterben an diesem Tag 2 %, also 2 Menschen.

An Tag 6 der Pandemie muss man also 4 Todesfälle erwarten. Und an Tag 7? Wieder faltet man das Signal mit der Impulsantwort:

  • T = 2 Tage vor Tag 7 haben sich 1600 Leute infiziert. Von diesen sterben an diesem Tag 0 %, also 0 Menschen.
  • T = 3 Tage vor Tag 7 haben sich 800 Leute infiziert. Von diesen sterben an diesem Tag 0 %, also 0 Menschen.
  • T = 4 Tage vor Tag 7 haben sich 400 Leute infiziert. Von diesen sterben an diesem Tag 1 %, also 4 Menschen.
  • T = 5 Tage vor Tag 7 haben sich 200 Leute infiziert. Von diesen sterben an diesem Tag 2 %, also 4 Menschen.
  • T = 6 Tage vor Tag 7 haben sich 100 Leute infiziert. Von diesen sterben an diesem Tag 2 %, also 1 Mensch.

An Tag 7 der Pandemie wird man, unter Vorraussetzung des obigen Krankheitsverlaufs, mit 9 Todesfälle rechnen müssen. So lässt sich immer vorausberechnen, wieviel Todesfälle in einer Pandemie zu erwarten sind. Mehr als nur im übertragenen Sinne, sondern mathematisch wortwörtlich gesprochen, sind die Todesfälle das Echo der Fallzahlen.

Man kann es sich wieder als eine gewichtete Vergangenheitssumme denken: die vergangenen Fallzahlen fließen gewichtet mit den Prozentwerten des typischen Krankheitsverlaufs in die Summe ein. Das Prinzip, die Fallzahlen und der Krankheitsverlauf ändern sich bei der Berechnung späterer Zeitpunkte nicht. Sondern nur, wie man die Fallzahlen mit dem Krankheitsverlauf kombiniert.

Die Formel für Faltung sieht so aus:

Sie fasst knapp und elegant zusammen, was man oben macht. Das Zeichen nach dem Ist-Gleich-Symbol bedeutet Summe von i = 0 bis k. Beim Berechnen der Summe durchläuft der Parameter i alle Werte von 0 bis k:

= fp(0)*fq(k-0) + fp(1)*fq(k-1) + fp(2)*fq(k-2) + … + fp(k)*fq(k-k)

Das sind die obigen Rechenschritte: Signal fp mal Impulsantwort fq. Das k ist der Zeitpunkt der Auswertung, also die t = 5 s bzw. t = 6 s oder Tag = 6 bzw. Tag = 7. In die Summe fließen also alle Zeitpunkte bis dahin ein. Die Argumente, also die Zahlen in den Klammern, geben Auskunft darüber, welche Werte man genau kombiniert. Damit ist alles enthalten, was man (oder ein Computer) zur praktischen Berechnung benötigt.

Unabhängig davon, ob man es gewohnt ist Formeln zu lesen oder nicht, darf man nicht vergessen, dass diese Formel nicht mehr tut als den Ansatz zur Berechnung zusammenzufassen. Versteht man die obigen Beispiele, dann versteht man auch was Faltung ist, Formel hin oder her.

Es gibt Unmengen an Anwendungen für die Faltung. Hier einige Beispiele, die ich mir ausgedacht habe, ganz grob skizziert:

  • Kraftwerke eines Typus werden mit einer Anzahl über die Jahre in Betrieb genommen. Im Jahr 1 sind es N = 10 Stück, im Jahr 2 sind es N = 35 Stück, usw … Es gibt auch eine typische Betriebsdauer für Kraftwerke: Im Jahr 0 nach Einschaltung sind 100 % in Betrieb, in Jahr 1 nach Einschaltung 100 %, usw … Irgendwann geht das natürlich auf kleinere Prozentzahlen über. Faltet man die Anzahl neuer Kraftwerke mit der Verteilung der Betriebsdauer, kann man berechnen, wieviele aktive Kraftwerke es zu einem beliebigen Zeitpunkt gibt.
  • Radioaktive Stoffe werden mit einer bestimmten Menge über die Zeit angeliefert. An Tag 1 bekommt man m = 10 kg, an Tag 2 m = 8 kg, usw … Diese Stoffe zerfallen (zerstrahlen die Masse) aber gemäß einer Halbwertszeit. Am Tag 0 nach Anlieferung sind noch 100 % einer Lieferung vorhanden, am Tag 1 nach Anlieferung sind noch 50 % einer Lieferung vorhanden, usw … Das entspräche einer Halbwertszeit von einem Tag. Faltet man die angelieferten Mengen mit der Zerfallskurve, dann kann man berechnen, welche Menge des radioaktiven Stoffs zu einem beliebigen Zeitpunkt noch vorhanden ist.

Hat man das Prinzip einmal verinnerlicht, sieht man überall Prozesse, die nach dem Prinzip der Faltung funktionieren. Es ist ein weitverbreiteter Mechanismus in der Natur. Entsprechend ist es sehr schade, dass diese Methode nie Einzug in Schulen gefunden hat und auch außerhalb der Community der Mathematiker und Mathe-Nerds kaum bekannt ist.

Begrenzung von Einlass in Supermärkte bei Pandemien

Bei Pandemien ist der Zugang zu Supermärkten unbedingt notwendig, aber kann mit gewissen Einschränkungen verknüpft werden um a) einen sicheren Abstrand zwischen den Kunden und b) eine geringe Konzentration des Viruses in der Luft zu gewährleisten. Aktiv steuern lassen sich vor allem zwei Variablen:

  • Einlassrate r (in Personen / Stunde)
  • Maximale Verweildauer t (in Stunden)

Um Einblick darüber zu bekommen, welchen Einfluss die Variation der beiden Variablen hat, hier einige Annahmen zur Modellentwicklung. Alles weitere folgt aus diesen Annahmen:

  • Die Infektionswahrscheinlichkeit p hängt ausschließlich von einem Parameter ab, hier einfach Maßzahl M genannt: p = p(M).
  • p steigt streng monoton mit M
  • Die Maßzahl M ist proportional zu exp(-k*d), wobei d der mittlere Abstand zwischen den Kunden in Metern ist
  • Die Maßzahl M ist proportional zur Verweildauer t
  • Die Maßzahl M ist proportional zur Infektionsrate i

Ausgehend von diesen Annahmen, kann man folgendes herleiten. Bei steigender Infektionsrate i muss die Einlassrate r den folgenden Wert annehmen, damit die Infektionswahrscheinlichkeit pro Einkauf für einen Kunden unverändert bleibt:

r = (k*L) / (t*ln(i/g))

Wobei L die gesamte Weglänge innerhalb des Ladens ist und g die kleinste Infektionsrate, ab der Einschränkungen eingeleitet werden müssten. Wenig überraschend ist, dass die Einlassrate r mit steigender Infektionsrate i gesenkt werden muss. Wobei sich aber das Problem ergeben kann, dass ab einer kritischen Infektionsrate die Einlassrate so klein gewählt werden muss, dass nicht mehr alle Kunden bedient werden können.

Die Entstehung einer solchen Situation lässt sich aber durch zusätzliche Beschränkung der maximalen Verweildauer verhindern. Beschränkt man die Zeit, die ein Kunde im Laden bleiben darf, auf diesen Wert …

T = (24*k*L) / (N*ln(1/g))

… so ist immer gewährleistet, dass alle Kunden mit gering-bleibendem Infektionsrisiko bedient werden können. Dabei ist N die Anzahl Kunden, die pro Tag bedient werden müssen. Hier eine Schätzung der Werte:

  • Nimmt man an, dass sich die Maßzahl für jeden Meter halbiert, so hat die Konstante k den Wert k = ln(2) = 0,7.
  • In Italien gab es etwa ab 300 Fällen pro 1 Million Menschen Schlangen an den Supermärkten. Damit ist grob: g = 0,0003.

Eingesetzt und liberal gerundet: T = 2*L/N

Die kritische Verweildauer T ist also etwa das Zweifache des Verhältnisses von Weglänge L im Geschäft geteilt durch Anzahl Kunden pro Tag N. In den heißesten Phasen einer Pandemie sollte z.B. ein Supermarkt, der mit einer Weglänge von 100 Metern 2000 Kunden pro Tag bedient, die Zeit pro Kunde auf 0,1 Stunden bzw. 6 Minuten beschränken.

Eine so deutliche Beschränkung ist jedoch nur notwendig, wenn die Infektionsraten extreme Ausmaße annehmen (Infektion einer Mehrheit der Bevölkerung). Für Pandemien, bei denen i < 15 % bleibt, wäre keine Einschränkung der Verweildauer zusätzlich zur Kontrolle der Einlassrate erforderlich. Und selbst bei i < 30 % wäre eine Einschränkung auf 15-20 Minuten immer noch ausreichend.

Das mathematische Modell zum Coronavirus erklärt

In dieser Publikation vom 11. März 2020 findet sich ein mathematisches Modell, welches Forscher derzeit nutzen um die Ausbreitung des Coronaviruses zu analysieren und projezieren. Es ist eine erweiterte Variante des Standard-SIR-Modell, mit dem man schon lange Ausbrüche simuliert. Hier eine Erklärung, wie es funktioniert:

Die Population wird in die folgenden Gruppen unterteilt:

  • S = Susceptible = Empfängliche: Das sind die Menschen, die den Virus nicht haben, aber ihn durch Kontakt mit infizierten Menschen bekommen könnten. Also alle nicht-infizierten Menschen ohne Immunität. dS/dt ist die Änderungsrate der Empfänglichen S mit der Zeit
  • E = Exposed = Exponierte: Das sind jene, die schon infiziert sind, aber keine Symptome zeigen, entweder weil sie sich noch in der Inkubationszeit befinden oder weil bei ihnen die Krankheit generell ohne Symptome verläuft (asymptomatische Fälle). dE/dt ist die Änderungsrate von E mit der Zeit
  • I = Infected = Infizierte: Das sind die Menschen, die infiziert sind und auch Symptome zeigen. dI/dt ist die Änderungsrate von I mit der Zeit
  • R = Recovered = Genesene: Diese Variable sammelt alle Menschen, die sich infiziert hatten und nun wieder gesund sind. Das Modell nimmt Immunität an. dR/dt ist die Änderungsrate von R mit der Zeit

Jeder Mensch befindet sich zu jeder Zeit in einer der vier Gruppen. Zusätzlich gibt es noch die Variable V, die die Konzentration des Viruses in der Umwelt erfasst (Luft & Oberflächen). So funktioniert das Modell:

  • Die Zahl der Empfänglichen S nimmt durch Geburten und Migration zu (erster Term) und nimmt durch natürlich Tode ab (letzter Term)
  • Je größer die Anzahl der Empfänglichen S und Exponierten E, desto mehr Leute infizieren sich pro Zeiteinheit. Diese landen in der Gruppe der Exponierten E. Die Konstante Beta(E) gibt die Wahrscheinlichkeit für eine Infektion pro Kontakt an
  • Je größer die Anzahl der Empfänglichen S und Infizierten I, desto mehr Leute infizieren sich pro Zeiteinheit. Diese landen auch in der Gruppe der Exponierten E. Die Konstante Beta(I) gibt die Wahrscheinlichkeit für eine Infektion pro Kontakt an
  • Je größer die Anzahl der Empfänglichen S und Konzentration V in der Umwelt, desto mehr Leute infizieren sich pro Zeiteinheit. Diese landen ebenso in der Gruppe der Exponierten E. Die Konstante Beta(V) gibt die Wahrscheinlichkeit für eine Infektion pro Empfänglichem und Einheit Konzentration an

Das deckt alle Wege ab, wie sich die Anzahl der Empfänglichen ändern kann. Alle Veränderungen der letzten drei Punkten landen in der Gruppe der Exponierten E, also die frisch infizierten, die noch keine Symptome zeigen. Nach einer Inkubationszeit (Kehrwert der Konstante Alpha), landet jeder Exponierten E in der Gruppe der Infizierten I. Ausnahme: Jene, die in dieser Zeit eines natürlichen Tod sterben.

Die Anzahl Infizierter I reduziert sich:

  • Durch Genesung. Jene landen natürlich in der Gruppe der Genesenen R. Die Wahrscheinlichkeit pro Infiziertem dafür ist Gamma
  • Durch Tod infolge von Komplikationen, welche durch den Virus verursacht wurden. Die Wahrscheinlichkleit dafür ist w
  • Durch natürlichen Tod

Alle Genesenen landen also in der Gruppe der Genesenen R, welche sich nur durch natürlich Tod reduzieren kann. Hier wäre der Punkt, an dem man einen Term einbringen könnte, wollte man modellieren dass nicht alle Genesenen automatisch (und für alle Zeiten) immun sind. Das würde man tun, indem man in der Gleichung für R den Term -k*R einfügt, wobei 1/k die Durchschnittsdauer der Immunität ist, und bei der Gleichung für S entsprechend den Term +k*R, um sie dort wieder zu sammeln.

Die Annahme von Immunität dürfte aber akzeptabel sein. Zwar ergibt sich selten eine permanente Immunität bei Viren, aber meistens doch eine Immunität, die über Jahre reicht, während ein Ausbruch selbst nur einige Monate andauert. In dieser relativ kurzen Zeit eine permanente Immunität anzunehmen wird die Ergebnisse also kaum verzerren können.

Schlussendlich wird noch angenommen, dass der Konzentrationszuwachs linear mit der Anzahl der Exponierten E und Infizierten I steigt, aber die Konzentration bei sehr hohen Werten von E und I einem Grenzwert zustrebt (letzter Term).

Vor dem Fit haben die Forscher auch diese Annahmen gemacht:

Die Warscheinlichkeiten, dass sich jemand durch Kontakt infiziert, ob nun durch Kontakt mit einem Exponierten E, Infizierten I oder Kontakt mit dem Virus in der Umwelt (Konzentration V), sinken mit steigender Verbeitung des Viruses. Diese Abhängigkeiten modellieren, dass Menschen vorsichtiger werden, besser informiert sind und zunehmend durch Quarantänemaßnahmen eingeschränkt werden, je weiter verbreitet das Virus ist. Die mathematische Form der Annahme ist generisch, eine Näherung erster Ordnung welche zwar die Grenzbedingungen erfüllt, aber keine empirische Motivation hat.

In der Publikation ermitteln die Forscher noch den Gleichgewichtszustand. Das ist ziemlich einfach. Gleichgewicht heißt, dass sich die Werte aller Variablen nicht mehr mit der Zeit ändern, sondern bei einem konstanten Wert bleiben. Das heißt auch: Die Änderungsrate jeder Variable mit der Zeit ist dann Null. Man findet also das Gleichgewicht, indem man jede obige Gleichung gleich Null setzt.

Dann folgt noch viel Mathematik, die nur dazu dient zu untersuchen, ob dieses Gleichgewicht stabil oder labil, mit dem Schluss dass es stabil ist. Stabil heißt in diesem Kontext: Wird das System aus dem Gleichgewicht ausgelenkt, strebt es diesem wieder zu. Der Fit des Modells ist ziemlich gut und zeigt, dass sich …

  • circa 45 % durch Kontakt mit Exponierten infizieren
  • circa 20 % durch Kontakt mit Infizierten infizieren
  • circa 35 % durch über die Luft & Oberflächen infizieren

Wieso man die Mortalität des Coronaviruses nur schwierig abschätzen kann

Eigentlich ist der Grundgedanke ganz einfach. Um zu wissen, wie tödlich eine Krankheit ist, teilt man die Anzahl tödlicher Ausgänge D durch die Gesamtanzahl der Fälle N: CFR = D / N (CFR steht für Case Fatality Rate). Bei D = 100 tödlichen Ausgängen unter N = 1000 Fällen wäre die Mortalität CFR = 100/1000 = 0,1 = 10 %. Wieso sollte diese Zahl problematisch sein?

Problem Nummer 1: Der Zeitverlauf

Nehmen wir eine fiktive Krankheit an, an der sich jeden Tag 100 Leute anstecken. Von 100 angesteckten sterben immer genau 10 und zwar immer genau 5 Tage nach der Infektion. Die echte Case Fatality Rate ist also 10/100 = 0,1 = 10 %. Wieso echt? Gibt es eine falsche?

Stellen wir uns vor, dass wir an Tag 8 des Ausbruchs sind. Jeden Tag stecken sich 100 Leute an, somit haben wir am achten Tag 800 infizierte Personen. Wieviel Todesfälle gibt es? Die ersten Todesfälle kommen erst an Tag 5. An diesem Tag sterben 10 Menschen, dann nochmal 10 an Tag 6, nochmal 10 an Tag 7 und nochmal 10 an Tag 8. Das sind bis Tag 8 also insgesamt 40 Todesfälle bei 800 Fällen. Macht eine naive Case Fatality Rate von 40/800 = 0,05 = 5 %. Nur halb soviel wie die tatsächliche Mortalität.

Es reicht also nicht, nur die Anzahl tödlicher Fälle durch die Gesamtanzahl der Fälle zu teilen. Für einen korrekten Wert, müssen wir die Anzahl der Todesfälle zu Zeit t durch die Gesamtanzahl der Fälle zur Zeit t-T teilen, wobei T die mittlere Dauer von Infektion zum Tod ist:

CFR = D(t) / N(t-T)

Dies ist ein Detail, dass die Rechnung etwas verkompliziert, aber es stellt kein unüberwindbares Problem dar. Durch Beobachtung der Fälle lässt sich die mittlere Dauer von Infektion zum Tod verlässlich abschätzen und die entsprechende Korrektur anwenden. Ein viel größeres Problem sind die asymptomatischen und milden Fälle.

Problem Nummer 2: Asymptomatische und milde Fälle

Asymptomatisch heißt: Eine Person ist infiziert, aber es folgen keine Krankheitssymptome. Die Person wirkt also gesund. Wieso ist das ein Problem für die Berechnung der Mortalität? Stellen wir uns vor, dass sich 1000 Leute an einer Krankheit infizieren. 500 Fälle sind asymptomatisch und die restlichen 500 Fälle zeigen Symptome der Krankheit. Sagen wir, dass von diesen 1000 Menschen insgesamt 100 Leute sterben. Macht wieder eine echte Mortalität von 100/1000 = 0,1 = 10 %.

Aber was sieht der Betrachter? Der Betrachter sieht die asymptomatischen Fälle nicht. Diese tragen zwar den Virus, werden aber nie in einer Arztpraxis oder im Krankenhaus auftauchen. Entsprechend werden diese Menschen, sofern es keine Massentests gibt, auch in keiner Statistik erfasst. Der Betrachter sieht 500 Fälle und 100 Tote und berechnet somit eine Mortalität von 100/500 = 0,2 = 20 %. Ein deutlich überschätzter Wert.

Milde Fälle wirken ganz ähnlich. Von diesen werden zwar mehr in der Statistik auftauchen als von den asymptomatischen Fällen, doch viele Leute werden bei einem milden Verlauf nicht zum Arzt gehen und so auch nie auf dem Radar auftauchen. Je mehr asymptomatische und milde Fälle es gibt, desto mehr wird die beobachtete Mortalität vom echten Wert abweichen und zwar immer in Richtung Überschätzung der tatsächlichen Mortalität.

Bezeichnet man mit p1 und p2 den Anteil asymptomatischer und milder Fälle und mit q1 und q2 den entsprechenden Anteil, den man in der Statistik nicht erfasst, so gilt für den echten CFR:

CFR = (1 – p1*q1 – p2*q2) * D(t) / N(t-T)

Ohne Massentests bleibt dies ein unüberwindbares Problem. Nur ein breites Testen kann die asymptomatischen und milden Fällen erfassen. Deshalb sollte man z.B. bei den Daten zum Coronavirus auf Länder achten, die Massentests durchführen. Hier ist vor allem Südkorea zu nennen. Die Mortalität, die in Südkorea ermittelt wird, spiegelt die tatsächliche Mortalität bei Covid-19 wohl am besten wieder.

An was soll man denken, wenn man ins Bett geht?

Schlafprobleme sind eine Volkskrankheit, doch es gibt Wege dem effektiv zu begegnen. Hier die Analyse eines interessanten Datensatzes (n = 264), der zeigt dass es auch darauf ankommt, an was man denkt sobald man die Augen schließt. Erst das gesamte Modell:

Eine Sache, die sich als problematisch zeigt, ist das Denken an kommende (berufliche oder private) Aktivitäten. Menschen, die ihre Gedanken im Bett zu diesen Aktivitäten wandern lassen, zeigen ein signifikant erhöhtes Risiko für Schlafprobleme:

Schon etwas weniger an kommende Aktivitäten zu denken, kann einen deutlichen Unterschied machen. Besser ist es aber, diese Gedanken komplett aus dem Bett zu verbannen. Doch was kann man stattdessen machen? Glücklicherweise gibt der Datensatz darauf einen Hinweis: auf den Körper konzentrieren. Das Konzentrieren auf Empfindungen im Körper scheint das Risiko von Schlafproblemen senken zu können:

Dabei sollte man aber darauf achten, den Körper bewusst still zu halten. Es gilt die Empfindungen im Körper nur passiv wahrzunehmen, ohne etwas verändern zu wollen, denn sich im Bett zu bewegen ist Gift für das Einschlafen:

Fitness hilft auch beim Einschlafen. Und es gilt explizit nicht der Grundsatz des Auspowerns! Eine Stunde bequem laufen gehen scheint genauso effektiv zur Reduktion von Schlafproblemen zu sein wie Mid Intensity Training (z.B. Jogging) oder High Intensity Training (z.B. Volles Auspowern im Gym). Man muss nicht halbtot ins Bett fallen, um in den Genuss des positiven Effekts zu kommen. Der Grundsatz scheint eher zu sein: Hauptsache viel bewegt, egal in welcher Intensität.

Etwas, das sich leider nicht so leicht ändern lässt, aber sich sehr deutlich auf den Schlaf auswirkt, sind finanzielle Probleme. Menschen, die davon berichten dass sie der Zahlung ihrer Rechnungen und Schulden nicht nachkommen, haben ein stark erhöhtes Risiko von Schlafproblemen:

Das ist etwas, dass ich schon in einem anderen Datensatz in ähnlicher Stärke gesehen habe. Man darf den obigen Graph somit als eine Reproduktion dieses Effekts betrachten. Aber betrachtet man die Effektstärken der anderen hier genannten Effekte, lässt sich auch dieser Zuwachs an Risiko durch eine positive Lenkung der Aufmerksamkeit und mehr Bewegung gut wettmachen.

Schlussendlich: Der Hauptfaktor bei Schlafproblemen ist und bleibt natürlich immer noch die emotionale Stabilität / Labilität.

Hier zeigt sich ein fieser und destruktiver Teufelskreis. Die veranlagte Labilität führt zu Schlafproblemen und der Schlafmangel erhöht wiederrum die Labilität. Diese Kombination kann sich schnell zu einer Krise hochschaukeln. Um so wichtiger ist es hier, die richtigen Maßnahmen einzuleiten um das Abrutschen in diesen Teufelskreis zu vermeiden.

Anmerkungen zur Verlässlichkeit des Modells:

  • Ausreißer: Für alle Fälle gilt Cook’s Distance < 0.3. Es gibt also keine Ausreißer im Datensatz, die das Modell verzerren könnten.
  • Fehler erster Art: Sehr unwahrscheinlich, da für alle Prediktoren außer einem p < 0,01 gilt (und für alle p < 0,05)
  • Fehler zweiter Art: Extrem unwahrscheinlich laut diesem Rechner für Statistical Power. Alles müsste sich gut reproduzieren lassen.

Insgesamt kann man das Modell als sehr verlässlich betrachten.

Die besten BMI-Prediktoren bei Männern

Der BMI ist die gängigste Kennzahl zur Erfassung und Kategorisierung der Körperform. Sowohl in der Medizin als auch in der Psychologie wird der BMI als Diagnosekriterium verwendet (z.B. bei Anorexia). Welche Faktoren zeigen bei Männern einen Einfluss auf den BMI? Hier ist ein Modell, dass sich aus einem kleinen Sample (n = 152) ergibt:

Neben dem Alter und der Körpergröße (ein insignifikanter Prediktor, zur Korrektur trotzdem im Modell enthalten) finden sich im Datensatz vier signifikante Faktoren: Ordentlichkeit gemäß der Big-Five, Alkoholkonsum, Fleischkonsum und das Computerspielen.

Unordentliche Männer haben im Durchschnitt einen höheren BMI als ordentliche Männer. Die Effektstärke beträgt, bereinigt nach allen anderen Faktoren im Modell (siehe zweiter Graph), etwa 3 BMI-Punkte. Das übersetzt sich, bei einem 175 cm großen Mann, in einen Gewichtsunterschied von etwa 9 kg – ein sehr deutlicher Unterschied.

Übermäßiger Alkoholkonsum scheint auch ein sehr klarer Risiko-Faktor für Übergewicht bei Männern zu sein. Hier beträgt der bereinigte Unterschied zwischen gar keinem Alkoholkonsum und starkem Alkoholkonsum etwa 4 BMI-Punkte. Das macht 12 kg Unterschied bei einem 175 cm großen Mann.

Einen schwächeren, aber immer noch signifikanten Einfluss auf die Körperform hat der Konsum von Fleisch (dies gilt auch bei Frauen und zwar in ähnlicher Stärke). Übermäßiger Fleischkonsum bringt um die 1,5 BMI-Punkte oder 4,5 kg beim 175 cm großen Mann.

Fehlt noch das übermäßige Spielen am Computer, das sich bei Männern als ein merklich gewichtsförderndes Hobby entpuppt. Zu oft am Computer zu spielen bringt um die 2 BMI-Punkte oder 6 kg beim 175 cm Mann. Das ist natürlich kaum überraschend, denn bei diesem Hobby fehlt es nicht nur an Bewegung, sondern oft konsumieren Gamer nebenbei auch noch ungesunde Produkte wie Chips oder zuckerhaltige Cola.

Dank Bereinigung darf man hier frei addieren. Ein 175 cm Mann, der von Null Alkoholkonsum und Gaming auf übermäßig Alkoholkonsum und Gaming über geht, muss eine Gewichtszunahme von 18 kg erwarten. Kommt dazu noch der Schritt von Vegetarier zu übermäßigem Fleischkonsum, landet er sogar bei einem Plus von etwa 23 kg.

Wie verlässlich ist das Modell? Ein kurzer Überblick:

  • Dank der Sig-Levels von p < 0,01 für alles außer Körpergröße (p > 0,05) und Fleischkonsum (p < 0,05), ist die Wahrscheinlichkeit für einen Fehler erster Art ziemlich gering.
  • Die Warscheinlichkeit für einen Fehler zweiter Art beträgt laut einem Rechner für Statistical Power um die 5 %. Das ist okay, aber nicht spektakulär. Die stärksten Effekte dürften gut reproduzierbar sein, bei den schwächeren Effekten gilt das vielleicht jedoch nicht.
  • Ausreißer, welche einen übermäßigen Einfluss auf das Modell zeigen, sind im finalen Modell keine mehr enthalten. Für alle Fälle liegt die Cook’s Distance unter 0,5.

Insgesamt recht zufriedenstellend, aber noch etwas grenzwertig. Die obigen Resultate zu Ordentlichkeit, Alkoholkonsum und Gaming sind wohl ziemlich zuverlässig, diesen traue ich, das Resultat zu Fleischkonsum darf man aber kritisch sehen.

Wieso es nur wenige weibliche Psychopathen gibt

Unter der Gruppe der Psychopathen (kein Krankheitsbild gemäß DSM, aber man darf Psychopathie grob als eine antisoziale Persönlichkeitsstörung mit Gewaltbereitschaft verstehen) sind die Männer in der deutlichen Überzahl. Die Schätzungen schwanken, aber Pi Mal Daumen kommen auf eine weibliche Psychopathin etwa zwanzig männliche Psychopathen. Oder anders gesagt: Nur circa 5 % aller Psychopathen sind weiblich. Das Warum zu verstehen ist ein interessantes und nützliches Lehrstück in Sachen Statistik.

Wir konzentrieren uns hier auf die Abwesenheit von Agreeableness (Herzlichkeit, Empathie), eine Vorraussetzung für Psychopathie. Im Mittel unterscheiden sich Männer und Frauen nur sehr wenig im Hinblick auf Agreeableness. Standardisiert man den Score von Agreeableness auf 100 Punkte, dann liegen Frauen bei etwa 105 und Männer bei 95. Kein sonderlich großer Unterschied. Zu jedem Mann finden sich leicht zahllose Frauen, die weniger empathisch sind. Trotzdem reicht dieser geringe Unterschied der Mittelwerte aus, um das auffällige verschobene Geschlechterverhältnis bei Psychopathen zu erklären.

Der Trick ist nur das extreme Ende der Verteilung zu betrachten. Nimmt man eine Standardabweichung von 10 Einheiten an (ein Fantasiewert zum Zwecke der Demonstration), dann würde die Verteilung des Agreeableness-Scores bei Frauen so aussehen:

Berechnet man auf Basis dieser Annahmen, wieviele Frauen praktisch empathielos sind, hier definiert als Agreeableness-Scores < 80, dann erhält man einen Wert von 0,6 %. Es fallen also nicht viele Frauen unter diesen Cut-Off und dies liegt daran, dass die Normalverteilung sehr stark zum Ende hin abfällt. Genau diese scharfe, nichtlineare Abnahme ist auch der Grund, wieso eine leichte Verschiebung des Mittelwertes eine so große Veränderung in extremen Bereichen der Skala erzeugen kann!

Nehmen wir für Männer diesselbe Standardabweichung an und setzen einen Mittelwert von 95 voraus, nur leicht unter dem Mittelwert für Frauen, so erhält man diese Verteilung:

Gemäß dem Output der App fallen 6,7 % der Männer unterhalb des oben definierten Cut-Off von Agreeableness < 80. Das macht, wenn man nur die Gruppe der empathielosen Menschen betrachtet, ein sehr auffälliges Geschlechterverhältnis von 6,7 % / 0,6 % = 11. Auf eine empathielose Frau kommen bei den gegebenen Mittelwerten und Standardabweichungen demnach elf empathielose Männer. Oder anders gesagt: Laut Output sind nur 8 % aller empathielosen Menschen Frauen.

Die Zahlen, die ich hier als Voraussetzungen verwendet habe, sind möglichst an der Realität orientiert, jedoch nicht hundertprozentig korrekt. Doch das Prinzip zählt. Wenn Eigenschaften von Populationen einer Normalverteilung genügen (oder einer ähnlichen beschaffenen Verteilung), dann machen sich geringe Differenzen im Mittelwert als starke Unterschiede an den Rändern der Skala bemerkbar.

Diese mathematische Tatsache erklärt, wieso es viel mehr männliche als weibliche Psychopathen gibt. Es ist schlicht eine Konsequenz der Normalverteilung jener Eigenschaften, die Psychopathie ausmachen, gepaart mit einer (für sich genommen) unspektakulären Differenz der Mittelwerte bei diesen Eigenschaften.

Das gilt natürlich auch für das andere Ende des Spektrum. Es gibt keinen gängigen Begriff für Menschen, die übermäßig Empathisch sind, aber nennen wir sie hier einfach mal Hyperempathen und definieren Hyperempathie beginnend ab Agreeableness > 120. Es ergibt sich exakt das umgekehrte Bild: auf einen männlichen Hyperempathen kommen elf Hyperempathinnen. Das erklärt vielleicht auch, wieso Frauen trotz Gelichberechtigung immer noch in den Pflegeberufen dominieren.

Große Männer sind ordentlicher, aber weniger künstlerisch

Diese Resultate haben mich sehr überrascht da ich bisher davon ausging, dass die Körpergröße eher eine Zufallsgröße ist, die keine psychologische Manifestation hat. Dem scheint aber nicht so zu sein. Ob nun aus genetischen Gründen, Gründen des Feedbacks / Sozialisierung oder einer Mischung davon – Es lassen sich merkliche Unterschiede in der Persönlichkeit zwischen größeren und kleineren Männern feststellen.

In der Summe gilt: Große Männer haben in der Tendenz einen höheren Score auf der Big-Five-Skala für Ordentlichkeit (ordentlicher und verlässlicher), aber einen geringeren Score auf der Skala für Offenheit (weniger intellektuell und künstlerisch). Sie haben auch, und das kann man als Bestätigung der obigen Punkte sehen, im Mittel ein höheres Einkommen und betreiben seltener künstlerische Hobbies.

Nur am Rande: Interessanterweise gilt der Zusammenhang zwischen Körpergröße und Offenheit auch bei Frauen. Frauen > 160 cm erzielen einen niedrigeren Score auf der Offenheitsskala als Frauen < 160 cm.

Daneben berichten große Männer auch von einem besseren Sozialleben mit Freunden / Bekannten (es gibt kein Unterscheid bei der Beziehung zur Familie) und erzielen einen höheren Score bei drei Fragen, die sich auf den Above-Average-Effekt beziehen. Männer sehen sich im Vergleich zu Frauen generell als eher überdurchschnittlich kompetent und zwar bei fast allen Skills. Das ist ein altbekanntes Resultat des Above-Average-Effekts: Mann-Sein ist der größte Faktor. Aber auch innerhalb der Männerschaft scheint es nochmals eine Aufspaltung zu geben.

Große Männer geben im Vergleich zu kleineren Männern signifikant häufiger an, überdurchschnittlich gute soziale und intellektuelle Skills zu haben und sehen sich eher als überdurchschnittlich gute Autofahrer. Interessant ist, dass ihre Einstufung als überdurchschnittlich intellektuell den Resultaten des Big-Five-Tests direkt widerspricht, während die Überdurchschnittlichkeit bei sozialen Skills durchaus im Einklang mit den restlichen Angaben (aktiveres Sozialleben) liegt.

Noch ein Fun Fact: Große Männer produzieren im Mittel mehr Kinder (Graph siehe unten). Das lässt sich aber zum Teil durch die höhere Ordentlichkeit und das höhere Einkommen erklären. Aufgrund dieses Zusammenhangs habe ich diese Variable nicht ins Regressionsmodell aufgenommen. Eng korrelierende unabhängige Variablen können leicht zu Kollinearitätsproblemen führen und die Koeffizienten grob verzerren. Eine der drei Variablen musste somit raus. Danach gab es, gemessen am VIF, auch keine Kollinearitätsprobleme mehr im Modell.

Körpergröße und Ordentlichkeit bei Männern:

Körpergröße und Offenheit:

Körpergröße und künstlerische Hobbies (hier der Mittelwert aus den Betätigungen “Musikinstrument spielen” und “Malen”):

Körpergröße und berichtete Beziehung zu Freunden, Größe des Bekanntenkreis und Häufigkeit des Treffens von Freunden:

Körpergröße und der Above-Average-Effekt:

Körpergröße und mittlere Anzahl Kinder: