Der 3-Torus

Wohin kommt man, wenn man im Weltall stur in eine Richtung weiterfliegt? Die intuitive und naheliegendste Antwort lautet: Immer weiter weg. Dass dem nicht unbedingt so sein muss, sieht man schon am Beispiel Erde. Läuft man immer in einer Richtung weiter, konzeptuell unwichtige Hürden wie Meere und Berge mal vernachlässigt, so kommt man nach langer Zeit wieder zum Ausgangspunkt zurück. Und das unabhängig davon, in welche Richtung man sich bewegt. Gefordert ist hier nur, dass die einmal gewählte Richtung beibehalten wird.

Aus der dreimensionalen Perspektive ist das leicht einzusehen. Die Bewegung findet, da strikt gebunden an die Oberfläche, in einem zweidimensionalen Raum statt. Dieser Raum ist endlich, unbegrenzt und geschlossen. Endlich da nur eine endliche Fläche besteht, unbegrenzt da die Fortbewegung nie an eine Grenze stößt und geschlossen da man bei Bewegung in fixer Richtung immer zum Ausgangspunkt zurückkehren wird. Diese Eigenschaften gelten nicht für beliebige zweidimensionale Räume. Eine endlose Platte wäre unendlich, unbegrenzt und offen. Die Eigenschaften werden dem Raum durch die Art der Einbettung in die dritte Dimension verliehen: Die Erdoberfläche lässt sich denken als ein zweidimensionaler Raum, der die Oberfläche eines kugelförmigen dreidimensionalen Raums bildet.

Es ist verlockend, zu jeder genannten Dimension stur “plus Eins” zu rechnen, um ein Analog für die möglichen Konfigurationen unseres dreidimensionalen Raums zu bekommen. Davor macht es aber Sinn darüber nachzudenken, wie zweidimensionale Lebewesen (ohne Möglichkeit des Blicks in die dritte Dimension) experimentell entscheiden könnten, ob sie auf einer endlosen Platte oder einer Kugeloberfläche leben. Die Antwort lautet: Krümmung messen. In einem krümmungsfreien Raum summieren sich die Winkel in beliebigen Dreiecken stets zu 180°. In sphärisch gekrümmten Räumen ist die Winkelsumme hingegen größer als 180°. So lässt sich zum Beispiel auf der Erdoberfläche leicht ein Dreieck mit Winkelsumme 270° (drei rechte Winkel) abstecken: Vom Nordpol runter zum Äquator, ein Stück den Äquator entlang und wieder zurück zum Nordpol. Es bildet sich ein Dreieck mit jeweils drei 90°-Richtungswechsel. In einem krümmungsfreien zweidimensionalen Raum wäre dies nicht möglich.

Unterscheiden müsste man auch zwischen lokaler und globaler Krümmung. Die zweidimensionale Platte, auf die jene Lebewesen beschränkt sind, könnte “Beulen” aufweisen. Kleine Bereiche, in denen lokal eine von Null verschiedene Krümmung gemessen werden kann. Über die globale Krümmung des Raums sagen solche lokalen Abweichungen natürlich nur wenig aus. Um sich sicher sein zu können, die Topologie ihres Universums richtig zu verstehen, müssten diese Lebewesen große Dreiecke abstecken. Idealerweise solche, die den gesamten beobachtbaren Raum abdecken.

Die gute Nachricht ist, dass im dreidimensionalen Raum diesselben Spielregeln gelten: Besteht keine Krümmung in eine vierte Dimension, dann summieren sich die Winkel im Dreieck zu 180°. Physiker haben schon fleißige Vorarbeit geleistet und Dreiecke vermessen, die einen weiten Teil des beobachtbaren Universums abdecken. Der Konsens, der sich daraus ergeben hat, lautet: Unser Universum ist global flach. Die lokalen Krümmungen, von denen es viele gibt, addieren sich nicht zu einer globalen Krümmung. Wir können uns also ziemlich sicher sein, dass wir nicht in einem dreidimensionalen Raum leben, der die Oberfläche einer vierdimensionalen Kugel bildet. Zumindest sofern man davon ausgeht, dass der beobachtbare Teil des Universums tatsächlich auch viel des gesamten Universums ausmacht. Das wäre aber wieder eine andere Frage. Für den Moment soll hingenommen werden, dass dem so ist, und wir in einem global flachen dreidimensionalen Raum leben.

Heißt das zwingend, dass die intuitive Antwort korrekt war? Wenn man stur in eine Richtung weiterfliegt, wird man sich einfach nur weiter und weiter vom Ausgangspunkt entfernen? Kein Zurückkommen, wie es auf der Erdoberfläche der Fall ist? Viele alte Astronomie-Bücher geben hier die Antwort: Ja. Dort findet man häufig den Grundsatz, dass ein global flaches Universum unendlich und offen sein muss. Glücklicherweise hat die Topologie da noch ein Wort mitzureden.

Es gibt Räume, die global flach und gleichzeitig endlich, unbegrenzt und geschlossen sind. Ein solcher Raum ist zum Beispiel der 3-Torus. Es handelt sich hierbei um einen dreidimensionalen Raum, der die Oberfläche eines vierdimensionalen Torus bildet. Um das etwas greifbarer zu machen, lohnt es sich erstmal den 2-Torus zu betrachten, der, wenig überraschend, ein zweidimensionaler Raum ist, der die Oberfläche eines dreidimensionalen Torus bildet. Googelt man den Begriff Torus, dann bekommt man die Form eines “Donuts” vorgesetzt, was dem Torus tatsächlich sehr nahe kommt, sich aber in einem zentralen Punkt davon unterscheidet. Man sollte diese Donut-Form verstehen als eine aufgerollte Form des Torus, nicht als den Torus selbst. Entsprechend ist die Oberfläche dieses Donuts eine aufgerollte Variante des 2-Torus. Diese Unterscheidung ist wichtig, weil sie die Krümmung des Raumes berührt. Die Aufrollung zum Zwecke der Visualisierung zeigt eine Krümmung, die im Raum selbst nicht besteht.

Eine Vorstellung, die der wahren Natur des 2-Torus viel näher kommt, bekommt man mit dem schicken gedanklichen Hilfsmittel Teleportation. Der 2-Torus ist ein glattes Stück Papier, bei welchem man am linken Rand wieder herauskommt, wenn man in den rechten Rand hineinfliegt. Und hinten wieder herauskommt, wenn man vorne hineinfliegt. Es ist dann leicht einzusehen, dass dieser Raum global flach, endlich und trotzdem unbegrenzt sowie wundervoll geschlossen ist. Aber auch diese Visualisierung hat schwerwiegende Probleme: Ein realer 2-Torus hat keine Seiten, in die man hineinfliegen könnte. Um dieses Problem zu beheben, könnte man sich nun die jeweiligen Seiten (links / rechts, vorne / hinten) gleichzeitig aneinandergeklebt denken, womit man zur Donut-Form kommen würde. Hier ist dieser Prozess als gif zu sehen. Damit würde man dem Raum aber wieder eine Krümmung zufügen, die gar nicht besteht. Ich finde es am einfachsten beim Hilfsmittel Teleportation zu bleiben, mit dem Zusatz, dass die Seiten, die hier vorhanden sind, nur dem Verständnis dienen und im Raum selbst nicht existieren.

Den 3-Torus kann man sich entsprechend als ein Zimmer vorstellen, in welchem man in an der linken Wand wieder herauskommt, wenn man in die rechte Wand fliegt. Hinten wieder herauskommt, wenn man vorne hineinfliegt. Und oben wieder herauskommt, wenn man unten hineinfliegt. Mit dem Zusatz, dass all diese Wände nur gedankliche Hilfsmittel sind um die Eigenschaften des Raumes begreifbar zu machen. Alternativ darf man sich auch vorstellen, dass all die Seiten des Zimmers (links / rechts, vorne / hinten, oben/unten) gleichzeitig zusammengeklebt sind und somit die Oberfläche eines vierdimensionalen Donut bilden. Das lässt sich auch sehr gut als gif darstellen.

Aber natürlicher sollte man nie zu weit in bloße Theorie abdriften. Am Ende bleibt die zentrale Frage: Wenn wir tatsächlich in einem solchen 3-Torus leben würden, ließe sich das experimentell nachweisen? Vielleicht. Ein Folge davon wäre ein “Hall of Mirrors”-Effekt. Zurück zum obigen Raum mit seinen magischen Eigenschaften. Was würde man sehen, wenn man in einem solchen Raum sitzt und nach vorne schaut? Man würde sich selbst sehen, also den eigenen Rücken und Hinterkopf. Einige der Photonen, die vom Rücken reflektiert werden, fliegen direkt zu der gedanklich eingefügten Hinterwand, kommen vorne wieder raus und gelangen schlussendlich in die Augen. So sehen wir den eigenen Hinterkopf. Auch Photonen, die aufgrund ihres Flugwinkels nach dem ersten Durchqueren des Raumes nicht zu den Augen gelangen, können nach späteren Durchquerungen des Raums ins Auge fallen. Man sieht sich also mehrfach reflektiert, ins Unendliche hinein, mit abnehmender Schwäche.

Etwas größenwahnsinniger gedacht: In einem 3-Torus-Universum müsste man perfekte Duplikate von Strukturen an anderen Orten des Himmels finden können. Das wäre ein klarer experimenteller Nachweis. Tatsächlich läuft diese Suche schon und zwar unter dem esoterisch anmutenden Begriff “Kosmische Kristallographie”. Die Suche war bisher erfolglos, aber, und das ist ein wichtiger Zusatz, könnte auch erfolglos bleiben, selbst wenn wir in einem 3-Torus leben. Es gibt zwei gute Gründe, wieso die Abwesenheit solcher Duplikate einen 3-Torus nicht ausschließt.

Einmal das Offensichtliche: Lichtintensität. Die Duplikate sind weit entfernt, ein Duplikat der Milchstraße wäre mindestens einen Durchmesser des Universums entfernt, und ist das Licht entsprechend schwach. Hinzu kommt: Zeit. Es dauert eine Zeit, bis die oben beschriebenen Photonen vom Hinterkopf am Auge ankommen. Bei einem kleinen Raum oder einem großen Raum, der schon immer existiert, wäre das kein Problem. Aber wie wäre es bei einem großen Raum, der erst endliche Zeit existiert, wie es wohl für unser Universum der Fall ist? Dann könnten die Photonen sich noch auf dem Weg zum Auge befinden. Je nach Größe des Universums, tauchen die Duplikate vielleicht erst in einigen Milliarden Jahren auf.

Der Kern der Ausführung ist: Die Tatsache, dass sich bei Dreiecken, die den beobachtbaren Teil des Universums abdecken, stets eine Winkelsumme von 180° ergibt und der Raum somit global flach ist, bedeutet nicht zwingend, dass der Raum unendlich und offen ist. Dass man sich zwingend immer weiter vom Ausgangspunkt entfernt, wenn man in die gleiche Richtung weiterfliegt. Das ließe sich nur mit Kenntnis der Topologie des Raums beantworten: Ein endloser euklidischer Raum, ein 3-Torus oder noch etwas wilderes. Es gibt global flache Topologien, in welchen man nach langer Zeit tatsächlich wieder zum Ausgangspunkt zurückkehrt. In manchen sogar spiegelverkehrt.

Wer Zeit und Lust hat etwas tiefer in die Materie einzusteigen, dem kann ich “The Shape of Space” von Jeffrey Weeks empfehlen. Das Buch steht schon seit Jahren in meinem Schrank und ich hole es immer wieder gerne raus. Die Mathematik nimmt keinen sonderlich großen Raum in dem Buch ein. Es ist eine eher humane (trotzdem anspruchsvolle) Einführung in die Basics der Topologie und den möglichen Topologien des Universums. Gut erklärt und angemessen bebildert. Ich bekomme kein Geld wenn man da drauf klickt, ich empfehle es nur gerne.

Advertisement

Überlebensquote bei Schusswunden

Vor kurzem habe ich einen YouTube-Channel entdeckt, in welchem der Content-Creater verschiedene Kaliber gegen verschiedene Objekte testet. Immer nach dem Prinzip: Kann X eine Kugel stoppen? Das reicht von Schichten von Papier und Alufolie bis hin zu professionellen Schutzwesten und Humvee-Scheiben. Das alles hat mich wiederum zum Rabbit-Hole Schusswunden gebracht. Wie tödlich sind diese wirklich? Google Scholar bietet eine breite Auswahl an Studien zu dem Thema.

Erstmal eine knappe Übersicht:

Untersuchte VariableAnzahl Studien / PatientenÜberlebensquote
Schusswunde im Gehirn3 / 11355 %
Schusswunde am Herz2 / 3748-24 %
Kopfschuss3 / 61748 %
Bauchschuss allgemein2 / 57788 %
Bauchschuss mit VS1 / 22656 %
Bauchschuss ohne VS 2 / 11597 %
Mittlere vs. Kleine Kaliber1 / 511Reduktion um Faktor 2,3
Große vs. Kleine Kaliber 1 / 511 Reduktion um Faktor 4,5
Distanz zum Krankenhaus1 / 9205Halbierung je 3 Meilen
  • Schusswunden im Gehirn

Am tödlichsten sind wohl Schüsse, welche die Schädeldecke durchdringen und im Gehirn Schäden anrichten. Die Publikationen Bellal et al 2014 (132 Patienten), Cavaliere et al 1988 (178 Patienten) und Robinson et al 2019 (825 Patienten) geben hier weitere Auskunft. Die beobachteten Überlebensquoten reichen von 2 % bis 10 %, mit einem gewichteten Mittel* von 5 %. Demnach überlebt von 20 Patienten in der Regel nur 1 Patient.

  • Schusswunden am Herz

Bei Schusswunden am Herzen finden sich sehr viele Studien, aber die Streuung der Angaben ist viel höher als bei anderen Körperteilen. In den Studien Ricoli et al 1993 (13 Patienten), Ricks et al 1965 (31 Patienten), Rhee et al 1998 (123 Patienten), Gervin & Fischer 1982 (23 Patienten), Attar et al 1991 (49 Patienten) und Henderson et al 1994 (251 Patienten) variiert die berichtete Überlebensquote von 6,5 % bis 64,5 %, eine ganze Größenordnung. Mögliche Gründe sind hierfür die kleinen Stichproben einiger der Studien und eventuell abweichende Definitionen dafür, was als Herzregion gezählt wird. Als gewichtetes Mittel erhält man die Überlebensquote 24 %. Verwendet man nur die beiden größten Studien, erhält man einen engeren Bereich von 6,5 % bis 10 % und eine kleinere mittleren Quote von 8 %.

Welchen der beiden Mittel sollte man trauen? Sofern die größten Studien zu einem gemeinsamen Mittel konvergieren, was hier der Fall zu sein scheint, ist die Verwendung des Mittels aus den größten Studien praktisch immer verlässlicher. Entsprechend vermute ich das wahre Mittel näher an 8 % als an 24 %.

Kleiner Zusatz: Viele der oben aufgeführten Studien haben auch gleichzeitig Stichwunden am Herz untersucht. Alle kommen zu dem gleichen Schluss: Stichwunden am Herz lassen sich deutlich besser überleben als entsprechende Schusswunden. Über das Wieso weiß ich jedoch nichts.

  • Kopfschüsse

Kopfschüsse, da sind sich die drei Studien Benzel et al 1991 (120 Patienten), Murano et al 2005 (298 Patienten) und Gressot et al 2014 (199 Patienten) sehr einig, sind eine 50/50-Sache. Die berichteten Überlebensquoten reichen von 44 % bis 51 % mit einem gewichteten Mittel von 48 %. Vor dem Hintergrund des schlechten Ausgangs bei Schusswunden im Gehirn lautet die Regel wohl: Wird die Schädeldecke durchbrochen oder die Kugel von unten in das Gehirn reflektiert, ist der Tod nur selten zu vermeiden. Wird die Kugel hingegen von der Schädeldecke reflektiert, bleibt darin stecken oder geht durch das Gesicht, ist ein tödlicher Ausgang deutlich unwahrscheinlicher.

Prinzipiell sollte jedes Kaliber genügend Energie besitzen, um die Schädeldecke zu durchbrechen. Die Kugel, die Robert Kennedy getötet hat, war von dem kleinsten gängigen Kaliber .22LR und drang bis ins Gehirn vor. Wobei die Wahrscheinlichkeit dafür umso größer ist, je größer das Produkt m*(v/r)² ist, mit m der Masse der Kugel, v dessen Geschwindigkeit beim Aufprall und r dessen Radius. Siehe eine Ausführung der Physik dahinter hier. Und auch umso größer, je mehr die Kugel entlang der Normalen zur Oberfläche der Schädeldecke geht.

Zu den Kopfschüssen lässt sich noch hinzufügen, dass laut Benzal et al 1991 und Grahm et al 1990 bei 11-20 % der Überlebenden schwerwiegende Behinderungen bleiben. Wie bei vielem anderen auch heißt überleben nicht immer gut überleben.

Interessant ist auch noch der Blick auf die Studie Murphy et al 2016 (157 Patienten), in der es speziell um Kopfschüsse geht, die sich die Patentien selbst zugefügt haben. Eine Schlussfolgerung aus den Daten ist, dass ein Ansetzen der Waffe an der Schläfe wohl 3-4 Mal tödlicher ist als das Ansetzen unter dem Kinn oder im Mund. Jedoch überleben selbst beim Ansetzen an der Schläfe noch 18 % der Patienten.

  • Bauchschüsse

Bauchschüsse haben eine überraschend gute Überlebensquote. Gemäß den Studien Feliciano et al 1988 (300 Patienten) und Davidson et al 1976 (277 Patienten) überleben im Mittel 88 % die Verletzung. Laut Feliciano et al 1988 steigen die Chancen sogar auf 97 %, wenn keine vaskulären Schäden entstehen. Letzteres war in der Studie bei 75 % der Patienten mit Bauchschuss der Fall. Bei Patienten, bei denen mit dem Bauchschuss auch vaskuläre Schaden entstehen, überleben gemäß Feliciano et al 1988 (74 Patienten mit vaskulären Schäden) und Richardson et al 1996 (41 Patienten mit vaskulären Schäden) hingegen nur 56 %.

  • Anderes

Neben dem Ort der Penetration spielen natürlich auch weitere Faktoren für das Überleben einer Schusswunde eine wichtige Rolle. Dazu gehört offensichtlich auch das Kaliber. Basierend auf einer Stichprobe von 511 Personen mit Schusswunden, geben Braga & Cook 2018 an, dass mittlere Kaliber (.38, .380, 9 mm) im Vergleich zu kleinen Kalibern (.22, .25, .32) die Überlebensquote um das 2,3-fache senken und große Kaliber (.357 magnum, .40, .44 magnum, .45, 10 mm, 7.62 × 39 mm) sogar um das 4,5-fache. Würde man alle größeren Kaliber mit diesen kleinen Kalibern ersetzen, dann würde die Anzahl der Todesfälle durch Schusswunden schlagartig um 40 % sinken.

Ebenso zentral ist natürlich auch der schnelle Zugang zu medizinischer Hilfe. Circo et al 2019 kommt nach der Auswertung von 9205 Todesfällen durch Schusswunden zu dem Schluss, dass jede Meile zusätzliche Distanz zu einem Krankenhaus die Überlebensquote um den Faktor 1,22 senkt. Drei zusätzliche Meilen haben demnach schon die Halbierung der Chancen zur Folge.

* Beim Berechnen des Mittels wurde den jeweiligen Studie ein Gewicht proportional zur Wurzel der Anzahl Patienten zugeordnet. Das weil der Standardfehler im Allgemeinen mit der Wurzel der Stichprobengröße sinkt und sich so ein Mittel ergibt, dass einer ordentlichen Meta-Analyse am nächsten kommt.

Wie lange bis 100 % Erneuerbar?

Der Anteil erneuerbarer Energien bei der Stromerzeugung (kürzlicher Zuwachs fast alles Wind und Solar) ist gemäß dieser Quelle von 10,5 % im Jahr 2004 auf 46,1 % im Jahr 2019 angestiegen. Kombiniert mit dieser Quelle bedeutet das ein Zuwachs in der Einspeisung von 64 TWh im Jahr 2004 auf 265 TWh im Jahr 2019. Der Zuwachs hat sich stetig beschleunigt, weshalb diese Szenarien bei der zukünftigen Installation erneuerbarer Energien unterschieden werden sollen:

  • S1 – Pessimistisch: +13,8 TWh/a (Mittel 2010-2016)
  • S2 – Mäßig: +16,6 TWh/a (Mittel 2013-2019)
  • S3 – Erfreulich: +21,7 TWh/a (Mittel 2016-2019)
  • S3 – Optimistisch: +30,0 TWh/a (Noch nie erreicht, aber realistisch)

2019 betrug der gesamte Stromverbrauch 575 TWh. Hier soll als Ziel gesetzt werden:

  • 100 % davon abdecken
  • +10 % für elektrische Heizungen
  • Abdeckung von Produktion und Betrieb aller E-Autos bei 100 % Umstieg

Der Verbrauch von E-Autos liegt bei aktuellen Modellen bei etwa 15 KWh/100 km. Im Durchschnitt fährt ein Deutscher 11.733 km pro Jahr. Macht 1760 kWh für den Betrieb eines E-Autos pro Jahr. Mit 48,3 Mio E-Autos (jedes Auto ersetzt durch E-Auto) werden zum Betrieb aller E-Autos 85 TWh/a benötigt.

Diese Autos müssen aber erst produziert werden. Es sollen diese 48,3 Mio E-Autos in 15 Jahren produziert werden, also 3,2 Mio E-Autos pro Jahr. Laut Sato & Nakata 2020 benötigt die Produktion eines Autos 41,8 MJ/kg. Bei einem Gewicht von 1400 kg wären das 58.500 MJ pro Auto bzw. 16.300 kWh. Die Produktion von 3,2 Mio Autos pro Jahr würde also 52 TWh/a erfordern. Rechnen wir noch konservative 10 % für den Aufbau von Ladestationen dazu. Also 57 TWh/a.

Das Ziel beträgt also:

575 + 0,1*575 + 85 + 57 = 775 TWh/a

Wann wird erneuerbare Energie dies alles abdecken können?

  • S1 – Pessimistisch: 2056
  • S2 – Mäßig: 2050
  • S2 – Erfreulich: 2043
  • S3 – Optimistisch: 2036

Es gibt keinen Grund anzunehmen, dass die Installation erneuerbarer Energien wieder auf das Mittel 2010-2016 fällt. Hingegen ist ein Zuwachs über das Mittel 2016-2019 durch den politischen Willen und den geringen Preis erneuerbarem Strom durchaus möglich. Realistisch dürfte erneuerbare Energie den aktuellen Strombedarf in Deutschland plus elektrische Heizungen sowie den gesamten Individualverkehr inklusive Produktion zwischen 2035-2050 abdecken können. Ab da könnte jeder Zuwachs in die Produktion von grünem Wasserstoff fließen, um Fernlastverkehr*, Schiffe und Flugzeuge anzutreiben.

Die Energie zum Aufbau von Stromspeichern, die ab > 70 % erneuerbar dringend erforderlich werden, ist hier nicht berücksichtigt. Das fällt aber eventuell auch nicht zu stark ins Gewicht. Sollte Wasserstoff als Speicher verwendet werden, so wie es derzeit geplant ist, und wird dieser mit der Sabatier-Reaktion methanisiert, dann ließe sich die komplette Erdgas-Infrastruktur weiternutzen. Der Aufbau einer neuen Infrastruktur wäre nicht erforderlich. Auch Kraftwerke zum Verfeuern des Methans sind schon in ausreichender Zahl vorhanden. Nur die Energie zum Aufbau der Elektrolyseanlagen müssten man hinzurechnen. Alternativ die Kosten des Imports von Wasserstoff aus sonnigeren Regionen, in denen mehr Überschuss zur Produktion von Wasserstoff verfügbar ist.

*Fernlastverkehr ist sehr schwierig zu elektrifizieren. Nahlastverkehr ginge aber relativ problemlos, da diese Grenze nicht (wie oft behauptet) dadurch gesetzt wird, dass Elektromotoren keine hohen Kräfte erzeugen können, sondern sich aus dem begrenzten Energieinhalt der Batterien und den relativ großen Ladezeiten ergibt. Die Forderung hoher Kräfte stellt kein Problem dar sofern nicht gleichzeitig lange Betriebsdauer bzw. große Reichweite benötigt wird.

LSD und Neuroplastizität

Bis lange ins 20. Jahrhundert hinein herrschte in der Wissenschaft der Konsens, dass die Gehirne erwachsener Menschen zum größten Teil “in Stein gemeißelt” sind. Man ging davon aus, dass die vielen Prozesse, nach denen sich die Strukturen im Gehirn verändern können, nur in der Kinder- und Jugenzeit wirken. Ist einmal ein kritisches Alter erreicht, festigen sich die Strukturen und das Gehirn bleibt statisch. Ganz gemäß der Redewendung: Was Hänschen nicht lernt, lernt Hans nimmermehr.

Moderne Methoden zur Beobachtung von Strukturen und Prozessen im Gehirn haben die Hypothese des statischen Erwachsenenhirns jedoch überholt. Das Gehirn bleibt auch bis weit ins hohe Alter hinein veränderlich. Zwar kann die Veränderlichkeit nicht mit jener von Kindern konkurrieren, aber sie bleibt groß genug, um weitreichende Umstrukturierungen zu ermöglichen. Mehr dazu findet man gut erklärt in dem kleinen aber feinen Buch Neuroplasticity von Mohab Costandi.

Neuroplastizität ist ein Oberbegriff für all jene Prozesse, nach denen sich das Gehirn strukturell oder funktionell verändern kann. Experimente haben mittlerweile viele solcher Prozesse identifiziert. Hier eine Sammlung einiger dieser Prozesse, unter anderem auf Basis der Publikation, um die es später in dem Eintrag gehen soll:

  • Neue Nervenzellen werden konstruiert bzw. alte Nervenzellen aufgelöst
  • Dem Zellkörper werden neue Dendriten hinzugefügt bzw. alte Dendriten eliminiert
  • Bestehenden Dendriten werden neue Äste hinzugefügt bzw. alte Äste entfernt
  • Bestehende Dendriten werden verlängert bzw. gekürzt
  • Die Dichte der Dornenfortsätze (i.d.R. stellen diese die post-synaptischen Regionen) auf den Dendriten wird erhöht bzw. reduziert
  • Die Form der Dornenfortsätze verändert sich
  • Die Stärke einer synaptischen Verbindung wird erhöht bzw. gesenkt
  • Neue Verbindungen werden geschaffen bzw. alte Verbindungen gekappt

Man sieht, dass der Topologie des neuronalen Netzwerks kaum Grenzen gesetzt sind. Noch schöner ist: Man hat die Veränderlichkeit des Hirns zu einem beachtlichen Teil in der eigenen Hand. Es gibt viele Aktivitäten, die nachweislich die obigen neuroplastischen Prozesse anregen. Dazu gehört zum Beispiel Lernen, Computerspiele, künstlerische Betätigung, Reisen, Sport und Meditation.

Eine sehr potente Anregung neuroplastischer Prozesse ergibt sich auch beim Konsum von Psychedelika, wie diese Publikation ausführlich darlegt. So erhöht die Verabreichung von LSD die Anzahl Dendriten, die direkt vom Zellkörper abgehen, im Mittel um 25 %. Die Anzahl Äste pro Dendrit steigt um 75 %. Die gesamte Länge der Dendriten erhöht sich um 20 %. Die Dichte der Dornenfortsätze erfährt sogar eine Verdopplung. All diese Veränderung wurden in der Studie mit einer Signifikanz p < 0,001 festgestellt. Das neuronale Netzwerk gewinnt also deutlich an Komplexität.

Auch erhöht sich der Formenreichtum der Dornenfortsätze, was sich etwas schwieriger in Zahlen ausdrücken lässt, aber gut mit mikroskopischen Methoden festgehalten werden konnte. Zu den reifen Dornenfortsätzen, die für gewöhnlich einem breiten Pilz ähneln, haben sich viele junge Dornenfortsätze gesellt, die entweder einem dünnen, länglichen Pilz gleichen oder eine komplett filamentartige Form besitzen. Die Abhängigkeit der Formbarkeit der Strukturen vom Alter des Organismus konnte die Studie ebenso bestätigen. Die Veränderung der Anzahl Äste pro Dendrit war im frühen Entwicklungsstadium (erstes Instar) knapp 4-Mal höher als im späteren Entwicklungsstadium (drittes Instar). Die Veränderung im dritten Instar war aber trotzdem noch beachtlich.

Es ist aus früheren Experimenten bekannt, dass die gleichzeitige Verabreichung eines Antagonisten für den Serotonin-Rezeptor 5-HT-2A (z.B. Ketanserin) die psychedelische Wirkung von LSD blockiert. Mittlerweile gilt es Konsens, dass eine spezielle Bindung an diesen Rezeptor für die psychedelische Wirkung verantwortlich ist. Eine spezielle Bindung ist gefordert, da viele Stoffe bekannt sind, die ebenso an diesen Rezeptor binden, aber keine psychedelischen Effekte auslösen (gewöhnliche SSRI zum Beispiel). Wieso LSD dies tut ist noch unbekannt. Die Autoren dieser Studie zeigen, dass der Antagonist Ketanserin mit der psychedelischen Wirkung auch die oben aufgeführten neuroplastischen Prozesse unterdrückt. Bei hohen Dosen ist die psychedelische Wirkung also entweder erforderlich oder zumindest schwer zu umgehen bei der Hervorrufung der neuronalen Veränderungen.

Der potente Eingriff von LSD in die neuronale Struktur weckt therapeutische Hoffnung. Es gibt eine Reihe an Experimenten, die demonstrieren, dass psychische Erkrankungen (explizit auch Depression) mit ungünstigen neuronalen Prozessen assoziiert sind, etwa der Auflösung von Neuronen und Reduktion der Dichte an Dornenfortsätzen. Diese Erkenntnisse kann man als Zusätze zu der recht erfolgreichen Serotonin-Hypothese sehen. Psychedelika werden daher in der Forschung zaghaft als Kandidat für eine neue Generation von Antidepressiva (oder zumindest Ergänzung zu SSRI) gehandelt. Die Forschung läuft wegen der staatlichen Repression bisher jedoch nur langsam an.

Wer noch etwas über die Dosierung von LSD erfahren möchte, ist herzlich dazu eingeladen hier weiterzulesen.