SciLogs http://scilogs.spektrum.de/multifeed Tagebücher der Wissenschaft Mon, 18 Jul 2016 07:36:12 +0000 de hourly 1 https://wordpress.org/?v=4.5.3 http://scilogs.spektrum.de/wp-content/themes/sdw-theme-baylys-child/images/favicon/scilogs-icon-32.png Tagebücher der Wissenschaft http://scilogs.spektrum.de 32 32 Finde die Fehler: Nach 25 Jahren Migräne geheilt http://scilogs.spektrum.de/graue-substanz/finde-die-fehler/ http://scilogs.spektrum.de/graue-substanz/finde-die-fehler/#respond Tue, 26 Jul 2016 07:48:29 +0000 Markus A. Dahlem http://scilogs.spektrum.de/graue-substanz/?p=13755 Weiterlesen]]> »Migräne: Frau hat dank Ernährungsumstellung nach 25 Jahren keine Kopfschmerzen mehr« titelt eine deutsche Boulevardzeitschrift, die den Artikel bei einer britische Boulevardzeitung abschrieb.

Wir dürfen immerhin Fehler suchen. Nur zwei Klicks weit ist die Redaktion weg. Klasse. Also los:

finde_die_Fehler

Ich habe folgende Fehler in der Überschrift gefunden:

  • „Frau“
  • „dank“
  • „Ernährungsumstellung“
  • „25 Jahre“
  • „keine Kopfschmerzen“

Frau“, singular – also genau eine, sie lebt in der englischen Grafschaft Lincolnshire, so erfahren wir; in der britische Boulevardzeitung sehen wir immerhin noch vier wirklich nette Familienbilder: Falsch daran ist, dass dies überhaupt eine Zeitungsmeldung wird. In dem verlinkten Video weist eine Ärztin darauf hin, dass an Migräne etwa 6 Millionen Menschen in Großbritannien erkrankt sind, in Deutschland sind es etwa 10 Millionen. Soll wirklich für jede eintretende Besserung ein Artikel geschrieben werden?

dank“: Falsch daran ist, dass es einen ursächlichen Zusammenhang vorgaukelt (siehe „25 Jahre“).

Ernährungsumstellung“: Richtig ist – wie wir dann im Haupttext erfahren –, dass es um eine bestimmte Ausschlussdiät geht. Diese sei „von einem Freund mit starker Gluten-Intoleranz wärmstens empfohlen“ worden. Aha. Den Preis erfahren wir, wenn man sich etwas durchklickt: beworben wird eine Ausschlussdiät gegen Reizdarm für 319,00 £. Damit wir diese wärmstens empfohlene Diät auch nicht noch übersehen, gibt es einen rosaroten Infokasten. Fast schon löblich: die deutsche Boulevardzeitschrift lässt den Infokasten weg. Diese Diät propagiert eine kohlenhydratreduzierte Ernährung, was bei Migräne als kontraproduktiv gilt.

25 Jahre“: Jetzt wird es wissenschaftlich. Die höchste Rate an Neuerkrankungen (Inzidenz) liegt für Migräne bei Jugendlichen und jungen Erwachsenen zwischen 15 und 24 Jahren. Frauen eines Jahrgangs erkranken mit einer Rate von etwa 15‰, was in Deutschland ca. 128 000 junge Frauen im Alter zwischen 15 und 24 Jahren ausmacht. Männer mit nur mit 4,6‰ bzw. 40 000 junge Männer. Die höchste Häufigkeit (Prävalenz) der Migräne besteht wiederum zwischen dem 35. und 44. Lebensjahr. Frauen sind in dieser Altersgruppe mit über 25% mehr als dreimal häufiger betroffen als Männer. Mit 46 Jahren, so alt wie die Frau in der Meldung, ist die Rate der spontan eintretende Besserung oder Genesung einer Migräneerkrankung wiederum am höchsten. Fassen wir zusammen: Der Fall ist also mustergültig für einen natürlichen Krankheitsverlauf! Der Fehler ist bekannt als „Regression zum Mittelwert“.

migraene_praevalenz_alter_dauer

Keine Kopfschmerzen“: Migräne sind nicht nur Kopfschmerzen. Gerade im Alter bleibt oft die Migräneaura bestehen, man ist also durchaus weiter erkrankt, auch wenn das Leitsymptom Kopfschmerz abnimmt.

Zusammengefasst: Ein natürlicher Krankheitsverlauf wird benutzt, um eine überteuerte und sogar gegebenenfalls schädliche Diät an kranke Menschen zu vertreiben.

]]>
http://scilogs.spektrum.de/graue-substanz/finde-die-fehler/feed/ 0
Samenspende und das Recht des Kindes http://scilogs.spektrum.de/menschen-bilder/samenspende-und-das-recht-des-kindes/ http://scilogs.spektrum.de/menschen-bilder/samenspende-und-das-recht-des-kindes/#respond Tue, 26 Jul 2016 07:26:42 +0000 Stephan Schleim http://scilogs.spektrum.de/menschen-bilder/?p=642 In jüngster Zeit wird wieder vermehrt über Designerbabys diskutiert: Wie ist es ethisch zu beurteilen, wenn Eltern das Geschlecht, das Aussehen, die Intelligenz, die Sportlichkeit, die sexuelle Orientierung… ihres Kindes schon vor der Geburt bestimmen? (mehr …)

]]>
http://scilogs.spektrum.de/menschen-bilder/samenspende-und-das-recht-des-kindes/feed/ 0
Die Erforschung von Schuttströmen mit Mikroseismik http://scilogs.spektrum.de/mente-et-malleo/wie-erforscht-man-schuttstroeme/ http://scilogs.spektrum.de/mente-et-malleo/wie-erforscht-man-schuttstroeme/#respond Mon, 25 Jul 2016 19:09:55 +0000 Gunnar Ries http://scilogs.spektrum.de/mente-et-malleo/?p=1825 Weiterlesen]]> Schuttströme, also Massenbewegungen, bei denen Gerölle, Steine, Sand und Boden zusammen mit Wasser Hang abwärts rutschen, sind eine ernstzunehmende Gefahr für alle Lebewesen, die sich unterhalb davon befinden. Zu ihnen gehören die Muren ebenso wie die Lahare, die nach Vulkanausbrüchen auftreten können.
Ihre Dichte liegt meist zwischen 2 bis 2,5 g/cm3, ihr Wassergehalt bei rund 5% oder darüber. Turbulentes Strömen an ihrer Basis setzt die Reibung herab und größere Gerölle werden durch die Viskosität der Matrix in der Schwebe gehalten. So können Schuttströme durchaus Geschwindigkeiten von 20 Metern pro Sekunde erreichen. Einige bedeutende Schuttströme haben mehr als 10 000 bis 20 000 Todesopfer gefordert, so 1985 in Armero, Kolumbien und 1999 in Vargas in Venezuela.
Vieles an den Schuttströmen, wie sie sich bewegen, wird noch sehr unvollständig verstanden. Wie kann man sich und Bauwerke schützen? Auf der anderen Seite gibt es für diese sehr kurzfristigen Ereignisse meist auch nur eine extrem kurze Vorwarnzeit, um gefährdete Gebiete zu evakuieren. Wenn man also Schuttströme früher aufspüren kann, könnte man sich damit auch zusätzlich wertvolle Reaktionszeit erkaufen, vorausgesetzt, die Infrastruktur zur Warnung der betroffenen Bevölkerung existiert. (mehr …)

]]>
http://scilogs.spektrum.de/mente-et-malleo/wie-erforscht-man-schuttstroeme/feed/ 0
Sprach-Pegida und der Deutsche Hochschulverband http://scilogs.spektrum.de/engelbart-galaxis/sprach-pegida-und-der-dhv/ http://scilogs.spektrum.de/engelbart-galaxis/sprach-pegida-und-der-dhv/#comments Mon, 25 Jul 2016 16:42:59 +0000 Henning Lobin http://scilogs.spektrum.de/engelbart-galaxis/?p=359 Weiterlesen]]> Ein Sturm der Entrüstung hat sich gerade unter germanistischen Sprachwissenschaftlern erhoben. Was ist passiert? Anfang Juli war eine neue Ausgabe der Zeitschrift „Forschung & Lehre“ (F&L) erschienen, die vom Deutschen Hochschulverband (DHV) in einer Auflage von mehr als 30.000 Exemplaren herausgegeben wird. Der DHV ist der Berufsverband der deutschen Uni-Professorinnen und -Professoren. In den letzten Jahren hat er sich zunehmend auch anderen wissenschaftlichen Berufsgruppen gegenüber geöffnet, heute ist er bei weitem nicht mehr diese teilweise verschnarchte, gelegentlich ins Sektiererische abgleitende Standesorganisation, die sie noch war, als ich ihr selbst vor 20 Jahren aus völlig eigennützigen Motiven beigetreten bin. Einen ähnlichen Wandel hat auch die F&L vollzogen, die sich mittlerweile als ein recht gediegen aufgemachtes, seriöses und vor allem informatives Fachorgan zu allen möglichen Fragen von Wissenschaft, Forschung, Lehre, Politik und Recht präsentiert.

Beim Aufschlagen der Juli-Ausgabe von F&L fiel den knapp 30.000 Mitgliedern des DHV, die diese Zeitschrift automatisch erhalten, eine Werbebeilage des „Vereins Deutsche Sprache“ (VDS) in die Hände. Es handelte sich um die aktuelle Ausgabe der „VDS-Sprachnachrichten Nr. 70„, in der dieser Verein, 1997 ursprünglich als „Verein zur Wahrung der deutschen Sprache“ vom Dortmunder Statistik-Professor Walter Krämer gegründet, seit bald 15 Jahren seine Sicht auf die sprachliche Welt erklärt. Seine Identität bezieht der VDS durch die Kritik an der angeblichen Anglizismenflut im Deutschen, der er mit der Verleihung des „Sprachpanschers des Jahres“ Nachdruck verleiht. Dem Verein gelingt es immer wieder, große mediale Aufmerksamkeit zu erringen, und unter seinen 36.000 Mitgliedern gibt es eine ganze Reihe von Prominenten, die meinen, sich wegen des drohenden Untergangs der deutschen Sprache öffentlich bekennen zu müssen.

Das alles legitimiert natürlich noch lange nicht die Kritik der Sprachwissenschaftler. Schon nachdenklicher hätten die Herausgeber von „Forschung & Lehre“ allerdings werden können, wenn sie sich die Leserbriefe der beigelegten Ausgabe der „Sprachnachrichten“ (S. 24/25) zu den häufig hochpolitischen Artikeln früherer Ausgaben angesehen hätten. Da kritisieren die eigenen Mitglieder des Vereins die Verwendung von Wörtern wie „Wahrheitsverschleierungsrhetorik“, „Völkerwanderung“, „Genderwahn“, „Sprachimperialismus“ und „Lügenmedien“ in der vorletzten Ausgabe der Mitteilungsblatts und fordern, dass der VDS nicht „zu einer nationalkonservativen und AfD-nahen ‚Fruchtbringenden Gesellschaft‘ […] mutieren“ darf. Deutschland brauche keinen „Verein, der im Kampf für die deutsche Sprache […] den Rechtspopulisten und Nationalisten […] in die Hände spielt.“ Ein anderer Leserbriefschreiber kritisiert die Verwendung des Begriffs „Obrigkeitsstaat“ und  stellt fest: „[… R]aunend eine Verschwörungsvermutung anklingen zu lassen, stößt ins Horn eines populistischen Deutungsschemas, wie es die AfD gerade propagiert“. Eine Leserin beklagt im Zusammenhang mit einem früheren Artikel zur „Gendersprache“ das Fehlen eines „sachlichen Diskurses“, „in dem kompetente Fachleute, sowohl Frauen als auch Männer zu Wort kommen, in dem tatsächlich die linguistischen und sozialen Hintergründe beleuchtet werden.“ Weitere Leserbriefschreiber kritisieren einzelne Artikel als „allgemeine Angstmache vor TTIP“ oder als geschrieben in einem „[e]xtrem schlechte[n] manipulative[n] Stil“ in der „Rhetorik der Pegida“. Diese hier vereinsintern vorgebrachte Kritik an einem zunehmenden sprachlich befeuerten Nationalismus und einem Abdriften in rechte politische Positionen weist der Verein seit langem gegenüber externen Kritiken mit Vehemenz von sich. Man kann sich des Eindrucks nicht erwehren, dass sich der VDS ausgehend von relativ harmlosen, durchaus breite Zustimmung aufweisenden Positionen in ähnlicher Weise radikalisiert, wie es in den letzten Jahren auf der politischen Bühne die AfD vorgemacht hat.

Ein offener Brief

Der Grund allerdings, warum Thomas Niehr, Professor für Germanistische Sprachwissenschaft an der RWTH Aachen, einen offenen Brief verfasst hat, den neben 35 weiteren Linguistinnen und Linguisten auch ich selbst unterzeichnet habe, ist die Wissenschaftsfeindlichkeit, die dem gesamten Verein zugrunde liegt und auch die „Sprachnachrichten Nr. 70“ durchzieht. An verschiedenen Stellen wird beklagt, dass die Linguistik nicht normativ und sprachplanerisch arbeiten würde. So heißt es etwa in den „Acht Thesen zum Stand der deutschen Sprache“ (S. 5) in These 6, dass „[e]mpirische und deskriptive Objektivität […] nicht als Ausrede für szientifischen oder sprachpolitischen Nihilismus dienen [dürfen]. Die deutsche Sprache ist nicht nur Gegenstand der germanistischen Linguistik, sondern muss auch Gegenstand ihrer sprachpolitischen Sorge und ihres kulturpolitischen Interesses sein.“ Anders formuliert besagt dieser Passus, dass ein empirisch arbeitender Wissenschaftler grundsätzlich dem „szientifischen oder sprachpolitischen“ Nihilismus anheim gefallen ist, wenn er sich nicht aktiv sprachpflegerisch betätigt. Kommt Ihnen diese Argumentationsfigur – reine Wissenschaft = schlecht, politisch bewusste Wissenschaft (einer bestimmten Couleur) = gut – nicht auch irgendwie bekannt vor?

Den antiwissenschaftlichen Vogel schießt allerdings der bekannte Publizist Wolf Schneider in seinem Beitrag auf Seite 15 ab. Er knöpft sich in seiner Kolumne „Schneiders Ecke“ in dieser Ausgabe der „Sprachnachrichten“ den Grammatik-Duden vor, der seit Jahrzehnten von renommierten germanistischen Linguisten in immer neuen, an den aktuellen Forschungsstand angepassten Auflagen verfasst wird. Er regt sich darüber auf, dass in diesem Duden für einen Satz, der mit „der die das“ beginnt, eine grammatisch korrekte Deutung angegeben wird, womit der Grammatik von den „hochnäsigen Verfassern“ ein „Hochaltar“ errichtet werde, anstatt diesen Satz einfach als sprachlichen Sondermüll zu klassifizieren und so umzuformulieren, wie es Wolf Schneider auf der Henri-Nannen-Schule seinen journalistischen Adepten beigebogen hätte. Der „Urzweck der Sprache“ werde dadurch „auf den Müll geworfen: die Kommunikation.“ Schuld daran ist die akademische Linguistik, die nicht präskriptiv sein will, sondern deskriptiv. In Schneiders Kolumne ist soviel Unfug versammelt, dass man gar nicht hinterherkommt, diesen ganzen Unrat wegzuräumen. Festhalten will ich vor allem, dass diese Kolumne nur so vor Wissenschaftsfeindlichkeit trieft – was sich leider auch in der Logik Schneiders eigener Argumentation bemerkbar macht.

Der VDS hält offenbar große Stücke darauf, seine wissenschaftlich kaum haltbaren Positionen durch namhafte Mitglieder und einen „wissenschaftlichen Beirat“ mit Geltungsanspruch aufzuladen. Dieser wissenschaftliche Beirat entpuppt sich bei näherem Hinsehen allerdings als eine Gruppe von Honoratioren, von deren zwölf Mitgliedern kein einziges im Kernbereich des Vereinsinteresses, nämlich Grammatik, Lexik und Soziolinguistik der deutschen Sprache, schwerpunktmäßig ausgewiesen ist. Die Berücksichtigung aktueller sprachwissenschaftlicher Expertise würde dem Verein jedoch wirklich gut tun, denn vor diesem Hintergrund ließen sich viele seiner Positionen kaum noch ernsthaft vertreten. Ein positives Beispiel findet sich in den Sprachnachrichten insofern, als mit der Übernahme eines FAZ-Artikel von Peter Eisenberg tatsächlich ein renommierter Grammatiker der deutschen Sprache zu Wort kommt – allerdings zu einem wiederum sprachpuristisch angehauchten und gegen die political correctness gerichteten Thema.

Fassen wir zusammen: Der DHV legt seiner Verbandszeitschrift das Mitteilungsblatt eines Vereins bei – schon das ist kurios -, der nach Auffassung mancher seiner eigenen Mitglieder derzeit in eine zu große Radikalität seiner Auffassungen abzudriften droht und durchgängig eine sprachwissenschaftsfeindliche Öffentlichkeitsarbeit betreibt. Von so einem Verein etwas in der DHV-Zeitschrift beigelegt zu bekommen läuft ungefähr auf das gleiche heraus, wie wenn die Zeitschrift „Das Parlament“ einer ihrer Ausgaben einen Pegida-Flyer beifügen würde oder der Bundesverband Deutscher Zeitungsverleger seinem Mitgliederblatt eine Info-Broschüre der AfD.

Die Antwort des DHV

Wie regiert nun der Deutsche Hochschulverband auf unseren offenen Brief? Eine Antwort kam in Gestalt eines Schreibens, nicht vom Vorsitzenden des DHV und Herausgeber der F&L, sondern vom Geschäftsführer des Verbandes, Herrn Dr. Hartmer. Dass Dumme ist nun, dass der Geschäftsführer des DHV diese komplexen Zusammenhänge nicht kennt, nicht begreift oder selbst nicht recherchieren wollte – stattdessen geht er geradewegs zum Gegenangriff über. Er empfinde es als bedenklich, dass wir eine andere, nicht-wissenschaftliche Meinung nicht ertragen könnten, niemand sei doch im alleinigen Besitz der Wahrheit. Bevor ich bei der Lektüre ernsthaft darüber nachdenken konnte, ob sich das gleiche wohl Evolutionsbiologen anhören müssen, die zur Toleranz gegenüber dem Kreationismus aufgefordert werden, kommt Hartmers nächste Volte: Es ginge ja schließlich auch und vor allem um die Einnahmen aus dem Anzeigengeschäft. Obwohl ich die Sprache des Geld auch verstehe, erschloss sich mir nicht, wie eine Zeitschrift mit wissenschaftlichem Ethos meint, die gerade zuvor angemahnte sachliche Auseinandersetzung zu wissenschaftlichen Positionen über eine Anzeigenbeilage bewerkstelligen zu können. Dann eine erneute Pirouette: Man werde sich in Zukunft dreimal überlegen, ob man ein weiteres Mal diesen Anzeigenauftrag annehmen würde, wehre sich aber zugleich dagegen, zukünftig jede Anzeige wegen möglichen Widerstandes oder „negativer Befindlichkeiten“ ablehnen zu müssen. Aus diesen Gründen und weil die Zeitschrift F&L nicht sich selbst kritisieren will, komme auch der Abdruck des offenen Briefs nicht in Betracht.

Postskriptum

Der Initiator des offenen Briefs, Thomas Niehr, bekräftigt in einem kurzen Anwortschreiben auf Michael Hartmers Schreiben nochmals die Position der Verfasser: „Dass die Postille des VDS aber ausgerechnet mit F&L verteilt wird, erscheint mir  – entschuldigen Sie bitte den Vergleich -, als ob mit der Kirchenzeitung die Werbung eines Sexshops verteilt würde. […] Zahlreiche Vertreter des VdS polemisieren ständig gegen die akademische Sprachwissenschaft und werten deren Vertreter auch in öffentlichen Veranstaltungen ab. Dies (und noch einiges mehr) spiegelt sich auch ständig in den ‚Sprachnachrichten‘ deutlich wieder. Vor diesem Hintergrund scheint es mir tatsächlich ein Affront gegen zahlreiche Mitglieder des DHV zu sein, die ‚Sprachnachrichten‘ als Beilage von F&L zu verteilen.“

Damit hätte die Angelegenheit beendet sein können, Thomas Niehrs Mail endet danach versöhnlich. Hätte – wenn DHV-Geschäftsführer Hartmer in einer zweiten Mail an die Verfasser des offenen Briefs nicht mit Schwung erneut an der gleichen Kerbe hätte vorbeihauen wollen. Er schreibt: „Meiner Meinung hat der Vorgang schon etwas mit Political Correctness zu tun. Wikipedia definiert ‚political correct‘ als die Zustimmung zur Idee, dass Ausdrücke und Handlungen vermieden werden sollten, die Gruppen von Menschen kränken oder beleidigen können. Ich interpretiere den Offenen Brief mit 36 Unterzeichnern als Kundgabe, dass die Unterzeichner sich durch die Beifügung einer Beilage des VDS gekränkt fühlen und vom DHV und von ‚Forschung & Lehre‘ zumindest einfordern, diese Kränkung zukünftig zu unterlassen. Damit fordern die Unterzeichner aus meiner Sicht beim DHV Political Correctness ein. Damit kein Missverständnis entsteht: Selbstverständlich ist das legitim. Aber dass der Vorgang nun gar nichts mit Political Correctness zu tun haben soll, vermag ich nicht zu erkennen.“

Zeichnet sich hier eine neue Strategie im Umgang mit wissenschaftlichen Konflikten ab? Dass man deren Vertretern „Befindlichkeiten“ und einen Hang zur Political Correctness zuspricht? Dass eine solche Argumentation im Zusammenhang mit einem Verein, der offensichtlich eine erhebliche populistische Anfälligkeit aufweist, ausgerechnet vom Deutschen Hochschulverband unter Verweis auf einen Wikipedia-Artikel geltend gemacht wird, lässt uns alle verblüfft und irritiert zurück…

]]>
http://scilogs.spektrum.de/engelbart-galaxis/sprach-pegida-und-der-dhv/feed/ 2
DLF-Interview zu den Gefahren des Verschwörungsglaubens – und warum es zu kurz springt, nur von Verschwörungstheorien zu sprechen http://scilogs.spektrum.de/natur-des-glaubens/dlf-interview-zu-den-gefahren-des-verschwoerungsglaubens-und-warum-es-zu-kurz-springt-nur-von-verschwoerungstheorien-zu-sprechen/ http://scilogs.spektrum.de/natur-des-glaubens/dlf-interview-zu-den-gefahren-des-verschwoerungsglaubens-und-warum-es-zu-kurz-springt-nur-von-verschwoerungstheorien-zu-sprechen/#comments Mon, 25 Jul 2016 06:29:29 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2989 Weiterlesen]]> Gibt es ein Merkmal, dass alle gewaltbereiten Gruppen – linker, rechter oder religiöser Art – verbindet? Ja, das gibt es: Es ist der Glaube an eine weltumspannende Superverschwörung, gegen die sich die Radikalen meinen auch mit Gewalt „verteidigen“ zu müssen. Und Populisten wie Donald Trump, Wladimir Putin und Recep Tayyip Erdogan verstehen es meisterhaft, solche Verschwörungsmythen aufzugreifen und damit zu signalisieren: Die liberalen Ideen von Freiheit, Grund- und Menschenrechten können in dieser von bösen Verschwörern  beherrschten Welt überhaupt nicht funktionieren. Stattdessen gelte es, sich – mindestens zeitweise – vorbehaltlos einem echten Anführer (türkisch „büyük lider“) zu unterwerfen, der „aufräumen“ und „säubern“ werde. Und als ich dieses Interview am Freitagmorgen gab, hatte Donald Trump Recep Tayyip Erdogan noch nicht einmal gelobt

Zum Deutschlandfunk-Interview auch als Audio geht es hier:
(mehr …)

]]>
http://scilogs.spektrum.de/natur-des-glaubens/dlf-interview-zu-den-gefahren-des-verschwoerungsglaubens-und-warum-es-zu-kurz-springt-nur-von-verschwoerungstheorien-zu-sprechen/feed/ 2
Abschied und Neuanfang http://scilogs.spektrum.de/himmelslichter/abschied-und-neuanfang/ http://scilogs.spektrum.de/himmelslichter/abschied-und-neuanfang/#comments Mon, 25 Jul 2016 05:56:50 +0000 Jan Hattenbach http://scilogs.spektrum.de/himmelslichter/?p=2822 Weiterlesen]]> Nun ist es also Zeit, Abschied zu nehmen von den Scilogs. Ein Abschied, der schwer fällt – schließlich gehörten die Himmelslichter zu den ersten Blogs, die Ende 2007 das damals neue Portal füllten. Fast neun Jahre, 371 Beiträge und über 2000 Kommentare später habe ich mich aber nun entschlossen, die Himmelslichter hier zuzumachen und als eigenständigen Blog neu zu eröffnen. (mehr …)

]]>
http://scilogs.spektrum.de/himmelslichter/abschied-und-neuanfang/feed/ 2
Wie menschliche Spermien auf Schleichwegen zur Eizelle gelangen http://scilogs.spektrum.de/die-sankore-schriften/wie-menschliche-spermien-auf-schleichwegen-zur-eizelle-gelangen/ http://scilogs.spektrum.de/die-sankore-schriften/wie-menschliche-spermien-auf-schleichwegen-zur-eizelle-gelangen/#comments Sun, 24 Jul 2016 20:49:43 +0000 Joe Dramiga http://scilogs.spektrum.de/die-sankore-schriften/?p=1105 Weiterlesen]]> Beim Wettschwimmen zur reifen Eizelle, die sich im Eileiter befindet, muss ein Spermium ungefähr 15 cm zurücklegen. Das entspricht etwa dem 3000-fachen seiner eigenen Länge. Dabei schwimmt es flußaufwärts, mal mit der Strömung (im Gebärmutterhalskanal), mal dagegen (im Eilleiter). Erschwerend kommt jedoch hinzu, dass dichtes Gedränge herrscht, denn es sind mehr als 100 Millionen Spermien unterwegs. Nicht alle erreichen den Gebärmutterhalskanal, noch weniger die Eileiter und die Hälfte davon schwimmt in den „falschen“ Eileiter (ohne Eizelle). (mehr …)

]]>
http://scilogs.spektrum.de/die-sankore-schriften/wie-menschliche-spermien-auf-schleichwegen-zur-eizelle-gelangen/feed/ 1
Blockchain-Mania: Wenn langsam zu schnell – und schnell zu unsicher wird… http://scilogs.spektrum.de/datentyp/blockchain-mania-wenn-langsam-zu-schnell-und-schnell-zu-unsicher-wird/ http://scilogs.spektrum.de/datentyp/blockchain-mania-wenn-langsam-zu-schnell-und-schnell-zu-unsicher-wird/#comments Sun, 24 Jul 2016 12:41:42 +0000 Ulrich Greveler http://scilogs.spektrum.de/datentyp/?p=178 Weiterlesen]]> In der letzten Woche wurde „die erste internationale Blockchain-Überweisung von Deutschland nach Kanada“ verlautbart. Statt mehrerer Werktage, die solche Transaktionen üblicherweise benötigten, sei diese in nur 20 Sekunden erfolgt. So liest sich eine euphorische Pressemitteilung der Plattformbetreiber, die von einem historischen Testlauf sprechen. (mehr …)

]]>
http://scilogs.spektrum.de/datentyp/blockchain-mania-wenn-langsam-zu-schnell-und-schnell-zu-unsicher-wird/feed/ 1
Wissenschaftliche Bohrlöcher, Vogelperspektive und die WPK http://scilogs.spektrum.de/relativ-einfach/bohrloecher-vogelperspektive-wpk/ http://scilogs.spektrum.de/relativ-einfach/bohrloecher-vogelperspektive-wpk/#comments Sun, 24 Jul 2016 12:06:55 +0000 Markus Pössel http://scilogs.spektrum.de/relativ-einfach/?p=4927 Weiterlesen]]> Die Wissenschafts-Pressekonferenz (WPK), ein Zusammenschluss von Wissenschaftsjournalisten, wird 30 Jahre alt; entsprechend finden sich in meinem Facebook-Informationsfluss derzeit eine ganze Reihe von Links auf diese Geschichte der WPK, geschrieben von Jean Pütz 2011 (und damit offenbar zum 25. Jahrestag). Mein Verhältnis zum Wissenschaftsjournalismus hat viele Licht- und einige Schattenseiten. Ich kenne und schätze zahlreiche Wissenschaftsjournalisten, lese häufig und gerne gute Artikel insbesondere auch aus anderen Fachgebieten als meinem eigenen, und freue mich wie jeder andere Mensch, zu dessen Aufgaben wissenschaftliche Öffentlichkeitsarbeit zählt, wenn Forschungsarbeiten meines Instituts in den Medien aufgegriffen werden.

Die Schattenseiten treten, wenn ich näher darüber nachdenke, so gut wie immer dort auf, wo Wissenschaftsjournalisten in den grundlegenden Interessenskonflikt geraten, ihre eigene Profession gegenüber anderen abzugrenzen und gegenüber denen, die dafür zahlen – vom allgemeinen Publikum über die Verlage bis hin zu Stiftungen und anderen Förderorganisationen – zu verkaufen. Es gibt gute Gründe, Wissenschaftsjournalismus zu fördern; ich halte Wissenschaftsjournalismus für wichtig und notwendig und bin durchaus besorgt darüber, wenn er als Nische abgetan wird. Und ich finde diejenigen Fälle, dass die Fälle, in denen das Verkaufen dazu führt, die eigene Profession weißer zu malen als realistisch und, noch unangenehmer, zur Abgrenzung die anderen schwärzer, auch für den Wissenschaftsjournalismus selbst ärgerlich sind.

Finanzielle Unabhängigkeit, Einflussnahme und die WPK

Dafür liefert der erwähnte Text von Pütz leider auch an einigen Stellen Beispiele. Mehrfach wird die Unabhängigkeit der wpk hervorgehoben, der Umstand etwa, dass Pressesprecher keine Mitglieder mit Stimmrecht werden können. Und gleich darauf wird gelobt, welche Wissenschafts- und andere Organisationen die wpk alle finanziell unterstützen würden; in einem Satz ist von dem „hohen Mitgliedsbeitrag“ (derzeit EUR 200 für Einzelpersonen) die Rede, der zu „finanzielle[r] Unabhängigkeit“ der wpk führe, gleich darauf dann von den „handverlesenen“ Kuratoren, „die in Politik, Wissenschaft und Wirtschaft eine bedeutende Rolle spielen“ und deren finanzielle Unterstützung dazu führt, dass der Mitgliedsbeitrag nicht „unerschwinglich“ wird.

Ich glaube der wpk durchaus, dass sich ihre Mitglieder mit einigem Recht als unabhängig sehen und dass das Verhalten der Mitglieder in den allermeisten Fällen nicht wesentlich von dem idealisierter, komplett vom Wissenschaftsbetrieb unabhängiger Akteure abweicht. Aber ich finde es schon sonderbar, dass das Thema Einflussnahme in dem beschreibenden Text so weitgehend unreflektiert abgehandelt wird.

Man kontrastiere das einmal mit einem anderen aktuellen Beispiel der Berichterstattung über finanzielle Beiträge und Unabhängigkeit: diejenige von correctiv, Spiegel und anderen über die Zuwendungen von Pharmaunternehmen an Ärzte und Institutionen. Wer die entsprechenden Artikel nicht gelesen hat: Pharmalohn für Ärzte: Danke für die Millionen bei SPON und Euros für Ärzte auf den Webseiten von correctiv dürften einigermaßen repräsentativ sein. (*)

Vertauschte Rollen

Wer möchte, kann sich ja mal als kleine Fingerübung überlegen, wie die Schilderungen bei Pharma/Ärzten und bei der wpk aussehen würden, vertauschte man die Art und Weise bzw. die Stile der Berichterstattung – schilderte also die Pharmazahlungen in dem Stil, wie es die wpk-Geschichte tut, und das wpk-Sponsoring im Stil des investigativen Journalismus.

Bei den Ärzten stünde bei wohlwollender Darstellung vermutlich im Vordergrund, dass den Pharmafirmen ja kein direktes Mitbestimmungsrecht eingeräumt würde. Wahrscheinlich würde auch geschildert, wie sorgfältig ein bestimmtes Institut überlegen würde, welche Sponsoring-Gelder es annimmt und welche nicht. Und der Text würde lobend schildern, wie die Pharmaunternehmen bestimmte Unternehmungen, etwa die für eine informierte Ärzteschaft so wichtigen Fortbildungen, „tatkräftig unterstützen“.

Bei der kritischen wpk-Schilderung würde hingegen beklagt werden, dass die Sponsoring-Richtlinien der wpk zwar eine Sponsorennennung direkt bei dem geförderten Projekt fordern, aber keine Übersicht in Form einer Gesamtliste. Und auch Sätze wie „Die meisten Ärzte glauben, dass sie unbestechlich seien, auch wenn sie sich von der Industrie sponsern lassen“ und allgemeine wissenschaftliche Studien dazu, dass Menschen unterschätzen, welche Einflüsse auf sie welche Folgen haben, lassen sich ziemlich direkt von der einen auf die andere Berufsgruppe ummünzen.

Ein weiterer Grund, warum mir die vereinfachte Darstellung der Unabhängigkeit ungut aufstößt, ist die leidige Debatte über das Gegenlesen von Texten durch Wissenschaftler, an der ich mich in diesem Blog ja auch schon mehr als einmal beteiligt habe. Dass dort bereits das Gegenlesen eines journalistischen Texts durch Wissenschaftler aus Unabhängigkeitsgründen zu verdammen sein soll, während hier – verkürzt gesagt – der bloße Umstand, dass Sponsoren und Organisationen kein Stimmrecht haben, die Einflussnahme ausschließen und Unabhängigkeit sichern soll, scheint mir mit zweierlei Maß gemessen.

Letztlich dürfte die angemessene Reaktion in beiden Fällen sein, zum einen die Einzelfälle transparent zu machen und zu beurteilen – und sich selbst immer wieder auf die Finger zu sehen, ob es vielleicht doch einen Einfuss der Sponsoren gegeben haben könnte. An die Stelle solcher Wachsamkeit ein Narrativ zu setzen mit der Botschaft, durch einfache Regelungen und Strukturen sei ja von vornherein alles in Ordnung und die Unabhängigkeit gesichert, dürfte in beiden Fällen kontraproduktiv sein.

Was Friseure können, können nur Friseure

Über diesen Slogan haben sich schon genügend viele Menschen lustig gemacht. Aber der Wissenschaftsjournalismus hat im Zeitalter von Wissenschaftsbloggern, direkt kommunizierenden Wissenschaftlern und Pressestellen, die ihre eigenen Forschungsmagazine an die Öffentlichkeit bringen, ein ähnliches Abgrenzungsproblem – und zumindest einige seiner Vertreter gehen damit weniger souverän um, als man sich wünschen würde. Ich habe das hier auf diesem Blog mehr als einmal angesprochen, z.B. in Wissenschaftskommunikation jenseits von PR und Journalismus.

Auch bei Pütz findet sich ein Beispiel solcher Abgrenzung:

Wissenschaftler müssen tief bohren, um einen festen Stand zu finden. Gute Wissenschaftler müssen dann nach Möglichkeit selbst in ihr Bohrloch einsteigen, was logischerweise die Weitsicht beinträchtigt. In dieser Situation sind sie auch froh, wenn oben einer von Bohrloch zu Bohrloch wandert, die Ergebnisse aufgreift und begreift und an diverse Adressaten vermittelt, sowie in einem Übersetzungsvorgang auch an das allgemeine Publikum. Diese Aufgabe kann in idealer Weise der Wissenschaftsjournalist erfüllen, der dann auch noch zur Kommunikation der Wissenschaftler untereinander beitragen kann.

Ein anschauliches Bild, eine schöne Analogie, nur leider an entscheidender Stelle falsch. Denn selbstverständlich stellt die Wissenschaft andererseits die Anforderung, einzuordnen und Überblicke zu schaffen. Neben Fachartikeln, in denen konkrete Forschungsergebnisse eingeordnet werden, gibt es als weiteres Standbein der wissenschaftsinternen Kommunikation Review-Artikel, in denen ein Forschungsgebiet zusammenfassend dargestellt wird. Solche Artikel zu schreiben ist etwas grundlegend anderes als das Bohren am eigenen spezialisierten Loch, und diejenigen Kollegen, die solche Review-Artikel schreiben, stecken eine beachtliche Arbeit und investieren meist viel Zeit in das Vorhaben (und dürften anschließend über das Gebiet ungleich besser informiert sein als jeder Wissenschaftsjournalist – und als die meisten anderen ihrer Kollegen). Einen ähnlichen Effekt hat die Vorbereitung von Vorlesungen im Rahmen der universitären Lehre. Auch Vorlesungen sind ein Anlass, sich jenseits der eigenen Forschung mit dem breiteren Forschungsgebiet zu beschäftigen, noch breiter als bei Review-Artikeln – und, wenn man es gut macht, mit beträchtlichem Aufwand, aber immerhin auch einem wesentlichen eigenen Erkenntnisgewinn.

„Einiges von dem, was Wissenschaftsjournalisten können, leisten in der Praxis vermutlich wirklich fast nur Wissenschaftsjournalisten“ ist zugegebenermaßen etwas länger

Macht das den Wissenschaftsjournalismus überflüssig? Natürlich nicht, denn nicht zuletzt hat die breitere Öffentlichkeit weder von Review-Artikeln noch von Vorlesungen einen direkten Mehrwert (auch wenn viele Artikel und eine ganze Reihe von Vorlesungsmitschriften und -folien online verfügbar und damit im Prinzip jedem zugänglich sind). Aber warum reicht das im Falle von Pütz nicht als Begründung? Warum musste es da unbedingt noch mehr sein? Warum musste die Lage unbedingt – und in krasser Verfälschung der tatsächlichen Verhältnisse – zu einem noch grundlegenderen Problem hochgepusht werden, hie die engen Bohrlöcher der Wissenschaftler, dort die Vogel- oder zumindest Erdbodenperspektive der Wissenschaftsjournalisten? Das ärgert mich, und sicher nicht nur mich, und ich glaube, es leistet dem Wissenschaftsjournalismus letztlich einen Bärendienst.

Einiges von dem, was Wissenschaftsjournalisten können, leisten in der Praxis vermutlich wirklich fast nur Wissenschaftsjournalisten: nach aufwändiger Recherche Missstände in einer Forschungsorganisation offenlegen beispielsweise, oder ein kontroverses Forschungsgebiet verständlich und umfangreich in den gesellschaftlichen Kontext einordnen. Ich kann mir keinen Blogger und erst recht keinen PR-Beauftragten vorstellen, der auf der Spur von wissenschaftlichem Fehlverhalten um die halbe Welt reist, alle wesentlichen Beteiligten interviewt und daraus eine fundierte und spannende Reportage macht.

Vieles von dem, was Wissenschaftsjournalisten können, können dagegen auch die anderen Akteure im Bereich der Wissenschaftskommuniktaion. Ironischerweise gilt das gerade für das Alleinstellungsmerkmal, das Pütz so betont. In meinem eigenen Fachgebiet, der Astronomie, habe ich nicht selten den Eindruck, dass ich über Wissenschaftsblogs einen besseren Überblick über die Trends der astronomischen Forschung bekomme als in den Massenmedien. In den Zeitungen und Magazinen und ihren Online-Ablegern finde ich zwar punktuelle Meldungen, oft (pseudo-)aktuell, zur neuesten Exoplaneten-Entdeckung oder zu jüngst veröffentlichten Beobachtungen. Aber zusammenfassende Beiträge, in denen für ein astronomisches Forschungsgebiet die Entwicklungen der letzten Jahre untersucht werden, sind in den Massenmedien selten, und Themen, die als zu wenig publikumswirksam eingeschätzt werden – aktuelles Beispiel mit Bezug zu meinem eigenen Institut wäre die Sternentstehung – werden in den Massenmedien soweit ich sehen kann fast komplett ignoriert. Und das schreibe ich jetzt mangels direkter Erfahrung nur über die Astronomie; in weniger publikumsträchtigen Wissenschaften dürfte die Lage noch deutlich ungünstiger sein.

Eine gute Übersicht sieht anders aus.

In diesem Sinne: einerseits herzlichen Glückwunsch zum Geburtstag, liebe wpk. Anderserseits – aber ich formuliere es mal positiv: ich wünsche weiteres Wachstum, Gelassenheit und einen noch sichereren Blick im Umgang mit anderen und mit der eigenen Rolle.


(*) Offenlegung: Ich bin kein Arzt, aber habe in den vergangenen Jahren soweit ich erinnere 3 (oder waren es sogar 4?) durchaus gut bezahlte Vorträge über Kosmologie und Relativitätstheorie vor Ärzten gehalten, bei denen Honorar und Anreise/Übernachtung von einer Pharmafirma übernommen wurden. Meine Frau ist Ärztin und hat ca. 2003 an einer Fortbildung in München teilgenommen, bei der ihre Fahrt- und Unterbringungskosten von einer Pharmafirma bezahlt wurden; auch bei den anderen Fortbildungen und Kongressen, an denen sie teilnimmt, bekommen die Veranstalter üblicherweise Zuschüsse von Pharmafirmen. In unserem Haushalt sind noch einige Kugelschreiber, Leinenbeutel und Notizblöcke sowie zwei Kuscheltiere (möglicherweise auch vier, da gibt es zwei Elefanten, die wir nicht recht zuordnen können) in Benutzung aus der Zeit, als Pharmafirmen derlei noch kostenlos an Ärzte verschenken durften.

]]>
http://scilogs.spektrum.de/relativ-einfach/bohrloecher-vogelperspektive-wpk/feed/ 2
Ökologische Auswirkungen von Tiefseebergbau http://scilogs.spektrum.de/mente-et-malleo/oekologische-auswirkungen-von-tiefseebergbau/ http://scilogs.spektrum.de/mente-et-malleo/oekologische-auswirkungen-von-tiefseebergbau/#comments Fri, 22 Jul 2016 16:37:07 +0000 Gunnar Ries http://scilogs.spektrum.de/mente-et-malleo/?p=1822 Weiterlesen]]> Das Thema Tiefseebergbau und die ökologischen Folgen hatte ich hier ja im vorletzten Beitrag bereits gestreift. Jetzt hat das GEOMAR in Kiel im Rahmen seiner Kieler-Woche Vortragsreihe Videos der Vorträge ins Netz gestellt. Und darunter auch ein Beitrag von Dr. Matthias Haeckel über die ökologischen Auswirkungen des Tiefseebergbaus. Er geht der Frage nach, ob dort unten überhaupt Lebewesen leben, welche von den Bergbauaktivitäten betroffen werden (ja, selbstverständlich!) und wie die empfindliche Lebewelt der Tiefsee auf so gravierende Störungen reagiert. So hat man bereits vor 26 Jahren in einem Gebiet mit Manganknollen den Abbau simuliert und beobachtet seit dem, wie sich dadurch das dortige Ökosystem verändert hat. Und ob und wie sich das betroffene Ökosystem bis heute wieder regenerieren konnte. (mehr …)

]]>
http://scilogs.spektrum.de/mente-et-malleo/oekologische-auswirkungen-von-tiefseebergbau/feed/ 2
Überall Putschisten und Verschwörer! Warum viele Deutschtürkinnen Erdogan und Putin zujubeln – ebenso wie westliche Rechtspopulisten http://scilogs.spektrum.de/natur-des-glaubens/ueberall-verschwoerer-warum-der-verschwoerungsglaube-in-aengste-und-autoritaere-systeme-fuehrt/ http://scilogs.spektrum.de/natur-des-glaubens/ueberall-verschwoerer-warum-der-verschwoerungsglaube-in-aengste-und-autoritaere-systeme-fuehrt/#comments Wed, 20 Jul 2016 19:02:24 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2974 Weiterlesen]]> Wir schreiben heute den 20. Juli 2016 – den 72. Jahrestag des letzten versuchten Putsches gegen Adolf Hitler. Dieser hatte das Deutsche Reich an den moralischen, wirtschaftlichen und auch militärischen Abgrund geführt und die Attentäter werden heute in Deutschland als Helden verehrt. Genau 72 Jahre später diskutieren wir in Europa und in der Türkei darüber, ob ein Putschversuch überhaupt gerecht sein könne. Und lassen Sie mich dazu gleich klarstellen: Ich lehne Gleichsetzungen von Präsident Erdogan und Adolf Hitler entschieden ab, halte sie für abwegig. Meine Trauer gilt allen Opfern der Gewalt in der Türkei – und auch vergangene Militärputsche haben unfassbar viel Leid über die Republik und ihre Menschen gebracht. Und zur historisch gesicherten – durch die Regierung Obama auch inzwischen eingeräumten – Wahrheit gehört eben auch, dass beispielsweise der westlich unterstützte Putsch gegen Premierminister Mossadegh im Iran 1953 ungewollt die „Islamische Revolution“ dort vorbereitete.

Interessanterweise war es jedoch Recep Tayyip Erdogan selbst, der nach einer Reise nach Saudi-Arabien zum Jahreswechsel nach 2016 sein geplantes Präsidialsystem ausgerechnet mit Verweis auf Adolf Hitler rechtfertigte. Er verwirrte Freund und Feind mit der Aussage: „In einem Einheitssystem (wie in der Türkei) kann ein Präsidialsystem sehr gut bestehen. Es gibt aktuell Beispiele in der Welt und auch Beispiele in der Geschichte. Sie sehen das Beispiel dazu in Hitler-Deutschland.“

Türkische Regierungsstellen wiesen danach eilig darauf hin, hier sei der Präsident falsch verstanden worden! „Mit seinen Bemerkungen habe Erdogan zeigen wollen, dass ein Präsidialsystem auch in einem Einheitsstaat existieren könne und nicht zwangsläufig ein föderales System brauche und dass weder ein präsidiales noch ein parlamentarisches System eine Garantie gegen Machtmissbrauch böten.“

(mehr …)

]]>
http://scilogs.spektrum.de/natur-des-glaubens/ueberall-verschwoerer-warum-der-verschwoerungsglaube-in-aengste-und-autoritaere-systeme-fuehrt/feed/ 39
Umstellung der RSS-Feeds aller Blogs auf SciLogs.de http://scilogs.spektrum.de/fischblog/umstellung-der-rss-feeds/ http://scilogs.spektrum.de/fischblog/umstellung-der-rss-feeds/#respond Wed, 20 Jul 2016 13:11:29 +0000 Lars Fischer http://scilogs.spektrum.de/fischblog/?p=2193 Weiterlesen]]> Liebe Leserinnen und Leser,

wie Sie sicherlich schon gemerkt haben, sind die bisherigen RSS-Feeds der einzelnen SciLogs-Blogs im Zuge der Umstellung auf die neue URL scilogs.spektrum.de unbrauchbar geworden bzw automatisch auf den Gesamtfeed umgestellt worden. Die neuen Feed-URLs sind allesamt nach dem Muster http://scilogs.spektrum.de/[Blogname]/feed/ aufgebaut. Sie finden die neuen Feed auch auf den jeweiligen Blog-Übersichtsseiten in der rechten Randspalte.

Vielen Dank und herzliche Grüße,

Das SciLogs-Team

]]>
http://scilogs.spektrum.de/fischblog/umstellung-der-rss-feeds/feed/ 0
Wie sollen wir auf das Reiseverbot und die politische Überprüfung türkischer WissenschaftlerInnen reagieren? http://scilogs.spektrum.de/engelbart-galaxis/wie-sollen-wir-auf-die-einschraenkungen-der-reisefreiheit-fuer-tuerkische-wissenschaftlerinnen-reagieren/ http://scilogs.spektrum.de/engelbart-galaxis/wie-sollen-wir-auf-die-einschraenkungen-der-reisefreiheit-fuer-tuerkische-wissenschaftlerinnen-reagieren/#comments Wed, 20 Jul 2016 12:43:40 +0000 Henning Lobin http://scilogs.spektrum.de/engelbart-galaxis/?p=338 Weiterlesen]]> Heute ist durch einen Spiegel-Online-Artikel bekannt geworden, dass die türkische Regierung als Folge des Putsch-Versuchs ein Reiseverbot für WissenschaftlerInnen verhängt hat, um die Hochschul- und Institutsleitungen dadurch zu befähigen, Kontakte zur Gülen-Bewegung zu ermitteln (und entsprechende Konsequenzen zu ziehen). Wie sollen deutsche WissenschaftlerInnen und das deutsche Wissenschaftssystem auf ein solche Maßnahme reagieren? In einem Tweet fordere ich, dass DFG, BMBF und DAAD Förderprogramme, in denen deutsch-türkische Kooperationen vorgesehen sind, ausgesetzt werden sollten:

Sofort entspann sich in Twitter eine – jeweils auf 140 Zeichen reduzierte – Diskussion, ob das die richtige Maßnahme sei. Ich meine, ja: Es geht nicht darum, sämtliche Gehaltszahlungen, etwa für die Deutsch-Türkische Universität oder für DAAD-Lektoren, sofort einzustellen. Das Aussetzen von Förderprogrammen macht vielmehr deutlich, dass ohne Reisefreiheit und vor dem Hintergrund von Säuberungen in der Wissenschaft keine institutionelle Zusammenarbeit geschehen kann. Natürlich ist es außerordentlich wichtig, auch zu autokratisch regierten Ländern den Kontakt aufrecht zu erhalten, wie es ja beispielsweise im Falle der Volksrepublik China geschieht. Trotzdem bin ich der Meinung, dass ein deutliches Signal notwendig ist, wenn diese Maßnahme der türkischen Regierung tatsächlich der erste Schritt dafür sein sollte, auch an der Hochschulen und Forschungseinrichtungen eine so umfangreiche politsche Säuberungsaktion durchzuführen, wie sie bereits in der Verwaltung und in den Medien läuft. Zwar habe ich nicht recherchiert, welche binationalen Programme gegenwärtig von DFG, BMBF und DAAD mit der Türkei durchgeführt werden, aber normalerweise haben derartige Programme für die Partnerländer eine erhebliche Bedeutung. Wenn eine so drastische Maßnahme wie die Einschränkung der Reisefreiheit und die politische Überprüfung von WissenschaftlerInnen in einem bislang demokratischen Land angeordnet wird, dann sollten uns das in einem Land, in dem es diese und andere Freiheiten bislang und hoffentlich auch weiterhin gibt, nicht gleichgültig sein.

]]>
http://scilogs.spektrum.de/engelbart-galaxis/wie-sollen-wir-auf-die-einschraenkungen-der-reisefreiheit-fuer-tuerkische-wissenschaftlerinnen-reagieren/feed/ 8
„Es kostet etwas, mir eine Mail zu schicken!“ http://scilogs.spektrum.de/wild-dueck-blog/es-kostet-etwas-mir-eine-mail-zu-schicken/ http://scilogs.spektrum.de/wild-dueck-blog/es-kostet-etwas-mir-eine-mail-zu-schicken/#comments Wed, 20 Jul 2016 08:22:10 +0000 Gunter Dueck http://scilogs.spektrum.de/wild-dueck-blog/?p=721 Weiterlesen]]> Da ich auf vielen Veranstaltungen erscheine, werde ich regelmäßig in immer neue Newsletterverteiler aufgenommen. Ich hasse es! Ich melde mich also geduldig ab. „Wollen Sie sich wirklich abmelden?“ – „Bist du sicher, dass du das tun willst?“ – „Bestätigen Sie Ihre Löschung – dazu nehmen wir Ihre Daten nochmals genau auf, Ihre Abmeldung ist aber ganz kostenlos, wenn Sie einen triftigen Grund beibringen.“ – „Bewerten Sie diesen Newsletter – wählen Sie Note ‚ausgezeichnet‘, wenn Sie mit der Aussendefrequenz zufrieden sind. Kreuzen Sie bitte ‚mangelhaft‘ an, wenn wir Ihnen mehr schicken sollen.“

Das hört sich wie eine Satire an, aber bei der gerade laufenden Sparkassenbefragung soll ich als ersten Punkt den Grad der … Selbstorientierung (?) beurteilen – ich zitiere wörtlich:

Die Eigeninitiative, d.h. inwieweit die Mitarbeiter(innen) von sich aus mit Angeboten auf Sie zukommen

Ich will sagen: Viele versuchen, unsere Aufmerksamkeit in Beschlag zu nehmen und für ihre Zwecke zu nutzen. Es ist üblich geworden, für das Newsletter-Ertragen Extra-Belohnungen anzubieten, also ein paar Payback-Punkte oder einen Hundert-Euro-Gutschein beim Kauf eines sofort verfügbaren Halden-Luxusautos zum Listenpreis. Sie locken uns mit allen Mitteln!

Ich finde, wir sollten das selbst in die Hand nehmen. Nix mehr mit Hervorlocken! Wir schrecken sie einfach ab. Ich möchte … „Hallo Google?“ Ach, geht so nicht. Noch ein Versuch. „Ok Google? Ich möchte in meiner Mailbox einstellen können, dass Mails an mich bezahlt werden müssen.“ – „Google?“ Noch nichts.

Wie wäre das? Wir könnten zum Beispiel beschließen, dass jeder mit jeder verschickten Mail einen Cent Gebühr mitschickt. Wenn ich dann zehn Mails am Tag verschicke, kostet es mich zehn Cent. Für die hereinkommenden Mails bekomme ich viel mehr Cents, weil ich ja mit Werbung zugedröhnt werde. Die großen Newsletterversender sind in einem solchen Modell mit hohen Kosten konfrontiert und überlegen sich jetzt wohl das ganz hemmungslose Versenden. Die Spam-Versender, die uns täglich betrügen wollen oder infizierte Anhänge schicken, müssen jetzt Geld mitschicken – das Spam-Gewerbe kann aufgeben.

Ich denke, es sollte technisch möglich sein, bei den Versender-Adressen jeweils individuell festzulegen, wie viel Geld sie mir zahlen sollen. Freunde und normalen Mailverkehr stelle ich kostenfrei, die Newsletter schraube ich gebührlich bis ungebührlich hoch. Ich könnte ja bestimmte Mails (von meinen Kindern) auch „liken“, dann bekommen sie von mir einen Cent zurück, Enkel mehr.

Dazu brauchen wir auch eine Enterprise-Edition: In allen Unternehmen wird ja geklagt, dass viele Leute immer die ganze Firma auf Kopie setzen oder bei ihren Mails grundsätzlich die Option „Antwort an alle“ wählen. Solche Spammer würden dann hohe Gebühren auf ihrer Kostenstelle ansammeln und folglich ein ernstes Gespräch mit ihrem Vorgesetzten einfangen. Es wird geklagt, dass Vorgesetzte ihren Mitarbeitern am Wochenende oder am Abend Mails schicken. Das könnten man sehr hoch auf der Preisliste ansetzen… Vor den Unternehmensnewslettern würde sich die Kommunikationsabteilung nun wirklich einmal überlegen, was sie schreibt! Ach, es hat nur Vorteile!

Tolle Idee von mir, oder? Ich muss noch einmal kurz über den Missbrauch nachdenken. Stellen Sie sich vor, ein Schummel-Software-Ingenieur in einer Automobilfirma möchte eine Mail an den CEO schreiben: „Wir schummeln und schaufeln uns damit gerade ein Massengrab.“ Na, es könnte im neuen Modell gut sein, dass er diese Mail nicht schickt, weil er sonst seinen Mail-Cent-Etat überzieht. Das wäre dann eine Erklärung, warum die da oben nie wirklich wissen, was in der Firma abgeht.

Es könnte nun auch Trickbetrüger geben, die eine Mail dieser Art versenden: „Ich habe Geburtstag und würde mich über Gratulationen sehr freuen, aber ich glaube, mich mag niemand. Deshalb verrate ich niemandem, dass ich Geburtstag habe. Ich bin so traurig, und das schreibe ich nur dir allein, damit nur du weißt, dass ich weine.“ Dann kommen viele Mails zurück und ein Riesenprofit! Der Trick ist, nur einer Person zu mailen! Bitte nicht allen, weil sich ja dann die gegenseitigen Kosten aufheben!

Mist, ich habe jetzt dann doch Nachteile gefunden. Da kommen die zwanghaften Deutschen sofort wieder mit „das ist nicht sicher“ und sie lassen mich Vorträge halten – mit dem Titel „Mailgebühr – Fluch oder Segen?“ oder „Mailgebühr – Chance oder Risiko?“ Sie mäkeln und wehren ab. Ich verzweifle. Noch ein letzter Vortrag: „Müllgebühr – Vertrauen oder Missbrauch?“ Ich erwähne, dass hier im Kreis einige Tausend Haushalte niemals (!!) die Restmülltonne raustellen, immer nur die anderen beiden Tonnen, die beide kostenlos geleert werden. Sie zucken mit den Achseln. Aber bei meiner Mailregelung wollen sie ganz sicher sein, dass sie nicht missbraucht werden kann. Hilft mir denn keiner?

]]>
http://scilogs.spektrum.de/wild-dueck-blog/es-kostet-etwas-mir-eine-mail-zu-schicken/feed/ 8
Geologischer Rundgang um den Feldsee http://scilogs.spektrum.de/mente-et-malleo/geologischer-rundgang-um-den-feldberg-und-feldsee/ http://scilogs.spektrum.de/mente-et-malleo/geologischer-rundgang-um-den-feldberg-und-feldsee/#comments Tue, 19 Jul 2016 20:44:14 +0000 Gunnar Ries http://scilogs.spektrum.de/mente-et-malleo/?p=1819 Weiterlesen]]> Der Feldberg ist mit seinen knapp 1500 Metern Höhe der höchste Berg Deutschlands außerhalb der Alpen. Eigentlich besteht er aus zwei Gipfeln, die nur durch einen schmalen Sattel voneinander getrennt sind. Der südöstliche von beiden, Seebuck genannt, ist mit 1448,2 m nur wenig niedriger als der eigentliche Feldberggipfel (1493m).
Unterhalb des Seebucks liegt der Feldsee, ein Karsee, der auf drei Seiten von rund 300 m hohen Felswänden eingerahmt wird.

Der See selber ist fast kreisrund und hat einen Durchmesser von ca 350 m und eine Tiefe von 32 m. Entstanden ist der See während der letzten Eiszeit. Durch die Höhenlage von über 1000 m sowie durch die nach Nordosten geöffnete Form konnten sich große Mengen an Schnee ansammeln. Der sich daraus bildende Gletscher formte die lehnstuhlartige Form des Berges. Die Moränenwälle stauten schließlich den eigentlichen See auf. (mehr …)

]]>
http://scilogs.spektrum.de/mente-et-malleo/geologischer-rundgang-um-den-feldberg-und-feldsee/feed/ 5
Demokratur http://scilogs.spektrum.de/con-text/demokratur/ http://scilogs.spektrum.de/con-text/demokratur/#comments Mon, 18 Jul 2016 06:45:00 +0000 Dierk Haasis http://scilogs.spektrum.de/con-text/?p=639 Weiterlesen]]> Stimmt, der Titel ist nicht besonders einfallsreich. Er ist unoriginell, wenig kreativ, schon bald ein Klischee. Das muss nichts Schlechtes sein, helfen uns Klischees doch, Information schnell rüber zu bringen. Problematisch wird es erst, wenn sie keine Bedeutung mehr haben, nur mehr hohle Phrase sind. Doch davon ist ‘Demokratur’ im Moment weit entfernt. Die Menschen dieser Welt üben sich im Moment fast fröhlich darin, moderne Demokratie in die Tonne zu treten, durch irgendeine Form von Tyrannei zu ersetzen.

(mehr …)

]]>
http://scilogs.spektrum.de/con-text/demokratur/feed/ 17
Vom Mohn in die Hefe – Bioengineering von Antikrebs-Substanzen http://scilogs.spektrum.de/von-menschen-und-maeusen/vom-mohn-in-die-hefe-bioengineering-von-antikrebs-substanzen/ http://scilogs.spektrum.de/von-menschen-und-maeusen/vom-mohn-in-die-hefe-bioengineering-von-antikrebs-substanzen/#comments Fri, 15 Jul 2016 09:30:30 +0000 Claudia Davenport http://scilogs.spektrum.de/von-menschen-und-maeusen/?p=266 Weiterlesen]]> Pflanzen bergen einen wahren Schatz an potentiell therapeutisch relevanten Substanzen. Das Problem dabei ist, dass diese von den Pflanzen meist nur in geringen Mengen produziert werden. Jetzt könnte man natürlich probieren die Pflanzen derart zu manipulieren, dass sie besagte Substanzen in größeren Mengen bilden. Das ist allerdings sehr aufwendig und durch die vergleichsweise lange Generationszeit der meisten Pflanzen auch mühselig. Außerdem wäre das ja dann grüne Gentechnik und wie wir alle wissen ist das ja Teufelszeug. Dann doch lieber rote Gentechnik in Mikroorganismen, die wachsen schneller und die Akzeptanz von mikrobiell hergestellten Substanzen ist offensichtlich auch deutlich höher, wenn man sich die breite Verwendung von Hefeextrakt betrachtet. Marmite lässt grüßen. In der Publikation aus Nature Communications, die ich heute vorstelle, sollte die Produktion des potentiellen Krebsmedikaments Noscapine, das im Schlafmohn gebildet wird, in Hefen verlagert werden. Quasi biologisches Outsourcen. Entdeckt wurde Noscapine 1817 von Pierre-Jean Robiquet und es konnte einige Jahre später gezeigt werden, dass Noscapine, im Gegensatz zu anderen Opiaten, weder schmerzlindernd noch Sucht auslösend wirkt. Spätestens seit 1998 ist das Antikrebs-Potential von Noscapine bekannt. Durch seine Bindung an Tubuline, können diese nicht polymerisieren, die für die DNA-Vervielfältigung benötigten Spindelfasern können sich somit nicht ausbilden und die Zelle dann nicht mehr teilen, wodurch sie schließlich stirbt. In den 1960ern konnte gezeigt werden, dass Noscapine aus Scoulerine gebildet wird, allerdings war nichts über die zugrunde liegende Biochemie und die beteiligten Gene bekannt.

Biosynthese von Noscapine (1) aus Norlaudanosaline (12). Der grüne Pfeil zeigt den im Schlafmohn vermuteten Syntheseweg, blau den Syntheseweg aus in vitro Charakterisierung und gelb den im Artikel Rekonstruierten Syntheseweg in Hefen.

Credit: Nature Communications: 2016 Li & Smolke, doi:10.1038/ncomms12137 CC BY 4.0 Biosynthese von Noscapine (1) aus Norlaudanosaline (12). Der grüne Pfeil zeigt den im Schlafmohn vermuteten Syntheseweg, blau den Syntheseweg aus in vitro Charakterisierung und gelb den im Artikel Rekonstruierten Syntheseweg in Hefen.

Die Bildung von strukturell komplexen organischen Molekülen, siehe dazu die erste Abbildung unten (Organik = Moleküle auf Kohlenstoff-Basis),  ist allerdings gar nicht so einfach, wie es zunächst klingt. Will man ein Protein in Hefen oder Bakterien exprimieren lassen, ist das meistens kein Problem. Gen auf Plasmid, rein damit in die Bakterie, fertig. Jetzt sind die meisten Therapeutika aber gar keine Proteine, sondern eben strukturell komplexe organische Moleküle. Wenn man Glück hat, sind schlaue Chemiker in der Lage eine Synthesestrategie ex vivo für das gewünschte Endprodukt zu entwickeln. Wenn man aber nur ein Labor voller Biochemiker zur Verfügung hat, dann muss man sich was anderes überlegen. Am Aufbau der genannten Substanz in Pflanzen sind viele verschiedene Enzyme beteiligt, die jeweils Zwischenprodukte bilden. 2012 konnte ein Gencluster, bestehend aus vier Cytochrom P450 Monooxygenasen, drei Methlytransferasen und jeweils einer Carboxylesterase, Dehydrogenase und Acetyltransferase, als maßgeblich an der Umwandlung von Scoulerine in Noscapine identifiziert werden. So konnte die Biosynthese, die zur Bildung von Noscapine führt, überarbeitet werden, übrigens einer der komplexesten beschriebenen Synthesewege. Die Forscher aus Stanford, des vorgestellten Papers, wollten einen alternativen Syntheseweg erarbeiten, durch den neben Noscapine auch dessen Zwischenprodukte in Hefen hergestellt werden können. Eine Schwierigkeit dabei ist es den natürlichen Syntheseweg, der in Pflanzen in verschiedenen Zelltypen stattfindet in die Hefen zu übertragen.

Testung verschiedener Temperaturen, Promoter und N-Termini zur Optimierung des Enzyms CYP82Y1 des Noscapine-Synthesewegs

Credit: Credit: Nature Communications: 2016 Li & Smolke, cropped, doi:10.1038/ncomms12137 CC BY 4.0 Testung verschiedener Temperaturen, Promoter und N-Termini zur Optimierung des Enzyms CYP82Y1 des Noscapine-Synthesewegs

Als Ausgangssubstanz wurde Canadine (obere Abbildung, Produkt 2) verwendet, da dessen Biosynthese aus einem Vorläuferprodukt in Hefen kürzlich rekonstruiert werden konnte. Nach und nach wurden die relevanten Gene, die für die Bildung von Noscapine benötigt werden dann in die Hefen eingebracht, entweder über Plasmide, YACs (Artifizielle Hefe-Chromosomen, quasi große Plasmide) oder durch Integration ins Genom der Hefen. Diese Hefen wurden dann mit Canadine gefüttert, d.h. Canadine wird dem Nährmedium zugefügt, und 72 Stunden später wurden die gebildeten Metaboliten analysiert. Dabei wurden die einzelnen Enzyme, die für die verschiedenen Zwischenprodukte benötigt wurden jeweils einzeln optimiert. Zunächst stand dabei das Zwischenprodukt 4 (obere Abbildung, (S)-1-Hydroxy-N-methylcanadine) im Fokus, für das drei verschiedene Enzyme benötigt wurden. Die Syntheserate war allerdings mit 20% ziemlich gering, was insofern problematisch ist, da ja noch viele weitere Schritte folgen, die jeweils auch wieder keine 100%ige Umsatzrate haben. Um das Schlüsselenzym dieses Schritts zu optimieren, wurden unterschiedliche Temperaturen in Kombination mit verschiedenen Promotern (das sind DNA-Sequenzen, die jeweils vor der Sequenz eines Gens liegen und Bindungsstellen liefern für andere Proteine liefern, die dann dafür sorgen, dass das Gen abgelesen werden kann) und verschiedenen N-Termini (dabei werden innerhalb des zu optimierenden Enzyms die Endstücke, der N-Terminus, mit denen anderer bekannter Enzyme mit ähnlicher Funktion ausgetauscht). Wie stark das die Umsetzungsrate beeinflussen kann, seht ihr in der nächsten Abbildung. Und eben das wurde auch für die weiteren Schritte des Synthesewegs getan. Schließlich konnte so die Biosynthese von Noscapine aus Canadine mehr als siebenfach erhöht werden, so dass am Ende eine Gesamtumsetzungsrate von ~6% erreicht wird. Alternativ sind so auch die Zwischenprodukte zugänglich, indem man einfach nur einen Teil der beteiligten Enzyme in die Hefen einbringt. Besonders  schwierig ist bei dem beschriebenen Syntheseweg die Anwesenheit von insgesamt mehreren Cytochrom P450s in den Hefen, da hier beobachtet wurde, dass die Umsetzungsrate von jedem P450 auf das nächste sukzessive abnimmt. In weiteren Arbeiten wird sich also auch darauf konzentriert werden müssen, die Hefen selbst derart zu optimieren, dass mehrere P450s ein geringeres Problem darstellen.

Die verwendete Ausgangssubstanz Canadine wird selbst durch Hefen gebildet, was diese sehr teuer macht. Besser wäre es, wenn es möglich wäre Noscapine aus einem einfach zugänglichen und günstigen Vorläuferprodukt zu synthetisieren. Im Idealfall wäre das Tyrosin, die Aminosäure aus der Noscapine im Schlafmohn natürlicherweise gebildet wird. Dazu könnten z.B.  die beiden synthetisierten Hefestämme (also der Canadine- und der Noscapine-produzierende Hefestamm) zusammen geführt werden. Man könnte allerdings auch die beiden Stämme gemeinsam kultivieren. Da die gebildeten Zwischenprodukte ins Nährmedium außerhalb der Hefen abgegeben werden, könnten diese sich gegenseitig mit Substraten versorgen. Es ist auf jeden Fall noch einiges zu tun, aber so ist das ja immer. Ein Problem gelöst, viele neue Fragen aufgeworfen.

]]>
http://scilogs.spektrum.de/von-menschen-und-maeusen/vom-mohn-in-die-hefe-bioengineering-von-antikrebs-substanzen/feed/ 2
Trauer um die Opfer in Nizza – Was jede(r) gegen Krieg und Terror tun kann http://scilogs.spektrum.de/natur-des-glaubens/trauer-um-die-opfer-in-nizza-was-jeder-gegen-krieg-und-terror-tun-kann/ http://scilogs.spektrum.de/natur-des-glaubens/trauer-um-die-opfer-in-nizza-was-jeder-gegen-krieg-und-terror-tun-kann/#comments Fri, 15 Jul 2016 05:51:26 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2967 Weiterlesen]]> Gerade eben erfahre ich von meinen Kindern, dass es einen weiteren, furchtbaren Anschlag in Nizza gegeben hat. Brutale Gewalt am Nationalfeiertag unseres Nachbarlandes Frankreich, darauf ausgerichtet, Angst und Schrecken zu verbreiten und weitere Eskalationen auszulösen. Mich bedrückt die Trauer um die Opfer von Nizza, wie zuvor auch um die Opfer in Istanbul und Bagdad. Der terroristische Wahnsinn hört nicht auf und wird uns womöglich noch jahrelang begleiten. Allen Angehörigen und Freunden der Opfer gilt mein tief empfundenes Beileid. :-/

Und gerade erst Mittwoch hatte ich in Filderstadt auf Einladung von integra e.V. über das Thema gesprochen und auf Basis der Irak-Erfahrungen & wissenschaftlichen Reflektionen der letzten Jahre auf die Frage geantwortet, ob und was jede(r) von uns gegen die Kriege und den Terror ausrichten kann…

VortragMichaelBlumeFilderstadtVortrag und Diskussion zu Krieg und Terror am 13.7.2016 in Filderstadt. Foto: Zehra Blume

1. Ölverbrauch reduzieren.
Mit jedem Liter Öl finanzieren wir autoritäre Rentierssysteme wie Saudi-Arabien, Syrien, Russland, Venezuela, Nigeria, aber indirekt auch Daesh (den sog. „Islamischen Staat“) und lybische Milizen, jeweils samt Waffenhandel. Wo immer einige Gruppen die Ölquellen kontrollieren, entstehen schnell autoritäre, korrupte und gewaltbereite Systeme – der „Fluch des Öls“ vergiftet Politik, Wirtschaft, Gesellschaft und auch Religion(en). Deswegen ist die Energiewende weg von den fossilen Rohstoffen die beste Demokratie- und Friedensförderung!

2. Gegen Verschwörungsglauben ankämpfen.
Alle – ja, ausnahmslos alle! – extremistischen Gruppen dieser Welt glauben, sich gegen weltweite Superverschwörungen zu „verteidigen“. Das gilt für religiöse Fundamentalisten ganz ebenso wie für Rechts- und Linksextreme. Wer z.B. an die gefälschten „Protokolle der Weisen von Zion“ glaubt, ist – ob Muslim oder AfD-Mitglied – nicht in der Lage, am demokratischen Dialog teilzunehmen. Leider erfährt der Verschwörungsglauben durch die neuen Medien derzeit einen enormen Aufschwung, auch Daesh arbeitet nicht zufällig massiv über das Internet. Auch hier kann jede(r) von uns helfen, die immergleichen, verhängnisvollen Verschwörungsmythen gegen „die Juden“, „die Muslime“, „die Amerikaner“, „die Illuminaten“ usw. zu entkräften, die Menschen in Weltsichten voller Angst, Verzweiflung und schließlich oft Gewalt treiben.

Eine Welt ohne Kriege und Terror bleibt ein Fernziel. Aber wir alle können Schritte auf dieses Ziel hin leisten und der Gewalt den materiellen und ideologischen Boden entziehen. Dafür werde ich immer und immer wieder eintreten, auch im Gedenken an die Opfer von Nizza…

JesuisTerrorTrauerNach jedem Anschlag stellt sich die Frage, wie betroffen wir uns fühlen. Stumpfen wir ab oder entdecken wir, dass wir alle Bewohner eines kleinen Planeten sind?
Grafik: Michael Blume

]]>
http://scilogs.spektrum.de/natur-des-glaubens/trauer-um-die-opfer-in-nizza-was-jeder-gegen-krieg-und-terror-tun-kann/feed/ 21
Der Vortrag zu den Protokollen der Weisen von Zion – Die schlimmste und die schönste Reaktion http://scilogs.spektrum.de/natur-des-glaubens/der-vortrag-zu-den-protokollen-der-weisen-von-zion-die-schlimmste-und-die-schoenste-reaktion/ http://scilogs.spektrum.de/natur-des-glaubens/der-vortrag-zu-den-protokollen-der-weisen-von-zion-die-schlimmste-und-die-schoenste-reaktion/#comments Thu, 14 Jul 2016 15:18:53 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2961 Weiterlesen]]> Wie zu erwarten war, gab es auf meinen Vortrag zu den verhängnisvollen „Protokollen der Weisen von Zion“ viele, überwiegend auch sehr positive Rückmeldungen. Sehr viele Menschen konnten nicht glauben, dass auch am Beginn des 21. Jahrhunderts noch Europäer auf eine so plumpe und üble Fälschung hereinfallen würden. Viele andere hatten das Thema als „historisch“ abgehakt und waren dankbar, überhaupt einmal einen Einblick in dieses antijüdische Machwerk bekommen zu haben.

Aber natürlich gab es auch schlimme – eigentlich eher: traurige – Rückmeldungen von Leuten, die trotz aller historischen Belege für ein Plagiat aus Werken des 19. Jahrhunderts und auch trotz aller offensichtlichen Widersprüche des Textes selbst an die Echtheit der Protokolle glauben „wollen“.

(mehr …)

]]>
http://scilogs.spektrum.de/natur-des-glaubens/der-vortrag-zu-den-protokollen-der-weisen-von-zion-die-schlimmste-und-die-schoenste-reaktion/feed/ 17
Kopf hoch: Deutsche vertrauen der Wissenschaft http://scilogs.spektrum.de/detritus/kopf-hoch-deutsche-vertrauen-wissenschaftlern/ http://scilogs.spektrum.de/detritus/kopf-hoch-deutsche-vertrauen-wissenschaftlern/#comments Tue, 12 Jul 2016 20:09:18 +0000 Martin Ballaschk http://scilogs.spektrum.de/detritus/?p=1290 Weiterlesen]]> Die Ergebnisse der Umfrage „Wissenschaftsbarometer 2016“ sind kürzlich erschienen. Sie zeigen ermutigende Trends, denn das ohnehin starke Vertrauen der Menschen in die Wissenschaft scheint zu wachsen. Nicht alle teilen diese optimistische Sicht auf die Dinge.

Johanna Wanka und das Bundesministerium für Bildung und Forschung (BMBF) freuen sich über die Ergebnisse einer Umfrage zur öffentlichen Meinung gegenüber der Wissenschaft, die die Organisation Wissenschaft im Dialog (WiD) nun vorlegte. Der Wissenschaftsjournalist Hanno Charisius sieht allerdings keinen Grund zur Freude. Ein „Alarmsignal für die aufgeklärte Gesellschaft“ sieht Hanno da, denn in bestimmten Themenbereichen gaben die Befragten an, wissenschaftlichen Aussagen zu misstrauen:

„Das Vertrauen in die Wissenschaft sinkt laut WiD-Erhebung nämlich rapide, wenn man genauer nachfragt: 53 Prozent der Menschen trauen noch den Aussagen von Wissenschaftlern zu erneuerbaren Energien. Das Vertrauen sinkt auf 46 Prozent, wenn es um die Entstehung des Universums geht, und auf 40 Prozent beim Klimawandel. Und nur 17 Prozent glauben den Forschern, wenn es um Grüne Gentechnik geht, also um gentechnisch veränderte Pflanzen.“

Diese Einschätzung teile ich nur begrenzt, bzw. sehe das nicht als „Alarmsignal“. Laut der Rohdaten der Umfrage (die übrigens im ungemein praktischen „Tabellen verteilt auf mehreren Seiten von PDFs“-Format abgelegt sind) werden auch nur diese vier Themen abgefragt, und zwar genau so: „Wie sehr vertrauen Sie den Aussagen von Wissenschaftlern zu folgenden Themen? Erneuerbare Energien, Entstehung des Universums, Klimawandel, Grüne Gentechnik.“ Klimawandel, Energiewende und Agro-Gentechnik sind unmittelbar gesellschaftsrelevant, aber politisierte und damit polarisierte Themen. Es ist bekannt, dass bei der Beantwortung solcher Fragen die persönlichen Überzeugungen der Befragten ein große Rolle spielen.

Nicht nur die Vernunft entscheidet über unsere Meinung zur Gentechnik. CC-BY: Javier Pincemin

Nicht nur die Vernunft entscheidet über unsere Meinung zu emotional und politisch besetzten Themen wie der Gentechnik. CC-BY-SA 2.0: Javier Pincemin

Der Konflikt zwischen Weltbild und Wissenschaft

Die Ergebnisse einer ähnlichen Befragung in den USA sorgten in den USA im letzten Jahr für großen Furor. Die befragten US-Bürger misstrauten den Wissenschaftlern vor allem bei der Evolutionstheorie und dem Klimawandel. Hier prallen das persönliche, kulturelle, soziale oder reilgiöse Weltbild auf die harten Fakten der Wissenschaft. Im Zweifel entscheiden sich die Leute für ihre eigenen Überzeugungen, erklärte damals Sozialpsychologe Prof. Dan Kahan von der Yale University.

„Kahan sagt, dass die Bevölkerung der Wissenschaft vertraut. Sie tendiert aber dazu, Informationen sehr stark zu selektieren, und zwar so, dass sie ihre eigenen Überzeugungen unterstützt,“ fasste Nature seinen Kommentar zusammen. Kahan forscht seit vielen Jahren an dem Spannungsfeld „Kulturelle Kognition“ zwischen Glauben und Fakten.

Antworten nach dem Bauchgefühl

Gerade die Ablehnung  der gentechnischen Forschung überrascht mich aus diesem Grund überhaupt nicht, denn wie die EU-weiten Eurobarometer-Umfragen zeigen, misstraut die Mehrheit der Europäer und der Deutschen der Technologie. Das Thema der Gentechnik in der Landwirtschaft wird regelmäßig von Organisationen und Politikern instrumentalisiert und vereinnahmt. Umgekehrt gibt es großes Vertrauen in die Erforschung erneuerbarer Energien, ein Thema mit großem gesellschaftlichem Rückhalt. Wie viel die Befragten wirklich über die Themen wussten, um sie wirklich einordnen zu können, wurde nicht abgefragt. Wie viel ist die Frage nach dem Vertrauen dann überhaupt noch wert?

Neutralere, weniger vorbelastete, aber immer noch gesellschaftsrelevante Themen, würden wohl irgendwo zwischen den Werten für die Erneuerbaren Energien und die Grüne Gentechnik liegen: Wie sehr vertrauen die Befragten den Wissenschaftlern, wenn es um neue Krebstherapien, die Ernährungsforschung oder neue Werkstoffe geht?

Kopf hoch!

08_Wissenschaftsbarometer2016_Einfluss

Ganz ehrlich: Ich finde die Ergebnisse direkt ermutigend. Dass es eine gewisse Wissenschaftsverdrossenheit in unserer gar nicht so aufgeklärten Gesellschaft gibt, davon bin ich eigentlich immer ausgegangen. Wissenschaftliche Ergebnisse müssen sich politischen Agenden ja häufig unterordnen und der Rückgang des Vertrauens in die Wissenschaft wird zumindest immer wieder behauptet. Soweit hätte ich ein „Alarmsignal“ schon fast erwartet.

Ganz so schlecht kann es um das Vertrauen in die Wissenschaft aber nicht stehen, denn die meisten Befragten fanden, dass die Wissenschaft zu wenig Einfluss auf die Politik hat. Wissenschaft scheint also immerhin mehr Vertrauen als „die Politik“ zu genießen.

Im zeitlichen Trend wächst außerdem das Interesse an wissenschaftlichen Themen, „ein gutes Zeichen“ findet auch Hanno Charisius.

Also, es ist nicht alles schlecht, eher im Gegenteil. Mein Fazit: Kopf hoch und weiter an einer verbesserten Wissenschaftskommunikation arbeiten!

]]>
http://scilogs.spektrum.de/detritus/kopf-hoch-deutsche-vertrauen-wissenschaftlern/feed/ 11
Anthropozän: Die Wissenschaft im Dialog mit Politik und Gesellschaft? – Ein Zwischenbericht http://scilogs.spektrum.de/der-anthropozaeniker/anthropozaen-dialog/ http://scilogs.spektrum.de/der-anthropozaeniker/anthropozaen-dialog/#comments Mon, 11 Jul 2016 17:59:07 +0000 Reinhold Leinfelder http://scilogs.spektrum.de/der-anthropozaeniker/?p=339 Weiterlesen]]> Einleitung: der Anthropozän-Diskurs

Wer hätte gedacht, dass das Anthropozän-Konzept derart rasch Fahrt aufnehmen würde: Nicht nur der Anthropozäniker auf Scilogs, sondern – wie auch an dieser Stelle immer wieder berichtet – Kulturprojekte, Ausstellungen, Bücher, ja sogar Comics thematisieren die „Menschenzeit“ [1]. Auch die Wissenschaften stürzen sich darauf: Geistes-, Kultur-, Sozial-, Ingenieurs- und Naturwissenschaftler scheinen gleichermaßen interessiert, Philosophen, Ethiker, Historiker und Juristen diskutieren plötzlich mit Geologen; manche sprechen sogar von einer weiteren kopernikanischen Wende – eine völlig veränderte Sicht auf die Welt, in der Natur, Technik, Kultur und Gesellschaft zu einem einzigen System vereint sind [2]. Auch außerhalb der Wissenschaftswelt berufen sich viele auf das Anthropozän: Umweltaktivisten, Politiker, Kreative und sogar Firmen zählen sich teilweise ebenfalls zum Club der Anthropozän-Fans [3].

Kursorische Zusammenstellung der Vorbehalte und Zustimmung zum Anthropozän-Konzept in den jeweiligen Wissenschaftsdisziplinen, basierend auf eigenen Erfahrungen

Abb. 1: Kursorische Zusammenstellung der Vorbehalte und Zustimmung zum Anthropozän-Konzept in den jeweiligen Wissenschaftsdisziplinen, basierend auf eigenen Erfahrungen

Gleichzeitig gibt es aber auch Gegenwind. Mancher Umweltverband erkennt darin nur neue Schläuche für alten Wein, während andere den Naturschutz damit ausgehebelt sehen – Geologie statt Ökologie? Manche Theologen, Ethiker, Philosophen, Kultur- und Sozialwissenschaftler sind ausgesprochene Befürworter des Anthropozän-Konzepts, während andere aus denselben Fächern es für komplett unnütz erklären (siehe auch meinen früheren Blogbeitrag hier). Etlichen  ist das Konzept zu politisch, anderen wieder zu unpolitisch und wieder andere halten es gar für einen neuen Zweig der Pop-Kultur (Hamilton 2016) (Abb. 1). Es steht auch das ambivalente Urteil im Raum, der Anthropozän-Ansatz sei „absolut positivistisch und zukunftsbejahend. Aus der Technikverliebtheit der Vergangenheit wird eine Forschungsverliebtheit, die einen radikalen Fortschrittsgedanken in sich trägt.“ [4] Im aktuellen online-Dossier von Spektrum der Wissenschaften wird ein Artikel von des Journalisten und Geographen Gabor Páal nochmals aufgeführt mit dem Titel „Das Anthropozän muss wissenschaftlich bleiben“. Er befürchtet, dass  „Die Idee vom Anthropozän … dabei [ist], zum vulgärwissenschaftlichen Topos zu werden wie einst die heisenbergsche Unschärferelation … oder der so genannte Schmetterlingseffekt …“ , wenn sich Geistes- und Sozialwissenschaftlers ebenfalls des Begriffs bemächtigen. Er sieht damit das Anthropozän-Konzept offensichtlich fest in den Geowissenschaften verankert. Alles an Überbau, ethischer Relevanz der Befunde und möglichen Lösungsansätzen sieht er damit offensichtlich nicht mehr als Teil des Anthropozänkonzeptes. All dies sei eher die Sache der Geoethik, zu der bereits zwei (konkurrierende?) Fachgesellschaften bestehen. Das Beispiel zeigt gut, dass es vor allem der systemische Anspruch des Anthropozän-Ansatzes ist, der einerseits bei vielen Wissenschaftlern eine immense integrative Kraft zu inter- und transdisziplinärem Arbeiten entfaltet, der aber auch andererseits Befürchtungen bei anderen Wissenschaftlern verursacht, das Anthropozän könne einem etwas vom eigenen „wegnehmen“. Dies gilt sowohl in innerhalb der Geowissenschaften – dort gibt es selbstverständlich ebenfalls Vorbehalte (nach dem Motto: „wir haben doch schon Quartärgeologie und Geographie“, was allerdings das Wesen des Anthropozän-Konzepts komplett verkennt [5], aber auch in anderen Communities, bei denen diffuse Ängste unterstellt werden können, die Geowissenschaften würden sich über die Schiene des Anthropozän-Konzeptes der Philosphie, der Humanökologie oder eben auch der Humanethik bemächtigen. Richtig bösartig und fast schon verschwörungstheoretisch wird es bei durchaus auch aus dem wissenschaftlichen Umfeld stammenden Strohpuppen-Konstrukten mit Unterstellungen wie die Anthropozäniker (dabei implizit auch der Autor) seien katastrophenblind, würden Geoengineering und Technokratie befürworteten („Am Horizont ihrer Idee vom Weltgarten scheint das Bild einer Ökodiktatur auf. In dieser herrschen aber nicht Philosophenkönige, sondern Geologen. Und Ingenieurskönige.“) und sogar geheimbundartige Strukturen aufbauen [6|.  Es geht also durchaus zur Sache bei der Diskussion ums Anthropozän, was allerdings überdeckt, welch großes Interesse und Zustimmung das Konzept insgesamt erfährt (Abb. 2).

Bildschirmfoto 2016-07-11 um 18.43.54

Abb. 2. Das Anthropozän zerrissen in dualistischer Betrachtung? Eine vereinfachte Zusammenstellung von Argumenten für und gegen das Anthropozän. Die Zusammenstellung bezieht sich insbesondere auf die dritte konzeptionelle Ebene des Anthropozäns. Siehe Text (Grafik Leinfelder, Vorlesungsressource)

Dennoch: Worin sind diese so unterschiedlichen und widersprüchlichen Ansichten – von irrealen Kompetenzverlustängsten einmal abgesehen – tatsächlich begründet? Liegt es daran, dass doch jeder etwas anderes unter dem noch neuen Begriff „Anthropozän“ versteht? Oder ist es doch wieder ein dualistisches Problem, nämlich die Annahme einer gefährliche Engführung auf der einen Seite bzw. die Hoffnung auf eine gemeinsame Basis auch für einen breiten Dialog zwischen Wissenschaft, Politik und Gesellschaft auf der anderen Seite. Der vorliegende Beitrag, der nur einen Zwischenbericht in einem dynamischen, offenen Prozess darstellt, will dies nicht wissenschaftstheoretisch und empirisch basiert behandeln, sondern trotz (oder vielleicht gerade wegen) solcher Vorbehalte vor allem das kommunikative und dialogische Potenzial der dritten Ebene des Anthropozän-Konzepts (siehe unten) aufgreifen. Können neue „anthropozäne“ Denkweisen und Narrative helfen, auch zu einem neuen integrativen Denken zu führen? Dazu müssen wir allerdings in einem ersten Schritt die drei konzeptionellen Ebenen des Anthropozän-Ansatzes noch einmal kurz darlegen und strukturieren, um in einem zweiten Schritt insbesondere dessen dialogische Potentiale herauszuarbeiten.

Das Anthropozän-Konzept – ein Wissenschafts- und Denkansatz auf mehreren Ebenen

Als Geburtsstunde des Anthropozän-Konzepts wird allgemein eine Tagung der Erdsystemwissenschaftler im Jahr 2000 in Mexiko angesehen. Erdsystemwissenschaftler versuchen die Prozesse des Erdsystems und damit das Zusammenspiel von Lithosphäre, Pedosphäre, Hypdrosphäre, Biosphäre und Atmosphäre zu verstehen, dabei wird auch der Einfluss des Menschen auf diese Sphären und damit auf die Stabilität des Erdsystems bewertet. Die erste konzeptionelle Ebene dieses Systems ist die Erdsystemanalyse (Abb. 3). Die menschlichen Eingriffe sind inzwischen geradezu von gigantischem Ausmaß: Der Mensch ist zu einem ganz wesentlichen Erdsystemfaktor geworden, dies ist an anderer Stelle (siehe auch auf diesem Blog, z.B. hier oder hier oder hier) genügend herausgearbeitet worden. Obwohl also die Umwelteingriffe durch den Menschen zwar grundsätzlich bekannt sind, werden deren globale Auswirkungen und die Unumkehrbarkeit dieser Prozesse jedoch weitgehend verdrängt. Dabei ist es schlichtweg eine Tatsache, dass die umweltstabile Zeit des Holozäns bereits hinter uns liegt. Das Erdsystem verändert sich rasant, die Gefahr eines Kippens in einen völlig neuen Status ist groß, insbesondere wenn es nicht gelingt, die anthropogene Klimaerwärmung auf global höchstens 2°C zu begrenzen, wobei selbst eine Erwärmung um „nur“ 2°C bereits deutlich außerhalb der Spannbreite des Holozäns liegt (Leinfelder & Haum 2016). Eine Hypothese des Anthropozän-Konzeptes besagt, dass die Menschheit das Erdsystem bereits in einer Weise verändert hat, welche diese Veränderungen unumkehrbar macht. Durch alle vorliegenden Daten scheint dies inzwischen leider bestätigt. Wie weit sich das neue Erdsystem von dem des Holozän entfernt, wird jedoch durchaus noch von unserem zukünftigen Handeln abhängen. Daraus ergibt sich eine zweite konzeptionelle Ebene, die wiederum an einer Hypothese festzumachen ist. Diese besagt, dass sich die Veränderungen des Erdsystems auch dauerhaft niederschlagen, das heißt, geologisch überlieferungsfähige Signaturen in den heutigen und zukünftigen Sedimenten liefern werden (Abb. 3). Die eingehende Untersuchung dieser beiden Hypothesen bildet den wissenschaftlichen Kern des Anthropozän-Konzepts (Waters et al. 2016). Die Internationale Stratigraphische Kommission, die offizielle geologische »Weltbehörde« der Stratigraphie, hat in diesem Sinne eine interdisziplinäre Anthropocene Working Group (zu der auch der Autor gehört) eingerichtet, die gegebenenfalls auch eine formale geologische Definition für die neue erdgeschichtliche Epoche, eben die Anthropozän-Epoche, vorschlagen wird.

Das die drei konzeptionellen Bereiche des Anthropozän-Konzepts (rot eingekreist): Mitte: die Erdystem-Ebene; links: die geologisch-stratigraphische Ebene, rechts: die Verantwortungsimperativ-Ebene (aus Leinfelder 2014, SciLogs)

Abb. 3: Das die drei konzeptionellen Bereiche des Anthropozän-Konzepts (rot eingekreist): Mitte: die Erdystem-Ebene; links: die geologisch-stratigraphische Ebene, rechts: die Verantwortungsimperativ-Ebene (konzeptionelle Vortragssressource)

Aus diesen beiden wissenschaftlichen Ebenen des Anthropozän-Konzepts lässt sich eine dritte konzeptionelle Ebene ableiten, die wiederum an einer Hypothese festgemacht werden könnte. Diese würde auf die Hoffnung hinauslaufen, dass die zur immensen geologischen Kraft gewordene Menschheit, die das Erdsystem an den Rand eines möglichen Kippens gebracht hat, auf der Basis ihres Wissens auch in der Lage sein sollte, die Erde gleichsam »wissensgärtnerisch« so zu gestalten, dass wir Menschen integrativer Teil eines funktionsfähigen anthropozänen Erdsystems wären (Abb. 3). Im besten Falle wäre damit die Grundlage gerechter Entwicklungschancen für gegenwärtige und künftige Generationen geschaffen. Diese Hypothese beruht auf der Einsicht, dass die Menschheit sich als dem Erdsystem zugehörig begreifen muss. Wir können nicht vom Erdsystem, sondern nur mit dem Erdsystem leben. Wir sind nicht von einer Umwelt umgeben, sondern wir leben in einer von uns entscheidend geprägten »Unswelt«. Aus diesem Verständnis heraus ergibt sich ein Imperativ zu anthropozänem (Um-)Denken und Handeln: Politik oder Wirtschaft alleine können eine erdsystemische Integration der Menschheit nicht gewährleisten, da gerade auch individuelles Handeln in der Summe globale Auswirkungen hat. Daher sind alle zu einer verträglichen, nachhaltigen Nutzung der Erde verpflichtet. Der derzeitige »Parasitismus« des Menschen an der Natur müsste sich wandeln zu einer echten Symbiose von Mensch und Natur, im Sinne eines gegenseitigen Nutzens. (siehe auch Leinfelder 2016a)

Anthropozänes Denken – möglicher Schlüssel für einen Gesellschaftsvertrag zur Großen Transformation

Der Weg in ein dauerhaft funktionsfähiges, mit menschlichen Gesellschaften kompatibles Erdsystem kann vermutlich nur durch einen virtuellen Gesellschaftsvertrag für die notwendige Große Transformation erreicht werden, wie ihn etwa der WBGU in seinem Hauptgutachten von 2011 konzipiert hat (WBGU 2011). Hierbei müssen Wissenschaften, Industrie, Politik und Zivilgesellschaft gemeinsam an Lösungen arbeiten, wobei die Politik aufgefordert ist die Rahmenbedingungen zu ermöglichen. Ob ein virtueller Gesellschaftsvertrag für eine große Transformation tatsächlich zustande kommen und funktionieren kann, hängt aber ganz wesentlich von der Kommunikation zwischen allen beteiligten Akteuren ab. Erforderlich ist ein umfassender, wechselseitiger und offener Austausch. In der Politik müssen nicht nur wissenschaftliche Ergebnisse verstanden werden, sondern sich auch die Einsicht durchsetzen, dass Wissenschaftler als Mitglieder der Zivilgesellschaft ein soziales Bewusstsein haben, also auch „Gewissenschaftler“ (sensu H.J. Schellnhuber) sind. In den Wissenschaften muss ein besseres Verstehen untereinander sowie eine verbesserte Kooperation erlernt werden, wofür vor allem auch gemeinsame Zielsetzungen im Sinne von Transformationsforschung und transformativer Forschung notwendig sind. Das Bildungssystem ist gehalten, dies aufzugreifen, in geeigneter Weise zu reflektieren und zu vermitteln. All das mag trivial klingen, angesichts der enorm sektoralen Ausprägung von Behörden, Verwaltungen, Universitäten, Schulen sowie der politischen Landschaft ist es das jedoch keinesfalls (vgl. Leinfelder 2011, 2013). In dieser Hinsicht kann der Anthropozän-Ansatz mit seinem integrativen systemischen Denkansatz überaus hilfreich sein. Zur Verdeutlichung soll im Folgenden beispielhaft auf ein mögliches Narrativ eingegangen werden (adaptiert aus Leinfelder et al. 2016):

Die Küche als »Kommandozentrale« der Globalisierung: Zubereitung und Verzehr von Nahrung ist in unserer Vorstellung eine eher persönliche Angelegenheit, die jeweils an variable Gegebenheiten geknüpft (kulturelle Prägung, religiöse Tabus etc.) und lokal eingegrenzt scheint. Dabei haben wir (hier in Deutschland) die Globalisierung quasi direkt auf dem Teller: Die von uns verzehrten Lebensmittel – Getreide, Obst und Gemüse, vielerlei Fleisch, Geflügel und Fisch, Kaffee und Tee, Kakao, Schokolade und Gewürze – wurden vielfach rund um den Globus bewegt. Als Konsumenten haben wir in der Küche somit einen Schalthebel der Globalisierung in der Hand. Wir beeinflussen mit unserem Ernährungstyp (vegan, vegetarisch, etc.), unserem Ernährungsstil (saisonal, regional, etc.), unserer sozialen Wohnstruktur (Single, Kleinfamilie, Wohngemeinschaft etc.) und nicht zuletzt mit der Einrichtung und den Gerätschaften unserer Küchen, wie die Produktion und Zubereitung von Genuss- und Nahrungsmitteln die Welt mitgestaltet und auch verändert (Abb. 4).

Abb. 4: In der Küche haben wir nicht nur den Kochlöffel, sondern auch den Steuerhebel der Globalisierung mit in der Hand. Beispiel für ein Anthropozän-Narrativ, © Projekt Die Anthropozän-Küche am Exzellenzcluster Bild Wissen Gestaltung der Humboldt-Universität. Grafischer Entwurf: Jens Kirstein

Abb. 4: In der Küche haben wir nicht nur den Kochlöffel, sondern auch den Steuerhebel der Globalisierung mit in der Hand. Beispiel für ein Anthropozän-Narrativ, © Projekt Die Anthropozän-Küche am Exzellenzcluster Bild Wissen Gestaltung der Humboldt-Universität. Grafischer Entwurf: Jens Kirstein

Das Beispiel-Narrativ »Die Anthropozän-Küche« zeigt, dass jede(r) Einzelne nicht passiv weit entfernte Abläufe beobachtet, sondern vielmehr unmittelbar Beteiligte(r) ist und durch eine Vielzahl kleiner und großer Entscheidungen auch Verantwortung trägt. Des Weiteren kann an diesem Beispiel eine ganze Kette von Verknüpfungen aufgezeigt werden: Wir ernähren nicht nur uns, sondern auch unsere (Küchen-) Maschinen (Abb. 5). Diese müssen mit Energie gefüttert werden, mit Strom, zu dessen Erzeugung fossile Brennstoffe, Wasserkraft etc. verbraucht wird. Ebenso musste bereits zur Herstellung dieser Maschinen Energie aufgewendet werden, und es wurde eine Vielzahl unterschiedlicher Rohstoffe verarbeitet. Die gesamte technische Produktionskette hat ihre Grundlagen im Verbrauch von Ressourcen, die aus der Natur stammen (Abb. 4, 5, 6). Es sind teilweise in Hunderten von Millionen Jahren akkumulierte und durch geologische Prozesse umgewandelte Stoffe, die es uns letztlich ermöglichen am häuslichen Herd bequem auf Tasten zu drücken (cf. Williams et al 2016). Nicht nur fossile Energien, die konservierte Energie von Lebewesen wie Bäumen, Sträuchern oder Meeresplankton sind, die nicht gefressen wurden, sondern akkumulierten und umgewandelt wurden, auch andere Bodenschätze gehen auf solche metabolischen Organismenprozesse zurück; dazu gehören der größte Teil der Eisenerzlagerstätten und auch die für unsere Ernährung so notwendigen Phosphate (Abb. 6). Womit die Kette der Verknüpfungen wieder bei ihrem Ausgangspunkt, die Küche als »Kommandozentrale« der Globalisierung angekommen ist (Leinfelder et al. 2016).

production_williamsetal2016

Abb. 5: Abbildung der Zunahme des Ressourcenverbrauchs seit 1750, aus Williams et al. 2016. Das zugehörige Narrativ könnte lauten: wir ernähren heute nicht nur uns, sondern insbesondere auch unsere Maschinen mit fossiler oder erneuerbarer Energie. Fossile Energie ist letztendlich auch nichts anderes als organische Masse, die wir heute auch zur Nahrung verzehren, allerdings über hunderte von Millionen Jahren entstanden und nun binnen 200 Jahren wieder dem Erdsystem zugeführt.

Narrative wie das der » Anthropozän-Küche« sind geeignet, in unterschiedlichen Medien und Formaten (Ausstellungen, Comics (Leinfelder et al. 2016), Vorträge, Workshops etc.) in wissenschaftlichen, politischen und gesamtgesellschaftlichen Kontexten die räumliche und zeitliche Verflochtenheit mit dem Erdsystem bewusst zu machen, die vom Individuum bis zur gesamten Weltgesellschaft reicht. Es wird daran einsehbar, wie viel stärker wir hinsichtlich der für unser Leben und Wirtschaften notwendigen Ressourcen von Prozessen auf der großen Zeitskala der Erdgeschichte abhängig sind als von kurzskaligen gegenwärtigen Aktualitäten. Zugleich zeigt sich daran aber auch, dass unsere kurzskaligen Aktivitäten das Potenzial haben, auf die große erdgeschichtliche Skala einzuwirken und wir daraus lernen müssen – selbst wenn Artensterben, Atommüllproduktion und CO2-Ausstoß aus fossilen Quellen schon morgen abgestellt werden könnten, würde das nichts mehr daran ändern, dass sich die Auswirkungen über Jahrhunderte, Jahrtausende und Jahrmillionen erstrecken werden. So gesehen leben wir im »Langen Jetzt«. Damit es nicht zu einer „Diktatur des Jetzt“ kommt, müssen Politik und Wirtschaft umdenken. Das aber wird wiederum nur geschehen, wenn die Zivilgesellschaft ihre aktive Rolle und Verantwortung wahrnimmt und an Entscheidungsprozessen teilnimmt bzw. diese einfordert. Hierzu ist ein umfassender, kommunikativer, auch diskursiver Dialog zwischen Zivilgesellschaft, Wissenschaft und Politik notwendig.

 

 

Die Zukunft im Anthropozän – mögliche Pfade der Zeitreise

Der Anthropozän-Ansatz stellt für den notwendigen Dialog von Zivilgesellschaft, Wissenschaft und Politik eine hervorragende Orientierung dar und kann wesentlich zu der Einsicht beitragen, dass ein Umdenken und Umlenken notwendig ist. Daraus ergibt sich allerdings nicht zwangsläufig die Antwort, in welche Richtung und wie es denn nun tatsächlich weitergehen müsste, aber auch für das Skizzieren möglicher Zukunftspfade bietet die Offenheit, aber auch die Gestaltungsnotwendigkeit des Anthropozäns einen guten Rahmen. So stoßen zwar bei der Frage nach dem „richtigen“ Weg in die Zukunft divergierende, teils sehr konträre Meinungen aufeinander, die sich aber durchaus gewinnbringend gemeinsam im Sinne eines Möglichkeitsspektrums diskutieren lassen (Leinfelder 2016b, Leinfelder & Haum 2016, siehe auch „Zukunftswelten laden ein„, in: Der Tagesspiegel Sonntag vom 10.7.2016). Alternative Pfade der Reise in mögliche „Zukünfte“ könnten folgendermaßen aussehen [7] (vgl. Abb. 7):

  • Wir begegnen den Umweltproblematiken und sonstigen Herausforderungen reaktiv, im Sinne von raschen, umfassenden Reparaturen an kritischen Symptomen, weil wir gar nicht weit genug in die Zukunft vorausschauen können und uns die Zeit davonläuft: CO2-Abscheidung und Speicherung im Untergrund? Schutzdämme gegen den Meeresspiegelanstieg? Schwimmende Städte (wie etwa in den Niederlanden schon erprobt)? Steigerung der Nahrungsmittelproduktion, um die weiter rasch wachsende Weltbevölkerung ernähren zu können.
  • Wir halten uns an die Devise Weniger ist mehr! Häuser werden besser gedämmt Heizungen heruntergeregelt, stattdessen vielleicht Pullis getragen. Wir essen bedeutend weniger Fleisch, ernähren uns überwiegend von regionalen und saisonalen Produkten, und am besten vegetarisch oder gar vegan. Was wir an Energie brauchen, schöpfen wir aus erneuerbaren Energien, die Erzeugung organisieren wir dezentral.
  • Wir etablieren eine neue Überflussgesellschaft. Es kann weiter kräftig produziert werden, sofern wir die Natur zum Vorbild nehmen und in Kreisläufen wirtschaften. Alles wird wiederverwertet oder in optimierter Weise an die Natur zurückgegeben. In dieser bioadaptiven Kreislaufwirtschaft bleiben die Ressourcen im Fluss, sie werden mit viel (erneuerbarer) Energie immer wieder zu neuen Produkten zusammengesetzt. Ebenso lernen wir beim Essen von der Natur, vielleicht indem wir gekoppelte Aquaponik-Kreislaufsysteme weiterentwickeln, bei denen z.B. Abwasser aus der Fischzucht gleich wieder die Tomaten mit Nährstoffen versorgt, oder wir gar auf die ressourcenschonende Insektenzucht als Ersatz für Fleisch und Fischfutter setzen.
  • Wir folgen den High-Tech-Visionären. Die ländliche Natur wird entlastet, indem wir uns fast vollständig in die Städte zurückziehen. Dort leben und arbeiten wir verdichtet in Ultrahochhäusern aus Nanokohlenstoff-verstärkten Baumaterialien, nutzen ein individualisiertes gondelartiges Personen-Nahverkehrssystem, produzieren Gemüse und Getreide in LED-beschienenen Farmhochhäusern und Kunstfleisch im Labor. Die Energie wird mittels künstlicher Photosynthese an Hochhauswänden gewonnen. Und vielleicht klappt es ja sogar noch mit der Kernfusion?

 

leitplanken

Abb. 7: utopische Motive für Zukunftswelten, dargestellt auf dem Bauzaun des Haus der Zukunft / Futurium, Kapelle-Ufer, Berlin. Aus Tagesspiegel-Feature zum Futurium vom 10.7.2016, B1-4, (Hinweis: der vorherige Sammel-Link funktioniert nicht auf Mobile Devices, dafür siehe [7]. Grafiken Matti Gajek & Mark Hennes.

Fällt die Entscheidung schwer, hier gleich den „richtigen“ Zukunftspfad auszuwählen? Wir sollten auch nicht nach „Bauchgefühl“ entscheiden. Warum schaffen wir also nicht erst einmal die Möglichkeit, vieles davon in Labor-Situationen unter Beteiligung vieler zu entwickeln und auszuprobieren, ja, in eigenen Prototypen zu produzieren? Schon jetzt kann man erkunden, wie es sich anfühlt, in einer landwirtschaftlichen Kleingenossenschaft selbst an der Produktion seiner eigenen Nahrungsmittel beteiligt zu sein. Auch unterschiedliche Formen des Wohnens, etwa in einer minimalistischen, aber hochfunktionalen Kleinstwohnung, könnte man derzeit schon im Urlaub erproben. Noch nicht ganz so einfach ist es wahrscheinlich, Erfahrungen im Umgang mit Robotern als Hausgehilfen zu machen oder mit Augmented Reality Freunde aus weiter Ferne mit an den eigenen Tisch zu holen. Das erhebende Gefühl in einem Repaircafé beispielsweise den eigenen kaputten Haarfön wieder selbst in Gang gesetzt zu haben oder bei einer Maker Faire ein kleines Insektenzuchtsystem mitentwickelt zu haben, ist dagegen ganz in Reichweite.

Fazit

Das auf wissenschaftlicher Erkenntnis basierende Anthropozän-Konzept zeigt neben der erstystemisch-geologischen Analyse des derzeitigen Zustands des Planeten zum einen in aufklärerischem Sinne die vielfältigen Wechselwirkungen auf, die zwischen allen Lebensbereichen (bspw. Ernährung, Wohnen, Gesundheit, Energie, Arbeiten und Wirtschaften) bestehen. Darüber hinaus eröffnet es eine neue Sicht auf die Welt, ohne selbst weltanschaulich zu sein. Das Konzept bedeutet ausdrücklich nicht eine Engführung in der Entwicklung von Zukunftsoptionen. Die Erdsystem- und Sozialwissenschaften geben lediglich gemeinsam den dringenden Hinweis darauf, dass wir zur Erreichung globaler Entwicklungsziele, wie Gerechtigkeit, Nahrungssicherheit, Gesundheit und Frieden, auch weiterhin „einschätzbare“ Bedingungen des Erdsystems benötigen. Um die relative Stabilität des Holozän nicht gegen unwägbare Risiken vollständig einzutauschen, sondern in ein dauerhaft habitables Anthropozän zu gestalten, wird es notwendig im Sinne des Anthropozän-Konzepts planetarische Grenzen (sensu Rockström et al. 2009, Steffen et al. 2015) nicht zu überschreiten. Innerhalb dieses weiten Rahmens kann je nach Bereich, je nach Kulturkreis, je nach gesellschaftlichen Erfordernissen und Wünschen sehr frei verhandelt und werden, wohin die Zukunftsreise im Einzelnen gehen soll. In diesem Sinne ist das Anthropozän-Konzept auf keiner Ebene »technikverliebt« oder »forschungsverliebt«, ebenso wenig ist es positivistisch. Stattdessen hebt es die Orientierung an diversen gesellschaftlichen Wünschbarkeiten hervor, die allerdings hinsichtlich potentieller Nebenwirkungen durchdacht sein müssen. Nur so kann das Anthropozän tatsächlich zu einer langen erdgeschichtlichen Epoche der Integration menschlicher Gesellschaften in ein funktionsfähiges Erdsystem werden. Aufgrund der integrativen und transdisziplinären wissenschaftlich-gesellschaftlichen Ausrichtung erscheint das Anthropozän-Konzept, von dem der Impuls für eine erdsystemkompatible Gestaltung der Zukunft ausgeht, als ein geeigneter Kommunikations- und Diskursansatz, um einen kollaborativen Gesellschaftsvertrag vorstellbar und umsetzbar zu machen. Durch das Skizzieren möglicher Zukunftspfade und das Aufzeigen vielfältiger Handlungsoptionen soll im ersten Schritt ein Umdenken vorangetrieben werden, im zweiten Schritt können auf dieser Basis auch praktikable Handlungsvorschläge erarbeitet werden.

Fußnoten:

[1] zum Beispiel: Das Anthropozän-Projekt, Haus der Kulturen der Welt, Berlin (2013/2014), Willkommen im Anthropozän. Unsere Verantwortung für die Zukunft Erde, Deutsches Museum, München (2014-2016), Anthropozän als Cover z.B. in Le Monde, Time Magazin, Economist u.v.m., Buch Menschenzeit (von Christian Schwägerl, 2010, Riemann, 2012 Goldmann), Sachcomic Die Anthropozän-Küche. (Leinfelder et al. 2016, Springer), Amazon zeigt 54 Bücher zum Stichwort Anthropozän an, Google-Ergebnisse zu Anthropozän: ca. 95.000, zu Anthropocene: ca 433.000 , Fachartikelsuche in Google Scholar zu Anthropozän 723 Ergebnisse, zu Anthropocene ca. 26.300 Ergebnisse (jeweils Stand 6.7.2016)

[2] z.B. Ayestaran 2008, cf. Schellnhuber 1999, siehe auch Richter in Bayern 2, v. 7.1.2016 http://www.br.de/radio/bayern2/programmkalender/sendung-1142362.html

[3] z.B. Michael Müller, SPD, ehem. Staatssekretär, derzeit Vorsitzender der Naturfreunde in DIE ZEIT: http://www.zeit.de/2013/50/anthropozaen-paul-crutzen/komplettansicht ,Theaterperformance Klagenfurt http://imsueden.at/termine/anthropozaen/, Symposien und Tagungen der Deutschen Bundesumweltstiftung zum Anthropozän, z.B. https://www.dbu.de/708ibook76845_36602_2486.html oder https://www.dbu.de/1254ibook76506_36460_2487.html ; Marx21: https://www.marx21.de/09-02-09-umwelt/, Turnschuh Anthropozän-Sneaker von Adidas: http://www.spikeartmagazine.com/de/artikel/adidas-anthropozan-sneaker u.v.m.

[4] Bundeszentrale für Politische Bildung, pers. Mitt.

[5] Auch die internationale Anthropocene Working Group, zu der der Autor gehört, befasst sich damit intensiv, etwa auf einem Workshop in Oslo im Frühjahr dieses Jahres. Auch werden einige Stellungnahmen zu speziellen Kritikpunkten vorbereitet bzw sind im Druck. Zu einem späteren Zeitpunkt werde ich darüber getrennt berichten.

[6] Statt einer näheren Stellungnahme sei hier auf die Stellungnahme von Christian Schwägerl verwiesen: http://christianschwaegerl.com/?p=1444

[7] Die skizzierten idealtypischen Zukunftspfade basieren auf meinem inhaltlichen Konzept für das Haus der Zukunft (seit 4.7.2016 umbenannt in Futurium). Eine vorläufige Version wurde ursprünglich hier auf diesem Blog unter dem Namen „Das Haus der Zukunt als Ort der Partizipation“ vorab veröffentlicht (5. Okt. 2014), eine aktualisierte Version stellt Leinfelder (2016b) dar. Siehe auch aktuelles Interview zum Konzept im Tagesspiegel vom 10.7.2016 sowie weitere Artikel zum Futurium aus derselben Ausgabe zum Ausstellungskonzept, zum Reallabor, zur Architektur und generelles zur Zukunftsforschung.

 

 

 

Zitierte Literatur

Ayestaran, I. (2008): The second Copernican revolution in the Anthropocene: an Overview.- Revista International de Sustenibilidad,Tecnología y Humanidade.- No. 3. 145-157

Hamilton, C. (2016): The Anthropocene as a rupture.- The Anthropocene Review, doi:

Leinfelder, R. (2011): Von der Umweltforschung zur Unsweltforschung,- Frankfurter Allgemeinen Zeitung 12.10.2011, siehe auch http://www.scilogs.de/der-anthropozaeniker/unsweltforschung/

Leinfelder, R. (2013): Verantwortung für das Anthropozän übernehmen. Ein Auftrag für neuartige Bildungskonzepte. In: Vogt, M., Ostheimer, J. & Uekötter, F. (Hg), Wo steht die Umweltethik? Argumentationsmuster im Wandel.- Beiträge zur sozialwissenschaftlichen Nachhaltigkeitsforschung, Bd. 5., S. 283-311, Metropolis Verlag, Marburg.

Leinfelder, R. (2016a): Vom Parasitismus zur Symbiose. Zu den drei Hauptebenen des Anthropozäns.- Politik & Kultur 3/16 (Mai/Juni 2016), S. 20 (> download des gesamten Heftes)

Leinfelder, R. (2016b): Das Haus der Zukunft (Berlin) als Ort der Partizipation.- In: Popp, R. (ed.), Einblicke, Ausblicke, Weitblicke. Aktuelle Perspektiven der Zukunftsforschung S. 74-93, Berlin, Wien etc. (LIT-Verlag), ISBN 978-3-643-90662

Leinfelder, R., Hamann, A., Kirstein, J. & Schleunitz, M. (Hrsg.)(2016): Die Anthropozän-Küche. Matooke, Bienenstich und eine Prise Phosphor – in zehn Speisen um die Welt.- 236 S., Springer-Spektrum Verlag (Berlin, Heidelberg, New York), ISBN 978-3-662-49871-2

Leinfelder, R. & Haum, R. (2016): Die Reise ins Anthropozän.- In: Sommer, Jörg & Müller, Matthias (Hrsg.), Unter 2 Grad? Was der Weltklimavertrag wirklich bringt. S.133-141, Stuttgart (Hirzel-Verlag). ISBN 978-3-7776-2570-6 (erscheint am 20.4.2016)

Rockström, J., et al. (2009), A Safe Operating Space for Humanity, Nature, 461, 4725.

Schellnhuber, H.-J. (1999):  „Earth System“ Analysis and the second Copernican Revolution.- Nature, 402, supplement C19-C23.

Steffen et al. (2015): Planetary boundaries: Guiding human development on a changing planet. cience  Science. Vol. 347, Issue 6223, DOI: 10.1126/science.1259855

Waters, C., N., Zalasiewicz, J., Summerhayes, C., Barnosky, A.D., Poirier, C., Galuszka, A., Cearreta, A., Edgeworth, E., Ellis, E.C., Ellis, M., Jeandel, C., Leinfelder, R., McNeill, J. R., Richter, D.B., Steffen, W., Syvitski, J., Vidas, D., Wagreich, M., Williams, M., Zhisheng, A., Grinevald, J., Odada, E., Oreskes, N.,& Wolfe, A.P. (2016): The Anthropocene is functionally and stratigraphically distinct from the Holocene.- Science, 8 January 2016: Vol. 351 no. 6269, DOI: 10.1126/science.aad2622

Williams, Mark, Jan Zalasiewicz, Colin N. Waters, Matt Edgeworth, Carys Bennett, Anthony D. Barnosky, Erle C. Ellis, Michael A. Ellis, Alejandro Cearreta, Peter K. Haff, Juliana A. Ivar do Sul, Reinhold Leinfelder, John R. McNeill, Eric Odada, Naomi Oreskes, Andrew Revkin, Daniel deB Richter, Will Steffen, Colin Summerhayes, James P. Syvitski, Davor Vidas, Michael Wagreich, Scott L. Wing, Alexander P. Wolfe andAn Zhisheng (2016): The Anthropocene: a conspicuous stratigraphical signal of anthropogenic changes in production and consumption across the biosphere.Earth’s Future (Wiley) doi: 10.1002/2015EF000339

WBGU (Schellnhuber, H.J., Messner, D., Leggewie, C., Leinfelder, R., Nakicenovic, N., Rahmstorf, S., Schlacke, S., Schmid, J. & Schubert, R.) (2011): Welt im Wandel. Gesellschaftsvertrag für eine große Transformation.- Hauptgutachten, Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen, 420 p. (WBGU, Berlin).

 

Merken

Merken

Merken

Merken

Merken

Merken

]]>
http://scilogs.spektrum.de/der-anthropozaeniker/anthropozaen-dialog/feed/ 8
Auf dem Trockenen http://scilogs.spektrum.de/leben-auf-dem-mars/auf-dem-trockenen/ http://scilogs.spektrum.de/leben-auf-dem-mars/auf-dem-trockenen/#comments Mon, 11 Jul 2016 00:00:50 +0000 Christiane Heinicke http://scilogs.spektrum.de/leben-auf-dem-mars/?p=382 Weiterlesen]]> Der deutsche Durchschnittsbürger verbraucht pro Tag 127 Liter Wasser. Das meiste davon benutzt er für das Duschen, die Toilette und das Wäschewaschen, und nur etwa 3-4 Liter braucht er zum Trinken und Kochen.

Offensichtlich ist dieser hohe Anteil an nicht-lebenserhaltendem Wasserverbrauch nur möglich, weil Wasser in Deutschland so einfach und billig zu haben ist. Auf dem Mars sieht das jedoch anders aus. Große Vorkommen flüssigen Wassers gibt es nicht. Astronauten müssen ihr Wasser entweder von der Erde mitbringen oder mühsam aus dem Marsboden oder der dünnen Atmosphäre gewinnen.

Experiment zur Wassergewinnung. Leider ist die Produktionsrate dieses kleinskaligen Aufbaus zu gering, um sechs Crewmitglieder zu versorgen.

Experiment zur Wassergewinnung. Leider ist die Produktionsrate dieses kleinskaligen Aufbaus zu gering, um sechs Crewmitglieder zu versorgen.

Da haben wir es auf dem simulierten Mars ein klein wenig einfacher. Unser Wasser wird von für uns unsichtbaren Helfern angeliefert, und zwar immer dann, wenn unser 4000-Liter-Tank zur Neige geht. Unsere Vorgänger-Missionen haben etwa alle zwei bis drei Wochen eine Nachlieferung benötigt. Wir sind stolz darauf, dass wir mit einer Tankfüllung etwa fünf Wochen auskommen.

Carmel überprüft den Wasserstand in unseren Tanks.

Carmel überprüft den Wasserstand in unseren Tanks manuell.

An normalen Tagen verbrauchen wir um die 25 Gallonen, also knapp 100 Liter Wasser. Und mit „wir“ meine ich die gesamte, 6-köpfige Crew. Am häufigsten benutzen wir den Wasserhahn, um uns mit Trinkwasser zu versorgen oder Essen zu kochen. Danach kommt Abwaschwasser (das häufig auch zum Händewaschen benutzt wird), Wasser fürs Labor, Duschen, und ganz zum Schluss Waschwasser. Toilettenwasser, das für etwa ein Viertel der oben erwähnten 127 Liter verantwortlich ist, brauchen wir nicht – wir benutzen Kompostiertoiletten.

Die verbrauchte Wassermenge hängt extrem stark vom jeweiligen Crewmitglied ab. Carmel zum Beispiel wäscht ihre Wäsche fast ausschließlich per Hand und braucht dafür vielleicht zehn Liter. Andzrej dagegen wäscht ausschließlich in der Maschine – und reißt damit jedesmal ein 70-Liter-Loch in unseren Vorratstank. Die Schüssel, die wir im Küchenwaschbecken zum Abwaschen nutzen, enthält bei mir ein paar Fingerbreit Wasser, bei Shey ist sie regelmäßig fast voll. Dafür verbrauche ich beim Duschen das wohl meiste Wasser – weshalb ich nur noch alle paar Wochen dusche und mich den Rest der Zeit mit 2-3 Litern Wasser im Becken wasche.

Als Anreiz zum Wassersparen haben wir sogenannte „Water Restriction Days“ eingeführt. Etwa alle zwölf Tage drehen wir bis auf einen alle Wasserhähne zu und schreiben auf, wer wieviel Wasser aus diesem einen Hahn bezieht. Die Tage werden vorher nicht angekündigt, damit wir unser Verhalten nicht etwa an den Tagen zuvor anpassen, wie zum Beispiel die für einen Water Restriction Day geplante Dusche schon am Vorabend zu haben. Wegen des Extra-Aufwandes sind die eingeschränkten Tage eher unbeliebt. Aber ihre Resultate können sich durchaus sehen lassen: An eingeschränkten Tagen liegt der Gesamtverbrauch für die Crew bei weniger als 20 Litern. Darunter können wir nicht – fast alles davon geht für Essen und Trinken drauf, plus vielleicht 2-3 Liter für den Abwasch.

Heute kein fließend Wasser hier.

Heute kein fließend Wasser hier.

Ursprünglich als Experiment geplant und durchgeführt, kamen uns unsere Erfahrungen aus den Water Restriction Days vor Kurzem unerwartet zu Gute: Uns ging das Wasser aus, bevor uns die nächste Nachlieferung erreichte. Zwei Wochen zuvor hatten wir abgeschätzt, dass unser Wasser um den 2. Juli zur Neige gehen würde und die Nachlieferung entsprechend für diesen Tag vorbestellt. Normalerweise bestellen wir nicht so lange im Voraus, aber für das Feiertags-Wochenende um den 4. Juli befürchteten wir Lieferengpässe.

Bis zum Morgen des 1. Juli lief auch alles nach Plan und wir hatten noch etwa 150 nutzbare Liter im Tank. Als ich jedoch mit meinem Team von einem Außeneinsatz zurück kam, waren davon nur noch 50 übrig – am frühen Nachmittag. Bis zum Abend verbrauchten wir noch weitere 30 Liter. Mit sorgenvollen Blicken verfolgten wir den ungewöhnlich niedrigen Wasserstand und verboten jeglichen weiteren Wasserverbrauch außer zum Trinken bis zum nächsten Morgen. An dem wir prompt die Nachricht erhielten, dass die Nachlieferung wegen technischer Probleme auf den nächsten Tag verschoben werden musste.

Die Gefahr: Falls die Lieferung auch am nächsten Tag nicht kommen sollte, würden wir wegen des Feiertags noch weitere zwei Tage ohne einen Tropfen Frischwasser sein. Wir beschlossen, einen alten Notfalltank mit Wasser fragwürdiger Qualität anzuzapfen. Da wir das so nicht trinken konnten, bauten wir zusammen drei Distillen auf: Je eine unserer Kochplatten im Inneren einer Box aus unserem Vorratslager, darauf ein großer Topf des alten Wassers, das Ganze abgedeckt mit einer Plastikplane. Bis Sonnenuntergang 6 Stunden später hatten wir so etwa 10 l Trinkwasser gewonnen. Beruhigt gingen wir schlafen: Im Notfall würden wir unsere Distillen eben über Nacht laufen lassen um genügend Wasser zusammen zu bekommen.

In der Küche wird heute nur Waser "gekocht".

In der Küche wird heute nur Wasser „gekocht“.

Außer dem Trinkwasser gewannen wir an dem Tag jedoch noch etwas, das für uns hier mindestens genauso wertvoll ist: Seit Langem arbeiteten wir wieder zusammen und mit demselben Zielen. Zur Abwechslung standen mal keine Sicherheitsbedenken zwischen uns, und jeder trug zum Aufbau und aufwändigen Unterhalt der Distillen bei. Die Wirkung hielt dazu über das Wochenende hinaus an: Ein paar Tage später wurden zwei Crewmitglieder gesehen, die sonst höchstens zwei Worte am Tag miteinander wechseln, wie sie zusammen an einem anderen Projekt arbeiteten.

Cyprien und Shey bei zwei unserer Distillen.

Cyprien und Shey an zwei unserer Distillen.

Achja, die Wasserlieferung kam übrigens wie angekündigt am nächsten Tag.

]]>
http://scilogs.spektrum.de/leben-auf-dem-mars/auf-dem-trockenen/feed/ 2
Noch mehr mysteriöse Meteorite: Jetzt auch mit Quasikristallen (und schwerer Artillerie) http://scilogs.spektrum.de/exo-planetar/noch-mehr-mysterioese-meteorite-jetzt-auch-mit-quasikristallen-und-schwerer-artillerie/ http://scilogs.spektrum.de/exo-planetar/noch-mehr-mysterioese-meteorite-jetzt-auch-mit-quasikristallen-und-schwerer-artillerie/#comments Sun, 10 Jul 2016 17:20:48 +0000 Andreas Morlok http://scilogs.spektrum.de/exo-planetar/?p=1254 Weiterlesen]]> Kürzlich hat sich Blog-Kollege Lars Fischer im Fischblog heldenhaft in die Bresche geworfen, um im Rahmen des Blog-Gewitters zur EM das faszinierende, aber auch recht abstrakte Thema der Kristallographie gewohnt anschaulich zu erklären. Er geht auch auf die Thematik der Quasikristalle ein, und da gibt es eine interessante planetologische Verbindung. Aber erst mal alles von Anfang an.

Ich habe noch ganz klassisch Mineralogie studiert, gab es damals in den 90ern noch als separates Studienfach (heute ist alles Geologie). Und da lernt man gleich im Grundstudium in Min 1, beim Drehen von uralten Pappmodellen, dass eigentlich nur 1-, 2-, 3-, 4-, und 6-zählige Symmetrien in Kristallen möglich sind. Fünfzählige Symmetrien (und solche über 6) sind erstmal nicht möglich, da man mit einer solchen Symmetrie den Raum nicht periodisch zukacheln kann. Anfang der 60er Jahre wurden dann Quasikristalle erst mal theoretisch begründet, und Anfang der 80er dann in Legierungen erstmals festgestellt. 2011 gabs dafür sogar den Nobelpreis.

In der Natur wurden lange keine Quasikristalle gesichtet. Bis dann 2009 Bindi, Steinhardt et al. ein Paper über 30 Mikron (0.03 mm) große Quasikristalle in aus dem  Koryak-Gebirge in Kamtschatka in Science veröffentlichten. Es handelt sich um eine Legierung aus Aluminium, Kupfer und Eisen. Benannt wurde es als Icosahedrit, Al63Cu24Fe13. Die 5-zählige Struktur erinnert ein wenig an einen Fußball.

Dummerweise war die Herkunft der Proben damals noch etwas schwammig – sie stammten aus tonhaltigen Flusssedimenten, konnten also aus irgendeinem obskuren Winkel in dem sibirischen Gebirge stammen. Also wurde Material vor Ort eingesammelt, und tatsächlich noch weitere Proben entdeckt, nachdem größere Mengen Material durchgesiebt wurden. Eine genauere Studie der mit dem Icosahedrit verwachsenen Minerale deutete dann 2012 darauf hin, dass es sich möglicherweise sogar um Brösel aus einem Meteoriten handelte. Zentral war hier die gute, alte Sauerstoffisotopie der angelagerten Silikate und Oxide, die klar auf eine extraterrestrische Herkunft hindeutete. Sie ist ähnlich derer in den kohligen Chondriten. Noch besser, es kam auch Stishovit vor, ein Mineral, das nur unter hohen Drücken wie bei Impakten oder Kollisionen entsteht. Weitere Untersuchungen zeigten auch generelle petrologische Ähnlichkeit zu kohligen Meteoriten (z.B. Fragmente von Chondren) hin. Genug, um die ~0.1 Gramm Brösel  als den Khatyrka CV3 Meteoriten offiziell anzuerkennen (Eintrag in der Meteoritcal Bulletin Database). Es ging Schlag auf Schlag  weiter. 2013 wurde ein weiteres natürliches, quasikristallines Mineral in dem Material entdeckt: Decagonit (Al71Ni24Fe5), der Name kommt von der 10-zähligen Symmetrie.

Dann aber fiel mir Anfang dieses Jahr auf der Lunar and Planetary Science Conference in Houston ein unbemanntes Poster auf. Es stammte von der Gruppe um Steinhardt, inzwischen verbündet mit Glenn MacPherson, einem rennomierten Meteoritenforscher vom Smithsonian. Man muß nicht zwischen den Zeilen lesen, dass es hier hinter den Kulissen ordentlich gekracht hat. Es scheint sogar der Vorwurf eines ‚Hoax‘, also einer Täuschung oder Fälschung gefallen zu sein, oder zufälliger Kontamination z.B. durch industrielle Schlacke (und das Zeug findet man irgendwie überall auf unserem Planeten).  Ein Schlag ins Kontor, starker Tobak also.

Dann ein Gegenstoß. Es wurde sprichwörtlich schweres Geschütz aufgefahren. Die bedrängte Forschergruppe beschloss, in die Offensive zu gehen, und die Minerale künstlich herzustellen, und zwar unter realistischen Bedingungen. Man wollte also die Kollision auf dem Asteroiden nachstellen, in der die Quasikristalle entstanden. Ein zentraler Hinweis war das Vorkommen von Stishovit, was eine Bestimmung des Drucks erlaubte. Angeführt von Paul Asimow (Caltech), wurden Minerale, die als Ausgangsmaterial in Frage kamen, in einen Stahlzylinder eingeschraubt. Dann wurde die hilflose Probe in einem vier Meter langen Geschütz mit einem Projektil beschossen. Diese Sample Recovery-Technik erlaubt hohe Drücke mit relativen niedrigen Projektilgeschwindigkeiten zu erzeugen. Das waren immerhin noch 1 Kilometer pro Sekunde, und das ist immer noch ein ordentlicher Wumms (weiß ich aus eigener Erfahrung mit solchen Experimenten). Die in der Regel völlig zerbeulte Stahlkapsel muss dann aufgesägt werden, um wieder an das Material zu kommen.

Veröffentlicht wurde das Ganze kürzlich von Asimow et al. unter dem Titel Shock synthesis of quasicrystals with implications for their origin in asteroid collisions in den Proceedings of the National Academy of Sciences of the United States of America (PNAS). Das Blatt hat sich in den letzten Jahren ziemlich gemausert, hat zwar nicht den (meiner Meinung nach überhypten) Impaktfaktor von Nature oder gar Science, spielt aber schon vorne mit.

So ergaben die Untersuchungen der Ergebnisse mit Röntgenbeugung und Transmissionselektronenmikroskop, dass sich in der Tat winzige, aber identifizierbare Quasikristalle gebildet hatten. So macht ergibt das Alles eben doch Sinn – auch wenn ein ‚richtiger‘ Meteorit im Komplettzustand mit Quasikristallen noch besser wäre. Und das ist natürlich schon faszinierend,  dass sich die Quasikristalle in einer sich von irdischen Gegebenheiten doch sehr unterscheidenden Umgebung gebildet haben. Wobei primitive Meteorite dann eigentlich schon der Ort wäre, wo man so abgefahrene Minerale erwarten würde. Aber selten sind die Teile, die Gefahr dass die Minerale schlichtweg bisher übersehen wurden ist gering – metallische Aluminiumlegierungen wie die von Icosahedrit und Decagonit würden ziemlich schnell bei den üblichen chemischen Untersuchungen mit EDX oder Mikrosonde ins Auge springen. Eine Schlussfolgerung erlaubt das Vorkommen der Quasikristalle in den sehr alten CV3 Chondriten – nämlich das sie über lange, geologische Zeiträume stabil sind. Dadurch kann eine Hypothese über die Entstehung der Quasikristalle, die ‚Entropische Theorie‘ wohl ausgeschlossen werden, nach der es sich bei den Quasikristallen um in zufälligen Prozessen entstandene, instabile Objekte handelt.

]]>
http://scilogs.spektrum.de/exo-planetar/noch-mehr-mysterioese-meteorite-jetzt-auch-mit-quasikristallen-und-schwerer-artillerie/feed/ 1
Newsblog Juli und August 2016 – Spiritualität (ZITH Tübingen), Sonderkontingent (Integra Filderstadt) und Sommerakademie (Ev. Akademie Wittenberg) http://scilogs.spektrum.de/natur-des-glaubens/newsblog-juli-und-august-2016-spiritualitaet-zit-tuebingen-sonderkontingent-integra-filderstadt-und-sommerakademie-ev-akademie-wittenberg/ http://scilogs.spektrum.de/natur-des-glaubens/newsblog-juli-und-august-2016-spiritualitaet-zit-tuebingen-sonderkontingent-integra-filderstadt-und-sommerakademie-ev-akademie-wittenberg/#comments Sat, 09 Jul 2016 09:46:17 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2953 Weiterlesen]]> Die Sommerferien nahen und viele Menschen – ja, auch Blogger – freuen sich auf einige freie und sonnige Tage. Wie zugesagt gebe ich aber gerne die noch anstehenden Veranstaltungen bekannt, damit wir uns begegnen können, falls Sie Lust und Zeit haben.

So spreche ich am Montag, 11.7.2016 von 14 bis 16 Uhr am Zentrum für islamische Theologie (ZITH) in Tübingen zum Thema „Spiritualität im Lichte von Hirnforschung und Evolution“ im Rahmen der Vorlesungsreihe „Islamische Mystik“.

ZITPlakatMichaelBlume0716Veranstaltungsplakat das ZITH Tübingen.

Herzliche Einladung in die Rümelinstraße 27 nach Tübingen, der Eintritt ist frei.

Für den Mittwoch, den 13.7.2016, habe ich dann eine Einladung des Integrationsvereines Integra e.V. in Filderstadt zu einem Vortrag über die „Flüchtlingsursache Öl- und Glaubenskriege. Erfahrungsbericht aus dem Irak“ angenommen. Auch der Erwerb und das Signieren von Büchern werden möglich sein. Herzliche Einladung um 19 Uhr ins Bildungszentrum Seefälle, Mahlestraße 14 in Filderstadt-Bonlanden, der Eintritt ist ebenfalls frei.

IntegraMichaelBlume0716Veranstaltungsplakat von Integra e.V., Filderstadt

Und schließlich wirke ich auch noch bei der Wittenberger Sommerakademie mit, die vom 7. bis 13. August 2016 bei der Evangelischen Akademie Sachsen-Anhalt – in „der“ Lutherstadt – stattfindet. Das Thema der sehr interdisziplinär besetzten Tagungswoche lautet:

Gehirn, Gesellschaft, Gott und Google
– Was bedingt die Moral in einer modernen Gesellschaft?

WittenbergerSommerakademie0816Einladungsheader der Wittenberger Sommerakademie.

Für die Teilnahme an der Akademie ist freilich eine – kostenpflichtige – Anmeldung erforderlich, alles Nähere ist über die Homepage zu erfahren.

Vielleicht sehen wir uns ja? Den Blog versuche ich auf jeden Fall auch über den Sommer aktiv weiterzuführen, aber den nächsten Newsblog gibt es erst im September.

Danke für Ihr und Euer lebendiges Interesse an Religionswissenschaft in Blog-, Video-, Audio- und Buchform! 🙂

]]>
http://scilogs.spektrum.de/natur-des-glaubens/newsblog-juli-und-august-2016-spiritualitaet-zit-tuebingen-sonderkontingent-integra-filderstadt-und-sommerakademie-ev-akademie-wittenberg/feed/ 2
Der ewige Mythos der Zungenkarte http://scilogs.spektrum.de/detritus/zungenkarte/ http://scilogs.spektrum.de/detritus/zungenkarte/#comments Fri, 08 Jul 2016 23:38:16 +0000 Martin Ballaschk http://scilogs.spektrum.de/detritus/?p=925 Weiterlesen]]> Ausprobieren wäre so einfach: die gesamte Zunge kann die grundlegenden Grundgeschmacksrichtungen wahrnehmen. Weshalb sich trotzdem ein Mythos verbreiten konnte, nach dem nur eng begrenzte Bereiche auf der Zunge für süß, salzig, bitter und sauer zuständig sind, ist mir ein Rätsel.

Ich bin mir sicher, in meinen Schulbüchern stand es noch so. Und auch dieser Tiptoi-Spielzeugstift von Ravensburger erzählt das meinem Kind, auf Wunsch auch wiederholt. Die Zunge soll angeblich über „Geschmackszonen“ verfügen, in denen sie für die unterschiedlichen Geschmacksrichtungen empfindlich ist. Über die Google-Bildersuche lassen sich zahlreiche Beispiele für die Zungenkarte finden – häufig, um den Mythos zu veranschaulichen und zu entkräften. Diese „Zungenkarte“ ist nämlich längst überholt und totaler Quatsch. Schlimmer noch: sie war noch nie richtig.

Verfolgt man die Sache zu ihren Ursprüngen, erfährt man Erstaunliches. Sie geht paradoxerweise auf eine Arbeit zurück, die genau das Gegenteil schlussfolgerte. Der Physiologe David Pauli Hänig beschrieb in einer 1901 publizierten und im Übrigen recht unterhaltsam geschriebenen Arbeit „Psychophysik des Geschmackssinnes“ (PDF), dass wir an unserer gesamten Zungenoberseite süß, salzig, sauer und bitter wahrnehmen können.

Hänig pinselte Institutskollegen unterschiedlich konzentrierte Lösungen von Zucker, Kochsalz, Salzsäure und Chinin auf einzelne Zungenbereiche und notierte sich den Konzentrationswert, an dem die Lösungen gerade eben schmeckbar waren. Schmeckbar waren sie laut seiner Tabellen überall im geschmacksempfindlichen Bereich. Für seine Experimente mit Zuckerlösung notierte er: „Süß wird in allen Punkten der Zungengeschmackszone empfunden, aber in abgestufter Intensität“. Die Schwellenwerte für geringste, gerade noch schmeckbare Konzentrationen waren etwas ungleich verteilt. In manchen Regionen konnten die Versuchspersonen die Substanz also bereits etwas geringer konzentrierte Lösungen schmecken, waren also empfindlicher. Seine Ergebnisse fasste er so zusammen:

„1. Die specifischen Endapparate des Geschmackssinnes beschränken sich beim Erwachsenen auf den Zungenrand. 2. Ihre Dichtigkeit ist an der Peripherie der Schmeckfläche am größten. 3. nach ihrer functionellen Differenzierung vertheilen sich die peripheren physiolgischen Substrate so auf der Zungenoberfläche, dass die süßempfindlichen Elemente besonders gehäuft an der Zungenspitze, die sauerpercipierenden an der Mitte der Ränder und die für Bitter adaptirten im Bezirke der Pap. vall. auftreten.“

Er spricht lediglich von einer Häufung der geschmacksempfindlichen Elemente in bestimmten Regionen. Die Tabellenwerte veranschaulichte er in einer standardisierten Zungenkarte: Die Punktedichte stellte hier die unterschiedlichen Schwellenwerte dar. Aus den Tabellenwerten ergibt sich, dass sich Schwerpunktregionen mit etwas niedrigeren Schwellenwerten ausmachen lassen. In diesen Schwerpunktregionen hat Hänig die Punkte ein wenig dichter gezeichnet.

Die vier klassischen Geschmacksrichtungen, kartiert von D. P. Hänig.

Die vier klassischen Geschmacksrichtungen auf der Zunge, kartiert von D. P. Hänig. „Umami“ kannte er noch nicht.

Hänig stellte ganz klar dar, dass zumindest am Zungenrand jede der getesteten Geschmacksrichtungen fast in gleichem Maße wahrnehmbar war. Die Zeichnungen mit ihren feinen Abstufungen steht also in krassem Widerspruch zur altbekannten Zungenkarte – in Hänigs gepunkteten Zungen findet sich keine Spur von eng umgrenzten Geschmacks-Bereichen. Wie die alte, korrekte Darstellung zu der jüngeren, falschen, mutieren konnte, ist mir allerdings immer noch unklar.

Eine Erklärung, die mir an vielen Stellen begegnete: Den ersten Schritt zur Fehlinterpretation dieser Daten beging wohl der der Psychologe Edwin G. Boring, der sich gut 40 Jahre später an einer Übersetzung von Hänigs Werk versuchte und dabei auch neue Diagramme erstellte.

Die Darstellung von Boring (1942): Noch keine falsche Zungenkarte.

Die Darstellung von Boring (1942): Noch keine falsche Zungenkarte.

Borings Diagramm ist keine Zungenkarte, sondern eine stark reduzierte Darstellung von Hänigs Daten. Der Teufel liegt im Detail, denn die Einheiten auf der vertikalen Achse sind nun andere: Nicht Schwellenwerte, sondern Empfindlichkeiten („sensitivity“) sind dort abgebildet. Hänig bemerkte, dass sich die Empfindlichkeiten für unterschiedliche Geschmacksrichtungen untereinander kaum vergleichen ließen, trotzdem hat Boring sie miteinander verrechnet und in ein gemeinsames Diagramm gepackt.

Die Psychologin Linda Bartoshuk überlegte kürzlich in einem Interview, wie es dazu kommen konnte:

„Boring transformierte [Hänigs] Daten – ich nehme an, dass er Probleme bei der Interpretation der Einheiten hatte – also vermied er sie ganz, indem er die Kehrwerte der Schwellenwerte berechnete, sie „Empfindlichkeit“ nannte und als Verhältnisse der maximalen Empfindlichkeit angab. Aber wie man an Borings Abbildung Nummer 76 erkennt, geht dabei die Größe der originalen Werte völlig verloren. Anhand der Abbildung sieht es so aus, als wenn die Empfindlichkeit für bitter an der Zungenbasis maximal wäre, und an der Spitze quasi Null.“

Boring ließ also die Information über den dynamischen Bereich unter den Tisch fallen. Inwiefern diese normalisierte Abbildung weiter vereinfacht wurde, lässt sich im Einzelnen für mich nicht mehr nachvollziehen. Jedenfalls fand sie schnell ihren Weg in Lehrbücher, unsere Köpfe und sogar in Spielzeug, mit meine Kinder eigentlich etwas lernen sollten. Dabei ist es ganz einfach, die Zungenkarte zu widerlegen: einfach mal ausprobieren und selbst feststellen, dass man nicht nur an der Zungenspitze „süß“ schmeckt.

]]>
http://scilogs.spektrum.de/detritus/zungenkarte/feed/ 3
Humor–kurz und knapp http://scilogs.spektrum.de/con-text/humor-kurz-und-knapp/ http://scilogs.spektrum.de/con-text/humor-kurz-und-knapp/#respond Fri, 08 Jul 2016 17:39:35 +0000 Dierk Haasis http://scilogs.spektrum.de/con-text/?p=627 Weiterlesen]]> Eine notwendige, kurze Ergänzungen zur kleinen Reihe über Satire, Ironie und Sarkasmus.

Waste Water

]]>
http://scilogs.spektrum.de/con-text/humor-kurz-und-knapp/feed/ 0
Rohstoffförderung im Meer http://scilogs.spektrum.de/mente-et-malleo/rohstofffoerderung-im-meer/ http://scilogs.spektrum.de/mente-et-malleo/rohstofffoerderung-im-meer/#comments Thu, 07 Jul 2016 21:05:04 +0000 Gunnar Ries http://scilogs.spektrum.de/mente-et-malleo/?p=1812 Weiterlesen]]> Im Moment sind die Preise für Rohstoffe ja gerade wieder etwas niedriger und daher dürfte der Druck auf die Förderung von Rohstoffen im Meer nicht übermäßig groß sein. Aber die Nachfrage wird auch wieder steigen. In wenn die Preise wieder anziehen, dann wird sich das Augenmerk auch wieder verstärkt auf die Lagerstätten unter dem Meeresspiegel richten.

Zumindest im Erdölbereich ist die Förderung aus Lagerstätten unter dem Meeresspiegel ja schon regelrecht Routine geworden, und das auch aus der Tiefsee. Rund 1/3 der weltweiten Ölförderung stammt aus Offshorequellen.Die Entwicklung war hier sehr rasch fortgeschritten. Im Video wird das anhand des brasilianischen Konzerns Petrobras verdeutlicht, der 1979 in 189 m Tiefe förderte, aber bereits 1985 in 383 m. 1985 wurde mit 781 die Grenze zur Tiefsee erreicht und 1992 aus 1853 m Tiefe gefördert. Viele Staaten haben die Aktivitäten in der Tiefsee stark gefördert, sicher auch um strategische Abhängigkeiten von bestimmten Regionen zu verringern. Erst das Unglück der Deepwater Horizon (mit Update) hat zu einem leichten Umdenken geführt. Heute wird ein wenig mehr an Sicherheit gedacht. Bleibt die Frage, ob das ausreicht. (mehr …)

]]>
http://scilogs.spektrum.de/mente-et-malleo/rohstofffoerderung-im-meer/feed/ 1
„Windows 10“-Attacke: Nachtrag http://scilogs.spektrum.de/labyrinth-des-schreibens/windows-10-attacke-nachtrag/ http://scilogs.spektrum.de/labyrinth-des-schreibens/windows-10-attacke-nachtrag/#comments Thu, 07 Jul 2016 18:58:58 +0000 Jürgen vom Scheidt http://scilogs.spektrum.de/labyrinth-des-schreibens/?p=1528 Inzwischen habe ich mich mit Windows 10 abgefunden, das Microsoft so überfallmäßig auf meinem Rechner installiert hat… (mehr …)

]]>
http://scilogs.spektrum.de/labyrinth-des-schreibens/windows-10-attacke-nachtrag/feed/ 7
Exit vom Brexit? http://scilogs.spektrum.de/gedankenwerkstatt/exit-vom-brexit/ http://scilogs.spektrum.de/gedankenwerkstatt/exit-vom-brexit/#comments Thu, 07 Jul 2016 18:53:40 +0000 Thomas Grüter http://scilogs.spektrum.de/gedankenwerkstatt/?p=744 Weiterlesen]]> Gibt es einen Exit vom Brexit? Der CDU-Europapolitiker Elmar Brok hält das ebenso für möglich wie der österreichische Finanzminister Hans Jörg Schelling. Eine Analyse zeigt allerdings, dass nur wenige Wege dorthin führen, und selbst die müssten erst freigeräumt werden.

Der österreichische Finanzminister glaubt, dass das UK (United Kingdom) die Europäische Union vorläufig nicht verlassen wird. „Großbritannien wird auch in Zukunft Mitglied bleiben“, sagte der ÖVP-Politiker dem Handelsblatt. „Auch in fünf Jahren werden es noch 28 Mitgliedsstaaten sein.“

Der CDU-Europolitiker Elmar Brok weist in einem Interview mit der Passauer neuen Presse darauf hin, dass bisher nicht klar ist, ob das UK die EU verlassen wird. Das Referendum sei nicht bindend gewesen. Die britische Regierung müsse aber schnellstmöglich bald Klarheit schaffen. Einige Zeitungen haben gleich mehrere Szenarien für einen Rückzug vom Brexit vorgeschlagen, darunter die WELT und die ZEIT. Keines davon überzeugt.

Bei den gegenwärtigen Verwerfungen in der britischen Politik hat es keinen Sinn, über Wahrscheinlichkeiten nachzudenken. Im Moment verläuft die Entwicklung chaotisch, taumelt aber eindeutig auf den Austritt zu. Ein Exit vom Brexit liegt nur noch am äußersten Rande des möglichen Bewegungsgebiets britischer Politik. Hier die Analyse:

Bisherige Vorschläge für den Exit vom Brexit

1. Weitere Zugeständnisse und dann Verbleib in der Union

Die Briten und die EU verhandeln einen neuen Vertrag, der de jure keinen Austritt bedeutet, den Brexiteers aber als solcher verkauft werden kann. Damit könnten alle Seiten ihr Gesicht wahren und das UK ist von dem Alptraum befreit, 40 Jahre EU-Gesetzgebung neu aufrollen zu müssen.

Vorgeschlagen von: DIE WELT online

Beurteilung: Aussichtslos.

Die EU würde ein entsprechendes Angebot der Briten als Versuch werten, die Austrittsbedingungen zu verhandeln, ohne den Brexit förmlich zu erklären. Genau das hat sie aber bereits ausgeschlossen. Die Brexit-Befürworter im UK dagegen würden sich betrogen fühlen.

 

2. Parlament verweigert die Zustimmung zum Brexit

Das Parlament hat den Beitritt beschlossen, also müsste es auch den Austritt beschließen. So argumentieren jedenfalls mehrere britische Verfassungsrechtler. Und im Parlament haben die Brexit-Gegner eine deutliche Mehrheit

Vorgeschlagen von: DIE WELT online, DIE ZEIT online

Beurteilung: Aussichtslos.

Oliver Letwin, Staatssekretär im britischen Außenministerium hat am 6.7.2016 klargestellt, die Regierung werde den Austritt aus der EU erklären, ohne das Parlament zu fragen. Das sogenannte Königsprivileg (royal prerogative) gewähre der Regierung dieses Recht. Das Königsprivileg definiert ursprünglich die Handlungsfreiheit des Königs gegenüber dem Parlament. Weil sich der britische König aber seit einigen Hundert Jahren kaum noch in die Politik einmischt, hat er sein Privileg an die Exekutive abgegeben. Natürlich könnten Abgeordnete versuchen, vor Gericht ihre Mitwirkung einzuklagen. Aber selbst wenn sie Erfolg haben, wird das Parlament den Brexit kaum in Frage stellen. Die konservativen Abgeordneten müssten um ihre Wiederwahl fürchten, wenn sie den Brexit in Frage stellen. Ein Teil ihrer Wähler würde voraussichtlich zur UKIP abwandern.

Auch die Abgeordneten der oppositionellen Labour Party werden sich nicht geschlossen gegen den Brexit stemmen, denn gerade in einigen nordenglischen Labour-Hochburgen haben besonders viele Menschen für den Austritt votiert. Außerdem ist der linke Flügel, der den Parteichef Jeremy Corbyn stützt, eher globalisierungsfeindlich eingestellt. Für sie fällt die EU unter die verdächtigen internationalen Organisationen, die sie bekämpfen.

 

3. Schottland legt sich quer

Die schottische Regierung und das schottische Parlament könnte sich auf den Standpunkt stellen, dass Schottland vom Brexit stark betroffen ist, und deshalb ein Vetorecht hat. Eine deutliche Mehrheit der Schotten möchte in der EU bleiben.

Vorgeschlagen von: DIE WELT online, DIE ZEIT online

Beurteilung: aussichtslos.

Das schottische Parlament hat kein Vetorecht in außenpolitischen Angelegenheit des UK.

 

4. Labour gewinnt Neuwahl

Sollte es Neuwahlen geben, könnte die Labour Party gewinnen.

Vorgeschlagen von: DIE WELT online

Beurteilung: fast aussichtslos.

Keine der beiden Kandidatinnen für den Vorsitz der Konservativen möchte Neuwahlen ausrufen. Nur wenn ihr die Unterhausfraktion der Tories in einer wichtigen Frage die Gefolgschaft verweigert, könnte sie sich gezwungen sehen, das Parlament aufzulösen.

 

5. Zweites Referendum kurzfristig

Das Referendum war nur ein Meinungsbild, und die Stimmung könnte sich gedreht haben. Die Folgen des Brexit lassen sich jetzt erst richtig absehen und vielleicht würden sich die Briten ja jetzt anders entscheiden.

Vorgeschlagen von: DIE WELT online, DIE ZEIT online

Beurteilung: Aussichtslos.

Die Brexit-Kampagne hat ihr Ziel erreicht, und die Gegner müssten sich den Vorwurf gefallen lassen, sie wollten so lange abstimmen lassen, bis das Ergebnis passt. Ein neues Referendum würde auch vermutlich keine Änderung bringen, wie eine aktuelle Umfrage des Meinungsforschungsinstituts YouGov zeigt. Menschen neigen dazu, an Entscheidungen festzuhalten, auch – und gerade – wenn sie nicht wirklich überzeugt sind, richtig gehandelt zu haben. Ein Brexit-Befürworter mag sich sagen: „Gut, die Brexit-Kampagne hat also gelogen. Und die wirtschaftlichen Folgen sehen auch tatsächlich bedrohlich aus. Aber auf zwanzig Jahre betrachtet, werde ich recht behalten. Schließlich habe mir die Entscheidung nicht einfach gemacht, und ich bin ja kein leichtgläubiger Mensch.“ In einem zweiten Referendum würden die meisten Briten wohl an ihrer jetzigen Meinung festhalten, schon um sich nicht eingestehen zu müssen, dass sie eventuell falsch lagen.

 

6. Regierung ignoriert Referendum

Der Austritt könnte das UK zerreißen. Die Regierung hätte gute Argumente, das Referendum zu ignorieren. Sie könnte argumentieren, dass ein Austritt dem UK schadet, im besten Fall wenig, im schlimmsten Fall könnte es das Ende des bisherigen Staats bedeuten.

Vorgeschlagen von: DIE ZEIT online, Elmar Brok

Beurteilung: Fast aussichtslos.

Diese Variante käme zum Tragen, wenn das Unterhaus vorzeitig aufgelöst wird, und die Liberaldemokraten die Wahl gewinnen. Sie haben sich als einzige Partei geschlossen gegen den Austritt gestellt. Sie sind aber die kleinste der drei großen britischen Parteien und es müssten schon ein Wunder geschehen, damit sie eine Unterhauswahl gewinnen.

 

7. Regierung verzögert den Austritt und gibt ihn schließlich auf

Die britische Regierung zögert den Austrittsantrag immer weiter hinaus, bis das Diskussion schließlich im Sande verläuft.

Vorgeschlagen von: Hans Jörg Schelling (österreichischer Finanzminister)

Beurteilung: Fast aussichtslos.

Im Moment bewerben sich zwei Frauen um den Vorsitz der britischen Konservativen. Die Basis soll bis Anfang September die Gewinnerin bestimmen. Sie beerbt den glücklosen David Cameron als Premierminister. Die Energiestaatssekretärin Andrea Leadsom will direkt bei Amtsantritt der EU den Scheidungsbrief zustellen. Die konservative Innenministerin Theresa May hat dagegen erklärt, sie werde damit bis zum nächsten Jahr warten. Vorher möchte sie die Zusicherung aus Brüssel erhalten, dass die EU mit dem UK einen fairen Vertrag über die Fortsetzung des freien Handels abschließt. Die EU-Kommission wird sich allerdings weigern, vor der offiziellen Austrittserklärung irgendetwas zu versprechen. Diese Pattsituation könnte mehrere Jahr anhalten, bis irgendwann vergessen ist, dass die Briten eigentlich austreten wollten.

Die anhaltende Unsicherheit über die Zukunft schadet aber der britischen Wirtschaft und schafft wieder Freiräume für die britischen Rechtspopulisten. Es ist also fraglich, ob Theresa May oder ein anderer Premierminister die Nerven hat, das Verfahren einfach schleifen zu lassen.

Schlussbemerkung

Die formale Abwicklung des Brexit ist kaum noch aufzuhalten. Das Remain-Lager wirkt derzeit konsterniert und sprachlos. Bisher machen sie weder Anstalten, die britische Öffentlichkeit umzustimmen, noch versuchen sie, die Abgeordneten des Unterhauses unter Druck zu setzen. Die nächste Regierung wird also den Zeitplan relativ frei bestimmen können.

Trotzdem haben die Brexiteers kein leichtes Spiel. Das UK könnte über den Konflikt zerbrechen und England läuft Gefahr, sich zu isolieren. Im schlimmsten Fall erklärt sich Schottland für unabhängig und Nordirland schließt sich dem Süden an. Die Premierministerin, die die Verhandlungen mit der EU führen muss, ist nicht zu beneiden. Wenn sie scheitert und ihr das Königreich unter den Händen zerfällt, könnte sie zur unbeliebteste Figur der englischen Geschichte seit Johann Ohneland1 werden.

Anmerkungen

[1] König Johann Ohneland (John Lackland) 1167-1216: Der intrigante, aber extrem ungeschickt agierende englische König verlor erst seine Gebiete in der Normandie, dann fast alle weiteren Besitzungen in Frankreich. Er verfügte über wenig militärisches Geschick und verlor fast alle seine frühen Schlachten und Feldzüge (später hatte er etwas mehr Erfolg). Im Laufe seiner Herrschaft brachte die englischen Barone gegen sich auf und musste schließlich die Magna Charta Libertatum unterzeichnen, die dem Adel beträchtliche Rechte einräumte.

 

]]>
http://scilogs.spektrum.de/gedankenwerkstatt/exit-vom-brexit/feed/ 13
Deutschland: Vorsicht, Fußballfieber! http://scilogs.spektrum.de/medicine-and-more/deutschland-vorsicht-fussballfieber/ http://scilogs.spektrum.de/medicine-and-more/deutschland-vorsicht-fussballfieber/#respond Thu, 07 Jul 2016 17:40:42 +0000 Trota von Berlin http://scilogs.spektrum.de/medicine-and-more/?p=1367 Weiterlesen]]> Fußball schauen gefährdet die Gesundheit. Wer der Wissenschaft dazu nicht traut, braucht nur diese EM anzuschauen: Deutschlands Einzug ins Halbfinale war nichts für Herzschwache. Erst in der dramatischen Verlängerung des Elfmeterschießens gelang dem amtierenden Weltmeister der Sieg über Italien. Doch der Krimi geht weiter: Heute Abend spielen Jogis Jungs gegen Gastgeber Frankreich. Womit wir in der heißen Endphase der EM 2016 rechnen müssen und wie wir uns vor Gesundheitsrisiken schützen können. (mehr …)

]]>
http://scilogs.spektrum.de/medicine-and-more/deutschland-vorsicht-fussballfieber/feed/ 0
So long and goodbye… http://scilogs.spektrum.de/hirnnetze/so-long-and-goodbye/ http://scilogs.spektrum.de/hirnnetze/so-long-and-goodbye/#comments Thu, 07 Jul 2016 13:43:29 +0000 Mareike Kardinal http://scilogs.spektrum.de/hirnnetze/?p=343 Weiterlesen]]> SciLogs verändert sich. Wir auch. An dieser Stelle möchten wir uns verabschieden. Wir hatten eine schöne, aufregende und spannende Zeit mit HirnNetze und möchten uns bei allen bedanken, die unserem Blog gefolgt sind. Ein ganz herzliches Dankeschön an alle unsere Gastblogger – vor allem auch an unseren Nachbarblogger und Bernstein Mitglied Markus A. Dahlem, der gerade zur Anfangszeit uns mit Rat und Tat zur Seite stand und auch hier einen schönen Beitrag veröffentlicht hat. Und natürlich auch ein herzliches Dankeschön an Lars Fischer und das ganze SciLogs-Team!

Wer weiterhin verfolgen will, was das Bernstein Netzwerk und seine Mitglieder bewegt, findet uns auf Facebook, Twitter oder LinkedIn – oder natürlich auf unserer eigenen Webseite. Und vielleicht sieht man sich auch mal auf einer unseren Veranstaltungen, wie etwa in der Bernstein Werkstatt in Freiburg oder auf der Bernstein Konferenz in Berlin? Wir freuen uns auf weiterhin spannende und interessante Gespräche und Diskussionen.

Bis dahin… alles Gute!

]]>
http://scilogs.spektrum.de/hirnnetze/so-long-and-goodbye/feed/ 1
Eine kurze Frage an: Leon Gatys http://scilogs.spektrum.de/hirnnetze/eine-frage-leon-gatys/ http://scilogs.spektrum.de/hirnnetze/eine-frage-leon-gatys/#respond Thu, 07 Jul 2016 13:29:39 +0000 Bernstein Autor http://scilogs.spektrum.de/hirnnetze/?p=338 Weiterlesen]]>

Picasso, Van Gogh, Dalí: Welcher Künstler lässt sich am besten am Computer fälschen?

Ein und dasselbe Objekt, zum Beispiel ein Baum, wirft aus verschiedenen Perspektiven und unter verschiedenen Lichtverhältnissen betrachtet völlig unterschiedliche Lichtmuster auf unser Auge. Dennoch ermöglicht unser visuelles System es uns den Baum ohne Schwierigkeiten wieder zu erkennen und als Baum zu identifizieren. Um diese robuste Wahrnehmung zu ermöglichen, werden die eingehenden Lichtmuster in unserem Gehirn so in neuronale Aktivität übersetzt, dass die relevante Bildinformation herausgerechnet wird.

Unser kunstfälschendes Computerprogramm DeepArt basiert auf einem künstlichen neuronalen Netzwerk, das genau diese Fähigkeit zur robusten Wahrnehmung des biologischen Netzwerkes in unserem Gehirn kopiert. Das künstliche Netzwerk wurde darauf trainiert aus den Pixeln eines Fotos zu berechnen, welche Objekte auf dem Foto zu sehen sind. Dadurch lernt das Netzwerk automatisch zwischen Bildvariation, die den Bildinhalt unverändert lassen – wie zum Beispiel der Stil in dem das Bild dargestellt ist – und solchen, die den Bildinhalt verändern, zu unterscheiden. Mit unserem Computerprogramm zeigen wir, dass ein solches künstliches Netzwerk dazu verwendet werden kann, Bildinformation so zu zerlegen und neu zu kombinieren, dass zumindest in einigen Fällen das erstellte Bild ähnliche Eindrücke beim Menschen hervorrufen kann wie ein originales Gemälde. Allerdings ist das Computerprogramm noch nicht dafür konzipiert einen tieferen Sinn aus einem Kunstwerk zu extrahieren und zu übertragen. Daher lassen sich momentan Künstler wie Vincent van Gogh, deren Stil sich durch besondere Farben und Texturen hervorhebt, am besten fälschen. Dahingegen ist es nicht zu erwarten, dass das Computerprogramm die zerfließenden Uhren von Dali in einem neuen Bild in einem sinnstiftenden Kontext gebrauchen würde.

Das Computerprogramm ist öffentlich verfügbar und kann auf unser Webseite unter www.DeepArt.io getestet werden. Ob es möglich ist zwischen echten Kunstwerken und computergenerierten Bildern zu unterscheiden kann auf unserer Webseite unter turing.deepart.io herausgefunden werden.

Leon Gatys, Bernstein Zentrum Tübingen

Leon Gatys, Bernstein Zentrum Tübingen

]]>
http://scilogs.spektrum.de/hirnnetze/eine-frage-leon-gatys/feed/ 0
Achtung: Nachtleuchtende Wolken http://scilogs.spektrum.de/go-for-launch/achtung-nachtleuchtende-wolken/ http://scilogs.spektrum.de/go-for-launch/achtung-nachtleuchtende-wolken/#comments Thu, 07 Jul 2016 09:16:40 +0000 Michael Khan http://scilogs.spektrum.de/go-for-launch/?p=5881 Weiterlesen]]> In diesen Tagen können nachtleuchtende Wolken auch in unseren Bereiten zu beobachten sein. Diese Galerie auf spaceweather.com zeigt Aufnahmen, die auch von Beobachtern in Nord- und Mitteleuropa geschossen wurden. Nachtleuchtende Wolken oder Leuchtende Nachtwolken (engl.: NLS=Noctilucent Cloud) sind Wolken aus Eiskristallen in sehr großen Höhen (über 80 km), die noch lange nach Sonnenuntergang bzw. vor Sonnenaufgang von der Sonne angestrahlt werden.

(mehr …)

]]>
http://scilogs.spektrum.de/go-for-launch/achtung-nachtleuchtende-wolken/feed/ 1
Ist Jerome Boateng heimlicher Muslim? Verschwörungsmythos auf Basis eines Tatoos http://scilogs.spektrum.de/natur-des-glaubens/ist-jerome-boateng-muslim-verschwoerungsmythos/ http://scilogs.spektrum.de/natur-des-glaubens/ist-jerome-boateng-muslim-verschwoerungsmythos/#comments Wed, 06 Jul 2016 17:52:14 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2943 Weiterlesen]]> Verschwörungsgläubige sehen, was sie sehen wollen. Dies demonstrierte eindrucksvoll ein Kommentator angesichts meines ruhrbarone-Blogposts zum Antisemitismus (inkl. Rassismus) von Dr. Wolfgang Gedeon, MdL (AfD). Da auch Gedeon die Verwendung des Wortes „Neger“ verteidigte und vor „Rassennivellierungsrassismus“ warnte, hatte ich in diesem Blogpost auch Gaulands (AfD) Ausfall gegen den deutschen Fussball-Nationalspieler Jerome Boateng erwähnt. Und da „wusste“ der erste Kommentator gleich aus den Tiefen des Internets:

Mal abgesehen von dem sonstigen himmelschreind tendenziösen Unfug in diesem Beitrag ist Jerome Boateng kein „praktizierender Christ“, sondern Muslim.

Nun war Jeromes Halbbruder, Kevin-Prince Boateng, zeitweise Muslim gewesen – aber Jerome Boateng hatte sich stets und aktiv zu seinem christlichen Glauben bekannt. Auf Nachfrage verwies der schein-wissende Kommentator auf das dort leider nicht erläuterte Rückentatoo von Jerome Boateng auf den Seiten von Bild.de – und triumphierte:

Und jetzt sagen Sie mir, welcher bekennende Christ sich die „Hand der Fatima“ unübersehbar auf den Rücken tätowiert!

Okay, da die scilogs ohnehin eine Blogparade zur Fussball-EM am Laufen haben, nutze ich diese Vorlage, um ein wenig religionsbezogenes Wissen zu vermitteln…

JeromeBoatengWikiCommonsCredit: Harald Bischoff / Lizenz: Creative Commons CC-by-sa-3.0 de

Bester Nachbar. Der deutsche Fussball-Nationalspieler Jerome Boateng.

(mehr …)

]]>
http://scilogs.spektrum.de/natur-des-glaubens/ist-jerome-boateng-muslim-verschwoerungsmythos/feed/ 16
Es ist angerichtet – die Anthropozän-Küche http://scilogs.spektrum.de/der-anthropozaeniker/anthropozaen-kueche/ http://scilogs.spektrum.de/der-anthropozaeniker/anthropozaen-kueche/#comments Wed, 06 Jul 2016 15:40:45 +0000 Reinhold Leinfelder http://scilogs.spektrum.de/der-anthropozaeniker/?p=314 Weiterlesen]]> Neue interkulturelle Narrative für das Anthropozän am Beispiel der Ernährung

 

aus dem Brasilienkapitel von "Die Anthropozän-Küche"

Credit: ©BildWissenGestaltung, Grafik: José Aguiar aus dem Brasilienkapitel von „Die Anthropozän-Küche“

Essen zieht sich durch alle unsere Lebensbereiche. Es lässt uns vom Säugling zum Erwachsenen werden und versorgt unser gesamtes System, vom Gehirn, über die Muskeln und alle sonstigen Organe und Körperteile mit Energie und lebenswichtigen Bausteinen. Der gemeinsame Genuss von Speisen ist oft das zentrale Element des Familienlebens bzw. unseres kompletten sozialen Austausches: keine Party ohne Häppchen, kein Geburtstag ohne einen Kuchen oder etwas Süßes, keine Feier ohne Festtagsessen, aber auch kaum ein Treffen mit einer guten Freundin oder einem guten Freund, bei dem wir nicht irgendetwas zu uns nehmen. Wir integrieren die Ernährung in unser Arbeitsleben, etwa indem wir uns zu Geschäftsessen treffen oder uns in der Kantine mit Kolleginnen und Kollegen austauschen. Unsere Ernährung ist eng verbunden mit unserer Gesundheit und unserem Wohlbefinden, nicht umsonst heißt es ja auch: Du bist, was du isst. Viele Menschen legen großen Wert auf ihre Küchen und deren Ausstattung, andere haben nur eine Mikrowelle, aber eine Wohnung ohne Küche ist beinahe undenkbar.Egal, in welcher Form wir unsere Nahrung zu uns nehmen, irgendwoher muss sie kommen und irgendwer muss sie produzieren. Das hat große globale Auswirkungen, meist ohne dass wir uns dessen bewusst wären. Es macht einen Unterschied, ob Sie im Supermarkt einkaufen gehen oder im Kiezladen um die Ecke, ob die Waren in der Region hergestellt wurden oder von einem Weltkonzern. Die Produktion und Weiterverarbeitung benötigen viel Fläche, immense Technik, Infrastrukturen und vor allem Energie. Auch unsere Nahrungsmittel brauchen Nährstoffe, um überhaupt entstehen zu können. So fressen Kühe Gras oder auch zunehmend Soja, dies beansprucht Bodenfläche, Wasser und wiederum Nährstoffe, die wir teils durch technische Prozesse wie das Haber-Bosch-Verfahren einfach aus der Luft gewinnen, um Stickstoffdünger zu generieren, oder für die wir mineralische Ressourcen abbauen, wie Phosphat und Kalium, und zur Ertragssteigerung auf den Feldern ausbringen.

Essen ist und bleibt ein lokaler, sehr persönlicher und oftmals auch emotionaler Akt. Gleichzeitig bekommen wir dabei die Globalisierung quasi direkt auf den Teller; verzehren Obst, Schokolade, Gewürze, Fleisch, Fisch, Getreide oder Gemüse, die teilweise rund um den Globus unterwegs waren. In der Küche haben wir also nicht nur den Kochlöffel, sondern auch den Schalthebel der Globalisierung in der Hand. Wir bestimmen mit unserem Ernährungstyp (vegan, vegetarisch, etc.), unserem Ernährungsstil (saisonal, lokal, global), unserer sozialen Wohnstruktur (ein Single kauft anders ein als eine Familie oder eine WG) und nicht zuletzt unserer Kücheneinrichtung (auch Töpfe und Teller wollen hergestellt und transportiert werden, und Gas ist eine andere Energiequelle als Strom oder Holzkohle), wie das Essen die Welt gestaltet und verändert. Die Lebensmittelindustrie ist ein bedeutender Wirtschaftsfaktor. Zugang zu gesunder Ernährung für eine rasant wachsende Weltbevölkerung gehört weiterhin zu den großen globalen Herausforderungen und ist eng verknüpft mit Themen wie Gesundheit, Armut, Gerechtigkeit und Frieden, aber auch Klimawandel, Schutz der biologischen Vielfalt und Endlichkeit der Ressourcen.

Der Mensch im Neolithikum, Essen war die treibende Kraft für die weitere gesellschaftliche und industrielle Entwicklung

Credit: ©BildWissenGestaltung, Grafik Sylvain Mazas. Der Mensch im Neolithikum, Essen war die treibende Kraft für die weitere gesellschaftliche und industrielle Entwicklung. Aus „Die Anthropozän-Küche“

Mit diesen Themen befinden wir uns mitten im Anthropozän. Werfen wir einen ernährungstechnischen Blick zurück: Unsere Menschenart, den Homo sapiens, gibt es seit etwa 200.000 Jahren – das Thema Ernährung hat uns dabei sprichwörtlich herumgetrieben. Die meiste Zeit waren wir Jäger und Sammler, bis wir uns vor mehr als 10.000 Jahren zunehmend niederließen und begannen, das Land zu bestellen. Seitdem greifen wir kräftig in die Natur ein. Frühe Bauern schufen Acker- und Weideflächen, indem sie Wälder abholzten, damit einen natürlichen Kohlenstoffspeicher plünderten und so das Treibhausgas CO2 freisetzten. Sie fluteten Felder zum Reisanbau und produzierten im modderigen Schlamm ein weiteres Treibhausgas, das Methan. Durch gezielte Zuchtverfahren und Eliminierung aller Feinde schränkte der Mensch die natürliche Tier- und Pflanzenwelt ein, zusätzlich verfrachtete er seit den Entdeckungsreisen der frühen Neuzeit ihm nützlich erscheinende Arten, welche lokale Ökosysteme zu einem großen Teil umgestalteten.

Mit dem Beginn der Industrialisierung nahm auch die Emanzipation des Menschen von seiner eigenen Muskelkraft immer weiter zu: Unsere Vorfahren konnten sich nur mit ihren eigenen Muskeln fortbewegen. Auch Tiere müssen mit ihren Kiefer-, Zungen- oder Lippenmuskeln Pflanzen abreißen und zerkauen oder Beute fangen und diese zerkleinern. Sie graben, bauen Nester oder fällen sogar ganze Bäume. Die dafür notwendige Kraft müssen sie sich förmlich „anfressen“. Ganz anders der moderne Mensch: Er ließ sich zuerst durch Ochs, Esel und Pferd, dann durch Wasser- und Windräder und noch später durch Dampfmaschinen und andere Motoren die eigene Muskelarbeit abnehmen. Diese neuen Maschinen mussten aber wiederum selbst mit Energie gefüttert werden, zuerst mit Holz, dann mit Kohle, Erdgas und Erdöl. In der Industrialisierung begann eine wahre Kettenreaktion von sich gegen- seitig verstärkenden Entwicklungen: Durch die Förderung von fossilen Brennstoffen konnten mehr Bodenschätze abgebaut werden, mit denen man mehr Maschinen bauen konnte, die wiederum mehr Energie benötigten. Produktionsmaschinen und Transportmittel wie Eisenbahn, Autos, Schiffe und Flugzeuge eroberten die Welt. Nun müssen wir nicht mehr essen, um uns fortzubewegen oder Dinge zu produzieren. Wie wir wohl aussähen, wenn wir uns aus Muskelkraft wie in einem PKW mit 100 PS fortbewegen wollten? Mit Muskelpakete von 100 Pferden bepackt? Nicht auszudenken! Dank der fossilen Energien, die wiederum nichts anderes sind als die konservierte Energie von Lebewesen, wie Bäumen, Sträuchern oder Meeresplankton, die nicht von anderen gefressen, sondern über teilweise Hunderte von Millionen Jahren akkumulierten und durch geologische Prozesse zu Kohle, Öl und Gas umgewandelt wurden, können wir still am Schreibtisch sitzen und Tasten drücken oder eben im 100 PS-Auto durch die Gegend flitzen. Alles dank der fossilen Organismen. Selbst Bodenschätze wie der größte Teil der Eisenerzlagerstätten oder die für unsere Ernährung so notwendigen Phosphate gehen auf Organismenprozesse zurück.

Themen Grüne Revolution, Überdüngung etc. aus dem China-Kapitel. Aus "Die Anthropozän-Küche"

Credit: ©BildWissenGestaltung. Grafik Ruohan Wang Themen Grüne Revolution, Überdüngung etc. aus dem China-Kapitel. Aus „Die Anthropozän-Küche“

Bleiben wir bei Narrativen: Der Mensch hat einen derartigen Einfluss auf das gesamte Erdsystem gewonnen, dass die Geologen in ihm eine wesentliche geologische Kraft sehen, vergleichbar mit Erdbeben, Vulkanausbrüchen und Kontinentalbewegungen. Starke Worte, aber die Fakten sprechen für sich: Nur noch knapp ein Viertel der (nicht vom Eis bedeckten) Erdoberfläche entspricht noch einer unveränderten Natur. Wir tragen Berge ab, schneiden Täler, geben den Flüssen einen neuen Lauf, erschaffen Seen oder lassen andere austrocknen; wir können sogar den Meeresspiegel heben und das Klima verändern. Jedes Jahr produzieren wir so viel Plastik, wie es der Gesamtmasse aller heute lebenden Menschen entspricht. Unsere Nutztiere und Nutzpflanzen dominieren die Biosphäre. Wir verfrachten Sediment in einem Umfang, wie es die Natur durch Abtragung und Transportprozesse nie könnte. Wir haben sogar neue Fossilien geschaffen! Die Geologen nennen sie Technofossilien: Plastikteilchen finden sich heute im Boden von Hochgebirgsseen genauso wie in Tiefseesedimenten, elementares Aluminium, Betonfragmente oder Ascheteilchen aus industriellen Verbrennungsprozessen sind als Ablagerungen weltweit nachweisbar. Radioaktive Niederschläge aus den Atombombenversuchen der Nachkriegszeit, aber auch von Tschernobyl und Fukushima sind ebenfalls charakteristisch für das menschengemachte Neue, so hieße das Anthropozän in der wörtlichen Übersetzung. Die Nacheiszeit der letzten 12.000 Jahre, das umweltstabile Holozän, ist also offensichtlich zu Ende und wurde vom Anthropozän abgelöst.

Unser Hyperfleischkonsum in Deutschland. Aus "Die Anthropozän-Küche"

Credit: ©BildWissenGestaltung. Grafik: Ulrich Scheel Unser Hyperfleischkonsum in Deutschland. Aus „Die Anthropozän-Küche“

Wie soll dieses Anthropozän weitergehen? Ergibt sich aus der erschreckenden Erkenntnis, dass der Mensch fähig war, die Erde dermaßen umzugestalten, nicht auch gleichzeitig die Lösung? Sollten wir Menschen in einer Zeit, in der nicht nur die Umweltzerstörung, sondern auch das Wissen über die zugrundeliegenden Prozesse exponentiell gestiegen sind, nicht dazu fähig sein, wissensbasiert, wie behutsame Gärtner, das Anthropozän so zu gestalten, dass die planetaren Grenzen des Erdsystems nicht gefährdet werden, indem wir uns als Teil eines Gesamtsystems verstehen, das es zu erhalten gilt? Die Metapher des Gärtnerns stammt nicht von ungefähr aus dem Ernährungsbereich. Wer dauerhaft ernten will, hegt und pflegt seinen Garten und übernutzt ihn nicht. Wer dauerhaft auf dieser Erde leben will, beutet sie nicht aus, sondern gestaltet sie so, dass menschliches Handeln die eigenen Grundlagen nicht zerstört.

Aber wie sollten wir handeln, oder, um bei der Ernährung zu bleiben, wie sollten wir essen, ohne die Freude daran zu verlieren, und dabei nicht nur uns, sondern auch die Erde gesund erhalten? Nach wie vor haben wir, weltweit betrachtet, eine sehr vielfältige Ernährungs- und Essenskultur. Sollten in dieser Vielfalt nicht auch Lösungsansätze stecken? Dazu müssen wir genau hinsehen und uns in der Welt umschauen. In einem interkulturellen und partizipativen Projekt haben wir dies am Exzellenzcluster Bild Wissen Gestaltung im Projekt „Die Anthropozän-Küche. Das Labor der Verknüpfung von Haus und Welt“ versucht – herausgekommen ist der Wissenscomic „Die Anthropozän-Küche“, in der wir wir eine Kartographie der Ernährungsstile in globalem Maßstab – natürlich nur exemplarisch und so offen wie möglich versucht haben. Und vor allem – vom Menschen ausgehend. Wissensbasiertes Gärtnern heißt nicht nur, wissenschaftliche Erkenntnisse zu berücksichtigen. Dies ist zwar ein sehr wichtiger Schritt, aber genügt alleine nicht. Wir sollten auch Erfahrungen zusammentragen und berücksichtigen, egal, ob sie aus jahrhundertealten Traditionen stammen, aus neuen Ernährungsmoden resultieren, oder aus der Notwendigkeit heraus, Hungersnöte zu bekämpfen.

 

Also befragten wir zehn Personen aus zehn Ländern in fünf Kontinenten, was und wie sie essen, wo sie einkaufen, ob sie wissen, woher ihre Nahrung kommt und welche Rolle die Küche dabei spielt. Sie verrieten uns ihre Lieblingsrezepte, die für uns Ankerpunkt der Gespräche waren und die Sie nun gerne nachkochen können. Die Ergebnisse dieses Prozesses dienten als Ausgangspunkt unserer wissenschaftlichen Recherchen. In ständigem Austausch entstanden so nach und nach Geschichten, in denen unsere Gesprächspartner nun als Protagonisten in den einzelnen Kapiteln erlebbar sind.

Der Phosphorcharakter mit seinen vier Sauerstoffatomen, die ihn zum Phosphat machen. Aus "Die Anthropozän-Küche"

Credit: ©Bild Wissen Gestaltung Der Phosphorcharakter mit seinen vier Sauerstoffatomen, die ihn zum Phosphat machen. Aus „Die Anthropozän-Küche“

Ein verbindendes Element – und in diesem Fall ist es wirklich ein Element –, das sich durch alle Kapitel durchzieht, ist der Phosphor. Phosphorverbindungen sind nicht nur essenziell für alles Leben auf der Welt, sondern als Phosphat auch einer von drei Hauptbestandteilen in allen Düngemitteln. Phosphat steigerte die weltweiten Agrarerträge um ein Vielfaches und machte die Ernährung einer schnell wachsenden Weltbevölkerung erst möglich. Seine Bedeutung als endliche und nicht erneuerbare Ressource ist vielen noch nicht bewusst. Das möchten wir gerne ändern, und so zieht sich Phosphor als roter Faden durch die Reise um die Welt und zeigt dabei seine vielseitigen Facetten.

Überhaupt geht es im Anthropozän eben nicht um einfache Lösungen sondern um Vielfalt, bei den Lösungsoptionen, die eben auch regionen- und kulturspezifisch sein können, ja vermutlich sogar sein müssen. Daher ist in diesem Buch noch einer ganz anderen Vielfalt zu begegnen, ja, sie wird sogar förmlich „ins Auge springen“. Wer könnte das Lebensgefühl, die Umgebung, die Essgewohnheiten oder den Lebensalltag der Protagonisten besser darstellen als Zeichner aus den Regionen, in denen die Geschichten spielen? So ist auch die bildliche Umsetzung von größter Diversität. Zwölf Künstler ließen sich auf dieses spannende Projekt ein und stellten sich der Aufgabe, wissenschaftliche Fakten und individuelle Erfahrungen in Bildgeschichten zu übersetzen. Die vollkommen verschiedenen Stile und Perspektiven sind eine große Bereicherung und spiegeln die kulturelle Vielfalt unserer Protagonisten, aber auch – wie wir meinen – der ganzen Welt wider.

Wie es im Anthropozän eben so ist, sind Lösungsansätze nicht unbedingt einfach, oder gar noch „sexy“, sondern bestehen aus einem möglichen Portfolio von Lösungsansätzen, die oft sogar alternativ sein können. Wir haben im Buch daher einerseits einen aus den Wissenschaften heraus entwickelten kurzen Abriss möglicher Lösungsansätze – vier Pfade in die Ernährungszukunft, mit ganz vielen Haltestellen, alternativen Ansätzen und unterschiedlichem Ethos. Sie entsprechen im Wesentlichen dem von mir auch fürs Haus der Zukunft entwickelten (und erstmalig hier auf Scilogs präsentierten) Pfadkonzept für mögliche Lösungswege. Vielleicht haben nach der Lektüre des Buches auch die Leser Ideen für sich gewonnen, wie sie selbst die Zukunft mitgestalten wollen, die vier Zukunftspfade mit ihren vielen Rastplätzen sollen dabei zusätzlich helfen, das für sich richtige zu finden.

 

Das Pfadkonzept für die Zukunft des Ernährung, mit vier sehr verschiedenen Lösungsansätzen (nach Leinfelder 2014, SciLogs)

Das Pfadkonzept für die Zukunft des Ernährung, mit vier sehr verschiedenen Lösungsansätzen (nach Leinfelder 2014, SciLogs)

Dem gegenüber setzen wir allerdings noch einen zweiten, eher künstlerischen Ansatz. Alle Künstler kamen nach Erstellung der einzelnen Länderkapitel zu einem Ernährungs- und Comicexpertensymposium und einem anschließenden Workshop zusammen und diskutierten zuerst geeinsam mit den internationalen Experten, dann untereinander die Zukunft unserer Ernährung. Für die Darstellung ihrer Überlegungen und Ergebnisse fanden die Künstler eine unerwartete Form – „konkrete Utopien“: Sie ließen die Protagonisten des Buchs in die Zukunft reisen, jeweils in ein anderes Land. Von dort schicken diese Postkarten und berichten über das Leben und die Ernährung im Jahr 2050. Auch hier gibt es wieder Vielfalt, sowie eine Mischung aus Dystopien und Utopien, wiederum mit einer gehörigen Portion Augenzwinkern.

Das Ernährungs-Fachsymposium und der Künstlerworkshop am Exzellenzcluster BildWissenGestaltung im Herbst 2015

Das Ernährungs-Fachsymposium und der Künstlerworkshop am Exzellenzcluster BildWissenGestaltung im Herbst 2015

Wir hoffen, dass wir den Lesern mit dem Buch neben den Kochrezepten also auch genügend Futter zum Reflektieren, Diskutieren und Ausprobieren mit an die Hand geben.

Post aus dem Jahr 2050, gemäß unseren Künstlern.

Post aus dem Jahr 2050, gemäß unseren Künstlern.

Dieses Buch ist das Ergebnis eines weltumspannenden Experiments mit vielen Beteiligten und der Welt als Labor. Vielleicht ist daher nicht verwunderlich, dass es in einem interdisziplinären Exzellenzcluster mit Namen Bild Wissen Gestaltung – Ein Interdisziplinäres Labor an der Humboldt-Universität zu Berlin entstanden ist, und zwar in unserem Forschungsprojekt „Die Anthropozän-Küche: Das Labor der Verknüpfung von Haus und Welt“, in dem Natur- und Kulturwissenschaftler, Designer, Architekten und Künstler eng zusammenarbeiten. Dank auch für die zusätzliche  Unterstützung durch die Deutsche Bundesstiftung Umwelt sowie die Freie Universität Berlin.

Die Mutter aller Labore ist natürlich die Küche, und die Ernährung im Anthropozän ist ein Großlaborversuch. Vielleicht geht ja die Liebe zu unserer Welt auch durch Ihren Magen. Dann hätten wir mit den neuen Narrativen zum Anthropozän vielleicht einen Hilfe gefunden, den Wandel einer parasitischen Lebensbeziehung zwischen Menschheit und Umwelt hin zu einer symbiontischen Beziehung zu ebnen.

Unsere Künstlerinnen und Künstler der "Anthropozän-Küche"

Credit: ©BildWissenGestaltung Unsere Künstlerinnen und Künstler der „Anthropozän-Küche“

(Dieser Beitrag basiert auf dem – für SciLogs leicht veränderten und mit Abbildungen ergänzten  –  Vorwort von Reinhold Leinfelder, Alexandra Hamann, Jens Kirstein und Marc Schleunitz zum ihrem Buch: Die Anthropozän-Küche. Matooke, Bienenstich und eine Prise Phosphor – In zehn Speisen um die Welt. 236 S., Springer Verlag, ISBN 978-3-662-49871-2. Die englische Version: Eating Anthropocene. Curd Rice, Bienenstich and a Pinch of Phosphorus – Around the World in Ten Dishes erscheint im September, ebenfalls bei Springer, ISBN 978-3-662-50402-4

Näheres siehe http://anthropocene-kitchen.com sowie http://www.springer.com/de/book/9783662498712 (auch mit Link zum Originalvorwort des Buchs)

Merken

Merken

Merken

Merken

Merken

Merken

Merken

Merken

Merken

]]>
http://scilogs.spektrum.de/der-anthropozaeniker/anthropozaen-kueche/feed/ 2
Stärken stärken, Schwächen schwächen – Leute, das reicht nicht! http://scilogs.spektrum.de/wild-dueck-blog/staerken-staerken-schwaechen-schwaechen-leute-das-reicht-nicht/ http://scilogs.spektrum.de/wild-dueck-blog/staerken-staerken-schwaechen-schwaechen-leute-das-reicht-nicht/#comments Wed, 06 Jul 2016 15:09:48 +0000 Gunter Dueck http://scilogs.spektrum.de/wild-dueck-blog/?p=716 Weiterlesen]]> „Sechs! Setzen!“ Wenn jemand ein schlechtes Zeugnis bekommt, stehen die Schwächen ja drin. Die müssen schnell weg, sonst gibt es Ehrenrunden, in der Wirtschaft einen Bankrott, im Handwerker einen Exodus der Kunden. Schwächen werden in Deutschland nicht gut verziehen und ganz und gar nicht gnädig übersehen. Wir hacken darauf herum… sind wir nicht alle ein bisschen Beckmesser? Auch wenn jemand unverkennbare Stärken hat, wird ungerührt mit „Ja, aber“ argumentiert.
Allerdings: Wenn jemand eine extreme Begabung hat, so erscheint diese derart wertvoll, dass man seine Schwächen in diesem einen Ausnahmefall dann doch verzeiht. Besonders Künstler dürfen Schwächen haben, vielleicht weil sie so viele zu haben scheinen, dass Schwächen wohl zum Künstler dazugehören könnten. Wer weiß?

Besonders große Unternehmen haben große Stärken – sonst wären sie ja keine großen Unternehmen. Sie leben von dieser Stärke seit langer Zeit und bemühen sich stetig und beharrlich, auf der anderen Seite Schwächen zu vermeiden oder zu verdecken.
Heute droht vielen Unternehmen die so genannte Digitalisierung, also ein Umbruch. Da zeigen diese Unternehmen Schwächen. „Weg damit!“, rufen wie immer die Mahner wie der „Merker“ Beckmesser in der Oper von Wagner. Dann antworten die Loyalen: „Nun lasst mal das viele Meckern sein. Wir wollen doch nicht alles schlecht machen. Wir sind seit jeher führend in der Welt. Wir alle hier sind pfauenstolz auf unsere Stärken, und ich lasse mir die von euch Schlechtrednern nicht miesmachen. Wir sind immer noch mit allen Problemen fertig geworden. Wir sind in der Krise stark, gerade dann und jetzt. Wir werden auch diesmal gestärkt aus einer kurzen schweren Zeit hervorgehen. Ich finde es absolut destruktiv, auf unserer Firma herumzuhacken, bloß weil wir in diesem Wandel nicht gleich Kopf und Kragen riskieren und uns eben sehr bedächtig anpassen und hauptsächlich abwarten, wie es weitergeht. Ich dulde es nicht, wenn diese absichtliche Behutsamkeit gleich als Verschlafen bezeichnet wird. Wir schlafen keineswegs, wir beobachten alles sehr scharf. Wir können nicht erkennen, dass die Newcomer substantiell dort stark sind, wo wir stark sind. Wir mögen Schwächen haben, aber sie haben keine Stärken.“

So reden sie am Problem vorbei, die Schwächenschwächer und die Stärkenstärker. Denn sie sind blind für die neuen Stärken, die nicht als „Fach in ihrem Zeugnis“ stehen. Dass Google eine Stärke „in Daten“ hat, ist lange nicht bemerkt worden. Dass Amazon eine Stärke in Logistik oder Cloud entwickelte, hat man nie würdigen wollen. Sie lachen doch alle so lange über Tesla oder Zalando! Sie lachen, weil sie keine Stärken im Neuen erkennen können. Sie sehen allerdings die vielen Schwächen im Neuen, denn das Neue ist oft dort schwach, wo sie stark sind.
Irgendwann hört das Lachen auf. Man erkennt in dem, was man lange hellwach beobachtet hat und als Schwäche klassifizierte, plötzlich Stärken. „Aha, Daten sind das Öl der Zukunft.“ Jetzt merken sie etwas, aber es ist falsch, vollkommen daneben. Richtig ist: „Daten sind das Öl der Gegenwart.“ Ach, Leute, in der Zukunft ist irgendetwas anderes eine Stärke, worüber dann Amazon und Google lachen.

Stellen Sie sich vor, Sie sind künstlerisch super, haben einen tollen Job – aber plötzlich sollen Sie Ingenieur sein! Oder umgekehrt. Stellen Sie sich vor, Sie sind Astronom und sollen Pilot werden, oder Sie sind Pilot und sollen Chirurg sein. Das wird hart. Sie müssen Ihre lange eingeübte Meisterschaft einfach vergessen und als Lehrling oder Newbie ganz neu anfangen. Alles von der Pike auf neu. Können Sie das überhaupt? Haben Sie im Neuen eine Begabung? Wahrscheinlich nicht. Können Sie neu anfangen – ohne Trauerblick zurück? Wohl kaum. Geht das, Riesenstärke auf einem neuen Gebiet zu erlangen, das einem fremd ist und auch von Fremden aufgezwungen wird? Die eigene Stärke haben Sie geliebt, Sie haben den Beruf wie eine Berufung gefühlt. Nun kommen die Teslas und Fintechs und wollen, dass Sie ein Star in einem ungeliebten Fach werden – in einem Fach, dass Sie fast hassen müssen, weil es das geliebte Alte tötet und Sie vom Meister zum blutigen Anfänger degradiert.

Nun geht es absolut nicht mehr darum, Ihre Stärken zu stärken, die sind nicht mehr gefragt. Es bringt nichts, an Ihren Schwächen zu arbeiten – oh nein, neue Stärken müssen her. Und wir Alten fühlen, dass wir nicht können, weil wir auch nicht mögen. Die Jungen wählen die neuen Stärken als Berufung und wir werden zu den neuen Stärken vom Gesetz des Marktdschungels gezwungen.

Wenn die alten Stärken nichts mehr zählen, sind wir nur noch schwach. Wir reden uns ein, wir müssten uns besser anpassen, und wir verstehen nicht, was diejenigen meinen, die von Neuerfindung reden. Neuerfindung? Das klingt zu marktschreierisch und sensationistisch. Neuerfindung? Da endet unsere Phantasie. „Verrückte Welt“, seufzen wir im Niedergang.

In dem Singspiel „Meistersinger von Nürnberg“ macht Beckmesser den Gesang des Ritters Walther von Stolzing nieder, der – ja wie soll man sagen – in heutiger Diktion mit einem neuen Genre oder Sound aufwartet, der alle bisherigen Vorstellungen vom Singen an sich sprengt. Nur Meister Hans Sachs kann im Neuen etwas Meisterliches erkennen:

Halt, Meister! Nicht so geeilt!
Nicht jeder eure Meinung teilt. –
Des Ritters Lied und Weise,
sie fand ich neu, doch nicht verwirrt:
verließ er unsre Gleise
schritt er doch fest und unbeirrt.
Wollt ihr nach Regeln messen,
was nicht nach eurer Regeln Lauf,
der eignen Spur vergessen,
sucht davon erst die Regeln auf!

Könnten wir nicht in dieser Weise das Neue einmal nicht „verwirrt“ finden? Und gleich über die neuen Regeln und Stärken des Neuen respektvoll nachsinnen? Ja, sollten wir. Wagners Spiel geht ja noch ganz gut aus. Man bricht ja nicht gleich mit aller Tradition, sondern heiratet in sie ein. Walther von Stolzing willigt ja dann doch noch ein, die traditionelle Meisterwürde anzunehmen und Schwiegersohn zu werden.

„Verachtet mir die Meister nicht, und ehrt mir ihre Kunst!“

Ein schönes Ende dieses Singspiels, aber ich fürchte, mit der Digitalisierung wird es ernster.

]]>
http://scilogs.spektrum.de/wild-dueck-blog/staerken-staerken-schwaechen-schwaechen-leute-das-reicht-nicht/feed/ 2
Gravitationswellen-Nachweistechnik: Signale und Wellen http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-signale-und-wellen/ http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-signale-und-wellen/#comments Tue, 05 Jul 2016 08:13:29 +0000 Markus Pössel http://scilogs.spektrum.de/relativ-einfach/?p=4670 Weiterlesen]]> In den letzten Beiträgen hatte ich mich damit beschäftigt, welche Störeinflüsse den direkten Nachweis von Gravitationswellen erschweren: Erschütterungen des Erdbodens zum Beispiel, bestimmte Quanteneigenschaften des Lichts und der Umstand, dass alle Bauteile eines Gravitationswellendetektors thermische Schwingungen ausführen.

Dabei hatte ich wiederholt darauf hingewiesen, dass eine bestimmte Störquelle bei niedrigen Frequenzen besonders wichtig werde (Seismik!), eine andere bei höheren Frequenzen (Quanteneigenschaften!), während die dritte in dem Frequenzbereich dazwischen die Empfindlichkeit des Detektors einschränke (thermische Schwingungen!).

Aber was heißt das eigentlich? Wo spielen da Frequenzen und Frequenzbereiche eine Rolle?

Alles als Welle

Auftritt: Joseph Fourier (1768–1830), französischer Mathematiker und Physiker. Fourier war nicht nur bei Napoleons Ägypten-Expedition vorbei (und gab Hilfestellung bei der Entzifferung der Hieroglyphen, indem er dem jungen Jean-François Champollion eine Abschrift der Inschrift auf dem Stein von Rosette übergab). Er war auch der erste, der zeigte, wie sich jedes Signal als Überlagerung der einfachstmögilchen Wellen darstellen lässt – diese Erkenntnis ist Grundlage von weiten Teilen der modernen Signaltechnik.

Hier sehen wir Fourier im Schattenriss:fourier-schattenrissNehmen wir einmal nur die vordere Seite des Profils und legen sie auf die x-Achse, so wie in dieser Abbildung hier:fourier-profileDas definiert eine mathematische Funktion, wenn auch eine recht ungewöhnliche. Allgemein betrachten wir solch eine Funktion als ein „Signal“ – als einen Funktionsverlauf einer Größe, die Informationen darüber liefert, was da zu jedem Zeitpunkt passiert. Ein Radio-Funksignal wäre beispielsweise ein elektrisches Feld, das sich mit der Zeit ändert; geeignet dekodiert kann man das Radioprogramm hörbar machen. Bei einem Gravitationswellendetektor bekämen wir das Signal aus dem Detektor-Output und müssten dann schauen, wie sich daraus Rückschlüsse auf eine Gravitationswelle ziehen lassen, die den Detektor durchquert hat.

Einfache Kosinuswellen

Egal wie ein Signal aussieht – das Beispiel oben leitete sich, wie gesagt, aus dem Profil von Joseph Fourier ab –, das Signal lässt sich immer zumindest näherungsweise als Summe einfacher Kosinuswellen darstellen. Bei einem Abschnitt der Länge T reichen uns dabei Kosinuswellen, deren Schwingungszeiten die Form T/N mit N einer ganzen Zahl haben. Hier sind einige dieser Kosinuswellen dargestellt; zur besseren Sichtbarkeit habe ich sie alle in senkrechter Richtung gegeneinander verschoben:sine-wavelengthsDie dunkel hinterlegte Fläche liegt genau zwischen zwei aufeinanderfolgenden Wellenbergen der untersten, blauen Welle. Man kann im Vergleich mit den senkrechten Begrenzungen dieser Fläche direkt ablesen, dass in denselben Zwischenraum zwei Wellenlängen der grünen Welle passen, drei der roten, vier der türkisen Welle und so weiter. Das zeigt direkt die verschiedenen Wellenlängen der hier dargestellten Kosinuswellen, sprich: die unterschiedlichen Abstände von einem Wellenberg zum nächsten.

Auch in der Wellenhöhe, also dem senkrechten Abstand von Wellenberg und Wellental, können sich Kosinuswellen unterscheiden. Die maximale Wellenhöhe während eines Schwingungszyklus heißt Amplitude; hier sind Kosinuswellen derselben Wellenlänge, aber unterschiedlicher Amplitude zu sehen:sine-amplitudeAußerdem können sich Kosinuswellen noch in der Phase unterscheiden, also an der Lage ihrer Wellenberge und -täler. Hier sind einige Kosinuswellen mit gleicher Wellenlänge und Amplitude, aber unterschiedlicher Phase: sine-phase Auch der Unterschied zwischen Sinus und Kosinus ist ein einfacher Phasenunterschied: eine Sinuswelle erhält man aus einer Kosinuswelle, indem man die Kosinuswelle um ein Viertel der Wellenlänge nach rechts verschiebt.

Wellenkombinationen

Wie andere mathematische Funktionen kann man auch Kosinusfunktionen punktweise addieren. Um den Wert der Summenfunktion zweier Kosinusfunktionen an einem Ort x zu berechnen, bestimmt man den Wert der ersten Kosinusfunktion am Ort x, dann den Wert der zweiten Kosinusfunktion am Ort x, und addiert diese beiden Einzelwerte. Das ergibt den Wert, den die Summenfunktion an dem betreffenden Ort x hat.

Fourier fand heraus, dass sich jedes Signal als Summe von Kosinusfunktionen (oder, äquivalent: von Sinusfunktionen) mit geeigneter Wellenlänge, Amplitude und Phase schreiben lässt. Im Falle eines zeitlich begrenzten Signals treten nur ganz bestimmte Wellenlängen auf, nämlich solche der Form „Signallänge T durch N“, mit N einer ganzen Zahl. Eine gute Näherung erhält man bereits, wenn man nur die Wellenlängen T/N für die ersten ganzen Zahlen N bis zu einer gewissen Obergrenze mitnimmt. Die blaue Kurve hier zeigt die Summe einer konstanten Funktion (grün) und der ersten vier Sinuswellen; die einzelnen Kosinuswellen sind unten eingezeichnet:composition005Die blaue Kurve sieht dabei dem liegenden Profil von Herrn Fourier zugegebenermaßen noch nicht sehr ähnlich. Hier dasselbe mit den ersten neun Kosinusfunktionen plus konstanter Funktion: composition010Hier sieht man immerhin bereits die Nase des liegenden Herrn Fourier, eine noch etwas gewellte Hemdbrust und Stirn/Haare. Hat man die ersten 49 Kosinuswellen aufsummiert, ist das Profil dagegen kaum noch vom Original zu unterscheiden: composition050Allenfalls die Wellenstrukturen links oben an der scharfen Kante der Büste weisen darauf hin, dass wir hier eine Fourier-Näherung vorgenommen haben.

Variationen über das Profil des Herrn Fourier

Hier ist als animiertes Gif dargestellt, was passiert, wenn wir mit der konstanten Funktion und einer einzigen Kosinuswelle beginnen und nach und nach alle Kosinuswellen bis einschliesslich der ersten 59 dazuzählen: fourier-horizontalcumulative-curves-downDabei gibt es einen direkten Zusammenhang zwischen der Wellenlänge der hinzukommenden Kosinuswellen und der Feinheit der Details, die man darstellen kann. Rechts sind einige der Näherungen noch einmal (künstlich vertikal versetzt, damit man die Details erkennt) direkt untereinander hingemalt.

Der Fall n=0 zeigt den Mittelwert der Kurve und enthält keinerlei Strukturinformation. n=1, mit der ersten Kosinuswelle dazugezählt, deutet an, dass die Kurve in der linken Hälfte (dort, wo Herrn Fouriers Rumpf emporragt, bevor er büstenartig abgeschnitten wird) höher ist als rechts.

Mit n=2 wird klar, dass rechts zwar nicht das Maximum, aber immerhin eine weitere Struktur ist, nämlich der Kopf des Herrn Fourier. Ab n=4 bildet sich nach und nach das Maximum heraus, das letztlich zu Fouriers Nase wird.

Die feinsten Details, wie der Einschnitt zwischen Kinn und Hemdkragen oder die Lippen, bilden sich erst heraus, wenn Kosinuswellen mit entsprechend kleinen Wellenlängen dazugekommen sind. Bei n=30 sind sie noch einigermaßen unscharf; erst die hinzukommenden Wellen bis n=40 reichen aus, um sie deutlich sichtbar zu machen.

Gut sichtbar ist das schon erwähnte Phänomen bei der Darstellung scharfer Ecken, links oben in der Kurve. Diese markante Ecke ist bereits ab n=2 als zunächst weiches Maximum angelegt. Mit jeder hinzukommenden Kosinusfunktion wird die Ecke schärfer.

Zunächst zeigt der gerade Abschnitt rechts von der Ecke dabei noch wellenartige Schwingungen; diese werden aber zunehmend kleiner, sind bei n=20 schon einigermaßen unauffällig, bei n=30 muss man schon sehr genau hinschauen und bei n=40 sehe zumindest ich nur noch einen möglichen kleinen Schlenker direkt an der Ecke.

Wer möchte: Ich habe auch noch ein paar senkrechte Versionen gemacht, ausgefüllt und nicht ausgefüllt, mit bzw. ohne Original im Hintergrund.

fourier-seriesfourier-approx fourier-fill

Fouriers Wellenbaukasten

Besonders gut geeignet ist diese Fourier-Zerlegung, also die Darstellung als Summe von Kosinusfunktionen, für Kurven, die von vornherein Wellencharakter haben. Dazu gehören zum Beispiel Schallwellen, die direkt als Überlagerung von Schwingungszuständen z.B. unserer Stimmbänder, von Saiten wie bei Klavier oder Gitarre und der Resonanzkörper von Musikinstrumenten erzeugt werden.

Wichtig ist, dass die Informationen des ursprünglichen Signals vollständig in der Kombination von unendlich vielen Kosinuswellen steckt, die man aus dem Signal nach Fouriers Anleitung ableiten kann. In einer Kombination der ersten N Kosinuswellen steckt zumindest die wichtigste Information über das Signal.

Anders ausgedrückt: es gibt zwei äquivalente Darstellungen für solch ein Signal. Bei der ersten wird das Signal so als Kurve hingemalt, wie wir es oben bei Fouriers Profil getan haben. Bei Schallsignalen, elektrischen Signalen aber auch bei den Gravitationswellen, auf die ich letztlich hinaus möchte, sind auf der x-Achse die jeweiligen Zeitpunkte aufgetragen. Diese Darstellung heißt daher auch Zeitdarstellung.

Äquivalent könnte ich aber auch auflisten, wie groß die Amplituden und welches die waagerechten Verschiebungen (Phasen) der beteiligten Kosinuswellen sind. Meist charakterisiert man jede einzelne Kosinuswelle dabei nicht über ihre Wellenlänge, sondern ihre Frequenz; geht man von einer Zeitdarstellung aus, dann ist die Frequenz schlicht der Kehrwert dessen, was ich bislang Wellenlänge genannt habe. Eine Welle, bei der die Signallänge T genau dem Abstand von einem Wellenberg zum nächsten entsprach, besitzt die Frequenz 1/T, eine, wo es zwei Abstände zwischen Wellenbergen sind, die Frequenz 2/T, und so weiter. Ist auf der waagerechten Achse die Zeit aufgetragen, hat Frequenz die Einheit „eins durch Zeiteinheit“. Zerlegt man ein räumliches Signal, hat räumliche Frequenz die Einheit „eins durch Länge“.

Die Diagramme, die sich dabei ergeben, sind gewöhnungsbedürftig, enthalten aber im Prinzip die gleiche Information wie das Signal in Zeitdarstellung. Hier ist das Amplitudenspektrum für das Fourier-Profil, also die Information darüber, wie groß die Amplituden der vielen verschiedenen beteiligten Kosinuswellen in Abhängigkeit von ihrer Frequenz sind: fourier-amplitudesWie gesagt, eine ungewohnte Darstellung, aber immerhin kann man dem Diagramm direkt ansehen: Der überwiegende Teil der Form wird durch größere Strukturen bestimmt (hohe Amplituden bei niedrigen Frequenzen entsprechend großen Wellenlängen), während die kleineren Strukturen (höhere Frequenzen) nur wenig beitragen.

Das Phasenspektrum (welche Phase hat eine Kosinuswelle bestimmter Frequenz?) sagt mir persönlich vom bloßen Anblick her gar nichts:fourier-phasesAber das muss es ja auch nicht, solange ich weiß, wie ich am Rechner aus diesen Daten, nämlich aus Amplituden und Phasen das ursprüngliche Signal rekonstruieren kann.

Phasenspektrum und Amplitudenspektrum bilden zusammen die Frequenzdarstellung des Signals. Für viele Anwendungen reicht es bereits aus, das Amplitudenspektrum zu kennen, um bestimmte Aussagen über das betreffende Signal zu treffen.

Günstigerweise ist die Bedeutung insbesondere des Amplitudenspektrums im einfachsten Fall, nämlich bei einer einzigen Kosinuswelle, sehr einfach. Das spielt eine Rolle, wenn wir zu einer der wichtigsten Anwendungen dieser Art von Fourier-Analyse von Signalen kommen, die auch für die Gravitationswellen entscheidend ist: Der Umgang mit Rauschen, also mit Störungen, die sich dem Signal überlagern.

Signal, Rauschen und Frequenzdarstellung

Aus direkter Erfahrung kennen wir störendes Rauschen vom Radio, insbesondere vom analogen Radio: Der schönen Musik oder der menschlichen Sprache überlagert sich dabei ein hörbares Rauschen und Knistern, das den Hörgenuss schmälern und das Radioprogramm im schlimmsten Fall unverständlich und ungenießbar machen kann.

Solche Störeffekte gibt es im allgemeinen auch bei Signalen anderer Art. In der wirklichen Welt gilt: Kein Signal ohne Rauschen. Hier ein einfaches Beispiel. Unser Signal, also das, was wir übertragen, empfangen, nachweisen möchten, sei eine einfache Kosinuswelle: sinus-signalIn das dargestellte Zeitintervall von einer Sekunde passen gerade sechs Abstände von einem Wellenberg zum nächsten, mit anderen Worten: sechs Wellenberge pro Sekunde, entsprechend einer Frequenz von 6 Hertz (6 Hz). Das Hertz, benannt nach dem Physiker Heinrich Hertz, ist gerade so definiert, dass ein sich wiederholender Vorgang bzw. eine Schwingung pro Sekunde 1 Hz entspricht. Sechs Schwingungen pro Sekunde – sechs Wellenberge hintereinander in unserem Diagramm, bis die ein-Sekunden-Marke erreicht ist) sind daher 6 Hz.

Hier habe ich für dasselbe Zeitintervall ein bisschen sogenanntes weißes Rauschen (für Insider: mit Normalverteilung der Breite 1) vorbereitet. Das hat per Definition die Eigenschaft, dass es keine charakteristischen Frequenzen hat – zerlegt man es in Sinuswellen, erhalten alle diese Sinuswellen dasselbe Gewicht. Hier ist das Rauschen erst einmal in der Zeitdarstellung: sinus-noise02 Da die Kurve auch auf kürzesten Zeitskalen wild hin- und herspringt, erkennt man vor lauter blau keinen rechten Kurvenverlauf. Ich habe die Funktion dargestellt, in dem ich den Wert für jede Zehntausendstelsekunde ermittelt und geplottet habe („Abtastfrequenz 10 kHz“). Zoomt man auf der x-Achse weit genug hinein, dass man die einzelnen Zehntausendstelsekundenschritte unterscheiden kann, dann bekommt man einen besseren Eindruck vom hin- und herspringen: sinus-noise02zoom Haben wir es sowohl mit diesem Rauschen als auch mit dem Sinussignal zu tun, dann summieren sich Signal und Rauschen auf, und was wir messen können ist so etwas wie das hier: sinus-signal-noise02Das Kosinussignal ist auch hier noch mit dem bloßen Auge deutlich zu erkennen; das Rauschen verdickt bzw. verschmiert den Kosinus zwar, aber ohne ihn unkenntlich zu machen. Dazu ist die Amplitude des Kosinussignals zu groß, die der Rauschens im Vergleich dazu zu klein.

[In der Signalverarbeitung scheint der Sprachgebrauch übrigens etwas zweideutig sein. Einerseits wird dem Signal, also der gesuchten/gewollten Funktion, die Informationen überträgt, das Rauschen gegenübergestellt. Andererseits ist das Rauschen selbst und ist die Kombination des gesuchten Signals mit dem Rauschen seinerseits wieder eine zeitabhängige Funktion, die man nachweist, also wiederum im Signal. Aus dem Zusammenhang sollte aber klar werden, ob gerade ein Signal im weiteren Sinne (was da ankommt, ob Rauschen oder nicht) oder im engeren Sinne (Signal ungleich Rauschen) gemeint ist.]

Zurück zu gewolltem Signal plus Rauschen. Im letzten Bild konnte man das Signal noch deutlich erkennen. Anders sieht das aus, wenn die Rauschamplitude größer ist als das Signal. Im nächsten Bild ist die Amplitude des Rauschens sechs Mal größer als die eines darin befindlichen Signals, nämlich einer kleinen Kosinuswelle, der sich das Rauschen überlagert hat: sinus-signal-noise0102Mit dem bloßen Auge ist da nicht mehr zu sehen, was für eine Kosinuswelle sich im Rauschen versteckt. Was tun?

Jetzt wechseln wir zur Fourier-Darstellung. Auch die Kombination von Signal und Rauschen ist eine Kurve, eine zeitabhängige Kenngröße, die wir durch Überlagerung einfacher Kosinuswellen schreiben können. Welche Kosinuswellen-Frequenzen darin wie stark vertreten sind, sagt uns das Amplitudenspektrum, das wir oben bereits kennengelernt hatten. Hier ist es zunächste einmal für den vollen Frequenzbereich dargestellt, der sich aus den gegebenen Daten bestimmen lässt, von 1 bis 5000 Hertz (vereinfacht: kleinere Details als die Auflösung der Kurve mit bei mir 10.000 Punkten zwischen 0 und 1 können nämlich auch die Kosinuskurven nicht beschreiben): signal-noise-amplitudes01-unzoomed Da ist jetzt erstmal nichts, das sich deutlich vom Rest abheben würde. Das ist in diesem Falle aber ein Darstellungsproblem – zoomen wir mal in den Bereich kleinerer Frequenzen hinein, hier zunächst von 0 bis 500 Hz: signal-noise-amplitudes01-zoomed1Da ganz links ist ein Teil der Kurve, der deutlich über den Rest herausragt. Also: Noch weiter Zoomen, Frequenzbereich von 0 bis 20 Hertz: signal-noise-amplitudes01-zoomed2Da sticht aus dem bei Amplituden um 0,01 herumkrebsenden Rauschen deutlich eine einzelne Frequenz hervor, nämlich 6 Hz. Tatsächlich hatte ich dem Rauschen eine kleine Sinuswelle mit Frequenz 6 Hz und einer Amplitude von 0,05 überlagert. In der Zeitdarstellung geht die Sinuswelle im Rauschen unter. In der Frequenzdarstellung, genauer: im Amplitudenspektrum sticht sie im wahrsten Sinne des Wortes heraus.

Rauschen unterdrücken: Filter

An der einfachen Kosinuswelle im Rauschen kann man noch einen weiteren Vorteil der Frequenzdarstellung demonstrieren. Angenommen, ich weiß bereits vorab, dass ich mein Signal in einem ganz bestimmten Frequenzbereich erwarte, sagen wir: im Bereich von 0 bis 30 Hertz. Dann weiss ich auch: Was auch immer in meinem Amplitudenspektrum außerhalb dieses Frequenzbereichs auftritt, muss vom Rauschen herrühren. Alleine dadurch, dass ich alle Frequenzen außerhalb des mich interessierenden Frequenzbereiches beiseite lasse, kann ich das Rauschen also bereits gehörig unterdrücken.

In der Signalverarbeitung gibt es zur Auswahl bestimmter Frequenzbereiche verschiedene Arten von Fensterfunktionen. Ich mach’s hier mal ganz primitiv und setze einfach alle Amplituden für die Frequenzen oberhalb von 30 Hertz zu Null. Im Bereich von 0 bis 50 Hertz sieht das Amplitudenspektrum dann für unser vorangehendes Beispielsignal (kleine Sinuswelle plus dreimal stärkeres Rauschen) so aus: signal-noise-amplitudes01-filteredAuch bei den höheren Frequenzen ist die Amplituden-Spektrumskurve dann identisch Null. Wenn wir jetzt diese neue Kurvenbeschreibung in Frequenzdarstellung zurücktransformieren in die Zeitdarstellung, dann ist das Ergebnis dieses hier: reconstructed-signalUnd hier ist das Signal im Vergleich zum Original: reconstructed-signal-originalZur Erinnerung: Bevor wir uns auf einen kleinen Frequenzbereich beschränkt hatten, sah das ganze noch so aus: unreconstructed-originalMan kann für den Unterschied dank des Filterns auch eine Kennzahl angeben. Bei elektromagnetischen Wellen, Schallwellen, aber auch Gravitationswellen ist die Energie, die eine Welle pro Zeiteinheit transportiert, also momentanedie Leistung des Signals, typischerweise proportional zum Quadrat der Kenngröße. Für ein Signal, das an einem Detektor ankommt, ist das Quadrat der Kenngröße, gemittelt über einen bestimmten Empfangszeitraum, proportional zu der durchschnittlichen Leistung, die den Detektor in jenem Zeitraum erreicht. Auch denjenigen Änderungen der Kenngröße, die durch das Rauschen verursacht werden, kann man eine solche durchschnittliche Leistung zuordnen.

Das sogenannte Signal-Rausch-Verhältnis (englisch Signal to Noise Ratio, abgekürzt SNR) ist im einfachsten Falle das Verhältnis der durchschnittlichen Leistung des Signals zum durchschnittlichen Leistung des Rauschens. In unserem Beispiel ist das Signal-Rausch-Verhältnis zunächst 0,01, sprich: das Rauschen trägt rund 100 Mal mehr zur Leistung bei als das Signal. Nachdem wir alle Frequenzen oberhalb von 30 Hz herausgefiltert hatten, war dagegen vom Rauschen deutlich weniger übrig (das vorletzte Bild). Das Signal-zu-Rausch-Verhältnis ist SNR = 2,7, in Worten: das Signal ist rund dreimal stärker als das Rauschen.

Ein Beispiel für tieflastiges Rauschen

Noch größer kann der Effekt einfacher Frequenzfilter sein, wenn das Rauschen ungleich über die verschiedenen Frequenzen verteilt ist. Als Beispiel wähle ich ein Rauschen, das seinen allergrößten Anteil im niedrigen Frequenzbereich hat, unterhalb von sagen wir: 35 Hertz. In dem Rauschen ist wieder ein reines, kleines Kosinussignal versteckt. Hier ist die Summe von Signal und Rauschen:

sinus-signal-noise-deepUnd, schon etwas gesehen? Das ist mit dem bloßen Auge in diesem Falle gar nicht möglich. Das Signal-Rausch-Verhältnis beträgt SNR = 0,05. Das Rauschen ist nach diesem Kriterium 20 Mal stärker als das Signal.

Jetzt schauen wir uns wieder das Amplitudenspektrum an:signal-noise-amplitudes-deep-unzoomedDas Spektrum sieht auf der rechten Seite geradezu verdächtig flach und regelmäßig aus. Das liegt daran, dass ich das Amplitudenspektrum in diesem Falle genutzt habe, um das Rauschen überhaupt erst einmal zu erzeugen: ich habe ein sehr einfaches Amplitudenspektrum vorgegeben, den Computer zufällige Phasen erzeugen lassen und daraus mein Rauschen in Zeitdarstellung konstruiert. Für jedes wirkliche Rauschen wird auch das Amplitudenspektrum unregelmäßiger aussehen. Aber vernachlässigen wir diesen Aspekt; hier geht es stattdessen ums Prinzip.

Wieder ist da im Amplitudendiagramm eine Auffälligkeit ganz links. Zoomen wir einmal näher heran: signal-noise-amplitudes-deep-zoomed2 Jep, da sieht man zum einen den Anstieg des Rauschens links, bei den niedrigen Frequenzen – einen ganz deutlichen Anstieg, denn die senkrechte Achse ist hier logarithmisch. Die niedrigsten im Rauschen vorkommenden Frequenzen entsprechen Wellen mit rund 20 Mal größerer Amplitude als für jede der Wellen mit Frequenzen höher als knapp 40. Außerdem sehen wir ganz klar, und wieder ungleich deutlicher als in der Zeitdarstellung, das Signal – eine Sinuswelle mit einer Frequenz von 40 Hertz.

Nehmen wir an, wir hätten aufgrund physikalischer oder anderer Überlegungen Grund zu der Annahme, dass unsere Signale nur im Frequenzbereich zwischen 30 und 100 Hertz auftreten. Dann gilt einmal mehr: Was an Teilwellen außerhalb dieses Frequenzbereichs auftritt, gehört zum Rauschen. Wir filtern daher wieder alle höheren und tieferen Frequenzen aus, denn bei diesen wird es sich um Rauschen handeln. Mit anderen Worten beschneiden wir das Amplitudenspektrum wie in dem folgenden Diagramm dargestellt:signal-noise-amplitudes-deep-filteredÜbersetzen wir dieses gefilterte Etwas zurück in die Zeitdarstellung, dann erhalten wir den folgenden Output: reconstructed-signal-deep…und solchermaßen gefiltert ist die kleine Kosinuswelle dann auch in der Zeitdarstellung mit bloßem Auge sichtbar, wenn auch etwas unregelmäßig aufgrund von Rauschbeiträgen.

Die entsprechenden Diagramme lassen sich auch nutzen, um zu beurteilen, ob und wie gut man ein bestimmtes Signal bei gegebenem Rauschen überhaupt nachweisen kann. Nehmen wir an, in dem gerade behandelten Beispiel sei das Rauschen stationär, sprich: im Mittel immer gleich, mit der gleichen Frequenzabhängigkeit der Amplituden egal welchen Zeitabschnitt wir betrachten. Dann können wir das Rauschspektrum auch vorab messen, in einem Zeitraum, in dem noch gar kein Signal präsent ist: noise-amplitudes-deep-zoomed2
Mit der Information, die in diesem Rauschspektrum steckt, lässt sich vorhersagen, ob man ein bestimmtes Signal nachweisen könnte, wenn es in diesem Rauschen verborgen wäre. Im einfachsten Falle zeichne ich dazu einfach das Amplitudenspektrum des betreffenden Signals in dasselbe Diagramm ein, wie hier zu sehen ist. Das Amplitudenspektrum ist für eine reine Kosinuswelle ein einzelner Punkt, hier als lilaner Kreis dargestellt. Der Punkt liegt deutlich über dem Level des Rauschens im entsprechenden Frqeuenzbereich:
noise-amplitudes-and-signal-deep-zoomed2Will man eine genauere, nämlich quantitative Antwort, muss man dann noch für den gewählten Nachweisbereich das Signal-zu-Rausch-Verhältnis ausrechnen; für die praktische Suche nach Signalen kommt außerdem hinzu, dass man in der Regel nach komplexeren Signalen sucht und dafür andere Suchmasken anwendet als nur nach einer einzigen Frequenz-Amplituden-Kombination zu schauen. Aber die Grundidee ist auch bei genauerer Betrachtung belastbar: Wenn ich weiß, mit welchem Rauschen ich rechnen muss, dann kann ich auch abschätzen, welche Art von Signal ich in diesem Rauschen nachweisen könnte. Die Frequenzdarstellung ist dabei ein sehr wichtiges Werkzeug.

Zurück zu den Gravitationswellendetektoren

Das war ein langer Ausflug in die Grundlagen der Signalverarbeitung, und wie erwähnt: dieselben Prinzipien lassen sich auf allgemeine elektronische Signale anwenden, oder auf Schallwellen, oder auf andere Arten von Signalen. Eine Stereoanlage, bei der man Höhen und Tiefen getrennt regeln kann, nutzt die Fourier-Zerlegung in Elementarwellen ebenso wie der Radioapparat, der aus den elektromagnetischen Feldern, die an der Antenne ankommen, im richtigen Frequenzbereich das gewünschte Programm herausfiltert. Bildbearbeitungsprogramme benutzen ähnliche Methoden für räumliche Muster zur gezielten Veränderung digitaler Bilder.

Bei den Gravitationswellendetektoren geben uns diese und ähnliche Überlegungen zu Signal und Rauschen die Möglichkeit, die in den vorangehenden Teilen (Erschütterungen, Quanteneffekte, Schwingungen) getroffenen Aussagen dazu, ein bestimmter Störeinfluss sei bei niedrigen Frequenzen besonders stark, ein anderer bei höheren Frequenzen, zu präzisieren: Wir zeigen für den entsprechenden Störeinfluss ein Amplitudenspektrum (oder ein damit verwandtes Diagramm; es gibt verschiedene Variationen solcher Spektren) und sehen dann direkt, wie groß der Störeinfluss im jeweiligen Frequenzbereich ist. Wie im vorigen Abschnitt gezeigt, können wir mithilfe solcher Rausch-Amplitudendiagramme dann auch die Frage angehen, wie stark ein Signal sein muss, damit es in einem der Gravitationswellendetektoren nachgewiesen werden kann.

Die Frequenzzerlegung erlaubt es, bei der Analyse besonders günstige Verfahren zur Suche nach konkreten Signalen anzuwenden. Man arbeitet dabei mit „Signalmustern“, die es zu erkennen gilt. So gewichtet, dass Übereinstimmungen in denjenigen Frequenzbereichen einen stärkeren Einfluss haben, in denen das Rauschen am niedrigsten ist, sind diese Signalmuster eine sehr effektive Art und Weise, nach Signalen im Rauschen zu suchen.

Die Anwendung solcher Verfahren zur Beschreibung des Rauschens ebenso wie zur Suche nach Gravitationswellensignalen stellt an Gravitationswellendetektoren aber auch eine ganz bestimmte Anforderung, nämlich dass solche Detektoren linear arbeiten müssen. Das heißt vereinfacht: Wenn eine von der Amplitude her doppelt (dreifach, vierfach…) so starke Gravitationswelle auf meinen Detektor trifft, dann muss auch das entsprechende Nachweissignal, das ich zum Nachweis an meinem Detektor abgreife, doppelt (dreifach, vierfach…) so stark sein. Wenn zwei Gravitationswellen gleichzeitig eintreffen und ihre Wirkungen auf meinen Detektor sich daher aufsummieren, dann muss auch das entsprechende Signal die Summe derjenigen Teilsignale sein, die jede der beiden Gravitationswellen für sich genommen erzeugt hätte.

Nur unter diesen Umständen summieren sich die unterschiedlichen Elementarwellen, in die man einerseits die Gravitationswellen, andererseits die Störeinflüsse zerlegen kann, so auf, dass man am Ende bei der Analyse wieder alles ganz einfach auseinandernehmen, Rauscheinflüsse herausrechnen und Amplitudenspektren betrachten kann.

 

 

 

]]>
http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-signale-und-wellen/feed/ 29
Kreis oder Gerade http://scilogs.spektrum.de/quantenwelt/kreis-oder-gerade/ http://scilogs.spektrum.de/quantenwelt/kreis-oder-gerade/#comments Tue, 05 Jul 2016 07:58:24 +0000 Joachim Schulz http://scilogs.spektrum.de/quantenwelt/?p=1657 Weiterlesen]]> Das Trägheitsprinzip der Mechanik geht auf Galileo Galilei zurück und ist uns allen vertraut: Einmal in Bewegung versetzte Körper behalten ihre Bewegung gleichförmig, geradlinig bei, wenn sie nicht durch Kräfte von ihrer Bewegung abgebracht werden. Das ist so selbstverständlich, dass wir uns kaum Gedanken machen, wie es anders sein könnte. Dabei ist dieses Prinzip gar nicht so einfach zu erkennen und gilt auf der Erde nur eingeschränkt. (mehr …)

]]>
http://scilogs.spektrum.de/quantenwelt/kreis-oder-gerade/feed/ 3
Besuch im VEGAS http://scilogs.spektrum.de/mente-et-malleo/besuch-im-vegas/ http://scilogs.spektrum.de/mente-et-malleo/besuch-im-vegas/#comments Mon, 04 Jul 2016 20:48:51 +0000 Gunnar Ries http://scilogs.spektrum.de/mente-et-malleo/?p=1809 Weiterlesen]]> Beim letzten Treffen des Arbeitskreises Umweltgeologie hatten wir die Gelegenheit, das VEGAS zu besuchen. Was sich ein wenig wie ein Spielerparadies in der Wüste anhört, steht in diesem Fall für die Versuchseinrichtung zur Grundwasser- und Altlastensanierung. (mehr …)

]]>
http://scilogs.spektrum.de/mente-et-malleo/besuch-im-vegas/feed/ 3
Klimawandel: Das allzu ferne Wetterleuchten http://scilogs.spektrum.de/babylonische-tuerme/klimawandel-das-allzu-ferne-wetterleuchten/ http://scilogs.spektrum.de/babylonische-tuerme/klimawandel-das-allzu-ferne-wetterleuchten/#comments Mon, 04 Jul 2016 19:56:04 +0000 Martina Grüter http://scilogs.spektrum.de/babylonische-tuerme/?p=141 Weiterlesen]]> Die globale Erwärmung fällt aus, jedenfalls beinahe. Auf dem Pariser Klimagipfel haben die Staaten der Welt beschlossen, dass die Durchschnittstemperatur der Welt um nicht mehr als 1,5° oder maximal 2° Celsius steigen wird. Und nicht nur das. Jeder (naja, fast jeder) Staat hat auch einen detaillierten Plan eingereicht, wie sein Beitrag aussehen soll.

Damit haben die Großen der Welt ein leuchtendes Beispiel internationaler Zusammenarbeit gesetzt – sollte man meinen. Leider hat das schöne Bild einige Flecken. Eine im Juni 2016 in Nature veröffentlichte internationale Studie hat jetzt nachgewiesen, dass die gesammelten Pläne zur CO2-Begrenzung das angestrebte Klimaziel weit verfehlen. Selbst wenn jeder einzelne Staat seine Pläne ohne Abstriche umsetzt, wird sich der Globus um ca. 3° C erwärmen. Es könnte aber auch mehr sein. Einige der CO2-Reduzierungspläne lesen sich so vage wie Silvestervorsätze.

Das sind schlechte Nachrichten, aber irgendwie scheint sich niemand darüber besonders aufzuregen. Und dieser Blogpost möchte fragen, warum solche Meldungen die Menschen so wenig bewegt. Sollte sich nicht jeder einigermaßen gebildete und verantwortungsvolle Mensch Sorgen über die Lebensbedingungen seiner Kinder und Enkel machen? Aber mal ehrlich: muss uns die Erkenntnis der Klimaforscher wirklich überraschen?

Alle Politiker sonnen sich gerne in dem Gefühl, die Rettung der Welt auf den Weg gebracht zu haben und eine große Konferenz mit vielen Journalisten ist das ideale Forum dafür. Die meisten werden also gerne zum Klimagipfel geflogen sein, und haben eine Tüte mit wohlformulierten Absichtserklärungen als Gastgeschenk abgeliefert. Allerdings: Zu teuer durfte das Geschenk natürlich nicht werden, sonst hätten sie sich zu Hause Ärger eingehandelt. Also blähten sie die Verpackung mit heißer Luft auf, damit sie eindrucksvoller aussah.

Dieses Verhalten ist weder neu noch ist es ungewöhnlich, sondern war eigentlich zu erwarten. Nur leider hilft uns das beim Kampf gegen die globale Erwärmung keinen Schritt weiter. Fragen wir doch mal: Warum haben alle alle Mahnungen von Wissenschaftlern bisher nichts geholfen? Und was kann man dagegen tun?

Problem 1: Langfristiges Denken

Wir sollen heute auf Dinge verzichten, oder mehr Geld ausgeben, damit in einigen Jahrzehnten die globale Temperatur nicht zu sehr ansteigt und der Meeresspiegel ungefähr auf dem heutigen Stand bleibt. Solches Handeln fällt Menschen schwer. Nehmen wir an, ich biete Ihnen an, Sie bekommen von mir 50 Euro in 100 Tagen oder 100 Euro in 105 Tagen. Würden Sie fünf Tage länger warten? Klar, würden Sie. Wenn ich aber sage: „Sie bekommen jetzt 50 Euro, oder Sie warten fünf Tage und bekommen dann 100 Euro“, sieht die Sache anders aus. 50 Euro bar auf die Hand sind mindestens genauso gut wie das Versprechen von 100 Euro später. Wer weiß schon, was in fünf Tagen sein wird? Also – her mit dem Geld und vielen Dank!

Wenn ich heute auf Annehmlichkeiten verzichten soll, damit in fünfzig Jahren der Sommer vielleicht nicht so heiß wird, dann denke ich schon gründlich darüber nach.

Problem 2: Die Allmende

Nehmen wir einmal an, wir Deutsche verhalten uns vorbildlich (wie wir das bekanntlich immer tun). Wir nehmen in Kauf, dass Strom immer teurer wird, bezahlen jedes Jahr 5 Milliarden Euro in den Klimafond, und finden uns damit ab, dass Strom auch rationiert werden muss. Wir dämmen unsere Häuser mit Millionen Tonnen Styropor und verzichten aufs Autofahren, wann immer es möglich ist. Wir stecken 2 Billionen Euro in die Anpassung der Infrastruktur und riskieren dabei unsere Stellung als reicher Industriestaat. Wird die Erde dann ganz sicher ein besserer Ort?

Nicht unbedingt. Wenn Sie auf das Rauchen und Trinken verzichten, Ihr Gewicht kontrollieren, nur gesunde Nahrungsmittel essen und regelmäßig Sport treiben, dann werden sie auch nicht sicher 100 Jahre alt. Man kann Ihnen nicht einmal garantieren, dass Sie in den nächsten zwei Jahren gesund bleiben. Sie erhöhen lediglich ihre Chancen und verbessern die Statistik der Lebenserwartung.

Sollen wir uns also zum Affen machen, das Gespött der ganzen Welt auf uns ziehen und schließlich mit ansehen, dass alles vergebens war, weil sonst niemand mitmacht?

Allein die geplanten neuen Kohlekraftwerke in den Schwellenstaaten China, Indien, Indonesien, Südafrika und Türkei reichen aus, um alle Anstrengungen zur Treibhausgas-Reduktion zunichte zu machen. Sollen wir also verzichten, damit andere prassen können? Wenn aber alle so denken, fängt niemand an, CO2 einzuparen, bis es zu spät ist.

In der Wissenschaft spricht man bei einem solchen Dilemma vom Allmende-Problem. Eine Allmende war in früheren Zeiten eine Wiese, die von einer Dorfgemeinschaft gemeinsam genutzt werden durfte. Wenn aber alle Familien ihr Vieh darauf weideten, war die Wiese bald kahlgefressen und nutzte niemandem mehr. Aber wie soll man die Nutzung verteilen, wenn man niemanden zum Verzicht zwingen kann? Bis heute sind zwar Lösungen vorgeschlagen, aber keine davon überzeugt wirklich.

Problem 3: Die Wahrnehmung von nicht-linearen Veränderungen

Nehmen wir an, in einem Gartenteich wächst eine Seerose. Sie hat das Potential, den ganzen Teich zu überwuchern und alle anderen Pflanzen zu verdrängen, wenn man nicht rechtzeitig einschreitet. Sie verdoppelt ihre Größe jeden Tag. Nach einem Tag besteht sie nur aus einem einzigen Blatt, das gerade man ein Tausendstel des Teichs einnimmt. Nach fünf Tagen ist sie auf ein 32stel gewachsen, was immer noch nicht viel ist. Aber nach 10 Tagen hat sie den Teich bereits komplett eingenommen.

Menschen können solches Wachstum nur schwer vorhersagen und unterschätzen regelmäßig die Folgen. Ein Wachstum von 7% im Jahr führt zu einer Verdoppelung in 10 Jahren. Wenn China also ein dauerhaftes Wirtschaftswachstum von 7% anstrebt, vervierfacht sich die Wirtschaftsleistung nach 20 Jahren. Entsprechend steigen Energieverbrauch und Umweltverschmutzung. Auch in Deutschland streben wir ein dauerhaftes Wirtschaftswachstum an. Irgendwann führt das aber unweigerlich zur Katastrophe.

Immerhin lassen sich solche Entwicklungen gut berechnen. Ein anderes Problem entzieht sich aber sowohl der Vorstellung als auch der Berechnung: Die sogenannten Kippelemente. An ein Kartenhaus kann man so lange immer mehr Karten anbauen, bis es zusammenfällt. Dieser Kollaps geschieht plötzlich, und niemand kann ihn sicher vorhersagen. Im Weltklima existieren eine ganze Reihe solcher Kartenhäuser. Sie können zu einem unvorhersehbaren Zeitpunkt in einen anderen Zustand übergehen. Z.B. könnte sich der Golfstrom plötzlich abschwächen. Dann wird es zwar auf der Welt wärmer, in Europa aber deutlich kälter. Oder einige Gletscher in Grönland zerfallen plötzlich, weil sie instabil werden. Dann steigt der Meeresspiegel viel schneller als vorher erwartet.

Problem 4: Glaubwürdigkeit

In den Naturwissenschaften gilt die Regel, dass alle Erkenntnisse nachprüfbar sein müssen. Haben Sie Zweifel an den Klimamodellen? Dann rechnen Sie nach! Alle Daten und Formeln liegen auf dem Tisch! Wie, das können Sie nicht? Dann werden Sie es einfach glauben müssen. Schließlich sagen die meisten Klima-Experten ganz ähnliche Entwicklungen voraus. Aber wir leben in einer seltsamen Zeit. Um Michael Gove, den intriganten Anführer der Brexit-Kampagne, zu zitieren: „Das Volk in diesem Land hat genug von Experten!1“.

Donald Trump beispielsweise glaubt nicht daran, dass es einen Klimawandel gibt. Diese Behauptung nutze nur den Chinesen, sagte er. Auch er glaubt nicht den Experten. Die AfD findet einen steigenden CO2-Anteil in der Atmosphäre sogar gut, wie sie selbst erklärt.

Die Zeitschrift New Scientist rät deshalb Wissenschaftlern:

„Trying to change someone’s mind by giving them the facts usually just makes them dig in. For reason to triumph, scientists need to learn to engage with emotion. (Wenn man jemanden mit Fakten überzeugen will, wird er meist noch störrischer. Damit die Vernunft siegen kann, müssen Wissenschaftler lernen, mit Gefühlen umzugehen.)“

Grundsätzlich glauben Menschen nicht den Fakten, sie glauben den Aussagen anderer Menschen. Vertrauen ist wichtiger als jeder Beweis. Und natürlich muss schon jemand sehr gute Argumente vorweisen, um die Menschen zum Verzicht zu bewegen. Die Berichte über den kommenden Klimawandel sind wie ein Wetterleuchten, das auf eine ferne Bedrohung hinweist, die aber niemals näherzukommen scheint.

Was tun?

Inzwischen haben natürlich auch die Klimaforscher gemerkt, dass sie trotz aller objektiver Beweise nicht zu den Menschen durchdringen.2 Was sollte man also tun? Darf man die Menschen zwingen, sich klimagerecht zu verhalten? Muss man es vielleicht sogar? Natürlich funktioniert das nur, wenn alle großen Umweltsünder mitspielen (siehe Allmende-Problem). Auf absehbare Zeit werden sie das aber nicht tun. Wenn ich Umweltaktivist wäre oder Kolumnist, folgte hier die weltrettende Idee. Ich wüsste genau, wie die Menschen zu überzeugen sind, und würde Regierungen und Lobbyisten mit spitzer Feder abkanzeln.

Aber ich bin nur Arzt und Blogger. Meine Erfahrung sagt mir, dass es keinen Sinn macht, Verzicht zu predigen. Dafür wird es auf die Dauer keine Mehrheiten geben. Und die meisten Staaten können es sich auch nicht leisten, elektrische Energie rar und teuer zu machen. Irgendwie sieht das nach einem Dilemma aus.

Ist das menschliche Gehirn vielleicht einfach nicht dafür geeignet, die Ressourcen eines ganzen Planeten zu erfassen und zu schützen?

Anmerkungen

[2] Wenn Wissenschaftler ein Problem erkannt haben, schreiben sie eine Veröffentlichung. z.B:
Sterman, John D. „Communicating climate change risks in a skeptical world.“ Climatic Change 108.4 (2011): 811-826.
Clayton, Susan, et al. „Psychological research and global climate change.“ Nature Climate Change 5.7 (2015): 640-646.

]]>
http://scilogs.spektrum.de/babylonische-tuerme/klimawandel-das-allzu-ferne-wetterleuchten/feed/ 48
Freiheit für den Profit oder Liberalismus für das Leben? Ein Nachruf auf Friedrich August von Hayek http://scilogs.spektrum.de/natur-des-glaubens/freiheit-profit-liberalismus-leben-ein/ http://scilogs.spektrum.de/natur-des-glaubens/freiheit-profit-liberalismus-leben-ein/#comments Mon, 04 Jul 2016 16:28:17 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2934 Weiterlesen]]> In einer Blogdiskussion zur so genannten „Islamisierung“ rückte der Kommentator @Werner die Erfindung und Zulassung der „Anti-Baby-Pille“ in die Nähe einer „Verschwörung“.

Warum hat das Bundesministerium für Familie, warum hat der wissenschaftliche Dienst des Ministeriums nicht frühzeitig gewarnt?, warum hat die Politik nicht aufgeklärt und gegen gesteuert?

War das eine Verschwörung gegen unseren Bestand?

Gibt es andere Erklärungen?

Nun habe ich die schnelle Ausbreitung von Verschwörungsmythen durch die digitalen Medien bereits an anderer Blog-Stelle thematisiert – darum geht es mir hier also nicht. Der Kommentar von @Werner rief mir jedoch einmal wieder in Erinnerung, dass die liberale Position gar nicht selbstverständlich ist, dass die Menschen selbst darüber entscheiden sollen, ob und mit wem sie schlafen und ggf. eine Familie gründen wollen. Tatsächlich hatte ja in den 60er und 70er mit Rumänien und dessen „Dekret 770“ ein europäisch-sozialistischer Staat versucht, auch das Geburtenverhalten zentraler, staatlicher Planung zu unterwerfen. Das Ergebnis war ein familien- und sozialpolitisches Desaster mit Hunderttausenden ungewollter und häufig ausgesetzter Kinder sowie einer verwundeten Gesellschaft, die schließlich auch das Regime hinwegfegte.

Für mich war – auch nach den DDR-Erfahrungen meiner Eltern – von Jugend auf klar, dass Entscheidungen im Bereich von Familie, Sexualität und Glauben zur innersten Freiheit von Bürgerinnen und Bürgern gehören sollten. Der Staat dürfte demnach allenfalls durch gute Rahmenbedingungen (etwa ein steuerliches Familien- statt Ehengattensplitting, gute und kostenfreie Bildungs- und Betreuungseinrichtungen etc.) Einfluss zu nehmen versuchen, nicht aber durch Zwang oder gar Verbote von „Anti-Baby-Pillen“ & Co.

Andererseits muss ich aber @Werner durchaus zugestehen, dass sich Ansätze einer liberalen (freiheitlichen) Familienpolitik in den deutschsprachigen Ländern kaum entwickelt haben: „Die Liberalen“ standen und stehen meist dominant für einen reinen „Wirtschaftsliberalismus“ ein, der tendenziell Reiche noch reicher macht und bestenfalls versprach, davon würde auch Ärmere profitieren. Kinder, Familien und Religionsgemeinschaften kommen in diesen (m.E. tödlich verkürzten) Formen des Liberalismus kaum vor – und vielen Menschen scheint es, als wäre Freiheit nur für den Profit, nicht aber für das Leben da. Dabei war gerade dies der Clou der evolutionären Perspektive von Friedrich August von Hayek (1899 – 1992): Nur durch Freiheit, Vielfalt und Wettbewerb würden sich dauerhaft lebensbejahende und lebensdienliche Traditionen und Gemeinschaften entwickeln können, die Idee der Freiheit stünde im Dienst des sich entfaltenden Lebens. Entsprechend sagte Hayek auch den positiven Religion-Demografie-Zusammenhang empirisch zutreffend voraus.

(mehr …)

]]>
http://scilogs.spektrum.de/natur-des-glaubens/freiheit-profit-liberalismus-leben-ein/feed/ 17
Wie die BGR einmal versuchte, die wärmende Treibhauswirkung von CO2 zu widerlegen http://scilogs.spektrum.de/klimalounge/wie-die-bgr-einmal-versuchte-die-waermende-treibhauswirkung-von-co2-zu-widerlegen/ http://scilogs.spektrum.de/klimalounge/wie-die-bgr-einmal-versuchte-die-waermende-treibhauswirkung-von-co2-zu-widerlegen/#comments Mon, 04 Jul 2016 12:51:47 +0000 Stefan Rahmstorf http://scilogs.spektrum.de/klimalounge/?p=1629 Weiterlesen]]> In den 2000er Jahren verbreitete die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) in der Politik und über die Medien, mit Hochglanzbroschüren und in einem populärwissenschaftlichen Buch die These, CO2 spiele womöglich keine wichtige Rolle für den Klimawandel. Der Rechercheverbund von NDR, WDR und Süddeutscher Zeitung enthüllte letzte Woche fragwürdige finanzielle Verflechtungen der BGR mit wirtschaftlichen Interessengruppen. Doch auf welche wissenschaftliche Argumentation stützte sich die BGR? Die Antwort ist gleichermaßen verblüffend wie haarsträubend.

Ich wurde 2002 auf die BGR-Thesen aufmerksam, u.a. weil ein Bundestagsabgeordneter mir eine BGR-Broschüre zusandte, die er in seiner Post vorgefunden hatte. Bereits 2001 hatte die BGR ein populärwissenschaftliches Buch mit dem nicht ironisch gemeinten Titel „Klimafakten“ herausgegeben (von Ulrich Berner und Hansjörg Streif). Eine Rezension beschrieb den Inhalt damals so:

Das Buch der Wissenschaftler aus der Bundesanstalt für Geowissenschaften und Rohstoffe unternimmt den Versuch, die von Medien und opportunistischen Politikern aufgerührte Klimahysterie wieder auf den Boden der Tatsachen zurückzuführen.

Allerdings stellte sich die BGR damit nicht nur gegen „Medien und opportunistische Politiker“, sondern vor allem gegen den seit langem etablierten Konsens in der seriösen Klimaforschung, wie er nicht nur in den Berichten des Weltklimarates IPCC zum Ausdruck kommt sondern ebenso in den Stellungnahmen zahlreicher wissenschaftlicher Akademien und Fachverbände. Dabei klang das Narrativ der BGR für Laien durchaus plausibel: die so genannten „Neoklimatologen“ (anscheinend ein von der BGR erfundener Begriff) hätten eben nur die letzten 150 Jahre im Blick und seien daher etwas beschränkt, während die Paläoklimatologen der BGR aufgrund ihres fundierten Wissens über die Klimaveränderungen der Erdgeschichte zu ganz anderen Folgerungen kämen. Getreu der Standardmethode der „Klimaskeptiker“ versuchte die BGR so für die Öffentlichkeit den Anschein einer legitimen fachlichen Kontroverse zu erwecken, wo in der Fachwelt keine existierte.

Denn die Tatsachen sahen völlig anders aus: an den IPCC-Berichten arbeiteten selbstverständlich Paläoklimatologen mit, die sich im Unterschied zu den BGR-Mitarbeitern durch zahlreiche Fachpublikationen in den besten Journalen ein internationales Renommee erarbeitet hatten. (Ich forschte übrigens selbst damals überwiegend in der Paläoklimatologie, hatte allein im führenden Journal Nature mehrere Studien dazu veröffentlicht und war einer der Leitautoren des Paläoklima-Kapitels im 4. IPCC-Bericht.)

Doch eine bemerkenswerte paläoklimatische Studie hatten die BGR-Autoren in der Fachliteratur publiziert – sie blieb zwar unter internationalen Paläoklimatologen völlig unbekannt, da nur in deutscher Sprache in der damals von der BGR selbst herausgegebenen Zeitschrift für angewandte Geologie publiziert (womit die BGR gleichzeitig Schiedsrichter und Begutachteter beim peer review war – eine normale Fachbegutachtung hätte diese Arbeit auch kaum überstanden). Dennoch wurde sie zum Herzstück der BGR-Argumentation gegen die Klimawirkung des CO2, denn die Studie (die sich streckenweise eher wie ein Pamphlet liest) folgert:

Die Variationen der CO2-Konzentrationen weisen keinen Zusammenhang mit geologisch dokumentierten langskaligen Klimaänderungen auf.

Berner+1995Abb. 1 aus dem Aufsatz von U. Berner, G. Delisle und H. Streif: Klimaänderungen in geologischer Zeit. Zeitschrift für angewandte Geologie Band 41, S. 69-82. Jedem Wissenschaftlicher müsste hier beim Vergleich der beiden Kurven auffallen, dass hier nicht die übliche „verrauschte“ Korrelation von paläoklimatischen Proxydaten vorliegt, sondern ein direkter funktionaler Zusammenhang.

Als ich 2003 einen Blick auf diese „Studie“ warf, traute ich meinen Augen nicht. (An Kollegen schrieb ich damals in einer Mail: „Beim Lesen von Berners Arbeit weiß man allerdings nicht, ob man lachen oder weinen sollte.“ ) Die Autoren hatten aus einem Sedimentbohrkern eine Zeitreihe von Kohlenstoff-Isotopendaten genommen und damit folgendes gemacht:

  1. Mit einer empirischen Formel aus den Isotopendaten eine Zeitreihe der atmosphärischen CO2-Konzentration errechnet.
  2. Mit einer anderen empirischen Formel aus denselben Isotopen-Daten eine Zeitreihe der Temperatur berechnet.
  3. Die so erhaltenen CO2- und Temperaturkurven miteinander korreliert.

Sie haben richtig gelesen: aus einer Datenreihe wurden zwei gemacht, und dann diese beiden miteinander korreliert.

Jedem wissenschaftlich ausgebildeten Menschen wird hier sofort etwas auffallen: wenn beide Kurven aus derselben Datenreihe berechnet wurden, dann korrelieren diese Kurven nicht nur, sondern es besteht ein direkter funktionaler Zusammenhang zwischen den beiden Größen (CO2 und Temperatur). Und dieser Zusammenhang hat überhaupt nichts mit den verwendeten Isotopendaten zu tun, sondern er lässt sich direkt aus den beiden verwendeten empirischen Formeln ausrechnen. In der Tat zeigt schon der erste Blick auf die in der Publikation gezeigten CO2- und Temperaturkurven, dass diese beiden Größen nahezu perfekt antikorreliert sind. (Übrigens in krassem Widerspruch zur oben zitierten Folgerung, dass kein Zusammenhang zwischen CO2 und Klima bestehe.)

Halten wir also fest: was Berner und Kollegen als Ergebnis ihrer Analyse von nahezu 1000 Millionen Jahren Klimageschichte aus Sedimentdaten verkauften, hatte mit diesen Daten überhaupt nichts zu tun! (Dass die Daten in dieser Studie nicht ordentlich dokumentiert werden, sondern als Datenquelle wissenschaftsunüblich auf einen „unveröffentl. BGR-Bericht“ verwiesen wird, spielt daher auch keine Rolle.) Vielmehr wurde der Zusammenhang von CO2 und Temperatur von vornherein hineingesteckt, und zwar durch die Wahl der verwendeten empirischen Formeln.

Wie also sah dieser Zusammenhang aus – und weshalb zeigte er nicht die auch für viele  Klimaveränderungen der Erdgeschichte gut belegte erwärmende Wirkung von CO2? Die folgende Grafik zeigt den von Berner und Kollegen postulierten Zusammenhang.

berner

Der aus den von Berner et al. (1995) beschriebenen empirischen Formeln berechnete Zusammenhang von Temperatur und CO2-Konzentration der Luft. (Diese Grafik zeigte ich im März 2003 bei einer Diskussion über die BGR-Thesen am Geoforschungszentrum Potsdam mit Ulrich Berner, seinem Abteilungsleiter Hollerbach und dem BGR Vizepräsidenten Kosinowski. Berner wurde daraufhin ziemlich ungehalten.)

Man sieht sofort, dass bei hohen CO2-Werten über etwa 800 ppm, wie sie in der BGR-Kurve über fast den ganzen Zeitraum vorherrschen, die Temperatur mit zunehmendem CO2 abnimmt. Das kommt daher, dass Berner und Kollegen die Temperatur aus dem Quotienten von zwei empirischen Formeln berechnen. Die eine Formel lautet pCO2 = 0.0054 * E3.5591 und die zweite Formel lautet CO2[aq] = 0.6899 * 1.13437E, wobei wir mit E den Isotopenwert bezeichnen. Beide Formeln beschreiben einen leicht aufwärts gekrümmten Anstieg der CO2-Konzentration in Luft bzw. Wasser in Abhängigkeit von E, aber durch die unterschiedliche Wahl des funktionalen Zusammenhangs ergibt sich bei der Quotientenbildung dann ein Maximum in der oben gezeigten Kurve und danach ein Abfall bei sehr hohen CO2-Werten, der mit der Realität nichts zu tun hat. Normalerweise wird die Temperatur benötigt, um aus der im Wasser gelösten CO2-Menge die zugehörige Gleichgewichtskonzentration von CO2 in der Luft zu berechnen (oder umgekehrt). Wie Berner und Kollegen ohne Informationen über die Temperatur beides aus denselben Isotopendaten berechnen können – pCO2 und CO2[aq] – bleibt ihr Geheimnis. Eine wundersame Informationsvermehrung!

Kurioser Nebeneffekt der von Berner und Kollegen verwendeten Formeln: für einen CO2-Anstieg von 280 ppm auf 560 ppm (also die berühmte Verdoppelung der vorindustriellen Konzentration) ergibt sich danach eine Erwärmung um mehr als 4 °C, also im obersten Bereich der vom Weltklimarat IPCC abgeschätzten Spanne der Klimasensitivität. Für den aktuellen CO2-Anstieg hätte also genau das Gegenteil von Entwarnung gefolgert werden müssen, hätten Berner und Kollegen ihre eigene Rechnung ernst genommen!

Die von der BGR mit viel PR-Aufwand verbreiteten „Klimaskeptiker“-Thesen waren nach meiner Kenntnis vom Bundeswirtschaftsministerium erwünscht (dessen nachgeordnete Behörde die BGR ist), aber sie waren innerhalb der BGR keineswegs unumstritten, da auch dort natürlich aufrechte und kompetente Wissenschaftler arbeiten. Einer von diesen BGR-Mitarbeitern bezeichnete die Studie von Berner et al. mir gegenüber damals als „offensichtlichen Schwachsinn“. Es fällt schwer, diesen Aufsatz mit wesentlich diplomatischeren Worten sachgerecht zu beschreiben. Es stellt sich dabei die Frage: Handelt es sich einfach um einen Hütchenspielertrick? Oder ist ein derartiges Ausmaß von wissenschaftlicher Inkompetenz denkbar? Was bringt Wissenschaftler dazu, derartigen Unsinn zu publizieren? Die Recherchen von NDR, WDR und SZ legen darauf eine neue Antwort nahe, denn demnach wurde diese „Studie“ offenbar durch eine von der Industrie gefüllte Extra-Kasse mit 50.000 Mark belohnt.

So oder so hat die BGR mit offensichtlich unsinnigen, pseudowissenschaftlichen Argumenten nach Kräften versucht, Einfluss auf Politik und öffentliche Meinung zu nehmen. Eine interessante Frage wäre, ab wann das Führungspersonal der BGR wusste (oder wissen musste), dass die Thesen ihrer Mitarbeiter Berner, Streif und Delisle wissenschaftlich unhaltbar waren, und wie es darauf reagiert hat.

Natürlich haben wir (gemeint ist eine Reihe von Klimawissenschaftlern aus unterschiedlichen Forschungsinstituten in Deutschland und der Schweiz, die damals mit Kopfschütteln und Sorge die öffentlichen Äußerungen der BGR beobachteten) damals vermutet, dass eine Verflechtung der BGR mit der Rohstoffwirtschaft hinter der merkwürdigen Öffentlichkeitsarbeit der BGR stecken könnte. Schließlich wurde meines Wissens ein Teil der Auflage des BGR-Buches „Klimafakten“ vom Braunkohleverband aufgekauft und gratis u.a. an Bundestagsabgeordnete verteilt. Und im Februar 2003 erschien in der von Journalisten gelesenen Zeitschrift Der Journalist eine zwanzigseitige bezahlte Beilage des Braunkohleverbandes, Klimadiskussion im Spannungsfeld, die in ihrer Argumentation und den Grafiken erstaunliche Ähnlichkeiten mit den BGR-Publikationen zum Thema aufwies.

Jetzt scheint die Zeit gekommen, wo die Interessen und Finanzquellen hinter den in manchen Medien lange durchaus beliebten „Klimaskeptiker“-Thesen auch für Journalisten interessant werden und aufgedeckt werden. In den USA ist dieser Aufarbeitungsprozess schon seit einiger Zeit im Gange. Gegen die Ölfirma Exxon ermitteln inzwischen die Staatsanwälte wegen vorsätzlicher Klima-Desinformation. Durch den Bankrott von US-Kohlefirmen wie Peabody kommen zudem neue Unterlagen an die Öffentlichkeit, die deren Finanzierung von „Klimaskeptikern“ belegen. Auch die BGR hat Kontakte zur US-Amerikanischen Lobbyszene gegen die Klimawissenschaft gepflegt. So trat Ulrich Berner bei einer Lobbyveranstaltung in Washington auf, die vom Frontiers of Freedom Institute organisiert wurde – einer Organisation, die u.a. von Exxon und der Charles Koch Stiftung finanziert wurde. Man darf gespannt sein auf weitere Enthüllungen.

Anhang

Da Ulrich Berner das öffentliche Gesicht der „Klimaskeptiker“-Thesen der BGR war (u.a. bekam er ein Spiegel-Interview), ist es interessant, einen Blick auf seine wissenschaftliche Publikationsbilanz in der Datenbank Web of Science zu werfen, wo praktisch alle relevanten Fachzeitschriften ausgewertet werden. Als Erstautor hat Berner demnach genau zwei Fachpublikationen zum Suchbegriff „climate“ zu verzeichnen. Beide sind genau null mal zitiert worden. In holprigem Englisch stehen da in den beiden Abstracts Sätze wie dieser:

It should be highlighted that carbon dioxide is not the driving force of the climate system unlike the usually quoted opinion.

Und dieser:

In view of the relatively minor effects that anthropogenic carbon dioxide has had, and will presumably continue to have, on the climate scenario it must be wondered whether the considerable effort expended on countermeasures is always justifiable from an economic point of view.

Weblinks

tagesschau.de: Extra-Kasse statt Extra-Klasse?

Süddeutsche Zeitung: Gutes Geld für steile Thesen

taz: „Klimarealisten“ unter Verdacht

Und schon aus dem Jahr 2007: taz: Die amtliche Lüge vom prima Klima

]]>
http://scilogs.spektrum.de/klimalounge/wie-die-bgr-einmal-versuchte-die-waermende-treibhauswirkung-von-co2-zu-widerlegen/feed/ 48
Von der Mönchsregel zur Grammatikregel: Die antike Prägung unserer Sprachauffassung http://scilogs.spektrum.de/engelbart-galaxis/von-moenchsregel-grammatikregel-die-praegung/ http://scilogs.spektrum.de/engelbart-galaxis/von-moenchsregel-grammatikregel-die-praegung/#comments Sun, 03 Jul 2016 11:23:55 +0000 Henning Lobin http://scilogs.spektrum.de/engelbart-galaxis/?p=329 Weiterlesen]]> In meinen letzten Beiträgen in diesem Blog, jedenfalls vor dem EM-Beitrag zum Walisischen, ist es um die Entwicklung der Rhetorik, Logik und Grammatik, des sogenannten Triviums, von der Antike bis ins Mittelalter gegangen. Ich habe mich nicht ohne Grund mit dieser historischen Thematik befasst: Ein Begriff wie „Sprache“ erhält nicht einfach deshalb seine Bedeutung, weil er etwas klar Greifbares, Unverrückbares bezeichnet. Vielmehr wird ein solcher abstrakter Begriff erst durch eine lange kulturhistorische Entwicklung geformt, die an entscheidenden Punkten auch eine andere Wendung hätte nehmen können. Die scheinbar klare Auffassung dessen, was „Sprache“ überhaupt ist, prägt aber auch die Art und Weise, wie wir uns wissenschaftlich mit ihr auseinandersetzen. Bis heute ist dies klar nachzuweisen, wie ich in zukünftigen Beiträgen noch darlegen möchte.

In der antiken Traditionslinie wird Sprache zunächst als gesprochene Sprache verstanden, als Rede, die im Prozess der Erarbeitung und Vermittlung in schriftlicher Form fixiert wird. In der schriftlichen Fixierung besteht der Text gewissermaßen aus reiner Sprachlichkeit, weil die visuellen Merkmale des Textes für die Eigenschaften der Rede keine Bedeutung haben. Die durch die Rhetorik angeregte Betrachtung der Sprache verzichtet also von vornherein darauf, das Zusammenspiel sprachlicher Einheiten mit Zeichen anderer Art zu berücksichtigen. Diese Verabsolutierung des Sprachlichen blieb selbst dann erhalten, als sich die Rhetorik längst von der gesprochenen Sprache gelöst hatte und sie zu einer Art Philologie geworden war. Es ist also weniger der ursprüngliche Impuls der Mündlichkeit ausschlaggebend für diese Auffassung von Sprache, als vielmehr die durch diesen Impuls fehlende Berücksichtigung des Visuellen, was auch beim Wechsel in die Schriftlichkeit erhalten blieb.

Die Betrachtung reiner Sprachlichkeit wurde auch von der Grammatik aufgenommen. Selbst dann, wenn sie sich mit der normativen Bewertung von schriftsprachlichen Texten befasst, lässt sie die visuelle Seite der Sprache – die Schrift, Textgliederung und –gestaltung, die gerade in mittelalterlichen Texten vielfältigen Text-Bild-Beziehungen – unberücksichtigt. Dass dies keineswegs eine zwangsläufige Entwicklung gewesen ist, kann man sich leicht vergegenwärtigen. Die Entwicklung der Rhetorik hätte völlig anders ausgesehen, wenn sie sich auf schriftliche Texte bezogen hätte. In einer hypothetischen antiken Gesellschaft, in der politische Auseinandersetzungen und Gerichtsverfahren auf schriftlichem Wege durchgeführt werden, hätte sich eine Rhetorik des Textes entwickeln können, in der die visuelle Umsetzung der Inhalte ein ebenso wichtiges Überzeugungsmittel geworden wäre wie die rhetorischen Überzeugungsmittel für die Rede. Über einen längeren Zeitraum betrieben, hätte die Rhetorik des Textes ein komplexes System der sprachlich-textuellen Gestaltung geschriebener Texte hervorgebracht, zu der als Erfahrungswissen auch Regeln für die überzeugende und zielgruppengerechte visuelle Gestaltung von Texten gehört hätten. Eine sich daran anschließende normative Grammatik der Schriftsprache hätte von vornherein wohl die Orthographie als ein Teilgebiet umfasst. Auch die Beschreibung der besonderen Eigenschaften schriftsprachlicher Texte, die sich aus ihrer Visualität und dem Lesen als der Technik ihrer Aneignung ergeben, wäre sicherlich von einer solchen Grammatik berücksichtigt worden.

Ein weiterer Aspekt des in der antiken Tradition entstandenen Bildes der Sprache zeigt sich in der Grammatik. Wir hatten gesehen, dass sie durch ihre didaktische, auf sprachliche Richtigkeit ausgerichtete Funktion vorrangig normativ verstanden wurde. Die Normativität der Grammatikvermittlung war in Gestalt von Regeln ausgeprägt, deren Befolgung zu einem richtigen sprachlichen Ausdruck führte, die Nicht-Befolgung hingegen zu einem Fehler. Dass die grammatische Wirklichkeit sich nicht in dieses simple Schema pressen lässt, ahnten schon die antiken Grammatiker, wenn den berühmten Dichtern oder Rednern Regelverstöße erlaubt waren, die dem Schüler untersagt wurden.[i] Der Grund dafür ist darin zu sehen, dass es in einer Sprache keine absolut und ausnahmslos gültigen Regeln gibt, stattdessen von mehr oder weniger großen Wahrscheinlichkeiten bestimmter Merkmalskombinationen auszugehen ist.

Die Regelorientierung der Grammatik war allerdings nicht allein durch ihre normative Ausrichtung bedingt, es gab auch eine methodische Ursache dafür. Die Rhetorik und in ihrer Folge die Grammatik waren Erfahrungswissenschaften, die keine empirische Basis im modernen Sinne besaßen. Während die Rhetorik auf eine Art Wirkungsempirie der Rede in öffentlichen Kommunikationssituationen zurückgreifen konnte, bestand die Empirie der Grammatik aus der Intuition der Grammatiker und den Beobachtungen, die in den Texten des Literaturkanons gemacht werden konnten. Heute beginnen wir zu begreifen, in welchem Maße man den wissenschaftlichen Erkenntnisprozess kognitiven Verzerrungen überlässt, wenn man nicht auf ausgewogen zusammengestellte Textsammlungen, Korpora, zurückgreift. Zwar hätte man schon in der Antike oder im Mittelalter das vorhandene Spektrum in der Ausprägung bestimmter sprachlicher Funktionen selbst bei ein und demselben Autor sehen können. Statt eines solchen empirischen Wissenschaftsverständnisses war insbesondere im Mittelalter jedoch die nicht in Zweifel zu ziehende Orientierung an anerkannten Autoritäten maßgeblich. Dies förderte zweifellos auch die apodiktische Regelorientierung in der Grammatikschreibung.

Der Begriff der Regel geht zurück auf das lateinische Wort „regula“, dass die Bedeutung „Richtschnur“ oder „Maßstab“ hat – ursprünglich in einem ganz konkreten Sinne, später auch übertragen. Im Mittelalter verbreitete sich dieser Begriff insbesondere in der Bezeichnung der „Regula Benedicti“, eine Anleitung und Sammlung von Vorschriften für das klösterliche Leben der Mönche, wie sie der Heilige Benedikt festgelegt hatte. Selbst wenn das Wort „Regel“ in einer nicht normativen, sondern deskriptiven Weise verwendet wird, schwingt der schon hier angelegte normative Klang des Wortes weiterhin mit. Und wie die Regel der Benediktiner eine Richtschnur war für das Leben eines Mönchs, die im Alltag sicherlich oft durchbrochen wurde, so stellt auch eine grammatische Regel, ob normativ oder deskriptiv, eher ein Ideal dar als ein Abbild der sprachlichen Realität.

Die reine Sprachlichkeit und die Regelorientierung sind zwei Ausprägungen einer Tendenz zu Abstraktion und Idealisierung, die auch in der Entwicklung der Logik erkennbar ist. Entstanden aus der Klassifikation von Argumentationsmustern im Gespräch, löste sie sich von diesem kommunikativen Verwendungszusammenhang, um nach der Auffassung antiker und mittelalterlicher Philosophen die Gesetze des Denkens selbst zu beschreiben. Im Zuge dessen wurde die Verbindung zu einer empirischen Basis gekappt, und die Logik wandelte sich zu einer vollständig theoretischen Disziplin. Damit entfiel aber auch die Berücksichtigung solcher Faktoren menschlicher Kommunikation, die sich eben nicht in das System der reinen logischen Rationalität einordnen lassen. Für die Entwicklung der Grundlagen von Mathematik und Naturwissenschaften ist das ein Fortschritt, für das Verständnis des Gesprächsverhaltens von Menschen hingegen ein Problem. Menschen führen Gespräche auch aufgrund von emotionalen Impulsen und nach Interaktionsmustern jenseits rationaler Planung. Mit der Abstraktion des kommunikativen Verhaltens von Menschen in einer formalen Logik war eine Weichenstellung verbunden, die die Sprache und deren Betrachtung zu einer Ausprägung rationalistischen Denkens hat werden lassen, wodurch die zutiefst menschlichen, irrationalen Bereiche der Sprachverwendung für lange Zeit ins Hintertreffen gerieten.

 

Anmerkung:

[i] Vgl. Dammer, Raphael (2006): Sprache im Korsett: Die antike Grammatik. In: Reinhold Glei (Hg.): Die Sieben Freien Künste in Antike und Gegenwart. Trier: WVT Wissenschaftlicher Verlag (Bochumer Altertumswissenschaftliches Colloquium, 72), S. 179–180.

]]>
http://scilogs.spektrum.de/engelbart-galaxis/von-moenchsregel-grammatikregel-die-praegung/feed/ 6
Brexit – Folgen für die Fusionsforschung ? http://scilogs.spektrum.de/formbar/brexit-folgen-fuer-die-fusionsforschung/ http://scilogs.spektrum.de/formbar/brexit-folgen-fuer-die-fusionsforschung/#comments Fri, 01 Jul 2016 19:25:20 +0000 Alf Köhn http://scilogs.spektrum.de/formbar/?p=372 Weiterlesen]]> Eine Woche ist es schon her, als sich eine Mehrheit für den Brexit ausgesprochen hatte. Unmittelbare Auswirkungen auf den Finanzmarkt waren die Folgen, Erklärungsversuche allerortens und die Frage danach, wie es denn jetzt weitergeht. Darum soll es hier nicht gehen, vielmehr möchte ich kurz mögliche Auswirkungen auf die Fusionsforschung darstellen.

Vor der Abstimmung am 23. Juni sprachen sich 83 % der britischen Wissenschaftler in einer nature-Umfrage für den Verbleib in der EU aus. Einer der Gründe ist sicherlich die Tatsache, dass die Universitäten im (noch?) Vereinigten Königreich ca. 16 % ihres Budgets von der EU bekommen. Darüber hinaus erlaubt die EU-Mitgliedschaft sehr einfachen Austausch von Wissenschaftlern innerhalb der EU. Auch JET, das größte Fusionsexperiment der Welt, profitiert davon. JET befindet sich südlich von Oxford, und stellt einen Standort regen Austauschs mit Fusionsforschern aus der ganzen Welt, vor allem aber aus der EU, dar.

An JET werden vorbereitende Experimente für ITER durchgeführt, so ist für 2018 eine Deuterium-Tritium Kampagne geplant, also ein „echtes“ Fusionsplasma mit Fusionsprozessen. JET ist das einzige momentan laufende Experiment auf der Welt in dem dies geplant ist. Finanziert wird JET vor allem durch das EUROfusion Konsortium, das ein Zusammenschluss europäischer Fusionsforschungsinstitute ist. EUROfusion soll im Wesentlichen auf den Betrieb von ITER vorbereiten und auch Konzepte für einen Reaktorprototypen entwickeln. EUROfusion wiederum wird durch EURATOM, der europäischen Atomgemeinschaft finanziert.

Die Verträge zum Betrieb von JET laufen zunächst bis 2018, dann wird neu verhandelt. Bis 2018 ändert sich also erst einmal nichts. Auch für die darauf folgenden 2 Jahre (es wird alle 2 Jahre neu verhandelt) gibt sich der Direktor des Instituts an dem JET betrieben wird, Steven Cowley, optimistisch. Hier muss man klar sagen, dass EURATOM eben nicht die EU ist, Schweiz ist zum Beispiel auch Mitglied. Die Position Großbrittaniens innerhalb von EURATOM wird allerdings wohl kritisch überprüft werden und eventuell wird es diesbezüglich extra Verhandlungen geben, in denen auch abgewägt werden wird, wie einfach es für EU-Wissenschaftler ist nach England zu kommen und wie sich die dortige Regierung positioniert. Eine Verlängerung des Betriebs von JET über 2020 hinaus könnte vor allem im Hinblick auf die nun offiziell angekündigte Verspätung von ITER sinnvoll erscheinen.

Der EUROfusion Programmchef, Tony Donné, hat sich bereits klar zu JET bekannt, in dem er gesagt hat, dass er unbedingt eine Zusammenarbeit über 2018 hinaus möchte. Konkret hat er gesagt, dass er hart daran arbeiten werde. Ich denke hier liegt eines der Hauptprobleme: Es werden Verhandlungen nötig sein, die Ressourcen binden welche man auch anders nutzen könnte. Vielleicht hatte der britische Wissenschaftsminister Jo Johnson das bereits im Hinterkopf, als er trocken „Big decision. Let’s make it work.“ als Reaktion auf den Brexit in die Welt hinaus twitterte.

Für ITER selber wird der Brexit keine unmittelbaren Folgen haben, da die europäischen Mitglieder auch hier über EURATOM organisiert sind. Für den Fall, dass JET etwas früher als geplant den Betrieb einstellt, würde man einige der vorbereitenden Studien auf andere Experimente auslagern – bestimmte für ITER relevante Plasmaszenarien werden ohnehin schon an eigentlich allen großen Experimenten auf der Welt untersucht. Lediglich weitere Deuterium-Tritium Plasmen könnte man nicht machen, da dies nur an JET möglich ist.

Zusammenfassend kann man also festhalten, dass durch die übergeordnete Organisation EURATOM zunächst keine Auswirkungen auf die Fusionsforschung zu erwarten sind. Sollte sich Großbritannien allerdings zu allzu restriktiven Immigrationsgesetzen hinreißen lassen, so könnte dies Folgen für den weiteren Betrieb von JET und eventuell auch für die ITER-Mitgliedschaft haben. Sorgen machen sich britische Forscher wie Cowley vor allem über die langfristigen Perspektiven. Es bleibt zu hoffen, dass sie unbegründet sind und der etwaige Wegfall europäischer Fördergelder kompensiert werden kann.

]]>
http://scilogs.spektrum.de/formbar/brexit-folgen-fuer-die-fusionsforschung/feed/ 13
Liebesheirat, nicht Zweck-Mariage http://scilogs.spektrum.de/uhura-uraniae/unter-einem-dach/ http://scilogs.spektrum.de/uhura-uraniae/unter-einem-dach/#respond Fri, 01 Jul 2016 12:13:49 +0000 Susanne M. Hoffmann http://scilogs.spektrum.de/uhura-uraniae/?p=2344 Weiterlesen]]> Die Berliner Sternenhäuser sind nun endlich vereint! In einer Pressekonferenz auf der Berliner Archenhold-Sternwarte wurde heute die Gründung der Stiftung bekannt gegeben, die ab heute die drei Einrichtungen Archenhold-Sternwarte im Treptower Park, Zeiss Großplanetarium an der Prenzlauer Allee und Wilhelm-Foerster-Sternwarte mit Planetarium am Insulaner verwalten wird. Ziel der neuen Stiftung ist es, innerhalb Berlins die astronomische Bildung besser zu koordinieren und die Profile der einzelnen Häuser transparenter zu kommunizieren. Mit der Pluralität und medialen Vielfalt der zahlreichen Kuppeln von zwei exzellent ausgestatteten Sternwarten und einem ganz frisch sanierten Planetarium und einem vor wenigen Jahren sanierten, die wir hier in Berlin mit den Ergebnissen der noch viel zahlreicheren Forschungseinrichtungen bespielen können, sollen in der Astronomie und ihrer Vermittlung neue Maßstäbe gesetzt werden.

Pressemitteilung (PDF): Stiftung Planetarium Berlin – Stadt wird astronomischer Spitzenstandort

Jedes der drei Häuser behält seinen derzeitigen Leiter.

Die derzeitigen Leiter der drei Häuser: Dr. Felix Lühning, Tim Horn, Dr. Monika Staesche.

Kommissarischer Vorstand dieser Stiftung ist der Medienwissenschaftler Tim F. Horn, der Leiter des gerade im Umbau befindlichen Zeiss Großplanetarium Berlin, der als glühender Planetarier-aus-Überzeugung und Vater von drei Kindern sehr hohe Ansprüche an die Wissensvermittlung stellt: Sie soll sowohl sachlich korrekt als auch mit hohem ästhetischen Anspruch erfolgen – oder – wie Sandra Scheeres, Senatorin für Bildung, Jugend und Wissenschaft es formuliert: „Berlin verfolgt mit der Fusion das Ziel, zum Standort Nr. 1 für astronomische Populärwissenschaft in Deutschland zu werden. Aus den Sterntheatern werden moderne Wissenschaftstheater, die Wissenschaft verständlich präsentieren.“

Spitzenniveau in der Astronomie und Wissensvermittlung

Damit wird die Bildung in Berlin sowohl der Senatsverwaltung für Bildung als auch der Senatsverwaltung für Kultur gerecht und ungeschickterweise waren daher die Berliner Sternenhäuser bei unterschiedlichen dieser beiden Verwaltungen zugeordnet. Die beiden Senatoren, Frau Scheeres (Bildung und Wissenschaft) und Herr Renner (Kultur) waren bei dieser heutigen „Dreier-Hochzeit“ der Einrichtungen daher die Trauzeugen und wünschten dem Dreigestirn der Leitungen für die Zukunft alles Gute.

Anstoßen auf (weiterin) gute Zusammenarbeit.

Anstoßen auf (weiterin) gute Zusammenarbeit.

Wiedervereinigung als Berliner Programm

Die bisherigen Betreiber der Häuser, die Stiftung Deutsches Technik Museum (Treptow, Prenzl.berg) und der Trägerverein Wilhelm-Foerster-Sternwarte e.V. (Insulaner) entließen ihre Schützlinge wohlwollend in eine gute Zukunft: Herr Böndel bekannte, dass in einer so großen Stiftung wie seiner mitunter dazu kommen kann, dass ein einzelnes Satelliten-Museum episodisch vernachlässigt wird – also nicht die Aufmerksamkeit bekommt, dies es verdienen würde und hofft daher, dass „seine“ wertvollen Satellitenmuseen jetzt unter der neuen Stiftung in noch besseren Händen sein werden. Herr Hoffmann (WFS) freut sich über diese astronomische Wiedervereinigung und sieht die bisherige Trennung als Relikt der ehemaligen politischen Teilung Berlins, dass die Erben der Amateurastronomen, die in der Nachkriegszeit von der Archenhold-Sternwarte kommend in West-Berlin eine neue Gruppe gegründet und später eigene Häuser gebaut hatten, nun mit ihren Treptower Artgenossen „wiedervereinigt“ werden.

Ansprachen von Herrn Dr. Böndel (Stiftung Dt. Technikmuseum) und Herrn Dr. Hoffmann (WFS Berlin).

Ansprachen von Herrn Dr. Böndel (Stiftung Dt. Technikmuseum) und Herrn Dr. Hoffmann (WFS Berlin).

Herr Renner macht seiner Eigenschaft des Kulturchefs in Berlin alle Ehre, indem er die Entwicklung als regelrechtes Bühnenstück darstellt: Im Grunde werde ja bereits seit 1990 um Zusammenlegung verhandelt, aber in den 90ern kam halt auch immer der Beigeschmack von „zu viel“ in alle Berliner Gespräche: Man war damals dabei, überall zu hinterfragen, ob es denn wirklich nötig sei, so viele Kuppeln zu haben – typisch Berlin nach der Wiedervereinigung, eben von allem zwei: zwei historische Fernrohre, zwei gut ausgestattete Sternwarten, zwei (damals veraltete) Planetarien. Nach einer langen Schaukelpartie zwischen den Senatsverwaltungen und schließlichen Überführung der Ost-Häuser zum Technikmuseum, dem aber das West-Haus fernblieb, gab es eine längere Hängepartie. Im Jahre 2010 sei die Senatsverwaltung für Bildung und Wissenschaft zu ihm gekommen und wollte die Wilhelm-Foerster-Sternwarte an seine Senatsverwaltung „loswerden“ … mit dem Ergebnis, das wir heute – sechs Jahre später – in der Archenhold-Sternwarte feiern, dass umgekehrt seine Senatsverwaltung zwei Häuser in Treptow und Prenzlauer Berg an Frau Scheeres abtritt: „Habt Ihr toll gemacht,“ zieht er sie zur Erheiterung der versammelten Journalisten und Würdenträger auf.

Senatorin Scheeres und Senator Renner.

Senatorin Scheeres und Senator Renner.

Frau Scheeres erhofft sich von dieser „Liebesheirat“, wie Herr Lühning den Zusammenschluss nannte, neue Möglichkeiten für noch großartigere Bildungsangebote und erhebliche Verbesserungen im Marketing. Beide Namensgeber der Häuser, der Urania-Gründer Wilhelm Foerster und der Astronom und Urania-Lehrling Friedrich Simon Archenhold, haben damals im 19. Jahrhundert in Berlin neue Maßstäbe für die Populärastronomie gesetzt und darum erwarten wir nach dem chaotischen Intermezzo des 20. Jahrhunderts eine lineare Fortsetzung der Ziele dieser großen Namen im 21. Jahrhundert. Berlin will wieder an sein einstiges, hohes Niveau der astronomischen Bildung anknüpfen und für die populäre Astronomie Konzepte, Visionen und Visualisierungen schaffen, die international wahrgenommen und reproduziert werden [wie die Urania-Gründung im 19.Jh.].

Eröffnungstermin Planetarium bekanntgegeben: 25.8.2016

Stadt-intern soll daher jedes der Häuser einen separaten Arbeitsschwerpunkt erhalten, um sein Profil zu schärfen:

  • Die Wilhelm-Foerster-Sternwarte und Planetarium am Insulaner wird sich überwiegend der schulischen Astronomie und der Amateurastronomie widmen. Das heißt natürlich nicht, dass Schulklassen nur dorthin und nciht in die anderen Häuser dürfen (im Gegenteil!), sondern es heißt nur, dass dort der Arbeitsschwerpunkt des Hauses liegt.
  • Das gerade in der Sanierung befindliche Großplanetarium Prenzlauer Berg wird gerade zum hypermodernen Wissenschaftstheater umgebaut: Für etwa 13 Mio Euro aus Mitteln der Stadt, der Europäischen Regionalförderung und Lottomitteln wurde in den vergangenen zwei Jahren die Kuppel wurde von außen geputzt und von innen saniert, Kabelschächte ausgehöhlt, Verkleidungen erneuert und die Technik von Zeiss modernisiert, d.h. der alte Sternenprojektor raus und ein neuer hineingeräumt. Am 25. August soll die Wiedereröffnung mit einer derzeit in Produktion befindlichen tollen neuen Show gefeiert werden.
  • Die Archenhold-Sternwarte wird ihren künftigen Arbeitsschwerpunkt in dem Forschungsauftrag sehen, den die Astronomie in Berlin schon immer hatte und auch weiterhin hat. Astronomiehistorische Forschung war hier schon seit Jahrzehnten, im Grunde sogar seit der Panbabylonismus-Debatten, denen Archenhold persönlich am Anfang des 20. Jh. mit eigenen Forschungen begegnete, der Arbeitsschwerpunkt und man möchte dies künftig (wieder, weiterhin) vertiefen.

Tim Horn, als kommissarischer Vorstand der neuen Stiftung, wünscht sich in diesem Sinne, dass sie noch vieles „gemeinsam aushecken“ werden, d.h. dass die Zusammenarbeit der drei Häuser, die er in den vergangenen drei Jahren mit viel Freude und Engagement etabliert hat, auch weiterhin so gut klappen wird.

Gruppenfoto vorm Riesenfernrohr.

Gruppenfoto vorm Riesenfernrohr, dem längsten frei beweglichen Linsenfernrohr der Welt.

persönliche Bemerkung: Ich persönlich hoffe, dass in dieser Neuordnung der Berliner Astronomie für mich und meine Forschung einmal Platz sein wird. Im Augenblick schreibe ich natürlich gerade an Forschungsanträgen und versuche mich zu orientieren. Doch wenn ich mir diese Konstellation anschaue, scheinen meine Wünsche nun endlich aufzugehen und Ideen hier auf sehr fruchtbaren Boden zu fallen.
Ich fühlte mich früher immer wie das letzte Einhorn – aber im Augenblick scheinen mir in Berlin auch andere Einhörner zu leben. Sie befinden sich nicht nur hier, sondern z.B. auch in meiner ehemaligen Forschergruppe an der Humboldt-Universität, bei den Kollegen an der FU und es scheint für uns durch die heutige (wieder)Vereinigung der „Häuser der astronomischen Bildung und Forschung“ auch jetzt die richtige Raumzeit angebrochen zu sein:
Auch Einhörner ziehen es vor, in Herden zu leben anstatt allein!

Auf in die neue Ära, die Einhörner-Raumzeit!

Archenhold-Sternwarte Berlin

Archenhold-Sternwarte Berlin

PS: In der Archenhold-Sternwarte hatte 1915 Einstein seinen ersten Vortrag über die Allgemeine Relativitätstheorie gehalten. Das war übrigens ein seltener Fall von Publizierung von aktueller Forschung zuerst in der Öffentlichkeit (bevor die wissenschaftliche Publikation draußen war).

Diese Sternwarte, die um ein Riesenfernrohr herum gebaut worden war, das anlässlich der nicht-ganz-Weltausstellung 1896 gebaut worden war, war schon immer ein Forschungsinstitut, obwohl es auch schon immer zum Großteil von Eintrittsgelder von öffentlichen Veranstaltungen finanziert wurde.

]]>
http://scilogs.spektrum.de/uhura-uraniae/unter-einem-dach/feed/ 0
Goldene Träume – Das Hügelgrab von Hochdorf http://scilogs.spektrum.de/antikes-wissen/goldene-traeume-das-huegelgrab-hochdorf/ http://scilogs.spektrum.de/antikes-wissen/goldene-traeume-das-huegelgrab-hochdorf/#comments Thu, 30 Jun 2016 17:04:19 +0000 Jessica Koch http://scilogs.spektrum.de/antikes-wissen/?p=188 Weiterlesen]]> Es ist nicht alles Gold, was glänzt. Dieser Spruch enthält für die Archäologie viel wahres. Anders verhält es sich bei den Funden des keltischen Prunkgrabs bei Hochdorf in Nähe Stuttgarts. Der Grabhügel von Hochdorf ist die letzte Ruhestätte eines etwa vierzigjährigen Mannes der um 540 v.Chr. lebte und starb. In seinem Grab wurden zahlreichen gut erhaltenen Gold-, Bronze- und Eisengegenständen gefunden. Eine Besonderheit: Es wurden auch zahlreiche organische Materialen gefunden.

©Landesmuseum Württemberg, Stuttgart: Goldornat mit Birkenrindenhut, 2016.

© Landesmuseum Württemberg, Stuttgart: Goldornat mit Birkenrindenhut, 2016.

Auf einem Acker bei Hochdorf entdeckte Renate Leibfried 1977 auffällige Steine. Es waren die Reste eines Grabhügels und der Beginn einer mehrjährigen Ausgrabung. 1,5 Meter waren vom ehemals 6 Meter hohen Grabhügel zu dieser Zeit noch übrig. Andere Bereiche waren vollständig eingeebnet und abgetragen. Es ist die letzte Ruhestätte eins etwa vierzigjährigen Mannes der um 540 v.Chr. seine letzte Ruhe fand. Die Größe des Grabes lässt zusätzliche Nachbestattungen vermuten. Die gefundenen Grabbeigaben sind reichhaltig.

Die Schätze von Hochdorf

Die hölzerne Grabkammer (4,7 x 4,7 Meter) zählt zu den besterhaltenen Prunkgräbern dieser Zeit.[1] Neben zahlreichen Gold-, Bronze- und Eisengegenständen wurden auch diverse organische Materialen, beispielsweise Kleidungsreste, gefunden. Der Leichnam des Mannes wurde auf einer Bronzeliege bestattet. Er trug aufwendigen Goldschmuck und Waffen. Einige der goldenen Schmuckstücke scheinen eigens für das Begräbnis hergestellt zu sein.[2] Zusätzlich wurde ihm ein kleines Säckchen mit Angelhaken auf die Brust gelegt. Anthropologen konnten feststellen, dass der Mann eine auffallende Erscheinung war. Mit 1,87 Metern überragte er wahrscheinlich viele Zeitgenossen. Seinen Knochen zeigen ausgebildete Muskelansätze, was auf eine sehr muskulöse Statur hindeutet. Entdecktet wurden außerdem stark abgenutzte Zähne und eine Arthritis-Erkankung. Die eigentliche Todesursache konnte nicht festgestellt werden.

Weitere Grabbeigaben sind ein rundbodiger Bronzekessel mit Löwenfiguren. Es ist eine Importware aus griechischen Werkstätten. Das 500-Liter-Gefäß war im Zeitpunkt der Bestattung mit Met befüllt. Außerdem wurden mehrere Trinkhörner mit verzierten Beschlägen, Trink- und Speisegeschirr sowie ein großer vierrädriger Wagen samt Pferdegeschirr gefunden. Neben einem Hut aus Birkenrinde, vielen kleineren Habseligkeiten, zum Beispiel ein Kamm, Rasiermesser und Schlangenfibeln, sind vor allem die goldenen Schuhbeschläge auffällig. Eine Besonderheit sind sicherlich die Reste der beiden Prunktücher, mit denen der Leichnam umhüllt war und die Reste von kostbaren Wolltüchern, mit denen die Grabbeigaben zum Teil umwickelt waren.[3]

© Landesmuseum Württemberg, Stuttgart: 3D-Rekonstruktion des Prunkgrabes von Hochdorf, 2016.

© Landesmuseum Württemberg, Stuttgart: 3D-Rekonstruktion des Prunkgrabes von Hochdorf, 2016.

Kelten in Süddeutschland

Die Errichtung der Anlage wird auf ca. 540 v.Chr. datiert und ist somit der Hallstattkultur (Ha D), der frühen Eisenzeit, zugeordnet.[4] Das Grab wird mit dieser Einordnung den keltischen Kulturen Süddeutschlands zugeordnet. Archäologisch werden ‚Kelten‘ primär mit der La-Téne-Kultur ab dem 5. Jh. v.Chr. identifiziert. Doch die kulturellen und künstlerischen Wurzeln sind schon in der Hallstattkultur zu finden. Aus diesem Grund wird auch das Grab von Hochdorf als ‚Keltengrab‘ verstanden. Die Übergänge zwischen den beiden Kulturen sind jedoch fließend. Regionale Unterschiede überwiegen sehr oft die vermeintlichen Gemeinsamkeiten. Die Forschung vertritt daher die Auffassung, dass es keine gesamt europäische Kelten-Kultur gegeben habe, sondern eine Vielzahl an Gesellschaften existierte, die gewisse Ähnlichkeiten im sozialen, kulturellen und materiellen Leben aufwiesen.[5]

‚Fürstengrab‘ oder Prunkgrab

Eine wichtige Debatte, die stets bei keltischen Bodendenkmälern in Süddeutschland auftaucht, ist die ‚Fürstensitzdebatte‘. Ausgangspunkt waren die großen Goldfunde in einem Grabhügel nahe der Heuneburg im Jahr 1877. Mit den ausgegrabenen Reichtümern wurde der Begriff ‚Fürstengrab‘ eingeführt. Erst seit den 1970er Jahren wird diese Aussage hinterfragt: Inwieweit lässt der materielle Wert der Grabbeigaben tatsächlich einen Rückschluss auf die soziale Position des Bestatteten zu? War es vielleicht doch ein wohlhabender Kaufmann oder ein angesehener Heiler? Was ist überhaupt unter einem keltischen Fürsten zu verstehen? Gab es überhaupt ‚Fürsten‘ in den keltischen Kulturen? Ist der ‚Fürst‘ nicht vielmehr ein Begriff des Mittelalters?

Da es keine letzte Wahrheit zu diesen Fragen gab, führte Georg Kossak 1974 die neutralere Bezeichnung ‚Prunkgrab‘ ein.[6]

Einen Blick auf die Schätze erhaschen

Wer die Schätze von Hochdorf live bewundern möchte, kann dies zurzeit in der Ausstellung ‚Wahre Schätze‘ des Landesmuseum Württemberg in Stuttgart tun. Neben den Grabbeigaben von Hochdorf werden auch die Funde aus anderen Prunkgräbern ausgestellt. Interessierte finden außerdem einen spannenden Einblick in die keltischen Kulturen und Historie.


 

 

[1] Vgl. Holger Müller: Die Kelten in Süddeutschland. Der archäologische Führer, herausgegeben von Holger Sonnabend / Christian Winkle, Darmstadt / Mainz 2012, S. 54-55.

[2] Vgl. Müller: Die Kelten in Süddeutschland, S.58.

[3] Vgl. Thomas Hoppe / Katrin Ludwig / Christiane Benecke: Wahre Schätze. Kelten, im Auftrag des Landesmuseum Württemberg, Stuttgart 2016, S.36-41.

[4] Vgl. Müller: Die Kelten in Süddeutschland, S.9.

[5] Vgl. Müller: Die Kelten in Süddeutschland, S.10-12.

[6] Vgl. Müller: Die Kelten in Süddeutschland, S.12-14; Vgl. Wolfgang Krimmig: Kriterienkatlaog für keltische Fürstensitze, 1969.

]]>
http://scilogs.spektrum.de/antikes-wissen/goldene-traeume-das-huegelgrab-hochdorf/feed/ 3
Sonnentransit der ISS über Südhessen am 1.7.2016 http://scilogs.spektrum.de/go-for-launch/sonnentransit-der-iss-ueber-suedhessen-am-1-7-2016/ http://scilogs.spektrum.de/go-for-launch/sonnentransit-der-iss-ueber-suedhessen-am-1-7-2016/#comments Thu, 30 Jun 2016 12:23:20 +0000 Michael Khan http://scilogs.spektrum.de/go-for-launch/?p=5861 Weiterlesen]]> Der Syzygienkönig gibt bekannt: Südhessen, Nordbadener, Pfälzer und Franken aufgepasst! Am Freitag, 1. Juli 2016, gegen 13:51 MESZ wird die Internationale Raumstation hoch am Himmel, damit bei geringem Abstand vom Beobachter und entsprechend groß erscheinend einen Sonnentransit hinlegen. Ich habe die Beobachtbarkeit nur für die Nähe meines Wohnorts eruiert. Wer anderswo lebt (soll es ja geben), kann Heavens Above oder CalSky oder ein anderes Tool seines oder ihres Vertrauens bemühen.

(mehr …)

]]>
http://scilogs.spektrum.de/go-for-launch/sonnentransit-der-iss-ueber-suedhessen-am-1-7-2016/feed/ 3
Die gefälschten Protokolle der Weisen von Zion – Vortrag bei der Israelitischen Religionsgemeinschaft Württembergs http://scilogs.spektrum.de/natur-des-glaubens/die-protokolle-weisen-zion-vortrag/ http://scilogs.spektrum.de/natur-des-glaubens/die-protokolle-weisen-zion-vortrag/#comments Wed, 29 Jun 2016 17:30:25 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2924 Weiterlesen]]> Als ich vor zwei Jahren über die verheerende Wirkungsgeschichte der gefälschten „Protokolle der Weisen von Zion“ und in 2016 das sciebook „Verschwörungsglauben“ schrieb, ging es mir vor allem um deren „zweite Karriere“: Nachdem sie in der westlichen Welt vielfach widerlegt und durch den hasserfüllten Verschwörungsglauben der Nationalsozialisten diskreditiert worden waren, verbreiteten sie sich doch – mit ebenfalls furchtbaren Folgen – in der arabisch-islamischen Welt. Wenn Sie mir damals gesagt hätten, dass der Verschwörungsglauben an die „Protokolle“ auch in deutsche Parlamente zurückkehren würde, hätte ich es Ihnen kaum geglaubt. Doch es ist geschehen, ausgerechnet in meinem Heimatland, in Baden-Württemberg.

Der AfD-Parteipolitiker und neu gewählte Landtagsabgeordnete Dr. Wolfgang Gedeon hält die „Protokolle“ für glaubwürdig, hat darauf einen Verschwörungsglauben gebaut, der sich gegen unsere demokratischen Institutionen und Parteien wendet und auch die „verbündeten“ Islamisten, die „judaisierten“ Kirchen und die „talmudisierten“ Nichtreligiösen umfasst. Daher lud mich die Israelitische Religionsgemeinschaft Württembergs (IRGW) kurzfristig zu einem Vortrag über die „Protokolle“ ins jüdische Gemeindezentrum Stuttgart.

160622-Vortrag_Die_gefaelschten_Protokolle_der_Weisen_von_Zion_und_ihre_Verwendung_durch_Rechtsextremisten_und_Islamisten

Dankbar bin ich dafür, dass mit der IRGW-Vorsitzenden Barbara Traub – auch im Vorstand des Zentralrates der Juden in Deutschland -, ihrer Vorstandskollegin Susanne Jakubowski und Rabbiner Shneur Trebnik (Ulm) sowie vielen Gemeindemitgliedern nicht nur die jüdische Gemeinde stark vertreten war, sondern auch die evangelische Kirche mit Dekan Sören Schwesig und Pfarrerin Sabine Löw sowie auch der Hohe Welt-Rat der Yeziden in Lalish mit Mirza Dinnayi und gleich mehrere Freundinnen und Freunden aus islamischen Religionsgemeinschaften.

Überraschend kam auch – begleitet von Mitarbeitern – der AfD-Abgeordnete Dr. Heinrich Fiechtner zu dem Vortrag, der sich in einem Video sehr deutlich von seinem „Kollegen“ distanziert hat. Ein Ausschluss von Wolfgang Gedeon aus der AfD-Fraktion erfolgte trotz einer Rücktrittsdrohung des Fraktionsvorsitzenden Jörg Meuthen jedoch bislang nicht, stattdessen kam es auch auf Betreiben der AfD-Bundesvorsitzenden Frauke Petry zu einem umstrittenen „Kompromiss“.

Da es vorher viele Anfragen zu meinem „Protokolle“-Vortrag gab, hat ihn Iossif Gendlin zudem auf Kamera aufgenommen – vielen herzlichen Dank dafür!

Sie können zudem ein kleines Gerät an meinem Ohr erkennen: Ich habe den Vortrag auch als mp3-File aufgenommen und ihn Dank eines Hinweises von @Birgit Lachner nun auch auf Soundcloud eingestellt, voila:

Vortrag-Audio auf Soundcloud (Klick)

(Nachtrag: Inzwischen hat Achim Weimann die beiden Dateien freiwillig & dankenswerterweise verbunden, so dass ein YouTube-Video mit besserer Tonqualität entstanden ist. Habe es oben ersetzt. M.B.)

Wenn Sie sich für den klar erkennbaren Antisemitismus in Gedeons selbsternannten „Meisterwerken“ interessieren (nach dem zum Beispiel auch „Islamisten“ und „Zionisten“ unter einer Decke stecken), so darf ich zudem auf einen Blogpost verweisen, den ich für die „Ruhrbarone“ verfasst habe.

AfDPlakateGedeon0616

Ihnen vielen Dank für das Interesse an einem schwierigen, aber leider offenbar doch wieder notwendigen Thema zur Aufklärung über einen der gefährlichsten Verschwörungsmythen der Weltgeschichte…

Wenn Sie sich tiefer in das Thema einlesen möchten, ist ggf. auch mein sciebook „Verschwörungsglauben“ als eBook oder Taschenbuch für Sie interessant:

VerschwoerungsglaubenTaschenbuecher

]]>
http://scilogs.spektrum.de/natur-des-glaubens/die-protokolle-weisen-zion-vortrag/feed/ 13
Dumm, wer keine Rentenangst hat http://scilogs.spektrum.de/wild-dueck-blog/dumm-wer-keine-rentenangst-hat/ http://scilogs.spektrum.de/wild-dueck-blog/dumm-wer-keine-rentenangst-hat/#comments Wed, 29 Jun 2016 08:11:58 +0000 Gunter Dueck http://scilogs.spektrum.de/wild-dueck-blog/?p=713 Weiterlesen]]> Das deutsche Rentensystem war einmal für die Ewigkeit gedacht, aber die Rahmenbedingungen ändern sich so dramatisch, dass uns langsam kalte Angst in die Knochen fahren sollte.

Schauen wir zurück:

Damals machten nur ein paar Prozent der Leute Abitur, unter „Abiturientenquote“ findet man in der Wikipedia, dass 1960 um die sieben Prozent studienberechtigt waren, wovon die meisten ein Studium begannen und vielleicht (schätze ich) so vier Prozent beendeten. Die meisten begannen also nach dem zehnten Schuljahr mit dem Berufsleben. Die heute immer so nonchalant genannten 45 Jahre Norm-Arbeitsleben waren also durchschnittlich absolut drin.
1960 war die Rentenzahlungsdauer etwa 10 Jahre, weil die Lebenserwartung deutlich niedriger war als heute. Meine Kinder (knapp über 30) können wegen ihrer höheren Lebenserwartung mit geschätzten 22 Jahren Rente rechnen (surfen Sie unter „Rentenzahlungsdauer“). Das alles macht doch Sorgen?

•    Bald die Hälfte eines Jahrgangs studiert, diese kommt also sehr spät ins Arbeitsleben und kann also gar keine 45 Jahre „vollmachen“.
•    Im Gegensatz zu früher haben viele Leute Lücken im Arbeitsleben: Arbeitslosigkeit, Sabbaticals, „Zeitlassen“ beim Wechsel der Arbeitsstelle.
•    Immer mehr Menschen arbeiten als Selbstständige oder in Minijobs und zahlen nicht in die Rentenkassen ein (ein Drittel derzeit), dafür haben sie meist keine Ahnung, um wie viel härter sie das Los treffen wird: Es gibt keine Zinsen mehr, wenn sie selbst vorsorgen!
•    Wir bekommen weniger Kinder und haben in der nächsten Zukunft eine vollkommen überalterte Gesellschaft, die Quote Renteneinzahler zu Rentenbezieher war 1960 Sechs zu Eins, heute Zwei zu Eins, bald Eins, Komma X zu Eins??

Hallo? Wie kann das gehen? Doppelt so lange Rente beziehen, aber viel kürzer in die Versicherung einzahlen, weil man erst der Stufe „Praktikum nach Studium“ entwachsen muss? Auch aus Finanzproblemen lieber keine Kinder bekommen, die dann auch später nicht mehr für die eigene Rente da sind? Öfter mal ein Jahr „aussetzen“? Und wer rettet das Drittel, die gar nicht einzahlen und wegen der Nullzinsen vor herben Problemen stehen? Beispiel: Man bot mir in den 80er Jahren Lebensversicherungen an: Ich sollte ab dem 35. Lebensjahr 100.000 Euro über dreißig Jahre einzahlen und bekäme dann zum 65. Geburtstag geschätzt 300.000 Euro ausgezahlt. So ist das heute nicht. Man bekommt im schlimmsten Fall real weniger zurück, weil die Zinsen bei Null liegen und die Inflation ja noch da ist. Und nun?

Liebe Leute, wir stecken bis zum Hals im Mist. Auch die Enteignung aller Millionäre hilft nicht viel, weil uns das nicht >100.000 Euro pro Rentenfall bringt, aber man kann damit ignorant von allen Problemen ablenken und eine neue Radau-Partei damit gründen. An dieser Lage ist bitteschön auch kein Bösewicht schuld. Wir leben länger, arbeiten kürzer und „leisten uns“ weniger Nachwuchs – und vor allem: Wir schließen die Augen vor den Folgen.

Lösungen gäbe es ja. Weil wir im Mist stecken, wirken die nicht offensichtlich erfreulich. Das ist immer so, wenn man im Mist steckt und nur noch Rosskuren helfen:

•    Die Rentenhöhe fällt dramatisch.
•    Die Einzahlungen in die Rente steigen dramatisch.
•    Alle arbeiten bis 72.
•    Man nimmt irre hohe Schulden auf und hofft auf Konjunkturwunder.
•    Viele verkaufen Immobilien in den Städten und besiedeln die billigen Häuser im Osten und anderswo – Ungarn kommt in Mode.
•    Man integriert große Massen von Flüchtlingen.

Was geschieht? Nichts. Also werden, wenn nichts geschieht, die Renten dramatisch absinken. Altersarmut wird zur Regel werden. Wer keine Kinder hat, wird noch chancenloser sein.

Und nun stellen Sie sich vor, jemand möchte an das Problem heran. Schon für eine Forderung, bis 67 zu arbeiten, wird man verprügelt und abgewählt. Die Vorstellung, ein Einwanderungsland zu werden, bringt die AfD ja fast schon an die Macht –  so vergiftet ist das Klima und so verbreitet das geschürte Unbehagen. Mehr einzahlen? Geht gar nicht, weil die jungen Menschen heute mit oft sehr kargen Gehältern einsteigen. Schulden aufnehmen? Die möglichen Schulden haben wir schon für die Banken gemacht, es blühen schon neue für Ewigkeitslasten der Kernkraftwerke und vieles andere mehr.

Gegen jeden Lösungsvorschlag gibt es Tausende von „Gründen“. Die lassen sich medial hochwirksam als scripted reality vor die Kamera zerren. Sie weinen und klagen. „Ich bin schon mit 60 vollkommen fertig. Das war schon lange klar, aber ich kann doch nicht umlernen! Ich will das nicht.“ – „Höhere Beiträge richten mein Unternehmen zugrunde. Es geht nur, wenn die Arbeiter alles selbst zahlen.“ – „Ja, die Ausländer sollten unsere Rente bezahlen, aber sie sollten nicht hier leben.“ – „Leute mit Mindestlohn können ja nicht in die Rente einzahlen, weil das da nicht eingerechnet ist.“

Leute, wir selbst leben, wir arbeiten, wir entscheiden uns, Kinder zu bekommen oder nicht. Es ist unser eigenes Problem. Man kann verlangen, dass wir Lösungen finden. Wir selbst. Jetzt. Wenn wir nicht jetzt etwas tun, debattieren lauter arme Menschen im Jahre 2030, wie sie Geld zaubern könnten. Oder wir sitzen 2040 apathisch herum. „Wie konnte das kommen, dass sie in Korea so reich sind?“

Glauben Sie nicht? Vielleicht arbeiten Sie ja in großen Firmen, die (sie sind ja einstmals groß geworden) irre erfolgreich waren und heute zu einem sehr guten Teil zum Schatten ihrer selbst werden, weil sie den Wandel ignorieren. Dann gehören Sie doch sicher zu denen in der Firma, die das grimmig ärgert? Aber was tun Sie selbst, dass Sie nicht zu Ihrem Schatten werden?

]]>
http://scilogs.spektrum.de/wild-dueck-blog/dumm-wer-keine-rentenangst-hat/feed/ 22
Sicherheit an Steilküsten – Georisiken http://scilogs.spektrum.de/mente-et-malleo/sicherheit-an-steilkuesten-georisiken/ http://scilogs.spektrum.de/mente-et-malleo/sicherheit-an-steilkuesten-georisiken/#respond Tue, 28 Jun 2016 20:49:18 +0000 Gunnar Ries http://scilogs.spektrum.de/mente-et-malleo/?p=1804 Weiterlesen]]> Der Sommer ist da, und mit ihm die Urlaubs- und Ausflugszeit. Und oft suchen wir Menschen dann Erholung in der Natur. Leider vergessen wir zivilisationsgewöhnten Menschen dabei immer gerne, dass der Aufenthalt in der Natur so seine Gefahren mit sich bringt. Dabei ist es eigentlich vollkommen egal, ob wir durch Wälder streifen, an der Küste sind oder Berge erklettern. Wer allzu sorglos ist, kann schnell Probleme bekommen.

Das gilt natürlich ganz besonders für Kliffküsten. Gerade hier kommt es immer wieder zu  tragischen Unfällen, die sich meist ganz leicht hätten vermeiden lassen. (mehr …)

]]>
http://scilogs.spektrum.de/mente-et-malleo/sicherheit-an-steilkuesten-georisiken/feed/ 0
Von Gottes Liebe getragen – Bemerkenswertes Gemeinsames Wort von ACK und Islamischen Religionsgemeinschaften in Baden-Württemberg http://scilogs.spektrum.de/natur-des-glaubens/von-gottes-liebe-bemerkenswertes-gemeinsames/ http://scilogs.spektrum.de/natur-des-glaubens/von-gottes-liebe-bemerkenswertes-gemeinsames/#comments Tue, 28 Jun 2016 16:10:37 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2920 Weiterlesen]]> Können Dialog und Begegnung inmitten eines Klimas von Ängsten, Terror und Neo-Nationalismus gedeihen? Können sich islamische Religionsgemeinschaften in Deutschland überhaupt selbst artikulieren, oder fehlt es ihnen noch immer an sachkundigem Personal, werden sie aus den Herkunftsstaaten „ferngesteuert“? Beten Christen und Muslime nach ihrem jeweiligen Selbstverständnis zum selben „Gott“?

Angesichts dieser sicher nachvollziehbaren Fragen möchte ich auf ein bemerkenswertes Dokument hinweisen, das christliche und islamische Gelehrte in der Fachgruppe „Begegnung mit dem Islam“ der ACK in Baden-Württemberg bis zum März 2016 gemeinsam erarbeitet und einer Landespressekonferenz vorgestellt haben. Die Katholische Nachrichtenagentur KNA veröffentlichte den Text und gab ihm – zitierend – den Titel „Von Gottes Liebe getragen“.

Unter anderem heißt es darin:

Christen und Muslime wissen sich je auf ihre Weise von der Liebe Gottes getragen – und der Liebe zu Gott und den Menschen verpflichtet.

Wenn sie sich darauf besinnen, können sie – gemeinsam – einen Beitrag leisten zur Linderung von Flüchtlingsnot, zur Überwindung von Ungerechtigkeit und Krieg, Unbarmherzigkeit und Gewalt.
Sie können aus den innersten Motiven und Kräften ihres Glaubens heraus gemeinsam mithelfen bei der Lösung von zwischenmenschlichen Konflikten, aber auch von gesellschaftlichen oder globalen Krisen.
 
Dazu verpflichten wir uns mit diesem Gemeinsamen Wort. Wir rufen Muslime und Christen auf, sich zum gemeinsamen Einsatz für Frieden und Gerechtigkeit herausfordern zu lassen.“
Den ganzen Text – auch mit der Liste der unterzeichnenden Kirchen und islamischen Verbände – können Sie hier als pdf herunterladen.

(mehr …)

]]>
http://scilogs.spektrum.de/natur-des-glaubens/von-gottes-liebe-bemerkenswertes-gemeinsames/feed/ 1
Link: How the Nazis “Normalized” Anti-Semitism by Appealing to Children via The Smithsonian http://scilogs.spektrum.de/con-text/link-how-the-nazis-normalized-anti-semitism-by-appealing-to-children-via-the-smithsonian/ http://scilogs.spektrum.de/con-text/link-how-the-nazis-normalized-anti-semitism-by-appealing-to-children-via-the-smithsonian/#comments Tue, 28 Jun 2016 04:48:59 +0000 Dierk Haasis http://scilogs.spektrum.de/con-text/?p=620 “Everyone treats the rise of Nazism—that Adolf Hitler is in power,” says Rendell. “But how did he get into power? He ran for office. Twice. They changed anti-Semitism to fit political campaigns.”

]]>
http://scilogs.spektrum.de/con-text/link-how-the-nazis-normalized-anti-semitism-by-appealing-to-children-via-the-smithsonian/feed/ 1
Die hässlichen Folgen des Brexit http://scilogs.spektrum.de/gedankenwerkstatt/die-haesslichen-folgen-des-brexit/ http://scilogs.spektrum.de/gedankenwerkstatt/die-haesslichen-folgen-des-brexit/#comments Mon, 27 Jun 2016 11:43:43 +0000 Thomas Grüter http://scilogs.spektrum.de/gedankenwerkstatt/?p=739 Weiterlesen]]> Die Briten haben sich mit knapper Mehrheit entschieden, die EU zu verlassen. Das finde ich außerordentlich bedauerlich. Die Scheidung wird aller Voraussicht nach langwierig und hässlich werden.

In diesem Blogpost soll es nicht um die Ursache des Brexit gehen. Dieses Thema haben Zeitungen, Blogs und Talkrunden bereits ausgiebig plattgewalzt. Die kürzeste und treffendste Analyse ist wohl der Kolumnistin und Schriftstellerin Laurie Penny im britischen New Statesman gelungen. Das Brexit-Votum, schreibt sie, sei ein Referendum gegen die moderne Welt gewesen. (This was never a referendum on the EU. It was a referendum on the modern world). Dem ist nichts hinzuzufügen.

Deshalb möchte ich hier eine kurze Analyse der optimalen Strategie für beide Seiten versuchen. Sie ist klar vorgezeichnet und lässt schlimmes befürchten.

Die britische Regierung muss handeln

Die britische Regierung muss erst einmal die Brandherde austreten, die sie im eigenen Land entfacht hat. Die Wut bei den EU-Befürwortern ist groß, und viele EU-Gegner sind enttäuscht, dass die Brexit-Befürworter binnen Stunden nach ihrem Sieg fast alle Versprechen wieder einkassiert haben. Jede Woche gehen 350 Millionen Pfund nach Brüssel? Hätte man so nicht sagen sollen. Das Geld geht an den National Health Service? Mal sehen. Die EU-Ausländer müssen das Land verlassen? Vorläufig nicht.

Boris Johnson gibt den großzügigen Sieger und erklärt, dass sich am freien Zugang der Briten zum europäischen Markt nichts ändern werde. Die jungen Briten könnten selbstverständlich überall in Europa reisen, studieren und arbeiten. England werde immer ein Teil Europas bleiben. Alle diese Appelle sind nach innen gerichtet, nicht nach außen. Johnson hat den brennenden Ehrgeiz, Premierminister zu werden, also erzählt er allen das, was sie nach seiner Meinung gerne hören möchten. Tatsächlich kann er natürlich nichts garantieren, aber er möchte ein umfassendes Verhandlungsmandat haben und definiert die Ziele deshalb so, dass jeder sich darin wiederfinden kann.

Die britische Regierung wird den Schotten ihre Unabhängigkeitsbestrebungen ausreden wollen. Ihre beste Option dafür ist ein Spiel auf Zeit. Sie wird also argumentieren, dass die Schotten gerne ein neues Referendum abhalten dürfen, aber nicht bevor die Bedingungen für den Brexit mit der EU ausgehandelt und in einer neues britischen Volksbefragung angenommen sind. Erst dann hätten die Schotten überhaupt eine Entscheidungsgrundlage. Alle diese Prozesse werden mehrere Jahre in Anspruch nehmen, und vor 2020 oder vielleicht 2022 wird es nicht zu einer Volksabstimmung über die schottische Unabhängigkeit kommen – jedenfalls, wenn es nach der britischen Regierung geht. Und bis dahin fließt noch viel Wasser die Themse hinunter.

Die Lage in Nordirland muss der britischen Regierung mehr Sorgen machen. Die Katholiken haben fast geschlossen für den Verbleib in der EU gestimmt, die Protestanten waren mehrheitlich dagegen. Die katholisch dominierten Distrikte an der Grenze zu Irland könnten auf die Idee kommen, sich dem Süden anzuschließen. Das wiederum heizt die Gefahr eines neuen Bürgerkriegs an.

Ferner muss die britische Regierung die Banken beruhigen und ihnen klarmachen, dass London der zentrale Finanzplatz für Europa bleibt. Notfalls könnte der Chancellor1 die staatlichen Regeln lockern, um damit die Banken im Land zu halten. Viele Firmen aus den USA und China haben ihr europäisches Hauptniederlassung in England. Sie eruieren jetzt die Möglichkeit, nach Irland, Frankreich oder Deutschland umzuziehen. Auch hier wird die britische Regierung in den nächsten Monaten sicherlich versuchen, mit Geld und guten Worten einen Exitus zu verhindern.

Der Verfall der Währung wird dagegen kaum aufzuhalten sein. Die internationalen Ratingagenturen haben das Vereinigte Königreich (United Kingdom – UK) bereits heruntergestuft, so dass der Schatzkanzler mehr Zinsen auf Staatsanleihen bieten muss. Das UK hat ein deutliches Außenhandelsdefizit, es führt mehr Waren und Dienstleistungen ein als es exportiert. Wenn das Pfund an Wert verliert, steigt die damit Inflation im Land an. Das ist unpopulär, und die Regierung wird versuchen müssen, ein Konjunkturprogramm auf den Weg zu bringen.

Diese Feuerwehrmaßnahmen verlangen Entschlossenheit und kosten Zeit. David Cameron wird es deshalb er seinem Nachfolger überlassen, den formellen Antrag auf Beendigung der EU-Mitgliedschaft zu stellen. Leider entscheidet der Parteitag der Konservativen erst im Oktober, wer das sein wird. Ob der schwer angeschlagene Cameron die Kraft für die skizzierten Sofortmaßnahmen hat, bleibt zweifelhaft. Ein politisch toter Premierminister ist in dieser kritischen Lage sicherlich keine gute Wahl.

Die Verhandlungsstrategie der britischen Seite

Warum stellen die Briten nicht gleich den Antrag auf Beendigung der Mitgliedschaft (Artikel 50 des EU-Vertrags)? Schließlich hat die Brexitkampagne immer betont, welche verheerende Auswirkungen die EU-Mitgliedschaft auf das UK hat. Und jetzt haben es weder Nigel Farage noch Boris Johnson besonders eilig. Es gäbe keinen Grund, sich auf Artikel 50 zu berufen, sagte Johnson sogar ausdrücklich. Bei Lichte betrachtet, ist diese Strategie absolut vernünftig. Sobald ein Land formell das Ende seiner EU-Mitgliedschaft erklärt, ist es gehalten, einen Austrittsvertrag mit der EU auszuhandeln. Darin werden die weiteren Beziehungen zur EU geregelt. In jedem aber Fall verliert das Land nach zwei Jahren alle Mitgliedsrechte. Wenn der Austrittsvertrag bis dahin nicht steht, wird das Land als EU-Ausland behandelt. Es muss Zölle entrichten und seine Bürger brauchen ein Visum, um in die EU einzureisen. Das wäre für die Briten eine Horrorvorstellung. Sie sind also darauf angewiesen, dass der Vertrag binnen zwei Jahren nach der Austrittserklärung abgeschlossen ist. Damit sitzt die EU am längeren Hebel und kann die Bedingungen weitgehend diktieren.

Genau deshalb möchte Boris Johnson eine Beendigung der EU-Mitgliedschaft nach Artikel 50 verhindern und den Austrittsvertrag frei aushandeln. Er möchte folgendes erreichen:

  1. Die EU und das UK schließen einen Freihandelsvertrag, der den freien Transfer von Waren, Dienstleistungen und Bankdiensten erlaubt. Das UK wird sich vorbehalten, im nationalen Interessen bestimmte Industrien schützen zu dürfen.
  2. Britische Bürger dürfen in der EU weiterhin leben, studieren und arbeiten. Umgekehrt darf das UK aber die Einwanderung von EU-Bürgern begrenzen, wenn das nötig sein sollte.
  3. Das UK wird weiterhin EU-Richtlinien und Normen übernehmen. Allerdings müssen im nationalen Interesse Ausnahmen möglich sein und das UK möchte ein Mitspracherecht bei der Entwicklung von EU-Normen haben.

Letztlich möchte das UK so gestellt sein wie vorher, nur ohne Zahlungen nach Brüssel und mit der Möglichkeit, im gewissen Rahmen protektionistische Maßnahmen ergreifen zu dürfen.

Die Verhandlungsstrategie der EU

Die EU möchte, dass die Briten möglichst schnell das Ende ihrer EU-Mitgliedschaft erklären. Sobald dieses Dokument vorliegt, enden alle Handelsprivilegien der Briten automatisch nach zwei Jahren und die EU diktiert praktisch das weitere Geschehen. Aus diesem Grund drängen viele europäische Politiker auf die Austrittserklärung. Frau Merkel war klug genug, das nicht zu tun, und statt dessen zu betonen, dass die Briten erst einmal EU-Mitglied mit allen Rechten und Pflichten bleiben. Wenn also jetzt mehrere Hunderttausend Osteuropäer überlegen, ihren Wohnsitz ins UK verlegen, solange das noch geht, dann kann die britische Regierung nichts dagegen unternehmen. Und natürlich bleibt sie erst einmal Nettozahler. Ferner wird sich die EU weigern, über einen Austrittsvertrag zu verhandeln, solange die formelle Erklärung der Briten nach Artikel 50 nicht vorliegt. Schließlich ist das britische Referendum genau genommen nicht mehr als eine Volksbefragung. Es gibt lediglich eine momentane Stimmung wieder und ist für die Regierung in keiner Weise verbindlich. Für Verhandlungen fehlt also – aus EU-Sicht – jede belastbare Grundlage. Die EU wird den Briten im Austrittsvertrag auch keine Vorzugsbedingungen geben wollen. Sie darf nicht den Eindruck erwecken, dass assoziierte Staaten besser gestellt sind als Mitglieder.

Die spieltheoretische Sicht

Wir haben derzeit eine Situation mit zwei Spielern, von denen keiner den ersten Zug machen kann, ohne seine Position zu verschlechtern.

  • Wenn die Briten formell ihren Austritt erklären, verlieren sie nach zwei Jahren den Zugang zum Europäischen Markt. Sie müssen also unter Zeitdruck verhandeln und einen schlechten Vertrag akzeptieren.
  • Die EU hingegen wäre schlecht beraten, vor Eingang der Austrittserklärung zu verhandeln. Damit würde sie ihr wichtigstes Druckmittel verlieren.

Also warten beide Seiten erst einmal ab. Und hier beginnt das Spiel richtig hässlich zu werden. Solange die Zukunft der EU und der Briten in der Luft hängt, halten sich internationale Konzerne mit Investitionen zurück. Europa ist nicht der Nabel der Welt, und wenn die Europäischen Länder sich zerfleischen, verlagert sich der ökonomische und politische Schwerpunkt der Welt in andere Regionen. Beide Seiten werden dem Gegner diese Entwicklung vorwerfen und ihn zum Handeln drängen.2

Wenn das nichts fruchtet, wird eine Zeit der Nadelstiche beginnen. Die EU wird Richtlinien verabschieden, die den Briten nicht gefallen können. Solange sie aber Mitglied der EU sind, müssen sie die Bestimmungen in nationales Recht umsetzen. Ferner wird die EU peinlich genau darauf achten, dass die Briten keine Hindernisse für EU-Bürger aufbauen. Die Briten wiederum werden versuchen, einzelne Länder aus dem EU-Block herauszubrechen, um die Verhandlungsposition der EU-Kommission zu schwächen. Beispielsweise könnten sie die Rechtspopulisten in Frankreich oder Holland ermutigen, den EU-Austritt ihrer Länder aktiver zu betreiben. Oder sie versprechen einzelnen Ländern Privilegien für zweiseitige Handelsabkommen (die nach EU-Recht verboten sind). Oder sie behalten Zahlungen ein, weil sie erst nach Abschluss des Austrittsvertrages eine Schlussabrechnung vornehmen möchten.

Im schlimmsten Fall steht am Ende des Scheidungsprozesses eine zerfallene EU und ein ruiniertes UK. Die europäische Wirtschaft läge am Boden und die Europäer hätten auf der internationalen Bühne keine Stimme mehr. Aber selbst im günstigsten Fall steht keiner der Beteiligten besser da als vorher.

Wer hat David Cameron bloß die Schnapsidee eines EU-Referendums souffliert?

Anmerkungen

[1] Der britische Finanzminister (Chancellor of the Exchequer), auch Schatzkanzler genannt.

[2] Die Spieltheorie setzt ein rationales Handeln voraus. Darauf ist im wirklichen Leben kein Verlass. Z.B. könnte David Cameron auf die Idee kommen, seinem wahrscheinlichen Nachfolger Boris Johnson das Leben schwer zu machen. Dann erklärt kurz vor seinem Ausscheiden aus dem Amt offiziell das Ende der EU-Mitgliedschaft des VK.

]]>
http://scilogs.spektrum.de/gedankenwerkstatt/die-haesslichen-folgen-des-brexit/feed/ 78
Nezumab und Numap – Die Wirkstoffnamen der neuen Migränemittel http://scilogs.spektrum.de/graue-substanz/nezumab-numap-die-wirkstoffnamen-migraenemittel/ http://scilogs.spektrum.de/graue-substanz/nezumab-numap-die-wirkstoffnamen-migraenemittel/#respond Mon, 27 Jun 2016 07:16:40 +0000 Markus A. Dahlem http://scilogs.spektrum.de/graue-substanz/?p=13615 Weiterlesen]]> Galcanezumab und Erenumab – was uns diese und andere Namen der Medikamente gegen Migräne verraten und welche wir uns merken sollten.

Suma, Nara, Zolmi, Ele, Almo, Riza, Frova, Avi, Doni – einige klingen wie Vorsätze für Maßeinheiten, andere nach Vornamen der ersten Menschen aus Mittelerde. Wer mit starker Migräne zu kämpfen hat, weiß es besser: Sumatriptan, Naratriptan, Zolmitriptan, Eletriptan, Almotriptan, Rizatriptan und Frovatriptan sind die Namen sieben spezifischer Migränemittel. Avi und Doni? Avitriptan und Donitriptan wurden nie auf den Markt gebracht. Diese Namen sind daher weit weniger bekannt. Ganz neu sind Galcanezumab und Erenumab. Zu diesen Namen kommen wir noch. Mit ein wenig Kenntnissen werden diese Hoffnungsträger einer medikamentösen Migränetherapie einem leicht von den Lippen gehen und zumindest fünf Buchstaben im Wirkstoffnamen kann man dann etwas zuordnen.

Galcanezumap

Von hinten: Das Suffix »-map« bezeichnet die angebliche Wunderwaffe, »-zu-« wo sie herkommt und »-ne-« wo sie wirkt. »Galca-« ist ein Kunstwort.

 

Pharmabranche arbeitet an verschiedenen Migränemitteln: Gepants als CGRP-Antagonisten

Die Pharmabranche arbeitet an neuen Migränemitteln. Noch bis vor einigen Jahren lag die Hoffnung auf sogenannten Gepants. Sie sollten die 1992 eingeführten Triptane ablösen. Gepants sind Gegenspieler eines körpereigenen, extrem wirksamen Stoffes, der die Blutgefäße erweitert.

Die Erweiterung der Blutgefäße in den Hirnhäuten erzeugt den akuten Kopfschmerz bei Migräne.1 Triptane verengen erweiterte Blutgefäße wieder. Gepants hingegen verhindern das Erweitern von vornherein. Gepants setzen also in der Kaskade der Schmerzentstehung einen Schritt früher ein als die Triptane. Der Gefäßerweiterer, also der Bösewicht, wenn wir den Überbringer der schlechten Botschaft als solchen bezeichnen dürfen2, ist das Neuropeptid CGRP (Calcitonin Gene-Related Peptide). Kommen wir noch zu den Namen der Gegenspieler. Gegenspieler werden allgemein als Antagonisten bezeichnet. Lange Rede kurzer Sinn: Gepants sind CGRP-Antagonisten.

Telca, Olce, Ubro

Wohl weil das Wort »CGRP-Antagonist« nicht wirklich flüssig über die Lippen geht, hat jemand, wahrscheinlich ein Migräneforscher, sich den Namen »Gepant« ausgedacht.3 Und weil die Pharmabranche diese Moleküle nochmal variiert, erfindet sie Vorsätze wie Telca und Olce, zwei Schwestern aus Mittelerde, die noch einen Bruder haben.

Viel weiter kam die Branche nicht, denn die Erforschung von Telcagepant und Olcegepant musste wegen ihrer Lebergiftigkeit abgebrochen werden. Damit war fast die ganze Gepant-Forschung dahin. Ein Eorlgepant wurde nie erfunden. Nur Ubrogepant – das ist ein Gegenspieler des CGRP-Rezeptors und nicht des Neuropeptids CGRP, ein bedeutsamer physiologischer Unterschied – wurde neulich an 527 Patienten getestet. Ob damit die Geschichte weiter geht, bleibt abzuwarten.4

Die Nezumaps und Numaps betreten Mittelerde

Damit das Molekül in der Leber nicht mehr sein Unwesen treiben, sondern bloß seine nützliche Wirkung in den Hirnhäuten entfalten, setzt die Forschung heute auf sogenannte monoklonale Antikörper. Monoklonale Antikörper gelten als Wunderwaffe, weil sie sehr viel spezifischer angreifen und damit Nebenwirkungen umgehen.

Monoklonale Antikörper werden mittels gentechnisch veränderten Organismen biotechnologisch hergestellt und man bezeichnet sie allgemein auch als Biopharmazeutika oder Biologika. Abgekürzt werden monoklonale Antikörper zu MAK oder englisch zu mAbs (monoclonal antibodies). Die englische Abkürzung wird für die internationalen Freinamen der Wirkstoffe genutzt. Diese Namen werden vom United States Adopted Name (USAN) Council festgelegt.

Das USAN Concil gibt noch mehr Regeln vor. Kommt die Herkunft der Antikörper von menschlichen Zellen, muss vor dem »-map« ein »-u-« als Herkunfts-Infix oder auch ein »-zu-« für lediglich humanisierte »-maps«. Also heißen die Nachfolger der Gepants nun Umaps bzw. Zumaps, wobei – nein, noch immer nicht ganz.

Sag mir, wie du heißt und ich sag dir, wo du wirkst

Jetzt wird es nämlich wieder interessant. Denn vor das Herkunfts-Infix gesellt sich ein Ziel-Infix. Dieser Teil des Names verrät also etwas über den Ort der Wirkung im Körper. Für das Nervensystem ist es das Infix »-n(e)-«, für das kardiovaskuläres System »-c(i)-« und für das Immunsystem »l(i)-«. Ob ein Vokal oder nur der Konsonant genutzt wird, liegt wiederum am Herkunfts-Infix. Wie haben also die »-nezumaps« und »-numaps«.

So ganz selbstverständlich ist das mit den Infix »-n(e)-« übrigens nicht (siehe auch Fußnote 3). Das Gehirn ist nicht schmerzempfindlich und in der Hirnhaut sind es die Blutgefäße, die schmerzen. Was auch ein »-c(i)-« vermuten lassen könnte. Des Weiteren verlaufen in der Hirnhaut nach neusten Erkenntnissen auch Lymphgefäße. Auch ein »-l(i)-« könnte vielleicht in Frage kommen. Für diesen Ort sprächen gerade chronische Entzündungen mit andauernden Schmerzattacken, wie sie bei chronischer Migräne vorkommen. Allerdings ist es doch (noch) recht einfach.

Es bleibt beim Herkunfts-Infix »-n(e)-«. Denn CGRP kommt vorwiegend in sensorischen Nervenzellen vor, die im Rückenmark eintreffen. Insbesondere findet man es im sogenannten »trigeminovaskulären System«, einem System, das für Schmerz, die Durchblutung von Hirnhaut samt Gehirn und noch für so einiges mehr zuständig ist.5 Auch im Vagusnerve, der eine von zwei Stress-Achsen im Körper bildet, findet sich das CGRP.

Galca und Ere

Mit den Vorsätzen »Galca« und »Ere« werden nun Galcanezuma und Erenumab aus der Taufe gehoben. Jetzt wirken  (excuse the pun) diese Namen hoffentlich nicht mehr ganz so fremdartig. Man erkennt, dass es sich einmal um humane (-umab)  und einmal um humanisierte (-zumab) Antikörper handelt. Beide wirken im Nervensystem. Klar, damit Wirkstoffe wirklich wirken, braucht man die Namen nicht zu verstehen. Und natürlich wird die Marketingabteilung sprachlich noch Buchstaben wegfeilen, um zu den Markennamen zu kommen. Galcanezumab (LY2951742) ist von Pharmaunternehmen Eli Lilly. Erenumab (AMG334) stammt von dem Biotechnologieunternehmen Amgen, die sich mit Novartis für die weitere Erforschung zusammentaten. Dann gibt es das noch bisher (soweit ich es weiß) namenlose ALD-403 von Alder Biopharmaceuticals und das ebenfalls namenlose LBR-101/TEV-48125 von Teva.

Einige Namen, wie Telcagepant und Olcegepant, sind wieder verschwunden, kaum dass die aufgetaucht sind. Andere werden hoffentlich bleiben. Alles was im Moment auf -nezumab und -numap endet, ist sicher eine heißer Kandidat für Hoffnung auf eine neuartige medikamentöse Migränetherapie.

 

 

Fußnote

1 Zumindest nimmt man dies an, es gibt aber noch viele offene Fragen zu dieser These.

2 In der Tat könnte das ein fataler Trugschluß sein. Die Gefäßerweiterung hatte ja wahrscheinlich einen physiologisch sinnvollen Grund. Gefäßerweiterung grundsätzlich zu unterbinden, wie es Migräne-maps tun sollen, scheint in Hinblick darauf, dass Migräne als Risikofaktor für kardiovaskuläre Erkrankungen gilt, etwas kühn.

3 2009 taucht das Wort zum ersten mal in einem Aufsatz auf, der mit »Die vaskuläre Theorie der Migräne  – eine Erfolgsstory von den Tatsachen zerstört« überschrieben wurde. CGRP, der Bösewicht, kommt nämlich aus dem Gehirn. Es wurde belegt, dass Migräne sich nicht allein über Veränderungen in der regionalen Gehirndurchblutung erklären lässt.

4 Der Botoxhersteller Allergan erwarb letztes Jahr die weltweiten Exklusivrechte für zwei Gepants (»Ubrogepant« und einem Namenlosen) von MSD (Merck in Nordamerika). Vielleicht kommt da noch was, denn streng genommen ist das eine andere Wirkstoffgruppe.

5 Genauer gesagt das α-CGRP. α-CGRP kann übrigens noch mehr, es moduliert auch die Nervenaktivität und wird beispielsweise für die Lichtempfindlichkeit verantwortlich gemacht sowie für viele weitere Symptome der Migräne. Diese Vielfalt spiegelt die Vielfalt des trigeminovaskulären System wider.

 

galcanezumap

]]>
http://scilogs.spektrum.de/graue-substanz/nezumab-numap-die-wirkstoffnamen-migraenemittel/feed/ 0
Die Intelligenz hat versagt, oder: Warum Dummheit allein den Brexit nicht erklären kann http://scilogs.spektrum.de/hochbegabung/die-intelligenz-warum-dummheit-brexit/ http://scilogs.spektrum.de/hochbegabung/die-intelligenz-warum-dummheit-brexit/#comments Sun, 26 Jun 2016 12:31:15 +0000 Tanja Gabriele Baudson http://scilogs.spektrum.de/hochbegabung/?p=1124 Weiterlesen]]> Mehr als die Hälfte der Briten hat sich am letzten Donnerstag dafür ausgesprochen, die EU zu verlassen; das schlug bei Twitter natürlich Wellen. Glücklicherweise ist Humor auch dort ein Mittel, um mit dem Schock klarzukommen, und so ließ der Spott über die Dummheit der Brexit-Befürworter natürlich nicht lange auf sich warten. Aber reicht Dummheit als Erklärung für ein so frappierendes Ergebnis aus? Vielleicht teilweise; eine wichtige Rolle spielt meines Erachtens aber auch das Versagen der europäischen Intelligenz. Und dieses Versagen ist wiederum zu einem guten Teil systembedingt.

(mehr …)

]]>
http://scilogs.spektrum.de/hochbegabung/die-intelligenz-warum-dummheit-brexit/feed/ 5
Die Unmöglichkeit des Klimaschutzes http://scilogs.spektrum.de/gedankenwerkstatt/die-unmoeglichkeit-des-klimaschutzes/ http://scilogs.spektrum.de/gedankenwerkstatt/die-unmoeglichkeit-des-klimaschutzes/#comments Sun, 26 Jun 2016 11:20:42 +0000 Thomas Grüter http://scilogs.spektrum.de/gedankenwerkstatt/?p=735 Weiterlesen]]> Volker Quaschning von der Berliner Hochschule für Technik und Wirtschaft (HTW) hat im Auftrag von Greenpeace Energy durchgerechnet, welche Anstrengungen Deutschland unternehmen müsste, um seine Verpflichtungen aus dem Pariser Klimaabkommen einzuhalten. Er entwirft dabei ein Szenario, das extreme ökonomische Risiken birgt und politisch nicht durchsetzbar ist.

Auf der UN-Klimakonferenz im Dezember 2015 beschlossen die Staaten der Welt einstimmig, die Erwärmung der Erde auf unter 2° C zu begrenzen, möglichst sogar einen Wert von 1,5° C nicht zu überschreiten. Die aktuellen Vorgaben der Energiewende in Deutschland reichen sicher nicht aus, um den unteren Wert einzuhalten. Das hat jedenfalls Volker Quaschning, seines Zeichens Professor für regenerative Energiesysteme an der HTW Berlin, in einem am 20.6.2016 veröffentlichten Gutachten herausgefunden. Der Auftraggeber Greenpeace Energy hat den Gutachter mit Bedacht ausgewählt. Quaschning ist seit vielen Jahren einer der eloquentesten Verfechter des schnellen Ausbaus erneuerbarer Energien. Er fordert zum Beispiel die Aufstockung der Photovoltaik auf 200 Gigawatt installierter Leistung, während die Bundesregierung nicht mehr als 52 Gigawatt für sinnvoll hält. Dazu muss man wissen, dass in Deutschland maximal 80 Gigawatt Leistung gebraucht werden.

Das 1,5°-Ziel und Deutschlands Beitrag

Das Pariser Klimaabkommen stellt hohe Anforderungen an den Abbau der anthropogenen CO2-Emissionen. Deutschland muss bis etwa 2040 seinen CO2-Ausstoß auf Null reduzieren, schreibt Quaschning. Kraftwerke, Industrie, Straßenverkehr und Gebäudeheizungen dürften von da an keine fossilen Energien mehr nutzen. Erdgas, Öl und Kohle wären tabu. Wenn man die Erfolgsmeldungen der Politik zum Thema Energiewende ansieht, könnte man meinen, das wäre kein Problem.1 Nur stimmt das leider nicht. Der Endenergieverbrauch2 beträgt in Deutschland ungefähr 2600 Terawattstunden pro Jahr, davon entfällt nur ein knappes Viertel auf Strom, der Rest verteilt sich auf die Sektoren Verkehr, Wärme und Industrie. Dort kommt die Energiewende aber nicht voran. Der Kraftstoff-Verbrauch von Autos hat sich in den letzten Jahren kaum verändert. Auch im Wärmesektor stammt die Energie immer noch zum größten Teil aus fossilen Energiequellen.

Dass Verbinden der Sektoren

Quaschning betont deshalb in seiner Studie das Konzept der Sektorkoppelung. Er möchte erreichen, dass Strom aus erneuerbaren Energien alle anderen Sektoren mit Energie versorgt. Elektrisch getriebenen Wärmepumpen ersetzen Öl- und Gasheizungen. Im Straßenverkehr sind nur noch elektrisch angetriebene Fahrzeuge unterwegs. Die Industrie erzeugt ihre Prozesswärme ebenfalls elektrisch. Kraftstoffe für Flugzeuge und Schiffe sollen in umweltfreundlichen, mit Grünstrom betriebenen Syntheseanlagen aus Wasserstoff und CO2 erzeugt werden (der Fachbegriff lautet Power-to-Liquid). Natürlich wäre es effektiver, Flugzeuge mit Elektromotoren auszurüsten, die ihren Strom aus Akkus beziehen, aber selbst die besten Lithium-Akkus erreichen nicht einmal ein Zehntel der Energiedichte von Kerosin.

Weil elektrischer Strom in diesem Modell die zentrale Energiequelle für Wärme, Verkehr und Industrie und Haushalte liefern soll, bräuchte man ohne weitere Maßnahmen etwa fünf Mal so viel elektrische Energie wie heute. Selbst wenn man jede verfügbare Fläche mit Solaranlagen und Windrädern vollstellt, wäre diese Vorgabe nicht einzuhalten. Deshalb baut Quaschning auf massive Effizienzsteigerungen, die den Strombedarf nur auf das Doppelte des heutigen Werts ansteigen lassen. Wind und Sonne sind allerdings nicht immer dann verfügbar, wenn man Strom braucht. Im Winter muss man sogar damit rechnen, dass zwei bis drei Wochen eine sogenannte Dunkelflaute herrscht, in der Solarzellen und Windräder keine 5% ihrer Nennleistung liefern.

Also braucht man einen Langzeitspeicher, der den Strombedarf von etwa drei Wochen decken kann. Zum Vergleich: Unsere bisherigen Speicher reichen für weniger als 30 Minuten. Quaschning möchte aus überschüssigem Strom Erdgas (Stichwort Power-to-Gas) erzeugen, das im Bedarfsfall in Kraftwerken verbrannt wird und wieder Strom erzeugt. Leider muss man bei diesem Verfahren drei Kilowattstunden in den Speicher stecken, um ein Kilowatt hervorholen zu können. Der Prozess ist also sehr ineffizient, aber Quaschning geht davon aus, dass keine andere Methode ausreichend viel Energie speichern kann. Deshalb sieht er vor, 20% mehr Strom zu erzeugen, als eigentlich benötigt wird, um die Speicherverluste auszugleichen.

Strombedarf nach erfolgreicher Sektorkoppelung

Insgesamt stiege nach Quaschings Szenario der elektrische Energiebedarf von 600 auf 1320 Terawattstunden (TWh). Dazu müssten Windräder und Solaranlagen etwa sechsmal so viel Energie erzeugen wie heute. Und mehr noch: Der gesamte Umbau des energetischen Rückgrats unserer Gesellschaft muss bis 2040 abgeschlossen sein. Das hat gravierende Folgen:

  • Der Verkauf von Öl- und Gasheizungen müsste ab 2020 verboten werden.
  • Ab 2025 dürften nur noch elektrisch betriebene Fahrzeuge zugelassen werden (nicht nur Autos, auch LKWs).
  • 2030 würden alle Kohlekraftwerke vom Netz gehen. Bis dahin sollten die Power-to-Gas-Anlagen für die Stromspeicherung betriebsbereit sein.

Nur dann, und wenn alle wichtigen Akteure wie China, Indien und die USA mitmachen, kann der in Paris vereinbarte Wert von 1,5° Temperatursteigerung eingehalten werden.

Will Greenpeace Energy damit aufzeigen, dass das Pariser Klimaabkommen eine leere Absichtserklärung ist, die unmöglich umzusetzen ist? Aus der Pressemitteilung lässt sich das nicht entnehmen, im Gegenteil, der vom Quaschning vorgeschlagene Pfad kommt seinen Auftraggebern offenbar durchaus realistisch vor. In Wahrheit malt das Gutachten jedoch ein Schreckensszenario an die Wand und gibt denjenigen ein Steilvorlage, die wirksamen Klimaschutz ohnehin für unbezahlbar halten. Die WELT online berichtet über die Studie unter dem Titel Die absurden Auswüchse des Klimaschutzes.

Die Schwächen der Studie

Bei der Studie geht es zunächst nur um Technik, Wirtschaft und Politik bleiben weitgehend unberücksichtigt. Aber selbst in diesem Bereich geht sie von äußerst optimistischen Annahmen aus. Zwei Beispiele

  • Die Verbesserung der Energieeffizienz führt fast immer zu einem sogenannten Rebound-Effekt. Wenn Autos weniger Benzin verbrauchen, dann kaufen die Menschen größere Autos. Flachbild-Fernseher brauchen weniger Strom als die früheren Röhrenmodelle, dafür hat sich der durchschnittliche Bildschirmdurchmesser verdoppelt. Das frisst einen beträchtlichen Teil der Einsparungen wieder auf. Eine Verbesserung der Energieeffizienz um den Faktor 2,5 bis zum Jahr 2040 halte ich deshalb für kaum durchführbar. Schon ein Faktor von 1,5 wäre ein Erfolg. Dann müsste man aber die Stromerzeugung aus erneuerbaren Energien bis 2040 nicht um das Sechsfache, sondern um das Achtfache steigern.
  • Die Erzeugung von Erdgas aus Strom ist heute schon möglich, aber die heutigen Power-to-Gas Anlagen sind um den Faktor Tausend kleiner als die Kolosse, die zur Synthese von künstlichem Erdgas für drei Wochen Dunkelflaute nötig sind. Bisher gibt es nicht einmal einen konkreten Plan für eine Pilotanlage in voller Größe. Die Dena-Broschüre Systemlösung Power to Gas vom Oktober 2015 schreibt dazu: Generell bedarf es noch weiterer Forschung und Entwicklung, um PEM-Elektrolyseure großtechnisch verfügbar zu machen“. Wie bei diesen Voraussetzungen in nur 14 Jahren (bis 2030) eine flächendeckend funktionierendes Anlagennetz entstehen soll, ist mir schleierhaft. Das so erzeugte Erdgas wird außerdem mindestens fünf Mal so teuer wie fossiles Gas. Wenn die Anlagen den überschüssigen Strom verarbeiten sollen, der an einem windigen Sommertag aus Wind und Sonne erzeugt wird, müssten sie etwa doppelt so viel Leistung aufnehmen können wie heute alle deutschen Stromverbraucher zusammen. Der Aufbau solcher gigantischen Chemiefabriken würde vermutlich mehr als eine halbe Billion Euro verschlingen3.

 

Ökonomische Risiken

Wenn man wirklich im Jahr 2020 den Verkauf von Öl- und Gasheizungen verbietet, müssten die Hersteller ihre Produktion binnen drei Jahren komplett neu ausrichten. Das würden die meisten wohl nicht verkraften. Ob die deutschen Autobauer die Spitzkehre schaffen und ihr Programm bis 2025 komplett auf elektrische Antriebe umstellen können, ist ebenfalls sehr fraglich. Sollten sie aber aus der Kurve fliegen, käme auf die deutsche Wirtschaft eine brutale Holperstrecke zu. Und wenn die Kohlekraftwerke abgeschaltet werden, bevor die Stromspeicherung funktioniert, müssten sich die Deutschen auf eine zeitweilige Stromrationierung einstellen. Mit geradezu kriegsmäßiger Anstrengung wäre die beschleunigte Energiewende wahrscheinlich zu stemmen, wenn man alle anderen Staatsaufgaben zurückstellt. Sie hätte aber zur Folge, das Strom unerschwinglich teuer wird und die flächendeckende Versorgung zeitweilig nicht sicher gewährleistet ist. Nach fünf bis zehn Jahren würde sich die Situation entspannen, aber bis dahin wären Teile der Industrie geflüchtet und viele Menschen hätten ihre Arbeit verloren. Kein Politiker wird sich auf so ein Wagnis einlassen.

Überlegungen zum Schluss

Ist aber die Vermeidung eines brutalen Klimawandels nicht ein gewisses Risiko wert? Wenn wir einfach weitermachen, könnten die Schäden sehr viel höher sein als die Kosten der Energiewende. Wenn alle mitmachen, verteilt sich die Last auf viele Schultern. Erfahrungsgemäß liegt aber genau hier das Problem. Die meisten Staaten werden keine schmerzhaften Opfer bringen wollen, um den Klimawandel aufzuhalten. Und in Deutschland wir kein Politiker den wirtschaftlichen Kollaps riskieren, nur um Deutschland zum einsamen Musterknaben des Klimaschutzes zu machen.

Die Studie von Volker Quaschning hat immerhin gezeigt, dass wir auf dem von der Bundesregierung eingeschlagenen Weg nicht weiterkommen. Die Energiewende in der bisherigen Form reicht erstens für den Klimaschutz nicht aus und vergisst zweitens, für die notwendigen Stromspeicher zu sorgen.

Letztlich führt kein Weg an der Erkenntnis vorbei, dass wir eine zuverlässig verfügbare Energiequelle brauchen, die nicht auf Verbrennungsprozessen beruht. Weder Windstrom noch Sonnenstrom erfüllen diese Bedingung.

Anmerkungen

[1] z.B. BMWI, hier nachzulesen.

[2] Der Begriff bezeichnet die Energie, die tatsächlich verbraucht wird. Man muss dafür deutlich mehr Energie erzeugen, denn auf dem Weg zum Endverbraucher geht einiges verloren.

[3] Laut der schon erwähnten Dena-Broschüre Systemlösung Power to Gas kostet eine Syntheseanlage auf Grundlage der PEM-Elektrolyse etwa 2000-6000 €/KWh (Stand 10/2015). Wenn man 160 Gigabyte Leistung benötigt, läge die Gesamtinvestition zwischen 320 und 960 Milliarden Euro. Dabei ist noch nicht berücksichtigt, dass ein Netz von Gaskraftwerken gebaut werden müsste, um das synthetisierte Gas bei Bedarf zu verbrennen. Auch die notwendigen neuen Stromleitungen kämen extra. Wenn 2030 die Kohlekraftwerke abgeschaltet werden, müsste ein großer Teil der Baumaßnahmen abgeschlossen sein. Dieser Zeitdruck könnte den Preis weiter in die Höhe treiben. Wenn ich also eine halbe Billion Euro ansetze, bin ich schon sehr optimistisch. Es könnte auch gut das Doppelte oder mehr werden.

]]>
http://scilogs.spektrum.de/gedankenwerkstatt/die-unmoeglichkeit-des-klimaschutzes/feed/ 36
Die Wikinger sind los! http://scilogs.spektrum.de/astronomers-do-it-at-night/wissenschaft-in-island/ http://scilogs.spektrum.de/astronomers-do-it-at-night/wissenschaft-in-island/#comments Sat, 25 Jun 2016 13:27:31 +0000 Carolin Liefke http://scilogs.spektrum.de/astronomers-do-it-at-night/?p=380 Weiterlesen]]> scilogs_em2016Island – da denkt man typischerweise an Ponys, die exzentrische Sängerin Björk und atemberaubende Landschaften, aber nicht unbedingt an Wissenschaft und zumindest bis vor kurzem auch nicht an Fußball. Während es die Isländer ganz offensichtlich selber hinbekommen, die allgemeine Aufmerksamkeit auf letzteres zu lenken, soll dieser Blogpost zumindest einen kleinen Beitrag dazu leisten, Einblicke in ersteres zu gewähren.

Wer sich als unbedarfter Außenstehender über die Schwerpunkte der isländischen Forschungslandschaft informieren möchte, der hat es nicht leicht, einen Einstieg zu finden. Außer einem einzigen Satz über die Studentenzahl an isländischen Universitäten im Abschnitt über Bildung hat zum Beispiel der deutschsprachige Wikipedia-Artikel über Island keine weiteren Anhaltspunkte zu bieten. Und was wird geforscht an diesen Unis? Werfen wir mal einen Blick drauf.

Die bei weitem größte der sieben isländischen Universitäten ist die Háskóli Íslands, die ihrerseits von sozialwissenschaftlichen Fakultäten (also Jura, Politikwissenschaft, BWL und VWL) dominiert wird. Die weiteren Schwerpunkte sind Medizin, Erziehungswissenschaften, Natur- und Geisteswissenschaften. Zu letzterem zählt natürlich auch das Studium der isländischen Sprache und der Landesgeschichte. Führend ist hier das renommierte Stofnun Árna Magnússonar í íslenskum fræðum, das Árni-Magnússon-Institut für isländische Studien, das auch eine Reihe mittelalterlicher Handschriften zur Geschichte des Landes und historische Niederschriften isländischer Sagen verwahrt.

polarlicht

Polarlicht über dem Jökulsárlón, einem Gletschersee in der Nähe der Südküste des Landes. Foto: Jens Hackmann

Auf den ersten Blick nur eine Kuriosität, wenn man genauer hinschaut aber ein Zeichen des Wandels: Die Háskóli Íslands ist im ganzen Land der größte singuläre Arbeitgeber. Erklärtes Ziel der Politik ist es, das ursprünglich von Landwirtschaft (in erster Linie Schaf- und Pferdezucht) und Fischerei geprägte Island in eine Wissensgesellschaft zu überführen. Islands Bildungssystem mit seinen 10 verpflichtenden Schuljahren und anschließender freiwilliger gymnasialer Oberstufe gilt als hervorragend, und isländische Schüler schneiden bei internationalen Vergleichen regelmäßig sehr gut ab.

Natürlich schafft trotzdem längst nicht jeder junge Isländer einen mit dem Abitur vergleichbaren Abschluß und nimmt dann ein Studium auf, aber das Bewußtsein um den Wert von Wissenschaft und Bildung ist da. Dazu paßt auch, daß die Isländer sich selbst als technikaffin bezeichnen. Praktisch jeder erwachsene Isländer hat ein Handy und der Anteil von Haushalten mit Internetanschluß ist der höchste weltweit. Entsprechend aktiv sind die Isländer übrigens auch im Netz und insbesondere in den sozialen Medien.

Besonders im Technologiebereich wird konsequent das Prinzip der Nachhaltigkeit verfolgt. Im Energiesektor beispielsweise ist man verglichen mit anderen Ländern bereits einen Schritt weiter: Begünstigt durch die natürlichen Gegebenheiten wird abgesehen von importierten Kraftstoffen für Fahrzeuge und Schiffahrt fast sämtliche Energie über Wasserkraft und Geothermie erzeugt. Schon zu Zeiten der Ölkrise in den 70er Jahren gab es erste Pläne, überschüssige Energie für die Produktion von Wasserstoff als Kraftstoff einzusetzen. Die vollständige Umstellung von fossilen Brennstoffen auf mit erneuerbaren Energien erzeugten Wasserstoff bis zum Jahr 2050 wurde 1998 sogar gesetzlich beschlossen, hier dürften allerdings stattdessen elektrisch angetriebene Fahrzeuge das Rennen machen. Isländische Ingenieure konzentrieren sich im Sinne von Umwelt und Naturschutz zudem mittlerweile darauf, wie man Stauseen, Tiefenbohrungen und Windräder mit möglichst wenig Eingriff in und Folgen für die Natur realisiert.

Zwischen zwei Kontinentalplatten: links des Grabens die nordamerikanische, rechts die eurasische Kontinentalplatte. Sie driften jedes Jahr um 2 cm auseinander

Zwischen zwei Kontinentalplatten: links des Grabens die nordamerikanische, rechts die eurasische Kontinentalplatte. Sie driften jedes Jahr um 2 cm auseinander. Foto: Jens Hackmann

Aber auch Grundlagenforschung im naturwissenschaftlichen Bereich wird betrieben, stark vertreten sind hier zum Beispiel Molekular- und Zellbiologie, Biochemie und natürlich die Geowissenschaften. Jeder erinnert sich an die Aschewolken des Eyjafjallajökull, des Vulkans mit dem unaussprechlichen Namen, der zusammen mit seinen 30 Artgenossen entlang des mittelatlantischen Grabens am NordVulc, dem nordischen vulkanologischen Forschungszentrum, erforscht wird, einem internationalen Forschungsinstitut mit Beteiligung der Universitäten Helsinki und Stockholm. Das Land ist umgekehrt auch wissenschaftliche Kooperationen eingegangen, die isländischen Wissenschaftlern Zugang zu Forschungseinrichtungen im Ausland ermöglichen, zum Beispiel am CERN oder als Mitgliedsland des European Molecular Biology Laboratory (EMBL).

Wissenschaft in bzw. aus Island braucht sich also ganz bestimmt nicht zu verstecken. Wer mehr darüber erfahren will, was es gerade in diesem Bereich aus Island Aktuelles gibt, der schaut am besten in die Rubrik Wissenschaft und Technik der Online-Version des Magazins Iceland Review rein, wobei dort zum Teil unterschiedliche Artikel auf Deutsch oder Englisch erscheinen. Es lohnt sich also, beide Sprachversionen zu konsultieren.


Ich selber hatte leider noch nie die Gelegenheit, Island zu besuchen und mich von der Landschaft verzaubern zu lassen. Jens Hackmann und Timm Kasper, zwei gute Bekannte von mir und zudem noch sehr gute Fotografen, haben diesen Traum dagegen im November letzten Jahres verwirklicht und phantastische Bilder mit nach Hause gebracht. Jens hat mir einige davon für diesen Beitrag zur Verfügung gestellt – ganz vielen Dank dafür! Wer mehr davon sehen will, schaue einfach mal auf den Homepages der beiden vorbei.

]]>
http://scilogs.spektrum.de/astronomers-do-it-at-night/wissenschaft-in-island/feed/ 1
Dunkle Energie und die Klumpigkeit des Universums http://scilogs.spektrum.de/relativ-einfach/dunkle-energie-und-die-klumpigkeit-des-universums/ http://scilogs.spektrum.de/relativ-einfach/dunkle-energie-und-die-klumpigkeit-des-universums/#comments Sat, 25 Jun 2016 13:26:32 +0000 Markus Pössel http://scilogs.spektrum.de/relativ-einfach/?p=4687 Weiterlesen]]> Auf die jetzt in Physical Review (D / Letters) erschienenen Artikel habe ich schon sehr lange gewartet. Und dann hätte ich sie zumindest als Preprint, als Vorabdruck doch fast übersehen. Aber zunächst zum Hintergrund.

Alle physikalischen Modelle sind vereinfacht, und bei den modernen Standardmodellen der Kosmologie sieht ein Teil der Vereinfachung wie folgt aus: Auf großen Skalen, so die (durch Beobachtungen gestützte) Annahme, ist das Universum homogen und isotrop, hat also zur Jetztzeit unabhängig davon, wo man sich befindet und wie man sich orientiert, im Mittel die gleichen Eigenschaften (z.B. die gleiche Dichte).

Idealisierte Universen

Die Standardmodelle gehen daher in erster Näherung von einem perfekt homogenen und isotropen Universum aus und beschreiben auf dieser Grundlage großräumige Effekte wie die kosmische Expansion und die Teilchenreaktionen im frühen, heißen Kosmos (Urknallphase). Für solch ein perfekt homogenes und isotropes Universum gibt es sogar exakte Lösungen der Einsteinschen Feldgleichungen, mit anderen Worten: die Entwicklung, die die Allgemeine Relativitätstheorie für solch ein Universum bei gegebenen Anfangsbedingungen und für gegebenen Materieinhalt vorhersagt, lässt sich in Abhängigkeit von einigen wenigen Parametern durch einfache mathematische Funktionen beschreiben.

Was es an Inhomogenitäten in solch einem Universum gibt, sprich: wie sich Materie in solch einem Universum unter dem eigenen Schwerkrafteinfluss zu immer größeren Strukturen zusammenklumpt, aus denen letztlich Objekte wie Sterne und Galaxien sowie die großräumige Verteilung der Galaxien hervorgehen, wird erst in einem gesonderten Schritt simuliert: In diesem Schritt wird vorausgesetzt, dass das Universum wie ein homogenes, isotropes Weltall expandiert, und dann wird geschaut, wie die Newton’sche Schwerkraft (die in solchen Situationen eine gute Näherung darstellt) die Materie in solch einer expandierenden Situation zusammenklumpen lässt.

Die entsprechenden Simulationen sind vom Rechenaufwand her enorm; die neuesten davon, wie hier die Illustris-Simulation, haben den Anspruch, bis hinunter zur Skala von Galaxien zu zeigen, wie die heute beobachtbare Struktur im Universum entstanden ist:

Dabei gehen zwar noch eine Reihe von Zusatzannahmen über die Entwicklung von Galaxien, die Sternentstehung, die Quasar-Phase und deren Auswirkung auf die Sternentstehungsrate und vieles mehr ein, die dann mit Beobachtungsdaten abgeglichen werden. Insofern wird sich, wenn sich unser Detailverständnis der Entwicklungsprozesse ändert, sicher auch noch einiges an diesen Simulationen ändern. Aber selbst wenn man solche Einschränkungen im Hinterkopf behält, steckt in diesen Simulationen doch eine ganze Menge an grundlegender Physik, und dass sich auf diese Weise die Entstehung unseres heutigen Universums aus den Anfangsbedingungen kurz nach dem Urknall weitgehend nachvollziehen lässt, ist eine beachtliche Leistung.

Eine Frage der Reihenfolge

Dennoch gibt es einen grundlegenden Einwand, mit dem sich solche Simulationen und ganz allgemein die Standardmodelle mit ihren zunächst idealisiert homogen-isotropen Modelluniversen auseinandersetzen müssen.

Einsteins Theorie ist nichtlinear, genauer: die Einstein’schen Feldgleichungen, die den Zusammenhang von Raumzeit-Geometrie und Materieinhalt des Universums beschreiben sind nichtlinear. Vereinfacht heißt das, dass sich Teilmodelle nicht einfach so kombinieren lassen. Wenn ich in der Newton’schen Gravitationstheorie die direkte Gravitationswirkung einer einzelnen Massenkugel kenne, dann kann ich auch eine Situation mit zwei Massenkugeln beschreiben: Ich schreibe einfach die Einzel-Gravitationswirkung (genauer: das Gravitationspotential) für jede der Massenkugeln hin; deren Wirkung auf ein kleines Testteilchen, das in der Nähe dieser Massen herumfliegt, ist dann schlicht die direkte Kombination (Vektorsumme der Kräfte) der Wirkung der ersten und der Wirkung der zweiten Masse auf das Teilchen.

In der Allgemeinen Relativitätstheorie geht das nicht so einfach. Davon abgesehen, dass es gar kein allgemeingültiges Verfahren gibt, wie man Verzerrungen von Raum und Zeit addiert, treten, sobald ich es mit zwei Massenkugeln zu tun habe, physikalisch ganz neue Effekte auf, die bei einer einzelnen Masse noch nicht im Spiel waren. Markantestes Beispiel sind Gravitationswellen, die entstehen, wenn sich zwei Massenkugeln umkreisen (siehe Was sind eigentlich Gravitationswellen?).

Anders gesagt: In einer linearen Beschreibung ist die Wirkung mehrerer Komponente die Summe der Wirkungen jeder einzelnen Komponenten. Gravitationswirkungen addieren sich. Bei Einstein ist das im allgemeinen nicht der Fall.

Das ist nicht unproblematisch. Denn bei der Vereinfachung der kosmologischen Modelle argumentiert man implizit mit einer gewissen Linearität: Um einen Durchschnitt zu berechnen, summiert man die Eigenschaften mehrerer Komponenten auf und teilt anschließend durch die Gesamtzahl der Terme, die man aufsummiert hat. Im Durchschnitt hat das Universum auf großen Skalen überall die gleiche mittlere Dichte. Aber entspricht dieser durchschnittlichen Homogenität auch eine durchschnittliche Wirkung, eine durchschnittliche Dynamik, wie sie den einfachen isotropen und homogenen Modelluniversen der Kosmologie zugrundeliegt?

Man kann argumentieren, bei den vergleichsweise geringen Materiedichten, mit denen man es in der Kosmologie zu tun hat, sollten sich Allgemeine Relativitätstheorie und Newton’sche Beschreibung nicht allzu sehr unterscheiden, und auch die in der Newton’schen Beschreibung gültige Linearitätseigenschaft sollte im relativistischen Falle einigermaßen gut beschreiben, was dort passiert. Aber das war kein sehr stringentes Argument. Im Einzelnen nachgewiesen hatte niemand, dass die Konsequenzen der Nichtlinearität in diesem Falle klein wäre.

Dunkle Energie als Effekt der Inhomogenität?

Ich habe von diesem Problem das erste Mal während meines Buchprojekts mit Jürgen Ehlers erfahren, also irgendwann vor 2003. Wahrscheinlich die typischste Eigenschaft von Jürgen war, dass er auf dem Gebiet der Relativitätstheorie in jenen Ecken genauer nachgeschaut hat, wo die anderen Relativisten der Meinung waren, es sei im Prinzip alles bekannt, nur dass sich noch niemand die Mühe gemacht hatte, die Zusammenhänge genauer aufzuschreiben. Das implizite Linearitäts-Argument in der Kosmologie war eine solche Ecke: Die allermeisten Relativisten hätten vermutlich erwartet, dass eine genauere Untersuchung an dieser Stelle genau das ergeben würde, was man aus dem Erfolg der kosmologischen Modelle sowieso schon wusste, nämlich dass sich unser Kosmos näherungsweise sehr gut als homogen und isotrop beschreiben lässt.

Jürgen Ehlers und Thomas Buchert machten sich daran, der Frage nach der Durchschnitts-Bildung auf den Grund zu gehen; zusätzlich muss ich hier noch den südafrikanischen Physiker George Ellis erwähnen, der Mitte der 80er Jahre auf das Problem hingewiesen hatte. Die allgemeine Behandlung erwies sich als durchaus schwierig. (Da ich diese Fragestellung nur aus „lokaler Potsdamer Sicht“ kennengelernt habe, ist auch meine Beschreibung sicher nicht allgemein – es dürfte noch andere Forscher oder -gruppen geben, die sich mit dieser Frage beschäftigt haben, hier aber keine Erwähnung finden.)

Die mathematische Formulierung der Allgemeinen Relativitätstheorie ist dergestalt, dass sich kompliziertere Situationen im Detail nur noch durch Computersimulationen beschreiben lassen- Abweichungen von einfachen Eigenschaften wie Isotropie und Homogenität sind das Standardbeispiel für solche komplizierteren Situationen, je unregelmäßiger und allgemeiner desto komplizierter.

Dass sich bestimmte allgemeine Eigenschaften von Raumzeiten trotzdem ganz allgemein mathematisch beweisen ließen, wie beispielsweise in den Singularitätentheoremen von Roger Penrose und Stephen Hawking, ist daher eher die Ausnahme, und wo solche allgemeinen Beweise gelingen, werden sie zu recht als große Leistungen eingestuft. Im Falle des Durchschnitts-Problems fanden Buchert, Ehlers und Kollegen leider keinen einfachen allgemeinen Beweis, der gezeigt hätte, wie man ein im Durchschnitt homogenes und isotropes Universum effektiv modelliert.

Buchert, der das Problem langfristig weiterverfolgte und den Stand anno 2008 hier zusammengefasst hat, weist auf einen interessanten Effekt hin:

In der Standardkosmologie hängt die Entwicklungsgeschichte des Universums von der durchschnittlichen Dichte unterschiedlicher Masse- bzw. Energieformen ab. Die für die späteren Phasen (wie unsere Jetztzeit) wichtigsten Komponenten sind dabei herkömmliche Materie und sogenannte Dunkle Energie. Niemand weiß, was die Dunkle Energie eigentlich ist; sie ist zunächst einmal nur ein Parameter, mit dem man auch jene Fälle kosmischer Expansion beschreiben kann, in denen sich ein Universum beschleunigt ausdehnt. Solch eine beschleunigte Expansion ist für unser eigenes Universum Ende der 1990er Jahre in der Tat nachgewiesen worden (und die Entdecker wurden mit dem Physik-Nobelpreis 2011 ausgezeichnet). Seither versucht man, eine Erklärung dafür zu finden, was die Dunkle Energie physikalisch gesehen ist. Ein Quanteneffekt? Ein neues Feld analog zu den anderen Feldern, die Physiker beschrieben haben?

Oder, und da kommen wir zum Durchschnitts-Problem zurück, ist die Dunkle Energie vielleicht gar kein neuer Effekt, sondern ergibt sich direkt aus der Allgemeinen Relativitätstheorie? Ist die richtige relativistische Näherungs-Beschreibung für ein Universum, dessen Materieverteilung nur im Durchschnitt, auf großen Größenskalen, homogen ist, vielleicht kein homogenes, isotropes Universum, in das man einfach den durchschnittlichen Dichtewert der Materie als Parameter einsetzt, sondern ein homogenes und isotropes Universum, dessen Parameterwerte für Materie und für Dunkle Energie sich auf bestimmte Weise aus den Eigenschaften der Inhomogenitäten ergeben? Wirken die Inhomogenitäten so auf die Raumzeit zurück („backreaction“), dass sie die Parameterwerte leicht verändern?

Salopp gesagt: Überrascht uns die Dunkle Energie vielleicht nur deswegen, weil wir unsere mittlere Beschreibung des Universums linear ermittelt haben und nicht so, wie es die Allgemeine Relativitätstheorie eigentlich erfordert?

Buchert und Kollegen haben mit vereinfachten Modellen qualitativ zeigen können, dass Inhomogenitäten wohl in der Tat Effekte dieser Art zur Folge haben könnten. Die quantitative Analyse erwies sich allerdings ohne aufwändige Computersimulationen als zu komplex.

Relativistische Computersimulationen

Zugespitzt gesagt: Als die Frage, ob Inhomogenitäten effektiv die Wirkung der Dunklen Energie hervorbringen können, Ende der 1990er Jahre aktuell wurde, hatten diejenigen Physiker, die am besten qualifiziert gewesen wären, mit Computersimulationen eine Antwort zu finden, keine Zeit. Die numerischen Relativisten („numerische Relativitätstheorie“ ist die Kurzfassung für „Erforschung der Allgemeinen Relativitätstheorie mithilfe von Computersimulationen) waren vollauf damit beschäftigt, zu simulieren, welche Gravitationswellen erzeugt werden, wenn z.B. schwarze Löcher oder Neutronensterne miteinander oder untereinander verschmelzen. Dass der erste direkte Nachweis von Gravitationswellen gelang, ist nicht zuletzt ein Verdienst der numerischen Relativisten, die mit ihren Simulationen die richtigen Wellenformen als Suchmuster lieferten.

Ich weiß nicht, ob der Zusammenhang in diesem Falle wirklich so direkt ist wie in meiner überzeichneten Beschreibung, aber es würde mich nicht wundern, wenn es kein Zufall wäre, dass die ersten größeren relativistischen Simulationen kosmologischer Raumzeiten jetzt erscheinen, wo zumindest die grundlegenden Probleme des Gravitationswellen-Simulierens abgehakt sind.

Genauer gesagt sind gestern drei Artikel erschienen (ich verlinke jeweils auf Artikel und E-Print); zwei von Forschern aus Ohio und einer von zwei Forschern aus Italien bzw. England:

In diesen drei Artikeln wird mit unterschiedlicher Software und unterschiedlichen Herangehensweise von zwei verschiedenen Forschergruppen die entscheidende Frage gestellt: Wie sieht denn nun die zeitliche Evolution eines im Durchschnitt auf größeren, aber eben nicht auf kleineren Größenskalen homogenen Universums aus, im Vergleich mit den isotropen und homogenen Standardmodellen?

Raumzeiten simulieren

Numerische Simulationen für die Relativitätstheorie sind alles andere als einfach. Der Computer muss gleichzeitig eine ganze Reihe von Differenzialgleichungen lösen, und weil Computer immer nur eine endliche Genauigkeit haben und immer gezwungen sind, den Raum in endlich viele Abschnitte endlicher Größe und die Zeit in endlich viele Zeitschritte zu zerlegen, wird eine Simulation umso ungenauer, je länger sie läuft.

Die numerischen Relativisten haben entsprechende Kontroll- und Ausgleichsmechanismen erdacht, die verhindern sollen, dass sich Störungen zu sehr aufschaukeln und die Ergebnisse der Simulation verfälschen. Aber auch die muss man testen: Man kann den Code beispielsweise eine völlig leere Raumzeit (Minkowskiraum) oder eine lineare Gravitationswelle beschreiben lassen, oder ein idealisiertes homogenes und isotropes Universum. Das sind alles Fälle, die sich mithilfe einfacher mathematischer Funktionen beschreiben lassen, sprich: bei denen man weiss, was herauskommt. Lässt man den Code diese Situationen simulieren, dann kann man das Ergebnis mit den bekannten Eigenschaften der betreffenden Raumzeiten vergleichen und erhält so eine Abschätzung der numerischen Fehler dieser Art von Simulation.

Evolution eines etwas nicht-homogenen Universums

Wie sieht’s nun aus mit den etwas inhomogenen Universen, die von den beiden Forschergruppen simuliert wurden?

Aus meiner Sicht eher enttäuschend. Zumindest im Rahmen ihrer nach wie vor vereinfachten Simulationen findet keine der Gruppen einen Einfluss der Inhomogenitäten auf die durchschnittliche Expansionsrate, sprich: es gibt in den Simulationsdaten keinen Hinweis darauf, dass dies die Erklärung für die beschleunigte Expansion (und damit für die Dunkle Energie) wäre. Es gibt zwar eine Art kosmologische Konstante, die als Folge der Inhomogenitäten in einer Durchschnitssgleichung für die kosmische Expansion auftritt, aber sie bewirkt zumindest in diesen Rechnungen eher eine Abbremsung der kosmischen Expansion, keine Beschleunigung.

Auch eine ähnlich gelagerte herkömmliche Erklärung der Dunklen Energie dadurch, dass wir uns in einem unterdurchschnittlich dichten Teil des Universums befinden, wird durch die Simulationsergebnisse nicht gestützt: in den unterdurchschnittlich dichten Regionen verläuft die Expansion zwar schneller als sonstwo, aber nicht beschleunigt wie in Anwesenheit Dunkler Energie, sondern angenähert linear.

Ein paar interessante Konsequenzen scheinen sich dadurch zu ergeben, dass die Strukturbildung in den komplett relativistischen Situationen etwas anders verläuft als in den herkömmlichen Simulationen, insbesondere in bestimmten überdurchschnittlich dichten Regionen schneller als anderswo. Das dürfte Auswirkungen darauf haben, wie man sich in Zukunft die im Universum beobachtbaren großräumigen Strukturen erklärt.

Sind damit die einfachsten Erklärungen für die Dunkle Energie vom Tisch? Ich zögere, das bereits beim jetzigen Stand zu akzeptieren, aber da ist sicherlich Wunschdenken im Spiel. Beide Gruppen und vielleicht ja auch noch andere Forscher dürften weitere und zunehmend größere Simulationen laufen lassen, nicht zuletzt aufgrund der Konsequenzen für die Strukturbildung. Wenn sich darin bestätigt, dass die Rückkopplung der Inhomogenitäten keinen Einfluss auf die kosmische Expansion auf ganz großen Skalen hat, und dass auch eine unterdurchschnittliche Dichte die beschleunigte Expansion nicht erklären kann, dann benötigen wir eine andere Erklärung für die Dunkle Energie. Aber ganz habe ich die Hoffnung noch nicht aufgegeben, dass die numerischen Simulationen eine der einfachen Erklärungen bestätigen.

 

]]>
http://scilogs.spektrum.de/relativ-einfach/dunkle-energie-und-die-klumpigkeit-des-universums/feed/ 23
Es ist besser so. http://scilogs.spektrum.de/go-for-launch/es-ist-besser-so/ http://scilogs.spektrum.de/go-for-launch/es-ist-besser-so/#comments Fri, 24 Jun 2016 08:00:28 +0000 Michael Khan http://scilogs.spektrum.de/go-for-launch/?p=5839 Weiterlesen]]> Ich erlaube mir in meinem Blog ab und zu einen Artikel, der nichts mit Wissenschaft, Astronomie oder Raumfahrt zu tun hat. Was hier folgt, ist eine politische Meinungsäußerung. Wer das nicht mag, möge bitte an dieser Stelle aufhören zu lesen.
(mehr …)

]]>
http://scilogs.spektrum.de/go-for-launch/es-ist-besser-so/feed/ 61
Lichtbildwerk oder nicht? Wikimedia verliert Streit um Urheberrecht http://scilogs.spektrum.de/denkmale/lichtbildwerk-oder-nicht-wikimedia-verliert-streit-um-urheberrecht/ http://scilogs.spektrum.de/denkmale/lichtbildwerk-oder-nicht-wikimedia-verliert-streit-um-urheberrecht/#comments Thu, 23 Jun 2016 10:46:12 +0000 Eva Bambach http://scilogs.spektrum.de/denkmale/?p=917 Weiterlesen]]> In einem Urteil vom 31. Mai 2016 beansprucht das Landgericht Berlin Urheberschutz für fotografische Reproduktionen von Gemälden, auch wenn diese selbst gemeinfrei sind. Gegen das Urteil sollen Rechtsmittel eingelegt werden. Ob im Zuge der Auseinandersetzung die in Deutschland praktizierte Rechtsprechung zu diesem höchst umstrittenen Thema geändert wird, ist fraglich. (mehr …)

]]>
http://scilogs.spektrum.de/denkmale/lichtbildwerk-oder-nicht-wikimedia-verliert-streit-um-urheberrecht/feed/ 9
Granitgrus, Verwitterung am Wegesrand – Im Aufschluss http://scilogs.spektrum.de/mente-et-malleo/granitgrus-verwitterung-wegesrand-im-aufschluss/ http://scilogs.spektrum.de/mente-et-malleo/granitgrus-verwitterung-wegesrand-im-aufschluss/#respond Wed, 22 Jun 2016 19:18:10 +0000 Gunnar Ries http://scilogs.spektrum.de/mente-et-malleo/?p=1797 Weiterlesen]]> Im letzten Blogpost hatte ich ja über die Herkunft der rundlichen Findlinge geschrieben und was das tertiäre Klimaoptimum damit zu tun hat.
Der Findling oben am Bildstein stellt aber nicht den einzigen Hinweis auf diesen Teil der Klimageschichte am Schluchsee dar. Wenn man vom Unterkrummenhof in Richtung der Staumauer wandert, kann man zwischen dem Ein- und Auslassbauwerk und der Staumauer noch andere Spuren finden. (mehr …)

]]>
http://scilogs.spektrum.de/mente-et-malleo/granitgrus-verwitterung-wegesrand-im-aufschluss/feed/ 0
ALLEz nach Tschechien! http://scilogs.spektrum.de/medicine-and-more/allez-nach-tschechien/ http://scilogs.spektrum.de/medicine-and-more/allez-nach-tschechien/#comments Wed, 22 Jun 2016 05:15:50 +0000 Trota von Berlin http://scilogs.spektrum.de/medicine-and-more/?p=1339 Weiterlesen]]> Viele tschechische Ärzte arbeiten lieber in Deutschland als in Tschechien. Doch einer ging zurück in die Heimat – und entkam so unserer hedonistischen Tretmühle, auch bekannt als Zufriedenheits-Hamsterrad. Die tschechische Nationalelf darf ebenfalls wieder heimreisen, wenn auch aus anderen Gründen. (mehr …)

]]>
http://scilogs.spektrum.de/medicine-and-more/allez-nach-tschechien/feed/ 3
Passt in keine Schublade: Ein mysteriöser fossiler Meteorit http://scilogs.spektrum.de/exo-planetar/passt-in-keine-schublade-ein-mysteroeser-fossiler-meteorit/ http://scilogs.spektrum.de/exo-planetar/passt-in-keine-schublade-ein-mysteroeser-fossiler-meteorit/#respond Tue, 21 Jun 2016 17:56:30 +0000 Andreas Morlok http://scilogs.spektrum.de/exo-planetar/?p=1230 Weiterlesen]]> Wenn die ganze Zeit Zeugs aus dem Weltraum auf die Erde herabregnet, wo sind dann eigentlich die ganzen fossilen Meteorite ? Das ist so ein Argument, welches gerne auch von Kreationisten vorgebracht wird. Ein Grund für den Mangel an fossilen Meteoriten ist ganz einfach, dass Meteorite eben auf der Erde nicht sonderlich stabil sind. Sie entstanden zumeist in einer Umgebung, die nicht so oxidierend wie unsere Erde ist. Ein kohliger Chondrit würde nicht viele Regenschauer in erkennbaren Zustand überstehen, und in geologischen Zeiträumen rosten selbst Eisenmeteorite Schicht für Schicht weg. Auch Meteorite, die in trockenen Wüsten gefunden werden, sehen nach ein paar zehntausend Jahren schon sehr unansehnlich aus. Ein paar Millionen Jahre, und da ist nicht mehr viel übrig.

Davon abgesehen, gibt es sehr wohl fossile Meteorite – wenn halt die Umgebung mitspielt. Und das war der Fall in Thorsberg im heutigen Süd-Schweden. Der dortige feinkörnige Kalkstein ist ein sehr beliebtes Baumaterial, und bildete sich auf Ozeanboden unter Sedimentationsraten von wenigen Millimetern pro 1000 Jahren. Da eben große Mengen abgebaut werden, werden praktischerweise größere Volumen an Gestein zugänglich, so dass bisher um die 100 fossile Meteorite wurden gefunden, 98% aller bekannten fossilen Meteorite. Der Kalkstein entstand während des Ordoviziums, lange her – 470 Millionen Jahre. Deshalb sind die fossilen Meteorite praktisch vollständig alteriert, sie bestehen eigentlich nur noch aus Tonmineralen und Karbonaten. Nur die robusten Chromite haben überlebt, und deren die Zusammensetzung (chemisch und isotopisch) erlaubt in etwa Identifikation des Meteoritentypen. Nicht so toll wie in Laborstudien von besser erhaltenen Proben, aber in dem Fall gibts halt nix besseres.

Als die Meteorite vor 470 Millionen Jahren in einer Spanne von 2 Millionen Jahren fielen, war die Gesamtmenge an extraterrestrischem Material welches auf die Erde fiel, hundertfach größer war. Dies wird bestätigt durch zahlreiche Mikrometeorite, die in ähnlich alten Schichten gefunden werden.

Die meisten Meteorite sind vom unspektakulären Typ der gewöhnlichen L-Chondrite. Die gewöhnlichen Chondrite insgesamt machen 85% der bekannten Proben aus, deshalb eben der Name. Aber jetzt wurde in Schweden ein fossiler Meteorit gefunden, der aus der Reihe tanzt. Vor zwei Jahren wurde er erst mal als Winonait klassifiziert. Das sind primitive Achondrite- Achondrite sind Meteorite, die von teilweise oder vollständig aufgeschmolzenen Mutterkörpern stammen, die dann nach der Abkühlung einen Eisenkern und silikatreiche Mäntel und Krusten aufwiesen, also praktisch Kleinplaneten. Primitive Achondrite fallen irgendwie zwischen Chondrite und Achondrite – sie sind ersteren chemisch ähnlich, wahrscheinlich entstanden sie durch die Teilaufschmelzung von Chondriten.

Jetzt haben sich Birger Schmitz (Universität Lund, Schweden) und seine Kollegen in A new type of solar-system material recovered from Ordovician marine limestone in Nature Communications (das ist nicht das eigentliche Nature, sondern ein Open-Access Ableger) die Probe nochmal genauer angeschaut und sind zu einem anderen Schluss gekommen. Und der hat es ins sich: Österplana 065 (Öst 65) passt zu keiner bekannten Meteoritengattung so richtig. Jetzt ist es nicht so, dass alle Meteorite genau in eine Schublade passen – es gibt einige die irgendwie aus der Reihe tanzen, die ungruppierten Meteorite. Das hört sich erst mal mysteriöser an als, es im Allgemeinen ist. Meteorite formen eher ein Kontinuum an Zussammensetzungen, und die bekannten Gruppen sind so was wie Abschnitte daraus. Irgendwie müssen die Teile halt sortiert werden. Schubladendenken eben.

So haben jetzt neue Untersuchungen der Isotope von Sauerstoff und Chrom ergeben, dass Österplana 065 von den Isotopenwerten her statistisch signifikant außerhalb der bisherigen bekannten Werte fällt. Die Schlussfolgerung von Schmitz et al. ist jetzt, dass der Meteorit möglicherweise den Impaktor repräsentiert, der damals mit dem Mutterkörper der gewöhnlichen Chondrite kollidierte. Könnte, weil es sich natürlich auch um einen zufällig zur gleichen Zeit gefallenen Meteoriten handeln könnte. Immerhin, es ist mal was anderes, das ist auch schon mal interessant. Es deutet sich zumidest an, dass unsere Sammlunge halt nicht völlig repräsentativ für den Materialbestand des Sonnensystems sind  (was ja eigentlich auch nicht zu erwarten wäre). Wie auch im Paper erwähnt, haben wir möglicherweise nicht mal Meteorite in den Sammlungen, die das eigentliche Baumaterial der Erde repräsentieren. Aber das ist sicherlich einen eigenen Artikel wert… So sind Studien fossiler Meteorite wichtig, da sie uns Einblicke in die Veränderungen im frühen Sonnensystem geben. Und so endet der Artikel mit den passenden Zeilen: „Apparently there is potential to reconstruct important aspects of solar-system history by looking down in Earth’s sediments, in addition to looking up at the skies„.

]]>
http://scilogs.spektrum.de/exo-planetar/passt-in-keine-schublade-ein-mysteroeser-fossiler-meteorit/feed/ 0
Als Religionswissenschaftler im Kreuzfeuer von Verschwörungsmythen – Ein Aspekt von Digital Religion http://scilogs.spektrum.de/natur-des-glaubens/als-religionswissenschaftler-kreuzfeuer-verschwoerungsmythen-ein/ http://scilogs.spektrum.de/natur-des-glaubens/als-religionswissenschaftler-kreuzfeuer-verschwoerungsmythen-ein/#comments Tue, 21 Jun 2016 15:46:27 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2900 Weiterlesen]]> lichtung

manche meinen
lechts und rinks
kann man nicht velwechsern
werch ein illtum

(Ernst Jandl)

Am Freitag hatte ich ein faszinierendes – aber auch ein wenig bedrückendes – Erlebnis. Ich nahm an einem Expertenworkshop der Universität Mainz zum Thema „Digital Religion“ mit der berühmten US-Forscherin Heidi Campbell teil. Verschiedene (Religions-)Wissenschaftlerinnen und -Wissenschaftler wie Jun. Prof. Kerstin Radde-Antweiler (Uni Bremen) stellten dabei auch ihre Arbeiten vor. Das Ganze war hervorragend organisiert von Prof. Oliver Scheiding und Anja-Maria Bassimir (Uni Mainz).

Und so schilderte auch ich in einer Präsentation einige Erfahrungen als religionswissenschaftlicher Blogger: Die immer wieder erfreulichen Zugriffszahlen, vielen konstruktiven Kommentaren und auch Einladungen zu Vorträgen, Artikeln und Tagungen – aber auch die zunehmende Aggressivität von Verschwörungsgläubigen, sobald es um Themen wie „Islam(isierung)“ ginge. Hierbei würden Links- und Rechtsextreme sowie religiöse Fundamentalisten längst so etwas wie eine „Querfront“ gegen die Ideen der liberalen Demokratie und auch gegen Medien und Wissenschaften bilden, denen sie jeweils „Beschwichtigung“, „Propaganda“ oder „Verschwörung“ unterstellten. Und noch „während“ ich in Mainz an der starken Tagung teilnahm und darüber erzählte, bemühten sich zwei Online-Aktive, je auf Facebook und hier auf dem Blog diese Beobachtungen zu belegen…

DigitalReligionUniMainzHervorragender Workshop zum Thema „Digital Religion“ am 17. Juni 2016 an der Universität Mainz. Foto: Michael Blume

  (mehr …)

]]>
http://scilogs.spektrum.de/natur-des-glaubens/als-religionswissenschaftler-kreuzfeuer-verschwoerungsmythen-ein/feed/ 13
Netzbildpflege – schlechte Erscheinung kostet! http://scilogs.spektrum.de/wild-dueck-blog/netzbildpflege-schlechte-erscheinung-kostet/ http://scilogs.spektrum.de/wild-dueck-blog/netzbildpflege-schlechte-erscheinung-kostet/#comments Mon, 20 Jun 2016 16:36:22 +0000 Gunter Dueck http://scilogs.spektrum.de/wild-dueck-blog/?p=710 Weiterlesen]]> Unternehmen haben es erfahren müssen: Wenn sie keine vernünftige Homepage haben, können sie sich kaum noch sehen lassen. „Hey, wir sind eine Hydraulikfirma, wozu eine Webseite?“, wurde ich bis in die letzte Zeit hinein gefragt – aber dieselbe Firma jammert dann, dass sie keine guten Ingenieure einstellen kann. Schon verloren!
Wenn ein heutiges Unternehmen nicht ins Netz will, bleibt es eben in der Steinzeit und verkümmert dort. Das hat jetzt auch der Letzte begriffen, aber die meisten Leute beziehen diese Erkenntnis noch nicht auf Einzelmenschen wie Sie und ich.

Haben Sie schon einmal nachgerechnet, wie viel Kosten bei einer Bank anfallen, wenn Sie einen Kleinkredit über 5.000 Euro aufnehmen? Eine halbe Stunde Palaver in der Zweigstelle, Unterschriften, Schufa-Auskunft – vielleicht 100 Euro? Wie viel kann die Bank bei Niedrigzinsen da noch verdienen? Jetzt kommen die Fintechs im Internet und bieten Kredite per App an. Zwei Klicks. „Wie viel wollen Sie?“ – „5.000.“ – „Okay, 4,14 Prozent. Deal or no deal?“ – „Deal.“ – „Ist überwiesen.“
Das war’s, es kostet keine 100 Euro. Im Hintergrund aber checken Algorithmen im Netz, wer Sie sind, welchen Beruf Sie haben, welchen Google PageRank (kennen Sie den überhaupt?) Ihre Homepage hat, ob Sie Flüchtlinge mögen oder Kraftausdrücke benutzen – was weiß ich, was die Algorithmen alles so überdenken. Es gibt im Netz keine Zinstabelle mit Kundenaushang. Sie kommen eben Ihre individuellen 4,14 Prozent – und Leute mit tollen Xing-Einträgen und Activities bei LinkedIn möglicherweise  3,72 Prozent. Wahrscheinlich kostet es auf diese Weise schon eine Menge, wenn Ihr Twitter-Account ohne Bild eingerichtet ist und nur den Standard-Eierkopf zeigt.
Regen Sie sich bitte nicht auf! Die Banken haben eben früher höflich nach Ihrer Telefonnummer gefragt (das war in den 60er Jahren ein starkes Zeichen, wenn Sie eine hatten), es gab immer schon „Kunden-Scoring“, aber nun wird das Bewertungsbusiness ohne jede Mühe um exakte Daten aus Ihrem Netzbild heraus betrieben.

Wie reagieren wir darauf? Die Unternehmen überlegen immer stärker: „Wie wollen wir im Netz wahrgenommen werden?“ Und dann jubeln sie uns ein entsprechendes Netzbild unter, was nicht zu sehr mit der Wahrheit anecken darf. Wenn die Wahrheit nichts hergibt, kommen Plattitüden wie „Wir sind ein führender Anbieter von Qualitätsservices mit ausgesucht freundlichen Mitarbeitern auf 1 Euro Basis, damit Sie bei uns billig davonkommen“. Es ist eben wie bei Bewerbungen von Menschen. Wenn die nichts können, geben sie an, „sich in unglaublich kurzer Zeit in alles einarbeiten zu können, was immer man von ihnen verlangt“.
Haben Sie sich schon einmal gefragt, wie Sie wahrgenommen werden wollen? In der Psychologie gibt es seit jeher die Unterscheidung von Selbstbild und Fremdbild. Wie sehen Sie sich selbst? „Ich bin immer sehr ehrlich, dazu stehe ich, auch wenn die Wahrheit andere manchmal schmerzt – Wahrheit ist ja immer auch konstruktiv!“ versus „Dieser Idiot beleidigt durch seine häufigen Ausraster hemmungslos Freund und Feind!“ Menschen mit starker Fremd-Selbstbilddifferenz laufen meist dem Leben ins Messer. Sie kennen eben ihr Fremdbild nicht gut und werden von anderen oft für sie sehr überraschend anders behandelt, als sie es selbst erwarten.

Nehmen Sie es hin: Nun haben Sie auch noch ein Netzbild dazu – und Sie werden von außen möglicherweise anders behandelt, als Sie es aus dem normalen Leben erwarten. Es beginnt mit höheren Kreditzinsen und schlechteren Versicherungsprämien. Jeder Personaler surft vor dem Gespräch mit Ihnen nach Ihrem Netzbild – wenn das schlecht ist, bekommen sie ohne Gespräch gleich eine Absage.

Sie haben als Kunde allen Grund, sich über die Transparenz der Preise und Qualitäten im Netz zu erfreuen, aber Sie sind nicht nur Kunde, sondern eben auch jemand, der wie die Händler im Netz etwas von anderen (den Kunden) will: Sie wollen eine Arbeitsstelle, einen Kredit, eine Versicherung oder eine Probefahrt mit einem Ferrari. Und dann werden Sie genauso behandelt wie Sie die Internetshops behandeln. Man surft nach Ihnen und schaut, was Sie wert sind.
Gute Erscheinung wird Pflicht!

Das geht schwer runter, oder? „Face it.“
Und denken Sie nicht, sie hätten die Option, gar nicht im Netz zu sein. Das dachten die Unternehmen ja zuerst auch. Wer nicht sichtbar ist, sagt ja damit etwas. Watzlawick würden sagen:

Man kann nicht nicht signalisieren.

]]>
http://scilogs.spektrum.de/wild-dueck-blog/netzbildpflege-schlechte-erscheinung-kostet/feed/ 16
Eine Maschine ist gut zu Vögeln http://scilogs.spektrum.de/vom-hai-gebissen/eine-maschine-ist-gut-zu-voegeln/ http://scilogs.spektrum.de/vom-hai-gebissen/eine-maschine-ist-gut-zu-voegeln/#comments Mon, 20 Jun 2016 16:00:55 +0000 Sören Schewe http://scilogs.spektrum.de/vom-hai-gebissen/?p=846 Weiterlesen]]> Die ersten Hühner zu Beginn der Schicht gehen noch ganz gut. Dann werden die Arme allerdings schwerer und schwerer – und irgendwann will man den Job einfach nur noch erledigt haben. Hühner packen und dann endlich Feierabend machen – das ist das Ziel. Wenig überraschend: wenn der Umgang mit den Tieren leidet, leiden diese auch. Die „Humane Society of the United States“ plädiert daher für eine Maschine als Alternative.

Zugegeben, ich war kurz irritiert. Da schrieb ich vor einiger Zeit einen längeren Artikel, weshalb Roboter auch in Zukunft keine Tierhalter ersetzen werden und dann lese ich sowas. Jetzt ist der „Chicken Harvester“ kein Roboter, sondern wird von einem Menschen gesteuert, trotzdem: gerade im direkten Kontakt können Menschen ihre Stärken wie Empathie und eine fundierte Kenntnis der Tiere ausspielen und werden Robotern da auch in Zukunft noch eine Weile überlegen sein.

Etwas anders sieht das gegen Ende der Mast aus, wenn die Tiere ausgestallt werden, also den Stall verlassen und zum Schlachthof gebracht werden. Das ist eine rein körperliche Arbeit, die von „Sammel-Teams“ absolviert wird und über längere Zeit sehr anstrengend ist. Während einer einzelnen Schicht hebt ein „Hühner-Sammler“ 5-10 Tonnen Vögel pro Stunde. In Individuen macht das 1000-1500 Tiere. Zu der zweifellos physisch harten Arbeit der Menschen kommt aber noch andere Aspekte, die das Einsammeln problematisch machen.

Über die letzten Jahrzehnte haben wir Geflügelrassen entwickelt, die in kurzer Zeit ein hohes Gewicht erreichen können. Vom Standpunkt der Fütterung aus gesehen ist das super effizient. Leider kann das Skelett der Tiere dem schnellen Wachstum nicht so richtig folgen. Es bräuchte mehr Zeit und ist daher zum Schlacht-Zeitpunkt deutlich fragiler als es sein sollte.
Der physische Zustand der Tiere ist aber nur ein Aspekt des Problems, das letztlich eine Maschine rechtfertigt. Die andere Sache ist die fehlende Beziehung zwischen Geflügel und Tierhalter. Klar, es gibt Ratschläge, dass das Personal während der Mastphase nicht wechseln sollte, um Stress durch fremde Menschen zu vermeiden. Direkter Kontakt zwischen Mensch und Tier ist zu keinem Zeitpunkt vorgesehen (und auch gar nicht ausreichend möglich), weshalb der Tag des Ausstallens die Tiere natürlich stark stresst.

Im HSUS-Report werden eine Reihe von Referenzen angeführt, die die Probleme, welche durch die Kombination des noch nicht ausreichend entwickelten Knochengerüstes und eines unsachgemäßen Umgangs mit den Tieren, belegen. Zusammengefasst erreichen viele Vögel den Schlachthof in schlechtem Zustand – vor allem Knochenbrüche und äußere Verletzungen sind hier zu nennen.
An dieser Stelle kommt jetzt der Chicken Harvester ins Spiel, der gegenüber menschlichen Teams gleich mehrere Vorteile hat. Zum einen ist er eben kein Mensch, zum anderen arbeitet er konstant. Ermüdungserscheinungen sind ausgeschlossen, während die Tiere weniger gestresst und verletzt werden. Der Harvester greift die Tiere mit weichen Gummi-Fingern und führt sie dann in die Kisten, in denen sie dann zum Schlachthof kommen.

Das klingt doch ziemlich interessant, löst der Chicken Harvester dich das Problem ermüdender Arbeiter und dürfte gerade in Gegenden mit hohen Lohnkosten oder fehlenden Arbeitskräften eine weitere interessante Möglichkeit darstellen, um den Stall zu räumen.

Aber natürlich gilt auch hier: keine Vorteile ohne Nachteile. In Versuchen hat sich herausgestellt, dass durch das maschinelle Sammeln mehr tote Tiere am Schlachthof eintreffen. Der Grund ist einfach: es sterben immer mal wieder Tiere, nicht selten an einem Herzinfarkt. „Menschliche Sammler“ erkennen diese und sortieren sie aus (natürlich macht das auch der Tierhalter während der gesamten Mast-Periode). Der Mensch am Steuer des Harvester kann diese nicht erkennen und sammelt sie einfach mit ein. Vielleicht sollte man dann zu Beginn einfach den Stall durchgehen und tote Tiere einsammeln.

Für jene, die sich das noch nicht so richtig vorstellen können, gibt es hier ein Video:

https://www.youtube.com/watch?v=QGoqdknQaDc

Falls Ihr jetzt also in einem sozialen Netzwerk Eurer Wahl mit Videos belästigt werdet, in denen diese Maschinen als das menschlich Böse gegenüber der armen Kreatur präsentiert wird, wisst Ihr es jetzt besser 😉


Referenzen

]]>
http://scilogs.spektrum.de/vom-hai-gebissen/eine-maschine-ist-gut-zu-voegeln/feed/ 36
Spanien: Über das Machtmotiv, Kolonialmächte und Fußball http://scilogs.spektrum.de/positive-psychologie-und-lernen/spanien-ueber-machtmotiv-kolonialmaechte-fussball/ http://scilogs.spektrum.de/positive-psychologie-und-lernen/spanien-ueber-machtmotiv-kolonialmaechte-fussball/#comments Sun, 19 Jun 2016 22:21:16 +0000 Michaela Brohm http://scilogs.spektrum.de/positive-psychologie-und-lernen/?p=538 Weiterlesen]]> Michaela Brohm

scilogs_em2016-300x119

Als „Konquistador-Muster“ bezeichnet der US-amerikanische Motivationsforscher McClelland (1975) ein Verhalten, das rücksichtslos daher kommt, um andere zu dominieren. Benannt ist es nach den spanischen Eroberern der Kolonialzeit, die stellvertretend für die übrigen Kolonialmächte stehen, und deren Verhalten genau das in diesem Muster beschriebene brutale, auf Prestige, Reichtum und Gewalt angelegte Muster zeigt. Verankert ist es im Machtmotiv des Menschen.

Peru - 100 (1)

„Peru shocked Brazil“ titulierten US-amerikanische Seiten kürzlich im Netz. Brasilien, hoch gehandelt als potenzieller Copa-America-Sieger scheitert an Peru, dem einstigen Kolonialland des potenziellen Europameisterschaftssiegers Spanien. Irgendwie bemerkenswert, wie immer, wenn ein Riese besiegt wird, denn letztendlich geht es bei Meisterschaften primär um das Siegen, das Beherrschen des Spiels, das Beherrschen des Balls, des Platzes, der anderen Mannschaft. Um Macht.

Selten kommen die Spitznamen der Fußballmannschaften so zartbesaitet daher wie etwa das „Weiße Ballett“ (Real Madrid) – meist sind sie eher Kampfansage: Belgiens „Rode Duivels“ (Rote Teufel, wie auch beim FC Kaiserslautern), Englands „Three Lions“, Griechenlands „To Piratiko“ (das Piratenschiff) und Spaniens „La Furia Roja“ (Rote Furie) werden in der testosterongesteuerten Selbstbenennung nur noch von den USA getoppt, die mit „Sam’s Army“ in die Schlacht zieht.

Es geht im Wettkampf deutlich um Sieg, um die Dominanz anderer. Und genau in diesem Sinne wird das Machtmotiv beschrieben – als Einflussnahme und Kontrolle anderer, um das „Gefühl von Stärke“ (McClelland 1985) zu erleben. Machmotivierte ziehen ihre Befriedigung aus der physischen, mentalen oder emotionalen Einflussnahme auf andere (vgl. Brandstätter et. al. 2013, S 55).

Und wir wissen inzwischen, was den „Willen zur Macht“ fördert und was ihn hemmt: Sie wächst im Kleinkind, wenn die erlebte Macht mit positiven Erlebnissen assoziiert wird. Verhält sich beispielsweise ein 5-jähriges Kind aggressiv, so erlebt es mehr oder eben mindere Toleranz durch seine Mutter und das Maß dieser Toleranz entpuppt sich langfristig als starke Vorhersagekraft für das Ausmaß des Machtmotivs des später 25-jährigen (Brandstätter et. al. mit Verweis auf McClelland/Pilon 1983). Das bedeutet: Wird dem Machtmotiv nichts entgegengesetzt – bis hierhin und nicht weiter! – wächst es (!).

An sich ist das jedoch nicht tragisch, ist doch der Wille stark zu sein aus evolutionärer Perspektive oft überlebenswichtig gewesen. Und so taucht das Machtmotiv auch in verschiedenen Erscheinungsformen auf. McClelland (1985) unterscheidet vier Entwicklungsstadien, die im Laufe der Individualentwicklung erreicht werden können und je nach Handlungssituation lebenslang verfügbar bleiben (vgl. Heckhausen/Heckhausen 2010):

  1. „Es stärkt mich“ – es ist ein In-sich-Aufnehmen von Macht, die Macht wird auf das Selbst bezogen, die Verbindung mit anderen Personen (Mutter, Gott, Führer, starke Freunde u. a.) stärkt die eigene Machtposition und das Ego.
  2. „Ich stärke mich selbst“ – Unabhängig sein steht hier im Fokus, die Macht wird auf sich selbst bezogen und aus sich selbst generiert: Der eigene Wille steht im Mittelpunkt.
  3. „Ich mache Eindruck auf andere“ – hier geht es um das Durchsetzen, die Macht wird auf andere bezogen, es geht darum Eindruck auf andere zu machen, zu wetteifern, sich gegen andere durchzusetzen. „Beschrieben wird hier eine Machtorientierung, ein Gefühl der Stärke, das aus der erfolgreichen Durchsetzung der eigenen Person in der direkten Konfrontation mit anderen Personen (typischerweise Wettkampfsport) erwächst“ (Heckhausen/Heckhausen 2010, S. 220).
  4. „Es drängt mich zur Pflichterfüllung“ – gereifte Erwachsene zeigen dieses Muster häufig. Der Mensch stellt sich in den Dienst einer Sache (Organisation, Gruppe, Religion u. a.), Quelle der Macht ist das höhere „Es“, welches einen dazu drängt, die eigenen Interessen durchzusetzen. Das daraus entstehende Gefühl der Stärke wird mit den hierarchisch Untergebenen geteilt.

Entscheidend für Wettkampfsituationen scheint die dritte Variante zu sein: Sich Durchsetzen. Und so kommen Kuhl/Krug (2006) zu dem Schluss, dass zwar im Training ein anderes Motiv wichtiger sei, nämlich das Leistungsmotiv – sich selbst beweisen zu wollen, dass man etwas leisten kann – aber während des interaktiven Wettkampfs klar die o. g. dritte Form des Machtmotivs über Sieg oder Niederlage entscheidet.

Ist ein Erwachsener machtmotiviert, wird er die Quellen der Macht einsetzen, wie etwa körperliche Kraft, Intelligenz, Wissen (Informationskontrolle), Schönheit, Charisma, wirtschaftliche Kraft (Besitz), rechtliche Legitimität, Waffen, Legitimität der Rolle (Status), Prestige. Er setzt z. B. seine legitime Funktion – als Lehrer, Psychologe, Polizist, Führungskraft – oder sein Geheimwissen ein, um andere zu beeinflussen.

Oder er bestraft andere aufgrund seiner körperlichen Kraft und seines strategischen Wissens für deren vermeidliches Fehlverhalten – wie z. B. Fußballspieler die gegnerische Mannschaft. Und gelingt dieses, belohnt die Natur durch ein wahres Feuerwerk an Hormonen: In erfolgreichen Dominanzsituationen wurde für Männer ein positiver Zusammenhang zum Männlichkeitshormon Testosteron nachgewiesen (Stanton/Schultheiss 2009). Für Frauen gilt dieses nicht. Siegen macht männlich – was auch manch öffentlich beobachteten Griff des Trainers ans eigene Eingemachte oder Ronaldos nackten Sixpack bei hochgestreckten Fäusten erklärt. Auch Oliver Kahns Brüller kommen in den Sinn.

Cusco - 107

Das ist all zu menschlich. Es ist okay, machtmotiviert zu sein. Denn damit die Sache nicht vollkommen aus dem Ruder gerät, tritt das Machtmotiv meist in gehemmter – sozialisierter – Form auf: Unsere Werte (wie z. B. Fairness), Furcht vor der Gegenmacht des Anderen (z. B. andere Mannschaft), zu hohen Kosten des Machtverhaltens (z. B. Gelbe Karte), unser schwaches Selbstvertrauen oder rivalisierende Normen und Werte bannen das ungezügelte Ausleben ein (Heckhausen/Heckhausen, 2010, S. 217 f.).

Ein hohes Machtmotiv bei gleichzeitig starker Hemmungstendenz (Inhibitionstendenz) scheint „Ausdruck von Macht in sozial akzeptabler Weise zu kanalisieren und lassen Personen zu erfolgreichen Akteuren im sozialen Feld werden“ (ebd., S. 219). Auf gut Deutsch: Solange die Mannschaft Angst vor dem Schiedsrichter, dem Konter der Gegenmannschaft oder der eigenen völlig hemmungslosen Unfairness hat, ist Dominanz und Gewinnen wollen kein Problem und Fußball ein prima Spiel.

Aber wehe wenn nicht. „Aufsehenerregende Formen der Macht und Gewaltausübung ergeben sich häufig gerade bei der Verletzung solcher Normen“ (ebd., S. 210). Bin keine Fußballexpertin, aber Blutgrätschen, Faustschläge und der „Schlächter von Bilbao“ sagen mir etwas. Im Netz finden sich heftige Beispiele.

Nicht sozialisierte Macht endet also in dem, was alltagssprachlich mit dem Machtbegriff konnotiert ist: Dominanz, Despotie, Kampf. Bei fehlender Aktivitätshemmung „korreliert ein hohes Machtmotiv (p Power) mit exzessivem Trinken, mit Besitz von angeberischen Prestigegütern, mit ersatzbefriedigendem Lesen von Sex- und Sportzeitschriften sowie mit dem Hang zu riskantem Glücksspiel“ (Heckhausen/Heckhausen, 2010, S. 226). Und jetzt sind wir genau bei der o. g. Motivkonstellation, die von McClelland (1975) als ‚conquistador motiv pattern’ bezeichnet wird und „bei Männern mit einer Neigung zu impulsiver Gewaltanwendung“ (ebd.) einhergeht.

Das Konquistador-Muster des Machtmotivs also. Benannt nach den spanischen Eroberern. Spanien war eine der stärksten Kolonialmächte der Welt: Nachdem der Italiener Christoph Columbus im Dienst der spanischen Krone 1492 Amerika entdeckt hatte, entbrannte zwischen Portugal und Spanien ein heftiger Kampf um die Besetzung und Ausbeutung des neuen Kontinents. Und was wir über die Eroberung des Inkareichs aus zeitgenössischen Bild- und Textquellen wissen, treibt selbst manch gestandenem Historiker Tränen ins Auge: Als der Spanier Pizzaro 1532 im Inkareich ankam, hatte dieses seine größte Ausdehnung erreicht. Weite Teile der Ostküste Südamerikas – vom heutigen Ecuador, über Peru, Bolivien, Chile und Teile Argentiniens – wurden vom Inka (nur der Herrscher gilt als Inka) Atahualpa beherrscht.

Die Indios nutzten weder das Rad, weil sie es in einem Land, das nahezu flächendeckend mit hohen Anden durchzogen ist eh nicht hätten brauchen können, noch die Schrift. Aber es war ihnen gelungen, komplexe staatliche Strukturen aufzubauen, die von der Hauptstadt Cusco aus verwaltet wurden. Ihre Stadt- und Tempelanlagen bauten sie auf den Kuppen der Anden, in oft mehr als 4000 Meter Höhe um ihren Göttern näher zu sein und sich vor möglichen Feinden zu schützen.

Doch angesichts des kollektiven, ungehemmten Machtmotivs der Konquistadore nutzte das den Indios nichts: Die auf Pferden, in Rüstungen, mit Kanonen und Handfeuerwaffen bewaffneten Spanier lockten den unbewaffneten Inka in einen Hinterhalt, metzelten Tausende der Indios nieder, nahmen den Inkakönig Atahualpa, gefangen, und handelten mit ihm aus, dass er seine Kerkerzelle und zwei weitere Räume mit Gold und Silber füllen solle und sich so freikaufen könne.

Atahualpa ließ im gesamten Inkareich verbreiten, dass man alles Gold und Silber bringen solle und so standen die spanischen Schmelzöfen Tag und Nacht nicht still. Die Spanier bekamen, was sie so sehr ersehnt hatten: Den Schatz der Inka. Das Gold. Das Silber. Prächtige Kronen, Amulette, Ketten und Ringe wurden zu Klumpen eingeschmolzen und nach Spanien verschifft. Was man heute in Peru findet, ist der klägliche Rest oder vergoldete Replikationen. Als die beladenen Schiffe abgelegt hatten, ließen die Konquistadore den Inkakönig wegen „Missachtung Gottes“ öffentlich an einer Garrotte – einem Holzpfahl mit einer Schlinge, die der Henker nach und nach langsam zudreht – erwürgen.

Von keiner regulierenden Aktivitätshemmung hinsichtlich des Machverhaltens zeugen auch die noch heute existierenden Reste des Sonnentempels in Cusco. Als es den Besatzern nicht gelingen wollte, die dickwandigen und mit steinernen Schiebefugen Block für Block verzahnten Inkatempel einzureißen, begannen sie, den riesigen Blöcken mit Hammer und Meißel zu Leibe zu rücken. Irrwitzig. Ein Versuch, der den ungeheuren Willen zur Dominanz belegt: Die Inkatempel mussten auf jeden Fall verschwinden, nur so, so hofften die Besatzer, konnte sich das Gefühl der Stärke einstellen und das Machtmotiv befriedigt werden.

IMG_8326

Bis heute hat sich die indigene Bevölkerung Perus nicht von der Kolonialzeit erholt, die soziale Disparitäten zwischen Indianern, Mestizen und Weißen zeugt davon. Ähnliches können wir für viele der ehemaligen Kolonialstaaten in Südamerika, Afrika und Asien konstatieren.

Bis heute tragen die ehemaligen Kolonialmächte diese historische Bürde mit sich herum: Ob Portugal, Spanien, die Niederlande, Großbritannien oder Frankreich, ob die späteren imperialistischen Staaten Deutschland, Belgien, Russland oder Italien: Viele der heutigen europäischen Staaten bauten ihren Reichtum auf kolonialer Ausbeutung und einem ehemals völlig entgleisten Machtmotiv. Mannschaften kaufen heute die besten Spieler der Welt ein, und besiegen Mannschaften aus weniger finanz- und damit spielstarken Ländern. Fast wie zur Kolonialzeit könnte man glatt denken. Nur, dass viele heutige Spitzenspieler aus den ehemaligen Kolonien der Europäer stammen und das strikte Regelwerk im Fußball sowie starke Schiedsrichter heute das Machtmotiv hemmen.

Stellen wir uns nur mal vor, man ließe zwei Mannschaften ungehemmt durch einen Schiri aufeinanderprallen. Ob in Kindererziehung (s. o.), Politik oder Sport: Ein Hoch auf die Grenzen der Brutalitätstoleranz! Grenzen, die einst den Kolonialtruppen weder durch die Staaten noch durch die Kirche gesetzt wurden. Im Sport klappt das. Meistens.

 

Literatur

Brandstätter/Schüler/Puca/Lozo (2013): Motivation und Emotion. Berlin/Heidelberg. Springer.

Heckhausen/Heckhausen (2010): Motivation und Handeln. Berlin/Heidelberg. Springer.

Kuhl/Krug: Macht Macht erfolgreich? Macht macht erfolgreich! Die Rolle des Machtmotivs im Spitzensport. Leistungssport 05/2006. S. 5-10.

McClelland (1975): Power: The inner experience. New York. Irvington.

McClelland (1985): Human Motivation. Cambridge. Cambridge University Press.

Stanton/Schultheiss (2009): The hormonal correlates of implicit power motivation. Journal of Research in Personality, 43, S. 942-949

]]>
http://scilogs.spektrum.de/positive-psychologie-und-lernen/spanien-ueber-machtmotiv-kolonialmaechte-fussball/feed/ 11
Gravitationswellen-Nachweistechnik: Alles schwingt http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-alles-schwingt/ http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-alles-schwingt/#comments Sun, 19 Jun 2016 20:16:27 +0000 Markus Pössel http://scilogs.spektrum.de/relativ-einfach/?p=4650 Weiterlesen]]> Die Gravitationswellenastronomie steht vor der Tür, und ich ergänze meinen Artikel zur grundlegenden Funktionsweise der LIGO-Gravitationswellendetektoren und ihrer Verwandten (Gravitationswellendetektoren: wie sie funktionieren) gerade um einige Texte zu der dort konkret angewandten Messtechnik.

Im vorletzten Beitrag „Erschütterte Detektoren“ ging es um die Maßnahmen, welche die Forscher treffen müssen, um den Einfluss von Erschütterungen und Vibrationen auf den Detektor klein zu halten, und im letzten Beitrag „Prasselnde Photonen“ um die Störeffekte, die sich direkt aus der Quantennatur des Lichts ergeben (und dazu führen, dass die Forscher möglichst hohe Strahlungsleistung für ihren Detektor anstreben).

In diesem Beitrag geht es um störende Vibrationen einer anderen Sorte. „Alles fließt“ hin oder her, aber physikalisch ist mindestens ebenso zutreffend: Alles schwingt. Bereits aufgrund aufgrund der Temperatur, die ein Objekt besitzt, schwingt es.

Vereinfachter Detektor

Ich muss an dieser Stelle wiederum nicht die grundlegende Funktionsweise interferometrischer Detektoren wiederholen (die interessierte Leser in Gravitationswellendetektoren: wie sie funktionieren finden); für das weitere Verständnis genügt auch hier im dritten Nachweistechnik-Beitrag das folgende einfache Bild: Der Detektor besteht vereinfacht aus mehreren Elementen, die in der folgenden Abbildung dargestellt sind.

interferometerDer Einfluss einer Gravitationswelle besteht (näherungsweise) darin, den Abstand zwischen dem Spiegel Sp1 und dem in der Mitte aufgehängten Strahlteiler T rhythmisch ein winziges bisschen zu vergrößern und zu verkleinern, und gleiches geschieht mit dem Abstand zwischen dem Spiegel Sp2 und dem Strahlteiler. Durch die Anordnung läuft im Laser L erzeugtes Laserlicht, mit dessen Hilfe die eigentliche Messung durchgeführt wird. Am anderen Ende erreicht das Licht den Photodetektor D.

Alles schwingt

Die mikroskopische Deutung von Wärme und Temperatur ist eines der Aha-Erlebnisse, das einem die Physik beschert.

Temperatur lernen wir typischerweise zunächst im Alltag kennen, gekoppelt an die Thermometeranzeige und deren Konsequenzen für Schichtdicke und -anzahl der eigenen Kleidung, an Glätte- oder Schweißgefahr und die Frage, ob es denn schon wirklich Sommer oder wahlweise Winter geworden ist oder wir wieder einmal um schöne warme oder schön kalte Tage betrogen worden sind.

Dass diese Temperatur eine direkte physikalische Bedeutung hat, haben die Physiker im mittelspäten 19. Jahrhundert herausgefunden. Wählt man die Temperaturskala geeignet – für unsere üblichen Celsiustemperaturen muss man 273,16 Grad Celsius hinzuzählen und landet dann bei der Temperatur in Kelvin – dann ist die Temperatur ein Maß für die mittlere Bewegungsenergie der Bestandteile eines Körpers; in einem Gas beispielsweise ist sie proportional zur Bewegungsenergie der Gasteilchen, die ungeordnet hin und her fliegen.

Allgemeiner gilt: Im thermischen Gleichgewicht, wie es sich einstellt, wenn man ein System hinreichend lange ungestört sich selbst überlässt, verteilt sich die vorhandene Energie weitgehend gleichmäßig auf alle Freiheitsgrade, also auf alle Arten und Weisen, wie sich das System und seine Bestandteile verändern können. Teilchen bewegen sich, gebundene Teilchen vibrieren ein bisschen, Moleküle rotieren, was drehbar oder schwingungsfähig gelagert ist dreht sich oder schwingt ein bisschen. Und all das mit derselben durchschnittlichen Bewegungsenergie, gerecht verteilt auf alle Freiheitsgrade.

0 Kelvin ist der absolute Nullpunkt. An einem System mit Temperatur 0 würde sich überhaupt nichts bewegen; diesen Zustand können physikalische Systeme aber gar nicht erst erreichen, wie der dritte Hauptsatz der Thermodynamik besagt.

Alles im Detektor schwingt dementsprechend auch

Wie im vorletzten Beitrag „Erschütterte Detektoren“ ausgeführt, sind Spiegel (Testmassen) und Strahlteiler der LIGO-Detektoren als Pendel aufgehängt, um sie soweit wie möglich von den Erschütterungen und Vibrationen des Untergrunds zu isolieren.

Aber auch Pendel haben natürlich Freiheitsgrade – der grundlegende Freiheitsgrad eines Pendels ist, hin und her zu schwingen; darüber hinaus kann sich die Pendelaufhängung noch in vielfältiger Weise verformen: die Aufhängung kann wie eine Violinsaite schwingen, und da die Spiegel an jeweils zwei Fädern aufgehängt sind, ist auch eine Drehschwingung (Torsion) möglich.

Die LIGO-Detektoren und Virgo werden im wesentlichen bei Raumtemperatur betrieben. Bei dieser Temperatur schwingen auch die Pendelaufhängungen ein wenig hin und her; das wiederum bewirkt winzige Verschiebungen der Spiegel und solche Verschiebungen stehen dann wiederum in Konkurrenz mit der Art und Weise, wie eine Gravitationswelle auf den Detektor einwirkt, sprich: sie erzeugen Störungen, die das Gravitationswellensignal nachmachen oder überlagern können. Diese Art von Störung heißt „suspension thermal noise“, also thermisches Rauschen der Aufhängung(en) [fachliche Details in Gonzalez 2000].

Auch die Testmassen selbst – 40 kg schwere, dicke Quarzglas-Scheiben – sind schwingungsfähige Systeme, und auch diese Schwingungsmöglichkeiten sind Freiheitsgrade, die bei endlicher Temperatur angeregt werden. Wenn die flache Oberfläche der Scheiben sich verformen, dann wird Licht, das darauffällt oder hindurchtritt entsprechend gestört. Eine weitere Rauschquelle. Und auch die dünne Beschichtung der Scheiben, mit der die Spiegelwirkung erzielt wird, ist ein thermisches System mit eigenem Rauschen. Was tun?

Qualität und Frequenzen

Wie schon beim seismischen Rauschen und beim Schrotrauschen ist auch beim thermischen Rauschen die entscheidende Frage: bei welchen Frequenzen tritt dieses Rauschen wie stark auf? Wenn man eine bestimmte Art von Rauschen zumindest in dem Frequenzbereich, in dem man vorhat, Gravitationswellensignale zu messen, geeignet unterdrücken kann, ist das ja bereits eine gangbare Lösung.

An dieser Stelle kommt den Forschern der sogenannte Gütefaktor Q eines schwingungsfähigen Systems zuhilfe. Die Pendelschwingung beispielsweise hat eine charakteristische Frequenz, nämlich jene Frequenz, mit der das Pendel schwingt, wenn man es ein klein wenig auslenkt und dann sich selbst überlässt („Eigenfrequenz“). Wie gedämpft die Pendelschwingung ist, zeigt sich daran, für wie lange das Pendel in solch einer Situation weiterschwingt, bis es nach einer Weile wieder zur Ruhe kommt.

Je stärker gedämpft die Pendelschwingung, desto niedriger der Gütefaktor Q. Je größer Q, desto freier und damit länger schwingt das Pendel weiter, anders ausgedrückt: umso weniger der Schwingungsenergie wird pro Zeiteinheit auf andere Freiheitsgrade (z.B. innere Schwingungen der Pendelschnur, Erwärmung von Schnur und Pendelkörper) umverteilt.

Aus charakterischer Frequenz und Dämpfungsfaktor ergibt sich die sogenannte Resonanzfrequenz, nämlich jene Frequenz, bei der das Pendel am stärksten auf äußere Anregungen reagiert. (Man denke an das Kind auf der Schaukel; schubst man es genau im richtigen Moment – also insgesamt: mit der richtigen Frequenz – an, dann schaukelt sich die Bewegung des Kindes auf und die Auslenkung der Schaukel wird immer größer.)

Für die thermischen Anregungen kann man bei solchen Systemen zeigen: je höher der Gütefaktor Q, umso stärker sind die Störungen, ist das thermische Rauschen nahe der Resonanzfrequenz des betreffenden Freiheitsgrads konzentriert.

Daraus ergibt sich folgende Strategie: Erstens bemüht man sich, die schwingungsfähigen Systeme des Detektors, und insbesondere die Aufhängungen für die Testmasse, mit möglichst hohem Gütefaktor Q zu konstruieren. Wenn möglich, dann sorgt man zusätzlich dafür, dass die Resonanzfrequenzen dieser Systeme außerhalb des Frequenzbereichs liegen, in dem man nach Gravitationswellen sucht. Wo das nicht möglich ist, sorgt der hohe Gütefaktor zumindest dafür, dass die Störungen nur in einem winzigen Frequenzbereich rund um die Resonanzfrequenz des betreffenden Freiheitsgrads des betreffenden Systems zu buche schlagen und sich bei der Datenanalyse dann vergleichsweise leicht herausrechnen lassen.

Quarzglas und bonding

Hoher Gütefaktor ist leicht gesagt, aber bei der Umsetzung sind die Gravitationswellenforscher wieder einmal in der gewohnten Situation: die verfügbare Technik reicht nicht aus; geeignete Neuentwicklungen müssen her.

Die Testmassen beispielsweise werden als massive Quarzglas-Scheiben hergestellt. Würde man diese an Stahlschnüren aufhängen (wie beim ursprünglichen LIGO), dann gäbe es dort, wo die Stahlschnüre am Quarzglas befestigt sind, Reibungsmöglichkeiten – also Möglichkeiten für Energie, in Wärme umgesetzt zu werden. Dementsprechend wäre der Gütefaktor geringer und die thermische Energie würde sich auf einen breiteren Frequenzbereich verteilen, ebenso wie die sich daraus ergebenden Störungen des Messprozesses.

Stattdessen haben die Detektor-Konstrukteure ein Verfahren entwickelt, wie sich die Testmassen (unterste Pendelstufe der Aufhängung) an Quarzglas-Fäden aufhängen lassen, die fast direkt in das Quarzglas der Testmasse übergehen, sogenanntes „bonding“. Genauer: An die Quarzglas-Scheiben werden als Aufhängepunkte „Ohren“ gebondet; daran werden die Quarzglas-Fäden dann angeschweißt. Das folgende Bild stammt aus der Advanced-LIGO-Newsmeldung vom Mai 2010 und zeigt die Testmasse und die Masse der nächsten Pendelstufe darüber: mono_quad_0510-pfeilDort, wo ich per Hand etwas ungelenk den Pfeil eingemalt habe, kann man das „Ohr“ sehen, das an die Quarzglasscheibe gebondet wurde. Darüber sieht man zwei parallele Quarzglasfäden, die sich hinauf zur oberen Masse ziehen. Mit dieser Technik wird die untere Testmasse samt Aufhängung zu einer fast monolithischen zusammenhängenden Struktur – mit entsprechend positiven Auswirkungen auf das thermische Verhalten. Die Quarzglasfäden sind möglichst dünn; bei dickeren Fäden werden dort, wo der Faden am Pendelkörper angebracht ist, größere Mengen an Energie in Wärmeenergie umgesetzt. Die Quarzglasfäden sind dementsprechend bei rund 30% ihrer maximalen Belastung.

Die neue Technik wurde federführend an der Universität Glasgow entwickelt, zunächst bei GEO 600 getestet und später in Advanced LIGO eingebaut. Für die dafür entwickelte Bonding-Methode haben die Forscher auch ein Patent eingereicht.

Trotz dieser Maßnahmen bleibt das thermische Rauschen die dominante Störquelle bei Frequenzen zwischen rund 50 und einigen hundert Hertz – bis etwas über 100 Hertz trägt vor allem die Aufhängung bei, darüber vor allem die Schwingungen der Testmasse selbst (inklusive der Spiegelbeschichtung).

Wesentlich weiter reduzieren ließe sich diese Störquelle, indem man Aufhängungen und Testmassen möglichst weit herunterkühlt. Solch eine kryogene Anlage soll der japanische KAGRA-Detektor werden, dessen Spiegel auf 20 Kelvin, entsprechend rund –250 Grad Celsius gekühlt werden sollen. Die tiefen Temperaturen bringen dann freilich ganz eigene technische Herausforderungen für die mechanischen Funktionen des Detektors mit sich.

Fazit

Alles schwingt, und die Bauteile der Gravitationswellendetektoren bilden dabei keine Ausnahme. Die Schwingungen stören die Messungen als thermisches Rauschen, welches etwaige Gravitationswellensignale überlagert.

Immerhin kann man das thermische Rauschen als Störquelle weitgehend unterdrücken und aus dem Messbereich verbannen, wenn man die Testmassen und ihre Aufhängungen besonders frei schwingungsfähige Systeme ausführt. Nichtsdestotrotz bleibt thermisches Rauschen im mittleren Frequenzbereich (50 Hz bis über 100 Hertz) derjenige Störfaktor, der die Empfindlichkeit des Detektors grundlegend einschränkt. Zukünftige, tiefgekühlte Detektoren sollen in diesem Frequenzbereich noch deutlich empfindlicher sein.

]]>
http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-alles-schwingt/feed/ 15
Allez le Blogs – Wie uns Rumänien christianisiert und was das für seine Zukunft bedeutet http://scilogs.spektrum.de/natur-des-glaubens/allez-blogs-wie-rumaenien-zukunft/ http://scilogs.spektrum.de/natur-des-glaubens/allez-blogs-wie-rumaenien-zukunft/#comments Sun, 19 Jun 2016 19:38:02 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2906 Weiterlesen]]> In wenigen Minuten wird das EM-Spiel meiner Allez-le-Blogs-Länder Albanien gegen Rumänien angepfiffen: Höchste Zeit, eine kleine Idee zu verwirklichen. Diese kam mir am 8. Juni beim Tag der KAS (Konrad-Adenauer-Stiftung), bei der ich an meiner ersten Online-Podiumsdiskussion teilnahm. Gemeinsam mit Birgül Akpinar vom CDU-Landesvorstand Baden-Württemberg diskutierten wir von Stuttgart aus mit Diskutanten in Berlin – und an beiden Orten gab es jeweils auch Zuschauende.

BirguelMichaelKASPodium0616Online-Podiumsdiskussion Stuttgart / Berlin am „Tag der KAS“ am 8.6.2016. Foto: KAS Berlin

Auch in dieser Diskussion versuchte ein Diskutant – diesmal ein Staatssekretär aus Ungarn – die Gefahr einer „Islamisierung“ an die Wand zu malen und auf dieser Basis die deutsche Offenheit für Zuwanderung zu kritisieren. In einer Replik erlaubte ich mir den Hinweis darauf, dass Deutschland (und andere europäische Länder) auch eine erhebliche Zahl von Ungarn aufgenommen hätten – und dass die zweitgrößte Gruppe von Zuwandernden des Jahres 2015 nach Baden-Württemberg aus Rumänien stammte!

Und so überlegte ich mir noch während der Debatte, mal ein bißchen europäische Demografie zum Nachdenken zu bloggen…

(mehr …)

]]>
http://scilogs.spektrum.de/natur-des-glaubens/allez-blogs-wie-rumaenien-zukunft/feed/ 3
Migräne als Risikofaktor für kardiovaskuläre Erkrankungen http://scilogs.spektrum.de/graue-substanz/migraene-als-risikofaktor-fuer-kardiovaskulaere-erkrankungen/ http://scilogs.spektrum.de/graue-substanz/migraene-als-risikofaktor-fuer-kardiovaskulaere-erkrankungen/#comments Sun, 19 Jun 2016 11:26:11 +0000 Markus A. Dahlem http://scilogs.spektrum.de/graue-substanz/?p=13573 Weiterlesen]]> Nicht oft widmet eine der renommierten Zeitschriften aus der Reihe von Nature Reviews der Volkskrankheit Migräne ein »Research Highlight«. Das letzte mal, an das ich mich erinnern kann, war 2010. »Magnetschlag auf den Hinterkopf« überschrieb ich damals den Blogpost – lange einer der meistgelesenen Beiträge (aktueller hier beschrieben).

Nun gibt es wieder ein »Research Highlight« über Migräne. Nicht in Nature Review Neurology, sondern in Nature Review Cardiology. Kardiologie – damit ist die Meldung fast verraten: Migräne gilt als Risikofaktor für kardiovaskuläre Erkrankungen. Die Originalstudie stammt von einem Team um Prof. Dr. Tobias Kurth, Institut für Public Health der Charité (Berlin) und der Harvard Medical School (Boston, USA).

migraine_researchHighlight_Nat

Die Kernaussagen der Studie sind in dem Research Highlight zusammengefasst: »Migraine — headache and heartache« (offen lesbar nur durch den direkten Link hier im Blog).

Insbesondere für Frauen mit Migräne ist eine Vorsorgeuntersuchung und kontinuierliche Überwachung empfehlenswert und weitere Studien sollten bevölkerungsweit durchgeführt werden, um die mit Migräne zusammenhängenden kardiovaskulären Erkrankungen genauer zu erfassen und herauszubekommen, wie dieses Risiko gesenkt werden kann.

]]>
http://scilogs.spektrum.de/graue-substanz/migraene-als-risikofaktor-fuer-kardiovaskulaere-erkrankungen/feed/ 7
Gravitationswellen-Nachweistechnik: Prasselnde Photonen http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-prasselnde-photonen/ http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-prasselnde-photonen/#comments Sat, 18 Jun 2016 16:58:16 +0000 Markus Pössel http://scilogs.spektrum.de/relativ-einfach/?p=4617 Weiterlesen]]> Jetzt, wo die Gravitationswellenastronomie vor der Tür steht, bietet sich eine gute Gelegenheit, sich näher mit den dafür eingesetzten Detektoren zu beschäftigen. Die grundlegende Funktionsweise der LIGO-Detektoren und ihrer Verwandten hatte ich in Gravitationswellendetektoren: wie sie funktionieren (GW Teil 2) erklärt und mit Animationen gezeigt, wie die von einer Gravitationswelle erzeugten rhythmischen Verzerrungen des Raums einen Detektor wie LIGO beeinflussen.

Jetzt geht es an die Technik: Im letzten Beitrag „Erschütterte Detektoren“ ging es um die aufwändigen Maßnahmen, welche die Forscher treffen müssen, um den Einfluss von Erschütterungen und Vibrationen auf den Detektor klein zu halten. In diesem Beitrag geht um ein Quantenphänomen, das den Gravitationswellenjägern zu schaffen macht.

Vereinfachter Detektor

Ich muss an dieser Stelle wiederum nicht die grundlegende Funktionsweise interferometrischer Detektoren wiederholen (die interessierte Leser in Gravitationswellendetektoren: wie sie funktionieren finden); für das weitere Verständnis genügt auch hier das folgende einfache Bild: Der Detektor besteht vereinfacht aus mehreren Elementen, die in der folgenden Abbildung dargestellt sind.

interferometer
Der Einfluss einer Gravitationswelle besteht (näherungsweise) darin, den Abstand zwischen dem Spiegel Sp1 und dem in der Mitte aufgehängten sogenannten Strahlteiler T rhythmisch ein winziges bisschen zu vergrößern und zu verkleinern, und gleiches geschieht mit dem Abstand zwischen dem Spiegel Sp2 und dem Strahlteiler. Durch die Anordnung läuft bei L erzeugtes Laserlicht, mit dessen Hilfe die eigentliche Messung durchgeführt wird.

Photonenprasseln

Um das Funktionieren des Detektors zu verstehen (wie in meinem Gravitationswellendetektoren: wie sie funktionieren) ist es zwar sinnvoll, sich das Laserlicht als Welle vorzustellen. Aber wenn man genau hinschaut, wird das Verhalten des Laserlichts durch die Quantentheorie beschrieben: das Laserlicht besteht aus einzelnen Energiepaketen, die Photonen genannt werden.

Die Photonen sind zufällig verteilt – wenn man bestimmen könnte, wieviele Photonen in einer gegebenen Zeit an einem bestimmten Ort im Detektor vorbeifliegen, dann wären es im Durchschnitt zwar jeweils ungefähr gleich viele Photonen, entsprechend der durchschnittlichen Leistung der Laserstrahlung an dem betreffenden Ort. Aber wenn man genauer hinschaut, wären es eben bei jeder Messung dann doch jeweils ein paar weniger, dann wieder ein paar mehr, zufällig verteilt gemäß der sogenannten Poisson-Verteilung, die gerade solch eine Kombination von zufälligen Einzelereignissen beschreibt. Diese Fluktuationen werden auch als Schrotrauschen bezeichnet.

Eine kleine Rechnung

Für Leser, die eine einfache Rechnung nicht scheuen, kann ich konkreter werden. Alle anderen können gleich zum nächsten Abschnitt springen.

Allgemein wird bei einem Interferometer wie dem oben skizzierten die Strahlungsleistung gemessen, die am Ausgang ankommt, also in meiner Skizze am Photodetektor D. Diese Strahlungsleistung entspricht der Lichtenergie, die pro Zeiteinheit am Photodetektor ankommt. Man kann sie messen, indem man ein bestimmtes Mess-Zeitintervall τ festlegt, dann misst, welche Energie den Photodetektor im Zeitinterval τ erreicht und das Ergebnis durch die Dauer τ teilt; dadurch erhält man die durchschnittliche Strahlungsleistung P während des Messintervals τ.

Das Laserlicht hat eine feste Frequenz f, und das heißt: im Idealfall hat jedes einzelne Photon des Laserlichts dieselbe Energie E = hf, mit h dem Planck’schen Wirkungsquantum (der fundamentalen Konstante der Quantentheorie).

Die während des Zeitintervalls τ ankommende Energie messen heißt daher: die Zahl N der während des Intervalls ankommenden Photonen zählen und das Ergebnis mit E=hf malnehmen.

Fluktuiert die die Zahl der ankommenden Photonen etwas, dann fluktuiert auch die gemessene Energie, und damit die gemessene Durchschnittsleistung. Aus dieser Durchschnittsleistung soll nun aber erschlossen werden, was der Detektor gemessen hat. Zufällige Fluktuationen der gemessenen Leistungen sind ein Störeinfluss, der das zu messende Signal überlagert. Ab Gravitationswellenfrequenzen von rund 100 Hertz ist das Schrotrauschen bei heutigen Detektoren wie LIGO sogar der größte Störeinfluss – wer das Schrotrauschen vermindern kann, verbessert damit direkt die Empfindlichkeit seines Detektors!

Aus vergleichsweise einfachen statistischen Überlegungen folgt, dass die erwartbaren zufälligen Fluktuationen ΔN der in einem gegebenen Zeitintervall ermittelten Photonenzahl N proportional zur Wurzel aus N sind. Die relativen Fluktuationen der gemessenen Strahlungsleistung P sind damitrelativePDiese relativen Fluktuationen bestimmen wiederum die relative Genauigkeit, mit der man am Detektorausgang den Gravitationswelleneinfluss messen kann.

Fazit der kleinen Rechnung

Die relative Stärke der Störungen aufgrund des Schrotrauschens ist umgekehrt proportional zur Wurzel aus der Anzahl der Photonen, die im Interferometer unterwegs sind. Je größer diese Anzahl, desto kleiner die relative Stärke der Störungen.

Daraus folgt als Nachweisstrategie: Um das Schrotrauschen möglichst gering zu halten, muss man die Photonenzahl soweit erhöhen wie möglich. Sprich: Man muss möglichst viel Laserleistung im Detektor haben.

Schaut man sich genauer an, bei welchem Zustand des Interferometers das Schrotrauschen am geringsten ist, bekommt man außerdem heraus: in dem Zustand, in dem in Abwesenheit einer Gravitationswelle kein Licht den Detektor verlässt. Zweiter Teil der Strategie ist demnach, den Detektor in genau diesem Zustand zu betreiben: ohne Gravitationswelle kein Licht am Ausgang.

Laserleistung maximieren

Wie bekommt man die Laserleistung besonders hoch? Hier ist der eigentliche Plan der grundlegenden LIGO-Optik, etwas weniger vereinfacht (aber immer noch ohne diverse Kontroll- und Regelungssysteme), entnommen aus der Detektorbeschreibung der Ligo Scientific Collaboration „Advanced LIGO“ (LIGO Document P1400177-v6):

ligo-layoutDer vereinfachte Aufbau, den ich eingangs skizziert hatte, ist hier gerade noch zu erkennen: ganz links ist der Laser, der Laserlicht erzeugt; BS ist der Strahlteiler, und die beiden ETM (für „end test mass“) sind das, was in der vereinfachten Skizze die Spiegel Sp1 und Sp2 waren. PD ist der Photodetektor.

Neu sind zum Beispiel die Spiegel mit der Bezeichnung ITM („inner test mass“). Diese Spiegel lassen nur 1.4% des Lichts, das von rechts auf sie fällt, durch; der Rest wird zurück zur entsprechenden ETM reflektiert. Die vereinfachte Version, warum es diese Spiegel gibt, ist wie folgt: Gravitationswellen erzeugen relative Längenänderungen. Wie groß der Längenunterschied tatsächlich ist, hängt von der bereits vorhandenen Länge ab. Daher sind besonders lange Detektorarme besonders empfindlich (zumindest solange die Verweildauer des Lichts im Detektor der Schwingungsdauer der zu messenden Welle nicht zu nahe kommt – dann wird es etwas komplizierter). Wegen des ITM-Spiegels, läuft das meiste Laserlicht deutlich mehr als einmal den horizontalen bzw. vertikalen Arm zu einem der äußeren Spiegel ETM entlang. Das vergrößert den Einfluss der Gravitationswelle auf die Lichtlaufzeit; effektiv ist es so, als betrüge die Armlänge des Interferometers nicht bloße 4 km, sondern ganze 1120 km. Der Abstand zwischen ITM und zugehörigem ETM muss genau auf die Lichtwellenlänge abgestimmt sein, damit das Licht dauerhaft gespeichert ist. Die Anordnung, die sich dadurch ergibt, nennt man Fabry-Perot-Resonator; ein Interferometer, das zwei solche Resonatoren in den Armen hat, heißt Fabry-Perot-Interferometer.

Ist es im Normalfall am Detektorausgang dunkel, sofern keine Gravitationswelle den Detektor beeinflusst, dann würde das hineingeleitete Licht bei einem normalen Michelson-Interferometer wie in der Skizze ganz zu anfang das Interferometer wieder in Richtung Laser verlassen. (Irgendwo muss es ja hin!) Bei LIGO ist dort, wo das Licht dann den Detektor verließe, allerdings noch ein weiterer Spiegel PRM („power recycling mirror“) angebracht, der 97% des dort ankommenden Lichts wieder in den Detektor zurückschickt. (Die Spiegel PR2 und PR3 gehören zu PRM dazu.)

(Die anderen Spiegel? SR2, SR3 und SRM schicken auch etwas in den Detektor zurück, nämlich das Signal, das die Anwesenheit einer Gravitationswelle anzeigt; dadurch werden Signale in einem bestimmten Frequenzbereich verstärkt. Input Mode Cleaner sorgen dafür, dass das Licht in genau die richtige Richtung in den Detektor einfällt, so dass elektrische und magnetische Felder senkrecht zu den Detektorachsen sind, die das Licht entlang läuft; sie helfen außerdem, die Frequenz zu stabilisieren. Output Mode Cleaner filtern Streulicht und sonstige Lichtanteile, die nicht zu dem Lichtanteil gehören, an dem sich gravitationswellenbedingte [oder andere] Spiegelverschiebungen bemerkbar machen.)

Die Auswirkungen dieser Maßnahmen zeigen die Angaben zur Laserleistung, die in das Diagramm eingezeichnet sind. Die 125 Watt, die der Laser laufend in das System einspeist, sind schon sehr ordentlich. In dem durch Power Recycling Mirror und Signal Recycling Mirror begrenzten System sind es dann immerhin schon 5200 Watt, die dort umlaufen, und in den Fabry-Perot-Resonatoren (zwischen ITM und zugehörigem ETM) sind es beachtliche 750.000 Watt (750 kW).

So bekommt man das Schrotrauschen einigermaßen in den Griff.

Spiegeldruck

Allerdings hat die Medaille auch eine Kehrseite. Die vielen Photonen, die da auf den Weg geschickt werden, prasseln schließlich auch auf die Spiegel, z.B. auf die End-Testmassen (alias Sp1 und Sp2), aber auch auf die inneren Spiegel (ITM).

Einfallendes Licht, bzw. eben: auf den Spiegel fallende Photonen erzeugen dort einen Strahlungsdruck, drücken den Spiegel also ein wenig nach außen. Das Problem ist dabei nicht der durchschnittliche Strahlungsdruck, denn der führt zusammen mit der Gravitationskraft, die den Spiegel nach unten zieht, und der Pendelaufhängung des Spiegels von oben lediglich zu einer kleinen, konstanten Verschiebung des Spiegels, die den Nachweisprozess nicht stört.

Problematisch sind die winzigen Unregelmäßigkeit des Auftreffens der einzelnen Photonen, also gerade die Abweichung vom Mittelwert. Die führen nämlich zu Schwankungen: Wenn in einem kleinen Zeitintervall etwas weniger Photonen auftreten als im Durchschnitt, dann wird der Spiegel durch den Strahlungsdruck etwas weniger ausgelenkt als sonst. Treffen etwas mehr Photonen ein als im Durchschnitt, wird der Spiegel etwa mehr ausgelenkt. Diese Auslenkungen durch Strahlungsdruck-Fluktuationen sind ebenfalls ein Störeffekt.

Dieser Effekt ist zwar sehr klein, zum Vergleich: Bei einer Strahlungsleistung von 100 kW fallen pro Sekunde einige 1024 (eine Million Milliarden Milliarden) Photonen auf einen der Spiegel, entsprechend einer Druckkraft von fünf Tausendstel Newton (sprich: der Gewichtskraft eines halben Gramms Materie). Die Kraftfluktuationen dagegen liegen bei nur rund 10-15 Newton, entsprechend der Gewichtskraft eines zehntausendstel milliardstel Gramms Materie. Für ein einfaches knapp 60 cm langes Pendel wie die unterste Stufe der Pendelmassen-Aufhängung kommt man auf Auslenkungs-Fluktuationen im Bereich von einigen 10-18 m, also geringer als die für eine typische Gravitationswelle im LIGO-Nachweisbereich erwartete Verschiebung.

Hinzu kommt, dass die Strahlungsdruck-Effekte am größten sind bei eher kleinen Frequenzen, also dort, wo bei heutigen Detektoren seismische Störungen (siehe mein letzter Beitrag „Erschütterte Detektoren“) dominieren.

Insgesamt spielen die Strahlungsdruck-Effekte für die Frage, was die Empfindlichkeit heutiger Detektoren begrenzt, eine eher untergeordnete Rolle.

Quantentricks mit Laserlicht

Für zukünftige Detektoren dürften die Strahlungsdruck-Effekte dagegen durchaus relevant werden – und dann steht man vor der Wahl: Was tun? Strahlungsleistung erhöhen, Störungen durch Schrotrauschen senken aber dafür größere Strahlungsdruck-Störungen? Oder anders herum: Etwas weniger Leistung, weniger Strahlungsdruck-Fluktuationen aber dafür mehr Schrotrauschen?

Wen das an das grundlegende Mess-Dilemma der Quantentheorie erinnert, nämlich die Heisenberg’sche Unschärferelation für gleichzeitige Messungen von Ort und Impuls eines Teilchens, liegt genau richtig. Auch Strahlungsdruck-Rauschen und relatives Schrotrauschen bilden ein solches Paar von Größen, von denen man nur eine klein bekommen kann.

Das beste, was man allein durch Wahl der richtigen Strahlungsleistung erreichen kann, definiert das sogenannte Standard-Quantenlimit (standard quantum limit) – eine grundlegende Grenze für herkömmliche interferometrische Gravitationswellendetektoren.

Allerdings liegt in dieser Quantensituation auch eine Chance: Wenn man sich darauf einlässt, dann kann man ausnutzen, dass man letztlich nur eine Größe messen möchte – nämlich die Spiegelverschiebung, die im Ernstfall das Vorhandensein von Gravitationswellen anzeigt – und die Lichteigenschaften so manipulieren, dass genau diese Detektorgröße besonders genau bestimmbar wird. Entsprechende Versuche mit sogenanntem „gequetschtem Licht“ unternehmen insbesondere die Kollegen am Albert-Einstein-Institut (Max-Planck-Institut für Gravitationsphysik) in Hannover.

Aber das ist Zukunftsmusik.

Zusammenfassung

Neben den seismischen Störungen haben wir damit einen weiteren Störeinfluss für den Gravitationswellennachweis kennengelernt, der die Empfindlichkeit der entsprechenden Messungen begrenzt: Schrotrauschen, also das Prasseln, dass sich ergibt, weil Licht eben aus diskreten Energiepaketen besteht, den Photonen. Abhilfe schaffen Interferometer mit sehr hoher Strahlungsleistung, die in Abwesenheit von Gravitationswellen am Photodetektor-Ausgang so gut wie kein Licht herauslassen.

Nach wie vor ist das Schrotrauschen aber einer der Effekte, welche die Messempfindlichkeit von Detektoren wie LIGO begrenzen. In einem späteren Artikel will ich die verschiedenen Störeinflüsse dann einmal alle zueinander in Beziehung setzen.

 

]]>
http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-prasselnde-photonen/feed/ 7
Löws Hosengate: Die Evolution ist schuld http://scilogs.spektrum.de/die-sankore-schriften/loews-hosengate-die-evolution-ist-schuld/ http://scilogs.spektrum.de/die-sankore-schriften/loews-hosengate-die-evolution-ist-schuld/#comments Sat, 18 Jun 2016 13:06:41 +0000 Joe Dramiga http://scilogs.spektrum.de/die-sankore-schriften/?p=1079 Weiterlesen]]> Wie das? wird sich der erstaunte Leser fragen. Hier die kurze Antwort. Die Anatomie des menschlichen Hodensacks ist zwei besonderen Schritten der Wirbeltier-Evolution geschuldet: dem Landgang und der Entwicklung einer relativ hohen konstanten Körpertemperatur bei den Säugetieren. (mehr …)

]]>
http://scilogs.spektrum.de/die-sankore-schriften/loews-hosengate-die-evolution-ist-schuld/feed/ 4
Die Münchner Schreibwerkstatt 1: Vergangenheit http://scilogs.spektrum.de/labyrinth-des-schreibens/die-muenchner-schreib-werkstatt-1-vergangenheit/ http://scilogs.spektrum.de/labyrinth-des-schreibens/die-muenchner-schreib-werkstatt-1-vergangenheit/#comments Sat, 18 Jun 2016 11:11:42 +0000 Jürgen vom Scheidt http://scilogs.spektrum.de/labyrinth-des-schreibens/?p=1420 Weiterlesen]]> Der Tod meiner Frau Ruth vor nun schon einem Vierteljahr brachte mich zunächst nur dazu, hier im Blog einen Nachruf zu verfassen. Aber bald wurde mir bewusst, dass wir in den bald vierzig Jahren unseres Zusammenlebens und -arbeitens viele wichtige und tiefgreifende Erfahrungen gemacht haben, gemeinsam und jeder von uns für sich allein. (mehr …)

]]>
http://scilogs.spektrum.de/labyrinth-des-schreibens/die-muenchner-schreib-werkstatt-1-vergangenheit/feed/ 1
Link: The Civil War Prisoner Camp That Became a Place of Horror | Smithsonian http://scilogs.spektrum.de/con-text/link-the-civil-war-prisoner-camp-that-became-a-place-of-horror-smithsonian/ http://scilogs.spektrum.de/con-text/link-the-civil-war-prisoner-camp-that-became-a-place-of-horror-smithsonian/#respond Sat, 18 Jun 2016 05:52:01 +0000 Dierk Haasis http://scilogs.spektrum.de/con-text/?p=618 Erinnern wir uns daran, wie ritterlich die konföderierten Gentlemen aus Margaret Mitchells Gone With the Wind wirklich waren:

The Civil War Prisoner Camp That Became a Place of Horror | Smithsonian.

]]>
http://scilogs.spektrum.de/con-text/link-the-civil-war-prisoner-camp-that-became-a-place-of-horror-smithsonian/feed/ 0
Gravitationswellen-Nachweistechnik: Erschütterte Detektoren http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-erschuetterte-detektoren/ http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-erschuetterte-detektoren/#comments Fri, 17 Jun 2016 21:50:21 +0000 Markus Pössel http://scilogs.spektrum.de/relativ-einfach/?p=4588 Weiterlesen]]> Mit dem am Mittwoch bekanntgegebenen zweiten Nachweis der Gravitationswellen verschmelzender Schwarzer Löcher sind wir auf dem besten Wege zu einer regelrechten Gravitationswellenastronomie. Die grundlegende Funktionsweise von Detektoren wie LIGO hatte ich in Gravitationswellendetektoren: wie sie funktionieren (GW Teil 2) erklärt und mit Animationen gezeigt, wie die von einer Gravitationswelle erzeugten rhythmischen Verzerrungen des Raums einen Detektor wie LIGO beeinflussen.

Aber das Grundprinzip ist die eine Sache. Dass der erste direkte Nachweis von Gravitationswellen jahrzehntelange technische Entwicklung unter Beteiligung von tausenden von Forschern und Ingenieuren erfordert hat, ist die andere Seite der Medaille. Will man verstehen, warum der direkte Gravitationswellennachweis eine so große Leistung ist, muss man auch die Technik verstehen, die dahintersteckt.

Ein Beispiel, und das Thema dieses Artikels: Seismische Störungen durch Vibrationen und Schwerkraft.

Vereinfachter Detektor

Ich muss an dieser Stelle nicht die grundlegende Funktionsweise interferometrischer Detektoren wiederholen (die interessierte Leser in Gravitationswellendetektoren: wie sie funktionieren finden). Für das weitere Verständnis genügt das folgende einfache Bild: Der Detektor besteht vereinfacht aus mehreren Elementen, die hier dargestellt sind:

interferometerDer Einfluss einer Gravitationswelle besteht (näherungsweise) darin, den Abstand zwischen dem Spiegel Sp1 und dem in der Mitte aufgehängten sogenannten Strahlteiler T rhythmisch ein winziges bisschen zu vergrößern und zu verkleinern, und ebenso mit dem Abstand zwischen dem Spiegel Sp2 und dem Strahlteiler.

Mehr muss man gar nicht wissen um zu verstehen: Wenn äußere Einflüsse die Position des Spiegels Sp1, oder die von Sp2 oder T verändern, dann stört dies die Messungen, kann den Einfluss einer Gravitationswelle vorgaukeln oder den Einfluss einer echten Gravitationswelle dermaßen stark überlagern, dass er sich nicht messen lässt.

Vibrationen und Pendel

Genau das tun aber beispielsweise Erschütterungen des Erdbodens. Das Labor selbst ist nun einmal ein Gebäude, das auf dem Erdboden steht. Wackelt der Erdboden, wackelt das Labor. Fährt draußen ein Auto vorbei, oder treffen die für Menschen nicht mehr wahrnehmbaren Zitterwellen eines Erdbodens am anderen Ende der Welt beim Detektor ein, dann zittern auch Spiegel und Strahlteiler des Interferometers ein bisschen. Diese Störeffekte sind klein, aber immer noch größer als der Einfluss einer Gravitationswelle.

Hinzu kommt, dass die Gravitationswelle den größten Einfluss auf das System hat – sprich: die größten Abstandsänderungen hervorzurufen vermag – wenn die Spiegel parallel zum Armverlauf (Richtung Sp1 – T bzw. Richtung Sp2 – T) möglichst frei beweglich sind.

Beide Anforderungen, Vibrationsunterdrückung und freie Bewegung, lassen sich glücklicherweise mit derselben Technik erfüllen: Man hängt Strahlteiler und Endspiegel als Pendel auf.

Die Rückstellkraft eines Pendels, das seitlich ausgelenkt wird, ist proportional zur Auslenkung. Für sehr kleine Auslenkungen, wie sie durch Gravitationswellen zu erwarten sind, ist auch die Rückstellkraft entsprechend klein.

Außerdem kann ein Pendel isolierend wirken. Das Grundprinzip hat mein Student Johannes Fröschle (der bei mir derzeit eine für mich sehr spannende Staatsexamensarbeit zur Kosmologie schreibt) bei einer Lehrerfortbildung am Haus der Astronomie letztes Jahr demonstriert, wie in diesem Video zu sehen ist:

Als erstes demonstriert Johannes aktive Dämpfung. Im Ernstfall hieße das z.B.: Seismometer am LIGO-Detektor messen eine Bodenerschütterung. Ein aktives mechanisches System bewegt die Aufhängung von Sp1, Sp2 und T gerade so, dass diese gemessene Erschütterung ausgeglichen wird und den aufgehängten Spiegel gar nicht erst erreicht. Johannes macht das vor, indem er zu Anfang seinen Körper bewegt (das wäre die äußere Erschütterung), aber diese Bewegung mit seinem Arm wieder ausgleicht, so dass sich das Pendel (das wäre im Original: der Spiegel) so gut wie nicht bewegt.

Besonders interessant ist der zweite Teil, hier von Johannes für vertikale Schwingungen demonstriert, aber für horizontale Schwingungen genauso gültig: Jedes Pendel hat eine charakteristische Frequenz. Lenkt man das Pendel ein bisschen aus und lässt es dann los, dann wird es genau mit jener charakteristischen Frequenz schwingen.

Bei einer erzwungenen Schwingung bewegt Johannes die Hand, mit der er die Feder hält, mit einer festen Frequenz auf und ab. Bewegt er die Hand sehr langsam, ist also die Frequenz seiner Hand deutlich niedriger als die charakteristische Frequenz des Pendels, dann folgt das Pendel recht treu der Bewegung der Hand: Bewegt sich die Hand nach unten, bewegt sich auch das Pendel nach unten; bewegt sich die Hand um eine bestimmte Strecke nach oben, folgt das Pendel getreulich nach, und so weiter.

Stimmt die Handfrequenz mit der charakteristischen Frequenz überein, kommt es zur Resonanz. Dann wird die Auslenkung des Pendels mit jeder Schwingung größer und größer. Die Schwingung schaukelt sich auf. Wer Kinder auf einer Spielplatzschaukel anschubst, macht sich den gleichen Effekt zunutze: In solch einem Falle schwingt das Kind abwechselnd auf mich zu und von mir weg. Gebe ich immer dann neuen Schwung, wenn sich die Schaukelbewegung umzukehrt und das Kind gerade beginnt, sich wieder von mir zu entfernen, wird die Schaukelbewegung immer stärker und stärker. (Das gilt zumindest bei vernachlässigbarer Reibung, also freier Aufhängung – mit Reibung verschiebt sich die Resonanzfrequenz etwas).

Schwingungen, deren Frequenz deutlich über der charakteristischen Frequenz des Pendels liegt, übertragen sich dagegen nur zu einem geringen Teil auf das Pendel selbst. Das ist bei Johannes ab etwa 1:00 im Video gut zu sehen.

Wer quantitativ sehen möchte, wie das funktioniert, dem empfehle ich einen Besuch auf LEIFIphysik: die dortige Seite Resonanz am Federpendel (Simulation) bietet die Möglichkeit, die verschiedenen Situationen selbst durchzuspielen. Lassen Sie die vorgegebenen Werte für die Parameter des schwingenden Systems ruhig bei den dort bereits angegebenen Werten (Federkonstante 10 N/m, Masse 1 kg, Dämpfung 0,2/s) und variieren Sie die Kreisfrequenz des Erregers. Wählen Sie „Diagramm Elongation“ um zu sehen, was passiert:

Bei einer Erreger-Frequenz von 0,316 rad/s, entsprechend einem Zehntel der natürlichen Kreisfrequenz des Pendels (3,16 rad/s) folgt der Pendelkörper im wesentlichen der Bewegung des Erregers (auch wenn er ein wenig um die vorgegebene Bahn herum schwingt).

Bei einer Erreger-Frequenz nahe der charakteristischen Frequenz – wählen Sie ruhig 3,16 rad/s – schaukelt sich die Bewegung des Pendelkörpers mehr und mehr auf.

Bei der höchsten in dieser Situation wählbaren Erreger-Frequenz, 10 rad/s, schwingt der Pendelkörper nur noch ein wenig hin und her. Er wird deutlich geringer ausgelenkt, als es die Bewegung des Erregers vorgibt.

Aufhängungen für Gravitationswellen-Detektoren

Bei den heutigen interferometrischen Detektoren werden Spiegel und Strahlteiler nicht nur einfach als Pendel aufgehängt, sondern in regelrechten Kaskaden, ein Pendel am anderen. Diese Abbildung von den LIGO-Webseiten zeigt die ursprüngliche einfache Aufhängung der LIGO-Spiegel (links, einfaches Pendel) und die deutlich verbesserte Aufhängung für die jetzige Detektorversion, Advanced LIGO. Genauer wird sie beschrieben in diesem Artikel von Aston et al. 2012:

iLIGO_vs_aLIGO_susp_comparison_w_caption

Bei der Advanced LIGO-Aufhängung (rechts) sieht man ganz obendreieckige Blattfedern, die auch Schwingungen in vertikale Richtung zulassen. Darunter hängen in vier Stufen Pendelkörper – die oberen zwei Stufen aus Metall, die unteren massive Scheiben aus Silizium oder Metall. Hinter der Hauptkette, an derem unteren Ende der eigentliche Spiegel hängt (im Bild der linke Teil der Aufhängung) hängt eine zweite Kette von Metall- und Siliziumgewichten, die Reaktionskette heißt.

Die unteren Massen sind je 40 kg schwer, die oberen Metallmassen je 20 kg. (Die konkreten Werte variieren leicht von Komponente zu Komponente; diese Aufhängung kommt im Detektor mehrmals vor.)

An jeder Stufe lassen sich künstlich winzige Kräfte zwischen den auf einer Höhe hängenden Massen erzeugen – zwischen den ersten beiden Metallstufen ganz oben, den zweiten beiden Metallstufen darunter, und der Siliziumscheibe (Hauptkette) und Metallscheibe (Reaktionskette) darunter durch Permanentmagnete an der einen und Magnetspulen an der anderen Komponente, am untersten Ende zwischen der Testmasse (Spiegel) und ihrer Reaktionsmasse auf elektrostatischem Wege.

Die Basis der ganzen Aufhängung ist dann noch einmal auf Sprungfedern gelagert.

Die LIGO-Aufhängungen waren ein Beitrag, bei dem die britische Gruppe aus Glasgow federführend war; hier finden sich auf deren Webseite weitere Informationen.

Vereinfacht gesagt: bewegt eine seismische Störung das obere Ende der Aufhängung mit einer Frequenz von rund 10 Hertz, dann kommt unten beim Testspiegel nur ein Hundertmillionstel davon an. Typische seismische Störungen bewirken bei solchen Frequenzen Verschiebungen im Picometerbereich (sprich: um tausendstel milliardstel Meter). Um ein Hunderttausendstel gedämpft sind sie klein genug, um den Gravitationswelleneinfluss nicht mehr zu stören. Bei noch höheren Frequenzen wird der Störeinfluss sogar noch geringer. Bei Frequenzen von mehr als 100 Hz sind die seismischen Störungen dann bereits von sich aus deutlich kleiner und fallen nicht mehr ins Gewicht.

Advanced LIGO ist damit was die Vibrationsdämpfung angeht dafür ausgelegt, Gravitationswellensignale im Frequenzbereich oberhalb von 10 Hertz nachzuweisen.

Virgos starke Dämpfung

Die interferometrischen Gravitationswellendetektoren, die es derzeit gibt, haben jeweils ihre Eigenheiten. LIGO hatte zunächst das Ziel, einen zuverlässigen Detektor auf großen Skalen (4 km) zu bauen – mit getesteter Technologie und daher ohne großes technisches Risiko.

Der deutsch-britische Detektor GEO 600, an dem die Kollegen vom Albert-Einstein-Institut (Max-Planck-Institut für Gravitationsphysik) maßgeblich beteiligt sind, hatte mit deutlich kürzerer Armlänge (600 m) einen Größennachteil gegenüber LIGO und hat deswegen von anfang an auf besonders innovative (aber deswegen auch immer etwas riskante) Technologie gesetzt.

Advanced LIGO ist im wesentlichen der alte LIGO, aufgerüstet mit der neu entwickelten deutsch-britischen Technologie, die in GEO 600 getestet worden war.

VirgoSuperAttenuator_VacuumTower_SketchVirgo ist ähnlich groß wie LIGO (3 km Armlänge), aber hatte sich von vornherein vorgenommen, seismische Störungen bis hinunter zu noch niedrigeren Frequenzen als LIGO zu unterdrücken und damit auch bei solchen Frequenzen Gravitationswellensignale auffangen zu können. Dazu sind die Virgo-Aufhängungen etwas, dass das Virgo-Team „Superdämpfer“ genannt hat („super attenuators“).

Rechts ist eine Schemazeichnung eines der Superdämpfer zu sehen: Eine große Aufhängung als invertiertes Pendel (Gelenk unten, schwingungsfähiger Stab führt bis zum oberen Ende) und darunter aufgehängt weitere Stufen, insgesamt sind es damit acht, in einem Vakuumturm von etwas mehr als 10 Meter Höhe. Beschleunigungsmesser, mehr als ein Dutzend Positionssensoren und mehr als ein Dutzend Kontrollmagnete halten die Schwingungen der Konstruktion an mehreren Stufen der Kette aktiv klein.

Selbst die wichtigsten optischen Bänke, auf denen der Input-Laser, der Detektor am Ausgang und verschiedene Kontrollmechanismen installiert sind, sind bei Virgo als Pendel aufgehängt, um die seismischen Störungen zu reduzieren.

Damit soll Virgo im unteren Ende des Frequenzbereichs noch etwas tiefer kommen als LIGO, nämlich bis hinunter zu einigen Hertz. Die neueste Ausbaustufe, Advanced Virgo, soll Anfang 2017 in Betrieb gehen.

Wie lang noch?

Man lernt es (hoffentlich noch!) schon in der Schule: Die natürliche Schwingungsfrequenz eines Pendels der Länge l ist

mathematischespendelmit g der Gravitationsbeschleunigung, 9,81 m/s2. Ein Pendel, das mit 1 Hz schwingt, ist demnach rund 25 Zentimeter lang. Es kann Erschütterungen bei Frequenzen, die deutlich größer sind als 1 Hz gut abdämpfen. Um noch eine Zehnerpotenz weiter nach unten zu kommen: ein Pendel mit natürlicher Frequenz 0,1 Hertz, also einer Schwingung in 10 Sekunden müsste bereits 25 Meter lang sein.

Das wäre ein großer technischer Aufwand, der sich nicht lohnt – nicht zuletzt weil seismische Störungen außer über Vibrationen noch einen weiteren Weg haben, auf die Testmassen zu wirken.

Schwerkraft-Störungen

In den letzten Abschnitten ging es darum, die Vibrationen, die durch seismische Störungen erzeugt werden, zu dämpfen und dafür zu sorgen, dass sie sich nicht über die Aufhängung auf die Testmassen übertragen.

All das, was Bodenbewegungen erzeugt – wellenförmige Bewegungen des Erdbodens oder künstliche Störungen durch Menschen oder Fahrzeuge – hat aber noch eine andere Möglichkeit, die Testmassen zu beeinflussen, nämlich über die Schwerkraft, die die beteiligten Massen ausüben.

Ein Fahrzeug, das am Detektor vorbeifährt, ein Mensch, der sich im Labor bewegt uoder eben seismische Wellen des Erdbodens, die Teile des Erdbodens etwas näher an die Testmassen heranschieben und dann wieder davon entfernen: sie alle bewirken, dass sich die Schwerkraft, die auf die Testmasse wirkt, ein klein bisschen verändert. Und diesen Effekt kann man leider nicht direkt abschirmen, ganz prinzipiell, denn Schwerkraft lässt sich nun einmal allgemein nicht abschirmen. (Elektrische Kräfte lassen sich nur abschirmen, weil es sowohl positive als auch negative elektrische Ladungen gibt.)

Die stärkste Störquelle sind für diese Art von Störung („gravity gradient noise“) Oberflächenwellen des Erdbodens.

Für zukünftige Detektoren will man versuchen, den Einfluss solcher Störungen wenigstens zu vermindern. Wenn man den Detektor rund 150 Meter oder mehr unter die Erde verlegt, und das ganze auf hinreichend stabilem Untergrund, dann kann man die Schwerkraftstörungen zumindest bis hinunter zu Frequenzen von 1 Hertz soweit unterdrücken, dass Gravitationswellennachweise möglich sein sollten. Genau das haben die Japaner mit ihrem Detektor KAGRA vor, der in 200 Metern Tiefe unter einem Berg in eigens gegrabenen Tunneln installiert ist und 2018 in Betrieb gehen soll.

Bei noch niedrigeren Frequenzen ist mit erdgestützten Detektoren freilich nichts mehr zu holen. Da bleibt nur der Weg in den Weltraum. Und wie vor 10 Tagen bekanntgegeben wurde: LISA Pathfinder, die Test-Vorläufer-Mission der ESA für einen weltraumgestützten Gravitationswellendetektor, hat gerade demonstriert, dass solch ein weltraumgestützter Detektor mit der verfügbaren Technik machbar sein sollte.

Zusammenfassung

Mit Vibrationen und Schwerkraft-Störungen haben erdgebundene interferometrische Gravitationswellendetektoren insbesondere bei niedrigen Frequenzen zu kämpfen. Bei 1 Hz und weniger ist mit erdgebundenen Detektoren aus diesem Grunde nichts mehr zu machen – da schlägt die Stunde der weltraumgestützten Detektoren. In dem durchaus interessanten Bereich zwischen 1 Hz und etwa 100 Hz lässt sich nur durch aufwändige Ausgleichsysteme, zum einen aktiv, zum anderen passiv dank Pendelaufhängung, die nötige Empfindlichkeit erreichen. Die Pendelaufhängungen sind auch für den schulischen Physikunterricht ein schönes Beispiel dafür, wozu die Untersuchung von erzwungenen Pendelschwingungen gut ist! LIGO kommt mit den dort installierten Aufhängungen etwa bis zu Frequenzen von 10 Hz hinunter.

Die Dämpfungs- und Vibrations-Isolations-Systeme sind mit ihren mehreren Pendelstufen beachtlich – ein Beispiel dafür, dass der Nachweis von Gravitationswellen eben nicht mit herkömmlicher Technik gelingen konnte, sondern dass die Forscher eine ganze Reihe der Vorrichtungen, die den Nachweis erst ermöglicht haben, selbst entwickeln mussten.

 

]]>
http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-nachweistechnik-erschuetterte-detektoren/feed/ 2
Saturn, Antares, Mond, Mars … erwischt. http://scilogs.spektrum.de/go-for-launch/saturn-antares-mond-mars-erwischt/ http://scilogs.spektrum.de/go-for-launch/saturn-antares-mond-mars-erwischt/#comments Fri, 17 Jun 2016 21:38:37 +0000 Michael Khan http://scilogs.spektrum.de/go-for-launch/?p=5833 Es geschehen noch Zeichen und Wunder. Da sind tatsächlich noch Sterne am Himmel. Ich konnte sogar eine ganze Menge davon gleichzeitig sehen, zudem auch noch den Mond und zwei Planeten. Hier der Beweis:

(mehr …)

]]>
http://scilogs.spektrum.de/go-for-launch/saturn-antares-mond-mars-erwischt/feed/ 1
Frankreich: Allez…à la grande bleue! http://scilogs.spektrum.de/biosenf/frankreich-allez-a-la-grande-bleue/ http://scilogs.spektrum.de/biosenf/frankreich-allez-a-la-grande-bleue/#respond Fri, 17 Jun 2016 19:33:19 +0000 Mathilde Bessert-Nettelbeck http://scilogs.spektrum.de/biosenf/?p=189 Weiterlesen]]> „Allez les bleus – Auf geht’s die Blauen!“, rufen die französischen Fußballfans. Damit meinen sie die Trikotfarbe der Mannschaft. Diese interessiert mich weniger als „La grande bleue“: das Meer. Ich möchte euch eine besondere Art von französischer Einrichtung vorstellen: die marine Forschungsstation – la station de recherche maritime ou marine.
scilogs_em2016

In den Jahren nach 1850 entwickelte die Forschercommunity Frankreichs ein plötzliches Interesse für das Leben im Meer. Naturalisten bauten in der Zeit bis 1900 12 marine Forschungsstationen auf, die bis heute Bestand haben. Drei möchte ich hier vorstellen.

 

Par Julien1978 — Travail personnel, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=32700987

Station de Concarneau. Par Julien1978 — Travail personnel, CC BY-SA 3.0, https://creativecommons.org/licenses/by-sa/3.0/de/

Station de Biologie Marine de Concarneau

Die älteste marine Forschungsstation der Welt. So behauptet es die Webseite und ich konnte keine wiederlegenden Informationen finden. Die 1859 gegründete Station gehört heute zum Muséum national d’histoire naturelle und zum Collège de France. Sie befindet sich in dem süd-bretonischen Städtchen Concarneau. In der Station wurde nicht nur die Fischzucht von Plattfische wie Seezungen und Steinbutt weiterentwickelt, auch biochemische Arbeiten zum Jod-Stoffwechsel in marinen Organismen, die zur Entdeckung des Schilddrüsenhormons T3 beitrugen fanden hier statt. Heute ist dort eine aktive Forschungsstation für marine Biochemie, Ökologie und Evolution von marinen Organismen. Sie beherbergt auch ein Meeresmuseum names „Marineum“ mit einer großen Sammlung von Tieren und Pflanzen aus der Region und aus dem Nord-Ostatlantik.

 

Station in Banyuls/Mer Foto: Von BlueBreezeWiki – Eigenes Werk, CC BY-SA 3.0, https://creativecommons.org/licenses/by-sa/3.0/de/

Les Laboratoires Arago/ Observatoire Océanologique – die Forschungsstation in Banyuls-sur-Mer

Zu dieser Station fuhr ich auf meiner ersten meeresbiologischen Exkursion! Das ist über zehn Jahre her, aber ich habe hervorragende Erinnerungen an die Zeit und an den guten Wein. In Banyuls produzieren sie einen schweren, portweinartiges Gesöff, das sich sehr gut nach einem langen Kurstag einnehmen lässt.

Der Gebäudekomplex steht direkt am Wasser und hat sowohl Labore, Zimmer und ein für die Öffentlichkeit zugängliches Aquarium – das älteste am Mittelmeer. Die Labore sind alle mit Salzwasser aus dem Hahn ausgestattet, was sich als sehr praktisch herausstellte. Banyuls liegt am Rande eines der ältesten Meeresschutzgebiete im Mittelmeer, in dem große „coralligène“ Riffe eine Vielzahl von Tiere beherbergen. Das Coralligène besteht aus krustigen Rotalgen zum Beispiel aus der Familie der Corallinaceae und bildet ein ganz eigenes 3D-Habitat, das einem Korallenriff ähnelt. Besonders in Tiefen ab 15 Meter wachsen auch Edelkorallen und Gorgonien. Nah an der Oberfläche bildet die Rotalge Lithophyllum tortusosum eine „Trottoir“ genannte Riffausbuchtung, die von verschiedensten Weichtieren besiedelt wird.

Die Botanik der Küstengebiete gehört traditionell auch zum Forschungsbereich der Observatoire. Banyuls betreibt auch einen Botanischen Garten mitten in den Hügeln der Pyreneenausläufer an der Küste. Wie die marine Station in Roscoff gehört die Station zur Universität Pierre-et Marie-Curie in Paris und ist ein Observatorium des CNRS, einer außeruniversitären Forschungsgesellschaft, die sich am ehesten mit der Max-Planck-Gesellschaft vergleichen lässt. Am Institut forschen vier Arbeitsgruppen vor Ort an Biogeochemie, der Evolution und Entwicklung von marinen Organismen, sowie der Ökologie von marinen Mikroorganismen, ihrer Biodiversität und mögliche industrielle Nutzungen. Spannend ist zum Beispiel ein Projekt namens Malika (Marine LIchens as an innovative source of anti-CAncer drugs). In diesem Vorhaben sollen Enediyne (https://en.wikipedia.org/wiki/Enediyne) genannte Substanzen erforscht werden, die cytotoxisch (tödlich für Zellen) wirken und in Verbindung mit Antikörpern gezielt gegen Krebszellen eingesetzt werden können.

http://wwwphp.obs-banyuls.fr/malica/index.php/about/context.html

 

SBR1_WT_bd

Foto von Station biologique de Roscoff

 

Station Biologique de Roscoff

Henri de Lacaze-Duthiers (1821-1901) gründete im Jahr 1865 dieses Observatorium am Ärmelkanal und später die Station in Banyuls/Mer am Mittelmeer im Jahr 1881. Sein Ziel war es, die Zoologie in den Rang einer experimentellen Wissenschaft zu erheben. Die Zoologie litt zu dieser Zeit an einem Komplex gegenüber der experimentellen und somit wissenschaftlich höherwertigen Physiologie. Lacaze-Duthier, der im Briefwechsel mit Thomas Huxley stand, war überzeugt, dass man nun, um die Zoologie voranzubringen, Tiere in ihrer natürlichen Umgebung untersuchen musste.

An diesem Ort kann man hervorragend Makroalgen studieren und dies ist auch im Fokus der aktuellen Forschung. Zur Zeit arbeiten etwa 300 Forscherinnen und Forscher das ganze Jahr in Roscoff. Eric Thiébaut der in Roscoff in der Abteilung „Adaptation et Diversité en Milieu Marin“ forscht, erklärte mir, was in den letzten 10 Jahren am Institut entdeckt und geforscht wurde: Ein Aspekt war die Anwendung von Omics-Tools als moderne Gene-Analyse-Techniken in der marinen Biologie. Zusätzlich waren Forscher der Station an der Tara Expedition beteiligt, während der sie drei Jahre lang pelagische, daher im offenen Meer lebende, Mikro-Organismen erforschten: https://www.theguardian.com/environment/2015/jun/06/microscopic-magic-of-plankton

Sie trugen auch zum Verständnis der Effekte des Klimawandels auf marine Ökosysteme bei. Eine besondere Erkenntnis war die Bedeutung von zwischenartlichen Interaktionen wie Parasitismus, Pathogenität oder Symbiose für die Evolution von Organismen, aber auch für die Dynamik von Ökosystemen. Schließlich beteiligten sich die Forscher in Roscoff an der Entdeckung von Genen, die bei Mehrzellern das Geschlecht definieren. Für Susana Coelho, die diese Gene in Braunalgen identifizierte, gab es 2015 auch einen Preis des CNRS. Hier ist eine ihrer Publikationen zum Thema: http://www.sciencedirect.com/science/article/pii/S163106911630035X

Zusammengefasst haben diese Institution meist drei Aufgaben:

Sie erleichtern Forschern und Studenten den Zugang zum Meer, informieren interessierte Laien und als Meeresobservatorien, überwachen sie Veränderungen im Meer.

Alle 12 Stationen sind mit ihren historischen Gebäuden bestimmt einen Besuch wert. Persönlich kann ich nur von Banyuls berichten und dort lohnt es sich auf jeden Fall vorbeizufahren oder vielleicht an einer Exkursion teilzunehmen.

 

 

Liste der Stationen:

Banyuls/Mer

Roscoff

Villefranche/Mer

Concarneau

Endoumene

Wimereux

Luc/mer

Sète

Dinard

Boulogne /mer

Seyne/Mer

Arcachon

 

Quellen:

http://concarneau.mnhn.fr/la-recherche-la-station

http://www.sb-roscoff.fr/sites/www.sb-roscoff.fr/files/documents/station-biologique-roscoff-la-sbr-un-lieu-voue-a-la-science-3072.pdf

http://www.obs-banyuls.fr/fr/l_observatoire_oceanologique/missions/recherche.html

 

 

]]>
http://scilogs.spektrum.de/biosenf/frankreich-allez-a-la-grande-bleue/feed/ 0
Wie stellen sich hochbegabte türkische Jugendliche eine/n Wissenschaftler/in vor? http://scilogs.spektrum.de/hochbegabung/wie-stellen-sich-hochbegabte-tuerkische-jugendliche-einen-wissenschaftlerin-vor/ http://scilogs.spektrum.de/hochbegabung/wie-stellen-sich-hochbegabte-tuerkische-jugendliche-einen-wissenschaftlerin-vor/#respond Fri, 17 Jun 2016 19:00:18 +0000 Tanja Gabriele Baudson http://scilogs.spektrum.de/hochbegabung/?p=1119 Weiterlesen]]> Heute ist das letzte Vorrundenspiel der Türkei – die Gelegenheit, der Hochbegabtenforschung in diesem Land einen Besuch abzustatten! Zu diesem Thema gibt es in der Türkei durchaus zahlreiche Studien; insbesondere die Förderung Hochbegabter scheint eine zunehmend wichtige Rolle zu spielen. Eine Untersuchung fand ich aber besonders originell: Was passiert, wenn man Hochbegabten die Aufgabe gibt, Wissenschaftler zu malen? Die Ergebnisse will ich der geschätzten Leserschaft natürlich nicht vorenthalten.
(mehr …)

]]>
http://scilogs.spektrum.de/hochbegabung/wie-stellen-sich-hochbegabte-tuerkische-jugendliche-einen-wissenschaftlerin-vor/feed/ 0
Allez les Blogs – Der Herrscher der Symmetrien http://scilogs.spektrum.de/fischblog/allez-blogs-die-symmetrie-kristalle/ http://scilogs.spektrum.de/fischblog/allez-blogs-die-symmetrie-kristalle/#comments Fri, 17 Jun 2016 17:12:42 +0000 Lars Fischer http://scilogs.spektrum.de/fischblog/?p=2167 Weiterlesen]]> Symmetrie hat für die Chemie eine besondere Bedeutung: Die verschiedenen Spiegel- und Drehsymmetrien der Moleküle haben entscheidende Auswirkungen auf ihre Eigenschaften, um so mehr, je komplexer die Chemie wird: Das Leben selbst ist linkshändig. Doch die ersten Verbindungen von Symmetrie und Chemie stammen aus der Mineralogie, der Wissenschaft von den Kristallen[1]. (mehr …)

]]>
http://scilogs.spektrum.de/fischblog/allez-blogs-die-symmetrie-kristalle/feed/ 3
Annosphäre http://scilogs.spektrum.de/uhura-uraniae/annosphere/ http://scilogs.spektrum.de/uhura-uraniae/annosphere/#respond Fri, 17 Jun 2016 17:11:27 +0000 Susanne M. Hoffmann http://scilogs.spektrum.de/uhura-uraniae/?p=2337 Weiterlesen]]> Zeit vergeht „langsam und zu schnell zugleich“ heißt es in der Philosophie dieses eindrucksvollen Instruments und das ist es, was es demonstrieren will: Es ist eine Sonnenuhr, die ohne Sonne funktioniert. Sie zeigt gleichermaßen die Uhrzeit und den Kalender an.

Screenshot der Webseite über das Instrument.

Screenshot der Webseite über das Instrument.

Gebaut wurde sie – wie mir der Konstrukteur letzte Woche erzählte – weil er eines Tags aufwachte und die Lösung eines technischen Problems fand, das ihm ermöglichte, dies zu bauen. Er empfand es als Eingebung eines Gottes und entwickelte daher den Wunsch, dies zu bauen.

Wenn Sie Lust haben, klicken Sie doch mal auf die Seite: http://annosphere.com

]]>
http://scilogs.spektrum.de/uhura-uraniae/annosphere/feed/ 0
Mond, Mars, Saturn und Antares heute Abend http://scilogs.spektrum.de/go-for-launch/mond-mars-saturn-antares-abend/ http://scilogs.spektrum.de/go-for-launch/mond-mars-saturn-antares-abend/#comments Fri, 17 Jun 2016 08:00:21 +0000 Michael Khan http://scilogs.spektrum.de/go-for-launch/?p=5826 Weiterlesen]]> Heute Abend lohnt der Blick in den Südhimmel. Dort zieht heute und morgen  wieder der fast volle Mond an Mars und Saturn vorbei, sodass diese drei zusammen mit Antares (αSco) ein 10 x 15 Grad großes fast-Rechteck bilden.

(mehr …)

]]>
http://scilogs.spektrum.de/go-for-launch/mond-mars-saturn-antares-abend/feed/ 3
Burkhard Gladigow und die europäische Religionsgeschichte von der griechischen Antike bis zu den Protokollen der Weisen von Zion http://scilogs.spektrum.de/natur-des-glaubens/burkhard-gladigow-religionsgeschichte-antike-protokollen/ http://scilogs.spektrum.de/natur-des-glaubens/burkhard-gladigow-religionsgeschichte-antike-protokollen/#respond Fri, 17 Jun 2016 03:37:28 +0000 Michael Blume http://scilogs.spektrum.de/natur-des-glaubens/?p=2896 Weiterlesen]]> Sehr gerne erinnere ich mich an die Seminare mit Prof. Burkhard Gladigow an der Universität Tübingen. Die Religionsgeschichte der griechischen Antike, deren Mythen und Einflüsse bis in die heutige Zeit reichen, erschienen mir damals als sehr weit entfernt, aber doch als faszinierend. Damals verstand ich noch nicht, dass Gladigow mit diesen Arbeiten ein Tor aufgestossen und die Religionswissenschaft für die europäische Religionsgeschichte geöffnet hatte. Dass wir heute – endlich und völlig selbstverständlich – beispielsweise über Säkularisierungsprozesse auch unter Muslimen, die multireligiöse Szene in Leipzig oder die post-stalinistische Epoche der Republik Albanien forschen und schreiben können, hat wesentlich auch mit den Debatten zu tun, die er einst führte und gewann.

Daran erinnerte nun Prof. Christoph Auffarth in einem Interview mit KurrT:

(mehr …)

]]>
http://scilogs.spektrum.de/natur-des-glaubens/burkhard-gladigow-religionsgeschichte-antike-protokollen/feed/ 0
Warum sind Findlinge rund? http://scilogs.spektrum.de/mente-et-malleo/warum-sind-findlinge-rund/ http://scilogs.spektrum.de/mente-et-malleo/warum-sind-findlinge-rund/#comments Thu, 16 Jun 2016 20:14:20 +0000 Gunnar Ries http://scilogs.spektrum.de/mente-et-malleo/?p=1792 Weiterlesen]]> Findlinge, also große Geschiebe mit einem Durchmesser von mehr als ½  Meter, haben meist eine mehr oder weniger rundliche Form. Das erscheint einem schon fast so typisch, dass man rundliche Felsblöcke, die unmotiviert in einer Landschaft herumliegen, gerne vorschnell für eiszeitliche Findlinge halten möchte. Mitunter dienen diese rundliche Felsblöcke dann so manchen Leuten als „Gegenbeweis“ zur etablierten Erdgeschichte.

Als Geowissenschaftler weiß man dann oft nicht, ob man lachen oder weinen soll. (mehr …)

]]>
http://scilogs.spektrum.de/mente-et-malleo/warum-sind-findlinge-rund/feed/ 5
Blockchain-Mania: Smart Contracts http://scilogs.spektrum.de/datentyp/blockchain-smart-contracts/ http://scilogs.spektrum.de/datentyp/blockchain-smart-contracts/#comments Thu, 16 Jun 2016 17:34:47 +0000 Ulrich Greveler http://scilogs.spektrum.de/datentyp/?p=165 Weiterlesen]]> Wer eine Steigerung von disruptiv, branchenrevolutionär und digitalisiert sucht, beschäftigt sich wohl gerade mit der Blockchain. Es ist das Thema, das derzeit für ungläubiges Kopfschütteln und frisches Wagniskapital sorgt. Kaum ein Vortrag über neue digitale Geschäftsprozesse kommt ohne die Blockchain aus.

Die Blockchain ist eine Art signiertes, öffentlich einsehbares Logbuch, das auf vielen Rechnern verteilt gepflegt wird. Kryptoalgorithmen, der Einsatz von Rechenzeit aller Teilnehmer und in Software gegossene Vereinbarungen sorgen dafür, dass sie überall identisch vorliegt, unveränderbar ist und von jedermann in gleicher Weise interpretiert wird. Die bekannteste und derzeit einzig funktionierende praktische Anwendung ist Bitcoin: die virtuelle Währung, die allein über die Blockchain verwaltet wird und daher Regulatoren und Zwischenhändler überflüssig macht.

Intelligente Verträge

Eine weitere spannende Anwendung der Blockchain ist der Smart Contract (in etwa: intelligenter Vertrag). Eigentlich ist es kein Vertrag sondern ein Algorithmus, der festlegt, welche Bedingungen (Input) zu welcher Entscheidung (Output) führen. Eine Entscheidung wirkt sich dann auf die Auszahlung des zuvor in den Vertrag eingezahlten Betrages aus. Dieser Vertrag wird von allen Blockchain-Rechnern gleichzeitig ausgeführt, alle kommen dabei notwendigerweise zum gleichen Ergebnis. Wer sich beispielsweise einem Vertrag unterwirft, der den gleichen Geldbetrag von zwei Parteien einsammelt und gemäß eines pseudozufälligen Ereignisses (z. B. Bit-Quersumme der Blockchain) die Summe nur einer Partei auszahlt, nimmt an einem Glückspiel („doppelt oder nichts“) teil, bei dem weder Betrug noch staatliche Intervention möglich ist. Alle Blockchain-Rechner stellen gleichzeitig fest, wem der Betrag zusteht und lassen Überweisungen der Summe zu; es gibt keine menschliche Intervention, kein Abwarten (sofern der Vertrag dies nicht vorsieht), niemandem muss vertraut werden; die Vertragsausführung wird unaufhaltbar vollzogen; die Blockchain stellt sich hier wie ein nicht zu stoppendes Uhrwerk dar.

Über Smart Contracts lassen sich auch Abstimmungen organisieren und Entscheidungsstrukturen abbilden – bis hin zur dezentralen autonomen Organisation, die oft als virtuelle Firma, die allein als Algorithmus in der Blockchain existiert, aufgefasst wird.

Kontakt nach außen

Über die Beispiele Glücksspiele und Abstimmungen von Teilnehmern hinaus lassen sich nur wenige spannende Anwendungen von Smart Contracts innerhalb der Blockchain abbilden. Weitaus interessantere Lösungen sind aber denkbar, wenn wir externe Datenquellen heranziehen, beispielsweise Verträge definieren, die sich auf den Dollarkurs oder Leitzins zum Jahresende beziehen (Optionsscheine, Wertpapiere) oder auf Naturkatastrophen (Versicherungsverträge oder Rückversicherungsanteile) oder politische Ereignisse (Wetten auf Wahlausgänge, Gegengeschäfte zur Absicherung). Hierbei zeigt sich jedoch eine Schwäche des Blockchain-Ansatzes: Wir können aus den Verträgen heraus keine Abfragen von externen Informationen vornehmen. Dies widerspräche dem Prinzip der identischen Ausführung auf allen Blockchainrechnern, und es wäre technisch nicht abbildbar. Würde jeder an der Blockchain teilnehmende Rechner den Dollarkurs googlen, wären verschiedene Ergebnisse denkbar: Unterschiedliche Treffer, Netzprobleme, abweichende Kursangaben, unterschiedliche Antwortlatenzen, Hackerangriffe auf Webseiten etc. Der Algorithmus hätte ortsabhängig potentiell verschiedene Outputs, und die verteilte Blockchain wäre nicht mehr identisch, und damit tot. Das Problem fehlender Abfragen der Realwelt lässt sich nur dadurch lösen, dass einzelne Blockchainteilnehmer als vertrauenswürdige Informationsquellen im intelligenten Vertrag definiert werden. Diese führen dann eine Transaktion aus, die Teil der Blockchain wird (beispielsweise die Festlegung des aktuellen Dollarkurses). Verträge können dann einheitlich auf diesen Daten operieren und beliebige Berechnungen durchführen. Dabei kommt dem Informationsgeber eine große Verantwortung zu: Bei einer fehlerhaften Information gibt es kein Zurück mehr; alle Kontrakte, die ein Datenfeld auswerten, laufen unaufhaltsam weiter, eine nachträgliche Korrektur der Blockchain ist – das ist nun einmal das Grundprinzip – nicht möglich!

Juristen werden überflüssig

Vorteilhaft ist bei dieser automatisierten Abwicklung von Verträgen, dass keine Juristen beim Abfassen oder Ausführen benötigt werden – oder auch nur sinnvoll zum Geschehen beitragen könnten. (Mitlesende Juristen mögen verzeihen, dass der Autor dies als ökonomischen Vorteil herausstellt). Der Vertrag lässt sich in der Regel für alle Input-Fälle durchtesten (der Raum der möglichen Eingaben ist bei Smart Contracts meist stark beschränkt), überraschende vertragliche Folgewirkungen sind daher vermeidbar. Man weiß also in der Realität exakt, worauf man sich beim Vertrag einlässt und muss keine abweichende Interpretation von Vertragsbestandteilen befürchten. Nachteilhaft kann jedoch sein, dass bei außergewöhnlichen bzw. seltenen Ereignissen eine Korrekturinstanz (Gericht) fehlt, die das „Wesen“ des Vertrags interpretiert und ein „gerechtes“ Urteil fällt.

Hierzu ein Beispiel: Eine Firma möchte sich gegen eine Wahlschlappe von Clinton absichern, weil sie mit Exportgeschäftsverlust rechnet. Sie unterwirft sich folgendem Vertrag, der hier in einer Art Pseudocode dargestellt ist:

  1. Firma A soll 1000 EUR einzahlen.
    Firma B soll 5000 EUR einzahlen.
  2. WENN zum Zeitpunkt 2016-06-30-23:59h UTC nicht beide Zahlungen in genannter Höhe eingegangen sind, 
    DANN werden alle Beträge zurückerstattet und der Vertrag abgebrochen.
  3. Zum Zeitpunkt 2017-01-21-23:59h UTC wird das Datenfeld 
    „Wer-ist-amerikanischer-Präsident“ (kurz C.P) abgefragt, 
    das ein vertrauenswürdiger Dienst C bereitstellt, der sich 
    verpflichtet, dies noch am Tag der Inauguration (20. Januar 2017) 
    in die Blockchain einzupflegen.
  4. WENN C.P == „CLINTON“, wird 6000 EUR an B gezahlt.
    SONST werden 6000 EUR an A gezahlt.
  5. ENDE

Letztlich versichert sich hier A für eine Prämie von 1000 EUR dagegen, dass Trump 2017 Präsident wird. Der Vertrag wird dadurch geschlossen, dass beide zum Stichtag in den Vertrag eingezahlt haben. A erhält im Schadensfall 6000 EUR. Firma B ist der Versicherer, der die Wahrscheinlichkeit, dass Clinton verliert, gering einschätzt. Dienst C schreibt Informationen in die Blockchain und gilt beiden Parteien als vertrauenswürdig. Dienst C muss hier die Syntax exakt (auf das Bit genau) einhalten, d. h. „Nachname des Präsidenten in Großbuchstaben. Beispiele : ‚CLINTON‘,  ‚TRUMP‘“ spezifizieren.

Realität wird ausgeblendet

Was kann hier schiefgehen? Nichts! Jedenfalls aus Sicht der anderen Blockchain-Teilnehmer, denn alle führen den Vertrag aus, vergleichen die Datenfelder und schreiben automatisch die 6000 EUR dem Gewinner gut. Es gibt keine Unklarheit. Für die Messung der Zeitpunkte (erster Block nach einem Zeitpunkt) gibt es in Software gegossene Übereinkünfte. Welcher Zweck hinter dem Vertrag steht, ist für die Blockchain-Teilnehmer irrelevant.

Aus Sicht von A oder B können jedoch in der Realität Dinge schief gehen; das betrifft seltene bzw. unvorhergesehene Ereignisse.

  1. Wenn C nicht handelt oder nicht mehr existiert zum Inaugurationszeitpunkt (ohne die kryptographischen Schlüssel an einen Nachfolger weitergereicht zu haben), wird das Feld C.P nicht beschrieben. Der Vergleich wäre dann FALSE (boolescher Wert) und die Versicherung zahlt – auch wenn Clinton Präsidentin ist.
  2. Wenn C einen redaktionellen Fehler macht, z. B. C.P := „H CLINTON“ setzt, zahlt die Versicherung ebenfalls. Der Algorithmus kennt keine pragmatische Vorgehensweise, sofern man diese nicht implementiert (z. B. Auswertung von Substrings).
  3. Wenn die Inauguration wegen Schneetreibens oder Grippe verschoben wird und Clinton (de jure) erst einige Tage später Präsidentin wird, muss die Versicherung ebenfalls zahlen.
  4. Bei einem Amtsverzicht der Präsidentin aufgrund der E-Mail-Affäre und rascher Vereidigung des Vizepräsidenten vor dem Abfragezeitpunkt, muss B ebenfalls zahlen.

Wir könnten uns weitere Problemfälle (Attentat, Terrorismus etc.) ausdenken, aber der Sachverhalt bliebe der Gleiche: Es gibt keine neutrale Instanz (Gericht, Mediator, etc.), die den Vertrag bei Sonderfällen interpretiert. Es gibt nur die deterministische Ausführung von Algorithmen, die sich nicht an beabsichtigten Wirkungen des Vertrages im Kontext der realen Welt orientiert.

Ökonomie der Verträge

Beim Entwurf des Vertrages müssen also alle Sonderfälle, die den Teilnehmern Sorgen bereiten, berücksichtigt werden. Das kann unter gewissen Umständen unökonomisch sein, da Regelungen getroffen werden, die nur selten benötigt werden. Sinnvoll wäre es aus Sicht des Versicherers beim oben genannten Vertrag, die Fälle, in denen C.P weder den Wert CLINTON noch den Wert TRUMP annimmt, explizit zu regeln, z. B. durch Rückzahlung aller Beträge. Das würde den Vertrag noch nicht aufblähen.

Bei finanzmathematischen Konstruktionen (Optionsscheine, Derivate) nehmen Smart Contracts an Komplexität zu. Dann müssen auch technische Sonderfälle berücksichtigt werden wie die Division durch Null (z. B. bei fehlenden Werten aus der realen Welt) oder überlange Ausführungszeiten bei ineffizienten Algorithmen. Letztere schlagen als Kosten zu Buche, da die Blockchain-Teilnehmer für ihre Ausführungsarbeit belohnt werden. Im Extremfall ist dann das vom Vertrag verwaltete Geld weg, bevor es vertragsgemäß gerecht verteilt werden kann.

]]>
http://scilogs.spektrum.de/datentyp/blockchain-smart-contracts/feed/ 22
Die Grundlage einer wunderbaren Mathematik http://scilogs.spektrum.de/die-sankore-schriften/die-grundlage-einer-wunderbaren-mathematik/ http://scilogs.spektrum.de/die-sankore-schriften/die-grundlage-einer-wunderbaren-mathematik/#comments Thu, 16 Jun 2016 17:33:49 +0000 Joe Dramiga http://scilogs.spektrum.de/die-sankore-schriften/?p=1072 In meinem letzten Artikel „Cantors Einwand gegen Euklids Dimensionsbegriff“ machte Leser KRichard folgenden Kommentar: (mehr …)

]]>
http://scilogs.spektrum.de/die-sankore-schriften/die-grundlage-einer-wunderbaren-mathematik/feed/ 19
ExoMars: Mehr Zeit, etwas mehr Kohle http://scilogs.spektrum.de/go-for-launch/exomars-mehr-zeit-etwas-mehr-kohle/ http://scilogs.spektrum.de/go-for-launch/exomars-mehr-zeit-etwas-mehr-kohle/#respond Thu, 16 Jun 2016 13:49:50 +0000 Michael Khan http://scilogs.spektrum.de/go-for-launch/?p=5822 Weiterlesen]]> Das europäisch-russische ExoMars-Programm das aktuell die im März gestartete Mission ExoMars 2016 und die im Jahr 2020 zu startende Landemission ExoMars RSP (Rover and Surface Platform) umfasst, wird laut einem Bericht der BBC vom 16. Juni 2016 eine Zusatzfinanzierung erhalten.

(mehr …)

]]>
http://scilogs.spektrum.de/go-for-launch/exomars-mehr-zeit-etwas-mehr-kohle/feed/ 0
Jay. Oh. Eye. http://scilogs.spektrum.de/go-for-launch/juno_joi_trailer/ http://scilogs.spektrum.de/go-for-launch/juno_joi_trailer/#comments Thu, 16 Jun 2016 09:30:49 +0000 Michael Khan http://scilogs.spektrum.de/go-for-launch/?p=5817 Weiterlesen]]> Auf der Webseite des bekannten Hollywood-Filmstudios NASA/JPL ist ein Trailer zum bevorstehenden Start ihres neuen Sommerblockbusters „Juno at Jupiter“ erschienen, der am 4. Juli (Wann sonst?) anläuft. Der Trailer, samt Transskript und Downloads in diversen Formaten ist hier.

(mehr …)

]]>
http://scilogs.spektrum.de/go-for-launch/juno_joi_trailer/feed/ 3
Das Walisische – eine uralte Sprache auf dem Weg in die digitale Zukunft http://scilogs.spektrum.de/engelbart-galaxis/das-walisische-sprache-weg-zukunft/ http://scilogs.spektrum.de/engelbart-galaxis/das-walisische-sprache-weg-zukunft/#comments Thu, 16 Jun 2016 07:02:43 +0000 Henning Lobin http://scilogs.spektrum.de/engelbart-galaxis/?p=285 Weiterlesen]]> Llanfairpwllgwyngyllgogerychwyrndrobwllllantysiliogogogoch“ – das ist laut dem Guiness-Buch der Rekorde der längste Ortsname in einem Wort. Der Ort liegt im Norden von Wales, der Name aber wirkt so fremdartig, als ob er aus einem ganz anderen Teil der Welt stammen würde. Wie ist das zu erklären?

scilogs_em2016-300x119In Wales wird neben dem Englischen das Walisische gesprochen, das zur Gruppe der keltischen Sprachen gehört. Weitere keltische Sprachen gibt es heute noch in Irland, Schottland, Cornwall und in der Bretagne. Die keltischen Sprachen gehören zu der Familie der indogermanischen Sprachen, in der auch die germanischen, die romanischen oder die slawischen Sprachen einzelne Zweige bilden. Diese drei großen Zweige überdecken Europa fast lückenlos, so dass man sich fragen muss, wie diese merkwürdig zerrissene Verbreitung der keltischen Sprachen entstanden ist.

Stationsschild von Llanfair PG (Wales, UK) https://commons.wikimedia.org/w/index.php?curid=11409833 Credit: Raphael Frey – Eigenes Werk, CC BY-SA 3.0,

Die Beantwortung dieser Frage führt uns weit zurück in die Frühgeschichte Europas. Die Ur-Kelten gelten als das erste indogermanische Volk, das sich in Europa niedergelassen hat. Das Indogermanische hat sich, folgt man den zwei fundiertesten Theorien, aus der Region des Schwarzen Meeres verbreitet, und zwar sowohl Richtung Osten und Südosten (bis nach Indien) als auch Richtung Westen. Die Rekonstruktion der Dynamik dieser Ausbreitung wird dadurch erschwert, dass die Sprecher früher indogermanischer Sprachen nicht zwangsläufig auch im ethnischen Sinne miteinander verwandt waren. Darüber hinaus hat es gleich mehrere Ausbreitungswellen gegeben. Einigermaßen gesichert ist jedoch die Erkenntnis, dass der Ursitz der Kelten in Europa im sechsten Jahrhundert vor Christus mit der Hallstatt-Kultur im Alpenraum gleichzusetzen ist. Von dort aus aus erschlossen sie ein riesiges Siedlungsgebiet, das ganz Mittel- und Westeuropa, die britischen Inseln und die iberische Halbinsel umfasste. Erst die Römer und die Germanen ließen dieses Gebiet nach und nach zusammenschmelzen. Die Eroberung des keltischen Siedlungsraums mit der nachfolgenden Unterwerfung der keltischsprachigen Bevölkerung war so „erfolgreich“, dass bis auf Spuren in der Benennung von Orten oder Flüssen und einige wenige Inschriften aus römischer Zeit nichts von diesen Sprachen erhalten geblieben ist – die Kelten hatten noch keine eigene Schriftkultur entwickelt. Nur in den unwirtlichen und militärisch uninteressanten Randgebieten Europas wie der Bretagne, Cornwall, Wales und dem Norden Britanniens mit Irland, in die keltische Stämme zurückgedrängt worden waren, konnten sie sich behaupten und entwickelte sich ihre Sprachen bis heute relativ ungestört. Das Walisische hat sich deshalb vom Inselkeltischen bereits im Frühmittelalter abgetrennt. Sprachen wie das Walisische bilden also noch heute den Nachhall einer uralten gesamteuropäischen Besiedlung.

Sprecher des Walisischen nach dem Zensus von 2011 https://commons.wikimedia.org/w/index.php?curid=32013000 Credit: SkateTier – Eigenes Werk, CC BY-SA 3.0,

Das Walisische, das auch als Kymrisch bezeichnet wird, besitzt heute mit etwa 600.000 Sprechern von den keltischen Sprachen die zweitgrößte Sprecherzahl nach dem Irischen. Seitdem Wales 1535 dem Vereinigten Königreich einverleibt wurde, geriet das Walisische zwar in Konkurrenz mit der Sprache der Eroberer, doch konnte sich die Zweisprachigkeit im Land bis heute einigermaßen halten. Langfristig in Bedrängnis ist die Sprache trotzdem, denn mehr als 70 Prozent der Waliser geben heute an, nicht Walisisch sprechen zu können. In einigen wenigen Regionen im Norden und Westen jedoch erreicht die aktive Sprachbeherrschung einen Anteil von mehr als zwei Dritteln der Bevölkerung (s. 2011 Census for Wales). Damit gehört das Walische – anders als die „moribunden“ keltischen Sprachen Manx (auf der Isle of Man) oder Kornisch (in Cornwall) – zwar nicht zur UNESCO-Liste der bedrohten Sprachen, doch handelt es sich um eine der kleineren Sprachen der EU, die zudem nur in einem Teil des Vereinigten Königreichs als Amtssprache fungiert.

Das Walisische ist eine flektierende Sprache wie das Lateinische oder das Deutsche und weist in seiner Verschriftlichung als eine deutliche Besonderheit die Verwendung von „Digraphen“ auf. Damit sind Kombinationen von zwei Buchstaben gemeint, die nur einen Laut bezeichnen – im Deutschen haben wir als Bi- und Trigraphen vor allem „ch“, „ng“ und „sch“. Das Walisische ist sehr reich an Digraphen, es hat gleich zehn davon: ch, dd, ff, ng, ll, mh, nh, ph, rh und th. Das ist der Grund, warum in dem oben aufgeführten Ortsnamen das L an einer Stelle gleich viermal hintereinander vorkommt: am Ende einer Silbe und am Anfang der nächsten. Ein anderes Merkmal ist die Veränderung des Anlauts von Wörtern in Abhängigkeit vom Auslaut des vorherigen Wortes. Das macht die maschinelle Verarbeitung recht schwierig, da die einzelnen Wörter im Wörterbuch nicht so erscheinen, wie sie im Satz verwendet werden. In grammatischer Hinsicht ist das Walisische allerdings weniger „exotisch“ – schließlich weisen die Mitglieder der indogermanischen Sprachfamilie bis heute viele strukturelle Gemeinsamkeiten auf. Ungewöhnlich aus der Perspektive des Deutschen oder des Englischen ist jedoch die Möglichkeit, Präpositionen zu flektieren, damit sie zur nachfolgenden Substantivgruppe passen, oder auch die Grundstruktur des Satzes im Walisischen. Es handelt sich nämlich um eine sogenannte VSO-Sprache, bei der das Prädikat am Satzanfang erscheint, dem dann Subjekt und Objekt folgen. Klingt gewöhnungsbedürftig, kennen wir aber auch im Deutschen: Ein Fragesatz wie „Trinkt Hans auch ein Bier?“ ist nicht anders aufgebaut.

Automatische Deutsch-Walisische Übersetzung mit dem Google-Übersetzer

Automatische Deutsch-Walisische Übersetzung mit dem Google-Übersetzer

Mit der Digitalisierung und dem Internet stellen sich für viele kleinere Sprachen neue Fragen: Bietet das Web eine Möglichkeit die Verbreitung der Sprache zu festigen und vielleicht sogar auszuweiten? Oder wächst durch die größere Internationalität sogar noch der Druck auf die Sprache, etwa durch die zunehmende Verwendung des Englischen als Lingua franca in der internationalen Kommunikation? Eine wichtige Rolle dürften bei der Beantwortung dieser Frage zukünftig sprachtechnologische Werkzeuge wie etwa Maschinelle Übersetzungssysteme spielen, weshalb im Rahmen des EU-Projekts META-NET seit einigen Jahren der Entwicklungsstand in den Sprachen Europas dokumentiert und weitere Entwicklungen koordiniert werden. Das entsprechende White Paper zum Walisischen verzeichnet allerdings bislang keine besonders vielversprechende Situation: In allen betrachteten Kategorien – Verarbeitung gesprochener Sprache, Maschinelle Übersetzung, Textanalyse, Sprachressourcen – wird für das Walisische keine oder nur eine sehr schwache Unterstützung festgestellt. Um von den Segnungen der maschinellen Sprachverarbeitung zu profitieren, müssen zunächst Voraussetzungen erfüllt werden, die in vielen kleineren Sprachen Europas bislang nicht gegeben sind.

Lust auf mehr Wissenschaft aus Großbritannien? Der Nature Index, eine große Datenbank über Publikationen aus vielen Ländern und Instituten, gibt Ihnen einen Überblick über die dortige Forschungsszene.

 

 

]]>
http://scilogs.spektrum.de/engelbart-galaxis/das-walisische-sprache-weg-zukunft/feed/ 9
Gravitationswellen: Neues von LIGO http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-neues-von-ligo/ http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-neues-von-ligo/#comments Wed, 15 Jun 2016 18:21:23 +0000 Markus Pössel http://scilogs.spektrum.de/relativ-einfach/?p=4556 Weiterlesen]]> Seit dem ersten direkten Nachweis von Gravitationswellen sind nun schon vier Monate vergangen. (Ich hatte hier die Grundlagen von Gravitationswellen beschrieben, hier die Detektoren, hier die Quellen, hier die Pressekonferenz mit der Bekanntgabe.)

In der Zwischenzeit hat sich durchaus einiges getan. LISA Pathfinder beispielsweise, die Testplattform für die Technik eines weltraumgestützten Gravitationswellendetektors, hat ihre erste Testreihe abgeschlossen und konnte nachweisen, dass die technischen Voraussetzungen für solch einen Detektor gegeben sind – man kann zwei Testmassen hinreichend ungestört frei fallen lassen, dass ein Nachweis gelingen kann (hier die ESA-Meldung, hier das Paper).

Der zweite direkte Nachweis

Heute um 19:15 Uhr gab es dann eine weitere Pressekonferenz der LIGO-Collaboration, und zwar auf der Konferenz der American Astronomical Society (AAS), die derzeit in San Diego läuft.

Gabriela Gonzalez als Sprecherin der LIGO-Collaboration kam gleich zu den Faktor: Am 26. Dezember 2015 hatten die LIGO-Detektoren ein weiteres Signal nachgewiesen, wieder von zwei verschmelzenden Schwarzen Löchern. Diesmal in einem Abstand von 1.4 Milliarden Lichtjahren, ein Loch mit 14, das andere mit 8 Sonnenmassen. Bei der Verschmelzung wurde rund 1 Sonnenmasse an Energie in Form von Gravitationswellen freigesetzt. Das Signal kam zuerst am LIGO-Detektor in Livingston an, 1.1 Millisekunden später dann auch am Hanford-Detektor.

Entsprechend der Namenskonventionen heißt das Signal GW151226.

Hier ist die LIGO-Pressemitteilung. Hier ist der (in Physical Review Letters veröffentlichte) Artikel.

Diesmal war das Signal, als es auf der Erde ankam, noch rund drei Mal schwächer als für den ersten direkten Nachweis. Vereinfacht gesagt verzerrte die Gravitationswelle die Abstände frei fallender Teilchen um drei 1022tel.

Kurve im Rauschen

Fulvio Ricci, Sprecher der Virgo-Kollaboration (also des europäischen Gravitationswellendetektors, der mit LIGO gemeinsame Suche macht), ging auf die Details des Nachweise ein: Im Gegensatz zum ersten direkten Nachweis war GW151226 nicht mit dem bloßen Auge sichtbar. Hier sind die entsprechenden Kurven:

secondLIGOsignalGanz oben ist zu sehen, dass man mit dem bloßen Auge gar nichts sieht. Dass das erste Signal so extrem deutlich gewesen war, hatte die Gravitationswellenforscher auch eher überrascht; eigentlich geht ihre Datenanalyse anders, nämlich wie hier: Der Output des Detektors wird mit bestimmten Mustern verglichen, nämlich den Wellenformen, die sich aus den Simulationen der numerischen Relativitätstheorie ergeben.

Dann ist es eine Frage der Statistik: Wie gut passt ein bestimmtes Modell zum Signal?

Erstes Kriterium ist das „Signal-zu-Rauschen-Verhältnis“, abgekürzt S/N vom englischen „Signal to Noise“. Für das hier benutzte Muster ist die Übereinstimmung so groß, dass das Signal am Hanford-Detektor 11 mal größer war als die Rauscheinflüsse, beim Livingston-Detektor immerhin 8.

Wie groß ist die Wahrscheinlichkeit, eine solche Übereinstimmung zufällig, aus den bekannten (und ihrerseits gut vermessenen) Störquellen von LIGO zu erhalten? Wie beim ersten Nachweis ergeben sich Werte von besser als 5 Sigma, sprich: man müsste hunderttausende Jahre warten, bis man eine zufällige Kombination von Rauschen erleben würde, die das Signal nachahmt.

Hier sind drei Signale im Vergleich zu sehen (Anfangspunkt ist jeweils die Zeit, zu der das Signal die Frequenz von 30 Hz erreicht und damit für die LIGO-Detektoren nachweisbar wird):

Screen Shot 2016-06-15 at 19.52.19

Ganz oben ist GW150914 zu sehen, dass im Februar veröffentlichte erste direkt nachgewiesene Signal. In der Mitte LVT151012, wahrscheinlich auch ein Gravitationswellensignal, aber statistisch nicht sicher genug belegt, um als mehr als ein Kandidat geführt zu werden. Ganz unten GW151226, von dem rund 30 Umläufe nachgewiesen werden konnten.

Wie geht es weiter?

Am Ende erzählte David Reitze, geschäftsführender Direktor von LIGO, von der Zukunft: Im Herbst soll LIGO seinen nächsten Beobachtungslauf beginnen, und zwar mit rund 25% Prozent verbesserter Empfindlichkeit. Damit wird es möglich, eine Quelle gegebener „Gravitationswellenhelligkeit“ bei 25% größerer Entfernung nachzuweisen, und das wiederum verdoppelt das Suchvolumen. Innerhalb eines halben Jahres erwartet man dann, sechs bis acht weitere Signale von verschmelzenden Schwarzen Löchern nachweisen zu können.

Dann hat die Gravitationswellenphysik wirklich begonnen. Man kann statistische Untersuchungen zur Verteilung der Massen von Schwarzen Lochen anstellen, und das wiederum interessiert z.B. auch die Forscher, die sich für die Sternentstehung und -entwicklung interessieren und deren Modelle mit der beobachteten Häufigkeit von Schwarzen Löchern übereinstimmen müssen.

Anfang 2017 soll Virgo in Betrieb gehen. Dann hat man schon 3 Detektoren, und damit wird es einfacher, am Himmel zu lokalisieren, aus welcher Richtung das Signal gekommen ist. David Reitze zeigte zwei interessante Grafiken, nämlich zuerst die Lokalisierungen der drei obigen Signale allein aufgrund der zwei LIGO-Detektoren:

localization-ligoDas sind ziemlich langgezogene Flecken am Himmel, und das behindert die Suche nach elektromagnetischer Strahlung, die bei einem Verschmelzungs-Ereignis entstehen können. Dann zeigte Reitze eine Simulation, wie gut die Lokalisierung hätte gelingen sollen, wenn der Virgo-Detektor bereits mit der geplanten Empfindlichkeit in Betrieb gewesen wäre und die betreffenden Signale nachgewiesen hätte:

localization-ligo-virgoFür GW150914 ist das Areal deutlich zusammengeschrumpft – von rund dem 1000fachen der scheinbaren Größe des Vollmonds am Himmel auf das nur noch 50fache. Das ist astronomisch gesehen immer noch recht ungenau, aber deutlich besser als vorher.

Solche Lokalisierung wird insbesondere wichtig, wenn man dann mal die Verschmelzung zweier Neutronensterne nachweist. Dabei erwartet man nämlich in der Tat auch einen elektromagnetischen Blitz, den herkömmliche astronomische Teleskope sehen könnten. Bei GW151226, so ergab eine Nachfrage auf der Pressekonferenz, hatten Nachbeobachtungen keine herkömmlichen elektromagnetischen Signale ergeben.

Es geht weiter voran. Wir sind zwar noch nicht in dem Zeitalter angelangt, wo das Gravitationswellensignal verschmelzender Schwarzer Löcher keinen Journalisten mehr hinter dem Ofen hervorlockt, aber wir sind wieder einen Schritt näher daran.

]]>
http://scilogs.spektrum.de/relativ-einfach/gravitationswellen-neues-von-ligo/feed/ 7
Allez les Blogs: Kuh-le, glückliche Schweiz http://scilogs.spektrum.de/medicine-and-more/allez-les-blogs-kuh-le-glueckliche-schweiz/ http://scilogs.spektrum.de/medicine-and-more/allez-les-blogs-kuh-le-glueckliche-schweiz/#comments Wed, 15 Jun 2016 14:24:25 +0000 Trota von Berlin http://scilogs.spektrum.de/medicine-and-more/?p=1291 Weiterlesen]]> Mal ehrlich, wer glaubt schon, dass die Schweizer Nationalspieler in einigen Tagen den begehrten EM-Pokal in die Luft stemmen werden? Wollen und müssen sie auch nicht. Auf Gras laufen in dem kleinen Alpenstaat eher Kühe als Kicker herum. Dafür glänzt die Schweiz regelmäßig auf dem Podium des Welt-Glücksberichts. Aktuell gilt das Land als das zweitglücklichste der Welt. Was können wir von unseren Gebirgsnachbarn lernen? (mehr …)

]]>
http://scilogs.spektrum.de/medicine-and-more/allez-les-blogs-kuh-le-glueckliche-schweiz/feed/ 6
Kurz & Knapp, KW 24/2016: Soyuz, Erdbeobachtung, Principia-SpaceDiary & mehr http://scilogs.spektrum.de/leaving-orbit/kurz-knapp-kw24-soyuz-erdbeobachtung/ http://scilogs.spektrum.de/leaving-orbit/kurz-knapp-kw24-soyuz-erdbeobachtung/#comments Wed, 15 Jun 2016 07:37:54 +0000 Ute Gerhardt http://scilogs.spektrum.de/leaving-orbit/?p=3162 Weiterlesen]]> 1. Noch vor Australien hat Neuseeland eine eigene Raumfahrtagentur gegründet:
„The New Zealand Government has announced the development of a new regulatory regime for space and high altitude activities. It will ensure the development of a peaceful, safe, responsible and secure space industry that meets New Zealand’s international obligations. The space and high altitude regulatory regime will include a new law – The Outer Space and High Altitude Activities Bill which is scheduled to be introduced in the House in August 2016, a treaty with the United States – the Technology Safeguards Agreement (TSA) and Accession to the United Nations Convention on Registration, both of which are currently undergoing Parliamentary treaty examination.“
=> http://www.mbie.govt.nz/info-services/sectors-industries/space

2. Projekt TeSeR: Airbus geht das Weltraumschrott-Problem an
„A new European project has been given the ambitious goal of cleaning up space for future generations. The Technology for Self-Removal of Spacecraft (TeSeR) program, introduced in May 2016, is being held to develop a prototype for a module which will ensure that a defunct spacecraft possesses no danger for other vehicles in space.“
=> http://www.spaceflightinsider.com/missions/earth-science/europe-develops-self-removal-technology-spacecraft/
(Zur Erinnerung, was da momentan so alles rumfliegt: „Stuff in Space is a realtime 3D map of objects in Earth orbit„)
http://stuffin.space/

3. Wie funktioniert das eigentlich mit den Soyuz-Kapseln?
Dieses Video erklärt’s: „Soyuz undocking, reentry and landing explained“

4. Das Erdbeobachtungsprogramm der ESA – eine schöne Übersicht:
„Der Drang nach neuen Erkenntnissen steigert den Bedarf an präzisen Satellitendaten, die für vielfältige praktische Anwendungen zur Beobachtung und zum Schutz der Umwelt benötigt werden. Exakt solche Daten stellt das Erdbeobachtungs-Programm der ESA zur Verfügung. Es umfasst einen Forschungs- und Entwicklungsbereich, der vor allem die Earth Explorer-Missionen beinhaltet. Hinzu kommt ein Erdbeobachtungsbereich, der die Bereitstellung von Erdbeobachtungsdaten zur operativen Nutzung zum Ziel hat.“
=> http://www.esa.int/ger/ESA_in_your_country/Germany/Das_Erdbeobachtungsprogramm_der_ESA

5. Die NASA beschäftigt sich nur mit Raketen & Co.? Falsch.
„NASA challenge aims to grow human tissue to aid in deep space exploration“
=> http://www.spacenewsfeed.com/index.php/component/content/article?id=6421:nasa-challenge-aims-to-grow-human-tissue-to-aid-in-deep-space-exploration

6. Perfekt für die Regentage: Das ClearSky-Blog hat Bastelanleitungen (nicht nur) für Kinder zusammengetragen:
„Zum einen möchte ich astronomische Bastelbögen (Astronomie) beschreiben. Diese zeigen die Zusammenhänge und erklären z.B. Jahreszeiten und andere Himmelsphänomene. Zum anderen wird es den Bereich Raumfahrt geben. Hier gibt es viele Anleitungen zu bestimmten Raumsonden die man basteln kann.“
=> http://www.clearskyblog.de/2016/01/07/astronomische-bastelanleitungen-fuer-kinder/

7. Das Tagebuch der Principia-Mission des britischen Astronauten Tim Peake steht samt Zusatzmaterial für Lehrer zum Download bereit:
=> http://principiaspacediary.org/lessons/

]]>
http://scilogs.spektrum.de/leaving-orbit/kurz-knapp-kw24-soyuz-erdbeobachtung/feed/ 6
Projektvorstellung: U-CUBE – Jugend forscht an thermischer Behaglichkeit http://scilogs.spektrum.de/sciencestarter/projektvorstellung-u-cube-jugend-behaglichkeit/ http://scilogs.spektrum.de/sciencestarter/projektvorstellung-u-cube-jugend-behaglichkeit/#comments Tue, 14 Jun 2016 13:02:08 +0000 Thorsten Witt http://scilogs.spektrum.de/sciencestarter/?p=91 Weiterlesen]]> Dr. Milan Dlabal ist Physiker und Lehrer an der Gerhart Hauptmann Schule in Griesheim. Gemeinsam mit Schülern, Studenten und Doktoranden möchte er an der Schule eine Forschungseinrichtung aufbauen, die den Einfluss verschiedener Heizungssysteme auf die thermische Performance von Baumaterialien untersucht. Dazu hat er ein Projekt auf Sciencestarter gestartet. In diesem Beitrag erklärt er, wie und was genau erforscht wird und wie es zu der Zusammenarbeit mit Universitäten und Instituten kam.

Für die Dauer von 5 Jahren werden zwölf Kuben aus verschiedenen Baumaterialien von 3x3x3m Größe mit verschiedenen Heizungssystemen ausgestattet.

Für die Dauer von 5 Jahren werden zwölf Kuben aus verschiedenen Baumaterialien von 3x3x3m Größe mit verschiedenen Heizungssystemen ausgestattet.

Kann eine Schule ein internationales Forschungszentrum aufbauen? Und wofür braucht man überhaupt U-CUBE, das Forschungszentrum für Energie-Effizienz und thermische Behaglichkeit? – Die erste Antwort ist einfach mit „Ja!“ zu beantworten, die zweite etwas komplexer.
Da ist zunächst einmal die Energie-Effizienz-Geschichte: Ein energieeffizientes Gebäude ist eines, das wenig Energie verbraucht – und am wenigsten Energie verbraucht man, wenn man Energie spart. Das klingt zwar irgendwie banal, ist aber vor dem Hintergrund einer Gesetzgebung spannend, die für konvektiv, also durch Wärmemitführung durch Raumluft, beheizte Häuser mit wärmegedämmten Wänden geschrieben wurde. Dazu sollte man einmal über die Heizung nachdenken. Eine Heizung gibt Wärmeenergie an einen Raum ab. Dies geschieht einerseits konvektiv über die Luft und gleichzeitig durch Wärmestrahlung an die Oberflächen der Wände und Gegenstände im Raum. Denkt man nun einmal über eine Heizquelle mit hohem Strahlungsanteil nach, die nicht konform nach Energieeinsparverordnung (EnEV) ist, könnte man vermuten, dass die Wärme in den obersten paar Mikrometern der Wand absorbiert wird und dort lokal die Wand erwärmt. Das hat dramatische Auswirkungen auf die Wechselwirkung mit dem Baumaterial und den Wärmeverlust des Raumes durch Transmission durch die Wand – außerdem ist das Klima im Raum völlig anders. Jetzt kommt die Behaglichkeit ins Spiel. Behaglichkeit ist eine Größe, die von Faktoren wie Lufttemperatur, Strahlungstemperatur, Luftfeuchtigkeit, Luftbewegung, Stoffwechsel, Kleidung, Temperaturasymmetrie, usw. abhängt. Dafür gibt es sogar die ISO-Norm 7730. Jetzt wäre es natürlich interessant zu wissen, welche Art von Heizung eigentlich unter welchen Bedingungen welche Behaglichkeit erzeugt und wie sich das auf die Energie-Effizienz auswirkt.
Dazu gibt es jedoch keine Untersuchungen! In dieses Vakuum an Wissen stößt U-CUBE vor – unendliche Weiten, grenzenloses Nichtwissen! Natürlich nutzen viele Scharlatane gerne dieses Nichtwissen aus.

Leider haben die Forschungseinrichtungen es bisher nicht geschafft, sich von Drittmittelzwängen befreit und ohne den Einfluss bekannter Lobbys an die systematische Grundlagenforschung zu wagen. Wir als Schule können das aber tun. Und jetzt, wo eine Schule das experimentelle Konzept vorgelegt hat, sind auch etliche Universitäten an einer Kooperation interessiert, weil sie diese Forschung eigentlich gerne selbst gemacht hätten und genau dies mit uns machen können. Dadurch können Schüler der gymnasialen Oberstufe (und nicht nur die) gemeinsam mit Studenten der Architektur, Elektrotechnik, Gebäudesystemtechnik, Regelungstechnik, etc. dazu beitragen, das Wissensvakuum zu füllen und Grundlagen für physikalische Modelle zu erstellen, die bald die Basis von besseren Gesetzen werden können, die dazu beitragen, dass behaglichere und effizientere Gebäude realisieren werden können.

Vielleicht finden wir in Kürze heraus, dass man Altbauten nicht in einen Styropormantel einpacken muss, sondern dass es ausreicht, lediglich die innersten wenigen Mikrometer der Wand zu erwärmen; oder dass man Behaglichkeit auch mit leitender Heizfarbe auf einer Wand erreichen kann oder dass der Gesamtenergieverbrauch einer Heizung den Energiebedarf einer Wärmepumpe nicht überschreiten muss …
U-CUBE wird darauf Antworten geben! Wissenschaftlich fundierte, anerkannte Antworten in einem stringenten Referenzrahmen, nachvollziehbar, reproduzierbar und vergleichbar. So wie Wissenschaft sein soll!

www.sciencestarter.de/u-cube

]]>
http://scilogs.spektrum.de/sciencestarter/projektvorstellung-u-cube-jugend-behaglichkeit/feed/ 4
Strahlung abschatten http://scilogs.spektrum.de/quantenwelt/strahlung-abschatten/ http://scilogs.spektrum.de/quantenwelt/strahlung-abschatten/#comments Tue, 14 Jun 2016 09:29:53 +0000 Joachim Schulz http://scilogs.spektrum.de/quantenwelt/?p=1812 Weiterlesen]]> Im Kommentarbereich meines letzten Beitrags zur Streuung von Photonen, Elektronen und Neutronen wies mich ein Leser auf diesen Artikel zur Abbildung mit Neutronen hin, der einen weiteren Aspekt beleuchtet, den ich Ihnen nicht vorenthalten will: Abbildung mit Röntgenstrahlung verwendet sehr oft gar nicht die gestreute Strahlung. Das gute, alte Röntgenbild, mit dem Frau Doktor unseren Knochenbruch inspiziert, ist nichts anderes als ein Schattenwurf. Knochen sind für Röntgenstrahlung weit weniger durchsichtig als Haut und Muskeln und deshalb können wir im Röntgenbild einen Schattenwurf unseres Skeletts sehen. Mein letzer Artikel legt nahe, dass das bei Neutronen- oder Elektronenstrahlung anders sein könnte. (mehr …)

]]>
http://scilogs.spektrum.de/quantenwelt/strahlung-abschatten/feed/ 1
Exitus mit Ansage http://scilogs.spektrum.de/go-for-launch/astro_h_hitomi_versagen/ http://scilogs.spektrum.de/go-for-launch/astro_h_hitomi_versagen/#comments Tue, 14 Jun 2016 09:00:46 +0000 Michael Khan http://scilogs.spektrum.de/go-for-launch/?p=5786 Weiterlesen]]> Der Bericht zur Analyse des Versagens des japanischen Satelliten Astro-H (Beiname: „Hitomi“, japanisch für „Pupille“) liest sich ähnlich wie mancher Flugzeug-Unfallbericht. Eigentlich ist die Technik in dieser Domäne mittlerweile so ausgereift, dass es nicht einfach so passiert, dass eine Sache nicht funktioniert und dadurch gleich das Gesamtsystem ausfällt. Wahrscheinlicher ist eine Kette von Fehlern und Problemen, von denen einige schon in der Entwurfsphase gemacht wurden, andere erst im Betrieb, von denen einige vollkommen unerwartet auftreten, andere schon vorhergesehen, aber für unwahrscheinlich gehalten wurden.

(mehr …)

]]>
http://scilogs.spektrum.de/go-for-launch/astro_h_hitomi_versagen/feed/ 17
Metawork – keiner kann’s, aber alle machen ärgerlich mit http://scilogs.spektrum.de/wild-dueck-blog/metawork-keiner-kanns-aber-alle-machen-aergerlich-mit/ http://scilogs.spektrum.de/wild-dueck-blog/metawork-keiner-kanns-aber-alle-machen-aergerlich-mit/#comments Mon, 13 Jun 2016 17:35:46 +0000 Gunter Dueck http://scilogs.spektrum.de/wild-dueck-blog/?p=707 Weiterlesen]]> Metawork ist das eigene Organisieren der Arbeit, nicht die eigentliche Arbeit selbst. Es geht darum, die eigene Arbeit in oft mehreren verschiedenen Projekten zu koordinieren, dazu eben auch Entscheidungen per Mail zu managen und mit allen Stakeholdern zu kommunizieren. Man kann zum Beispiel in fruchtbaren Meetings über die Art reden, die gemeinsame Arbeit bestmöglich zu gestalten und abzuleisten. Mit der Zeit bildet sich eine Unternehmenskultur, in der eine gute Metaarbeit aller auch eine effektive Ableistung der Arbeit selbst ermöglicht.

In der Praxis aber streiten sich die Leute in den Meetings, welche Arbeit wer machen soll. Konflikte brechen aus. Jeder sagt in Meetings, was ihm in den Kopf kommt. Es dauert mal wieder sehr lange. Die ärgerlichen und verärgerten Menschen gehen auseinander und haben das Gefühl, ihre Lebenszeit verschwendet zu haben. Ich habe im Web gesurft, was wohl Metawork wäre. Da schaue ich am liebsten im Urban Dictionary nach, in dem sich ganz normale Menschen an schwierigen Definitionen beteiligen und oft viele Vorschläge machen. Das Schönste sind die schrägen.
Hier wie auch aus anderen Quellen entsteht die Vermutung, dass Metawork alles ist, was nicht die direkte Arbeit ist. Die direkte Arbeit ist „produktiv“, der Rest wird als Metaarbeit und „unproduktiv“ empfunden.
Sie schimpfen im Netz, dass die meisten Leute mit unproduktiven Arbeitspflichten zugeballert werden, man komme kaum noch zur eigentlichen Arbeit. Leute berichten, dass ein Projekt mit acht Leuten eine Programmentwicklung betreiben soll – aber nur zwei der Leute würden programmieren! Der Rest sitze in Meetings herum und werde bei einem Erfolg des Projektes sicherlich zuerst befördert. Sinnlose Welt!

Aha, die eigene Arbeit ist produktiv, alles andere ist eine Ablenkung oder eine „distraction“. Kein Gedanke daran, was die anderen Mitarbeiter im Projekt als ihre „produktive Arbeit“ empfinden. Wenn die Programmierer zum Beispiel den Termin verziehen, haben die anderen eine ganz schön große Distraktion in ihrer eigentlichen Arbeit. „Alles wäre so schön, wenn die beiden anständig programmieren würden! Wir müssen das Programm doch ins SAP einbinden, alle warten! Ein Supergau.“ – Die beiden Programmierer brüllen zurück: „Ihr hättet doch mitprogrammieren können anstatt in Meetings zu labern, dann wären wir längst fertig.“
In dieser Weise sehe ich in allen Unternehmen, dass den verschiedenen Leuten in Projekten nicht klar ist, was die jeweils anderen für Aufgaben im Projekt haben. Wenn sie es doch wissen, zweifeln sie den Sinn dieser Arbeiten an. Ihre eigene Arbeit ist wichtig und alles andere ist für sie eine Ablenkung. Die anderen stören so oft! Und dann streiten sie in Meetings.

Warum nur? Alle sind in ihrer eigenen Arbeit gut ausgebildet und machen sie ganz gut. Aber so etwa keinem von ihnen hat man gesagt, was Metaarbeit ist: Wie man sich organisiert und zusammenarbeitet. Sie tun da etwas jeden Tag gefühlt sehr schlecht, ohne es je gelernt zu haben oder lernen zu wollen. Es war nie ein Thema. Sie schimpfen den ganzen Tag, dass die Metaarbeit schlecht ist, aber sie können das Übel nicht sehen oder mit Händen greifen, weil sie nicht einmal den Begriff der Metaarbeit kennen. Manager und Projektleiter folgen oft vorgeschriebenen Methoden und peitschen voran. Auch sie wissen meist nicht, was Metaarbeit ist, sie betreiben eben nur Management oder Projektleitung als eigene Arbeit. Sie denken aber nie grundsätzlich über die gesamte Arbeit nach.
Selbst wenn der Manager oder Projektleiter wüsste, wie man Arbeit gut koordiniert und alle Teile zusammenfügt, wie man auf Unvorhergesehenes reagiert und Konflikte vermeidet – was hilft das, wenn die Mitarbeiter keine Ahnung davon haben, was Metaarbeit ist?
Wenn Mitarbeiter nur die Hälfte der Zeit wirklich in ihrem Sinne arbeiten (z.B. programmieren) und die andere Hälfte innerlich wütend über die gestohlene Zeit in Meetings sitzen, dann haben sie die Arbeit an sich entweder überhaupt nicht begriffen – oder die Metaarbeit wird saumäßig schlecht geleistet.
Metaarbeit macht sich Gedanken, wie Arbeit grundsätzlich gut abgeleistet wird. Aber die, die sich damit noch nie einen Kopf gemacht haben, stümpern in jedem einzelnen Projekt wieder neu herum, wie es gehen könnte. Jeder Streit ist immer neu und einzigartig anders, alle Projekte haben ihre singulären Überraschungen. Ein Tollhaus, denken viele und lesen das auch so in Büchern.
Aber sie versenken sich nur in ihre eigene fruchtbare Arbeit – und lernen nie, den nicht unerheblichen Rest zu respektieren.

Ich habe in meinem eBook „Verständigung im Turm zu Babel“ und im Blog schon einmal die Gegenüberstellung von Metakommunikation und Mesakommunikation vorgeschlagen. „Mesa“ ist griechisch „drinnen“, „meta“ ist wie „darüber hinaus“. Dann wäre im diesem Kontext „Mesaarbeit“ die eigentliche eigene Arbeit und Metaarbeit all das über die eigene Arbeit hinaus. Und ich stelle wieder fest: Keiner kann gut Metakommunikation, jeder kommuniziert aus seinem Drinnen heraus. Und in derselben Weise sind wir zwar gut in Mesaarbeit, aber wir stöhnen über die Komplexität der Welt, weil wir mit Metaarbeit nichts anfangen können.

Lassen wir das so? Dass wir Fachgurus in der Hälfte der Zeit sind, und Unbedarfte in der zweiten? Wird das Verhältnis nicht immer schlimmer, weil das Unbedarftsein immer mehr Zeit vom Kuchen haben will? Und Sie? Ärgern Sie sich nur immer weiter?

]]>
http://scilogs.spektrum.de/wild-dueck-blog/metawork-keiner-kanns-aber-alle-machen-aergerlich-mit/feed/ 5
Kroatien: Forschungs-Trip mit Hindernissen http://scilogs.spektrum.de/wissenschaftssystem/kroatien-forschungs-trip-mit-hindernissen/ http://scilogs.spektrum.de/wissenschaftssystem/kroatien-forschungs-trip-mit-hindernissen/#respond Mon, 13 Jun 2016 16:07:59 +0000 René Krempkow http://scilogs.spektrum.de/wissenschaftssystem/?p=135 Weiterlesen]]> Mein Kontakt zu diesem EM-Land ergab sich eigentlich, weil ich mit Kollegen auf einer Tagung beim Kaffee über Themen wie die Leistungsgerechtigkeit und den aktuellen Stand der Familienfreundlichkeit der deutschen Wissenschaft witzelte. Wie es manchmal so ist, wurde ich einige Zeit später aufgefordert, zu einem dieser Themen einen Beitragsvorschlag einzureichen: In der Folge wurde ich zu einem EU-gefördertem Research Seminar eingeladen, das ich im Frühjahr 2013 und 2014 in Dubrovnik besuchte. Dies war also genau die Zeit kurz vor und nach dem EU-Beitritt Kroatiens (1. Juli 2013), dies sollte noch Bedeutung bekommen. Denn dies waren auch Reisen mit Hindernissen, die man normalerweise gern vergisst (oder verdrängt). Dabei ist es vielleicht nützlich, in Zeiten von Grexit- und Brexit-Diskussionen solche Hindernisse sich selbst und ggf.  in Diskussionen ab und zu in Erinnerung zu rufen.
scilogs_em2016
Ein erstes Hindernis ergab sich bei der Übernachtungsorganisation. Da ich mir nicht ein anonymes Hotel, sondern eine kleine Pension direkt neben Inter University Center und Altstadt ausgesucht hatte, war schon die Anzahlung von umgerechnet rund 30 € kompliziert: Überweisung, mit Kreditkarte zahlen oder ein Geldsende-Service hätten (jedenfalls 2013) ein Mehrfaches an Gebühren gekostet, und vom Geldscheine einfach im Brief senden wurde mir von der Pension abgeraten. Erst vermittelt durch den Wirt der Pension Sesame Inn, wo ich eines der nur vier Zimmer buchte, fand sich schließlich eine bilaterale Kooperation einer Kroatischen Bank mit einer deutschen, die dies zu vertretbaren Gebühren ermöglichte. (Da bleibt nur zu hoffen, dass man ähnlich Umständliches nicht künftig bei Tagungsreisen nach U.K. erlebt… ;-))

Das zweite Hindernis waren starke Böen sogenannter Scherwinde zwischen den Bergen um Dubrovnik, die einen Flug direkt vor meinem zum zweimaligen Abbruch der Landung gezwungen hatten und weshalb mein Flug statt nach Dubrovnik unerwartet nach Split ging. Bis nach Dubrovnik sind es dann zwar nur rund 250 km weiter die Küste entlang, aber diese Küste samt Gebirge hat es in sich. Und außerdem gab es zu der Zeit Überschwemmungen, so dass die eingesetzten „Ersatzbusse“ auch noch Umwege fahren mussten. Die Küste ist zwar äußerst malerisch mit immer wieder atemberaubenden Ausblicken. Allerdings konnte ich es von Stunde zu Stunde nicht nur wegen der einbrechenden Dunkelheit weniger genießen, sondern auch aufgrund meines inzwischen völlig durchhängenden Magens. Denn ich hatte nur wenig Reiseproviant dabei, und im Bus gab es nichts. Zudem hatten die Busfahrer – so sagten sie auf Nachfrage – Anweisung durchzufahren und nicht unterwegs anzuhalten. Mit vereintem internationalem Kauderwelsch gelang es dann doch sie zu überzeugen, nach etwa zwei Dritteln der Strecke einmal zwecks Nahrungsaufnahme anzuhalten. Die Ankunft war dann ohnehin statt nachmittags mitten in der Nacht. (Es soll übrigens leichter erreichbare andere Flughäfen gegeben haben; aber wenn sich Nachbarländer gegenseitig nicht trauen, ist dies offenbar schwierig.)

Nach diesen Anfangshindernissen war ich dann vom persönlichen Flair der Pension sowie dem guten und reichhaltigem Essen, das ich dort trotz Küchenschluss zum Glück noch bekam, mehr als angetan. Am nächsten Morgen konnte ich bis kurz vor Seminarbeginn ausschlafen, denn ich hatte ja nur wenige Schritte zu den Tagungsräumen…

Im Seminar “Labour Time and Life Time” im Rahmen der Seminarreihe Organisationstheorien ging es dann um verschiedenste Forschungsperspektiven auf Arbeitszeiten und Lebenszeit und wie diese untereinander sowie mit anderen Aspekten zusammenhängen. Beispielsweise ging es um die Zusammenhang von Arbeitszeitumfang und Lebenszufriedenheit. Deren Balance kann von Arbeitenden und Organisationen sehr unterschiedlich gesehen werden und entsprechende Effekte auf deren Attraktivität und Produktivität haben (wie am Beispiel katalanischer Arzte oder eines tschechischen Arztes von einer Blogkollegin anschaulich gezeigt). Daneben ging es in weiteren Beiträgen um ähnlich gelagerte Themen wie flexible Arbeitszeitmodelle als eine Form doppelter Dezentralisierung von Entscheidungsfindungen zwischen Organisation und Individuen, um Modelle der Vertrauensarbeitszeit, und um die Bedeutung von Auszeiten (wie z.B. Sabbaticals) für die Attraktivität von Organisationen. Weitere Themen waren der Zusammenhang von Arbeitszeitarrangements und Familienzeiten von Vätern,  die Arbeitszeitregimes in der Lehre an Hochschulen, die Vereinbarkeit von Work-and-Familiy-Life in der Wissenschaft in Deutschland und Europa, die Problematik der Koppelung von Arbeitszeitflexibilität und gleichzeitiger Leistungsverdichtung durch Performance Measurement, bis hin zur (ökonomischen) Bedeutung unbezahlter Arbeit.

Sehr angenehm und produktiv für die fachlichen Diskussionen war die Zusammensetzung der Teilnehmer – nicht nur aus verschiedenen Ländern, sondern auch aus verschiedenen Fachdisziplinen. Ebenfalls recht angeregt waren dann (wie ich es bei einem guten Forschungsseminar wünsche) auch die persönlichen Gespräche bei den Abendausflügen in die lokale kulturelle und lukullische Szene in Cafés und Restaurants der Altstadt, und auf den Meeresterrassen vor der trotz mehrerer Kriege komplett erhaltenen mittelalterlichen Stadtmauer. Hierzu wurde dort allerdings auch berichtet: Erst als im Jugoslawien-Krieg in den 90er Jahren die Altstadt von Dubrovnik als UNESCO-Weltkulturerbe u.a. mit Brandgranaten beschossen wurde, regte sich ernsthafter internationaler Widerstand – nachdem zuvor in Dubrovnik wie in anderen ehemals jugoslawischen Städten bereits viele Menschen starben. Diese jüngste Vergangenheit wäre eine ganz eigene Geschichte, die hier nicht angemessen zu beleuchten möglich ist. Aber diese – zumindest für viele ab den 90er Jahren Geborene – eher unbekannte jüngste Vergangenheit lässt menschlich verständlich werden, warum sich die Nachbarländer z.T. gegenseitig nicht trauen.

Wichtig erscheint mir noch zu erwähnen, dass ich ein Jahr später beim Nachfolge-Research-Seminar 2014 die Anzahlung einfach gebührenfrei überweisen konnte. Das deutlich herabgesetzte Limit meiner Kreditkarte, mit der ich im damaligen Nicht-EU-„Balkanstaat“ in Restaurants zahlte, gilt allerding bis heute (obwohl alle Abrechnungen korrekt waren). Mein persönliches Fazit dieser Forschungs-Trips nach Kroatien war, dass mir noch einmal in Erinnerung gerufen wurde, was die Frage EU oder nicht EU ganz konkret ausmachen kann. Aber letztlich blieben neben den Reiseerfahrungen auch intensive fachliche und persönliche Begegnungen haften, von denen einige bis heute auch immer mal wieder aufgefrischt wurden. Und als ein Ergebnis der Research Seminars entstand außerdem u.a. auch ein Themenheft „Managing Diversity“ und dies war natürlich ebenfalls ein Aspekt, den ich zum Forschungs-Trip trotz der Anfangs-Hindernisse in positiver Erinnerung behielt. Ich würde es daher jederzeit wieder tun, aber: Ich würde jetzt immer genug Notproviant mitnehmen. J

Lust auf mehr Wissenschaft aus Kroatien? Der Nature Index, eine große Datenbank über Publikationen aus vielen Ländern und Instituten, gibt Ihnen einen Überblick über die dortige Forschungsszene.

]]>
http://scilogs.spektrum.de/wissenschaftssystem/kroatien-forschungs-trip-mit-hindernissen/feed/ 0
Italien: Beim Kampf um den Titel könnte es knapp werden … http://scilogs.spektrum.de/denkmale/italien-beim-kampf-um-den-titel-koennte-es-knapp-werden/ http://scilogs.spektrum.de/denkmale/italien-beim-kampf-um-den-titel-koennte-es-knapp-werden/#comments Mon, 13 Jun 2016 07:24:15 +0000 Eva Bambach http://scilogs.spektrum.de/denkmale/?p=890 Weiterlesen]]> scilogs_em2016
Das gilt allerdings vermutlich nicht für die Squadra Azzurra, die – 2012 noch EM-Finalist – bei der EM 2016 nicht zu den großen Favoriten zählt. Im Fussball hat das Land derzeit nur durch eine starke Defensive und Torwart-Legende Buffon eine Chance. Aber seit Jahren ist es Europameister (und zugleich Weltmeister) in Hinblick auf die nationalen Stätten, die als schützenswerte Kulturdenkmale in die  Welterbeliste der UNESCO eingetragen sind.

 

UNESCO-Welterbe in Italien

Ein Klick aufs Bild verlinkt zur interaktiven Karte …

 

Erbe der Welt vor allem in Italien?

Ganze 44 (oder gar 46, wenn man den Vatikanstaat dazurechnet) Welterbestätten der Kategorie Kultur befinden sich auf italienischem Boden. Damit ist das Land in Europa absolute Spitze: Es  folgen im Rang mit deutlichem Abstand Spanien (38), Frankreich (35) und Deutschland (34) (die Zählung der Denkmale variiert mitunter, da es auch Mischformen mit Naturerbestätten gibt und außerdem zunehmend auch grenzüberschreitende Denkmale erfasst werden). Auf kleinstem Raum geballt verzeichnet Europa die weltweit höchste Anzahl UNESCO-geadelter Kulturstätten. Aber Italien sieht sich nicht von der europäischen Konkurrenz bedrängt, wenn demnächst im Juli die Welterbekomission der UNESCO in Istanbul tagt, um über die von den einzelnen Ländern vorgeschlagenen für die Aufnahme in die Welterbeliste zu entscheiden.

Als härtesten Rivalen sieht man in Italien China an: Zählt man nämlich die Gesamtheit aller Einträge in die Welterbeliste (Natur- wie Kulturdenkmale und deren Mischform, aber auch die grenzüberschreitenden Einträge), dann liegt Italien mit 51 Einträgen nicht weit vor China mit 48 Einträgen. Das asiatische Land reicht in diesem Jahr zwei neue Anträge ein – wird beiden zugestimmt, dann beträgt der Abstand zu Italien, das in diesem Jahr auf eine neue Kandidatur verzichtet, nur noch eine einzige Welterbestätte – eine Situation, die im Stiefel als bedrohlich empfunden wird.

IMG_1858

Wurde vom UNESCO-Komitee mangels überzeugender Schutzmaßnahmen 1987 nicht angenommen: Ostia antica

 

Die UNESCO fordert Zurückhaltung

Die italienische Zurückhaltung bei der Bewerbung ist keine neue Bescheidenheit: Um die als ungerecht empfundene Verteilung der Welterbestätten in der Welt auszugleichen, hat die UNESCO alle Länder mit schon sehr vielen Eintragungen zur Mäßigung bei den Bewerbungen aufgerufen und angekündigt, dass Anträge aus diesen Ländern nur noch Chancen auf Aufnahme haben, wenn sie bislang noch nicht oder wenig vertretene Sparten vertreten. So plant Italien für das Jahr 2018 die Beantragung für Ivrea. Die Stadt, die von der Firma Olivetti während des gesamten 20. Jahrhunderts als Industriestandort geprägt wurde, steht seit 2012 auf der italienischen Tentativliste.

Andere Kommunen warten seit Jahren sehnsüchtig auf eine Nominierung. In Italien wie in vielen anderen Ländern (nicht anders als in Deutschland auch) hat die Adelung einer Region durch die Aufnahme ins Welterbe oft große (nicht nur, aber meist positive) lokalpolitische Bedeutung. Und nicht nur das: Der bekanntermaßen für Kulturelles eigentlich nicht allzu empfängliche Silvio Berlusconi prahlte im Jahr 2011, dass 50 % aller europäischen Weltkulturerbestätten in Italien lägen. Eine krasse Übertreibung. Es sind aber immerhin doch um die 10 % .

 

Prestige gegen  Schutzversprechen

Die Aufnahme in die UNESCO-Liste ist mit einem Schutzauftrag verbunden. Damit hat man in Italien aber ein Problem. Jahrelang wurde wenig für den Erhalt und die Pflege der Kulturschätze getan. Das Welterbe-Komitee, das gefährdete Denkmale auf eine Rote Liste setzt und mit Aberkennung des Titels droht, drückte lang die Augen zu. Seit 2010 in Pompeij das „Haus der Gladiatoren“ zusammengebrochen war,  fordert das Welterbekomitee von der italienischen Regierung jedoch konkrete Maßnahmen.

Die ausgewählten italienischen Welterbestätten bestärken ein humanistisch geprägtes, eurozentriertes Weltbild. Die meisten Denkmale stammen aus der Renaissance, dicht gefolgt von den Zeugnissen der Antike. Die erste eingetragene italienische Stätte auf der 1978 eröffneten Liste waren jedoch die steinzeitlichen Felsbilder von Valcamonica. Erst dann folgten Kirche und Dominikanerkloster Santa Maria delle Grazie in Mailand mit dem Abendmahl von Leonardo da Vinci und das historische Zentrum Roms (1980), sodann Florenz (1982), Venedig und Pisa (1987). Insgesamt gab es aber bis 1995 in Italien mit 8 Nennungen nur vergleichsweise wenige eingetragene kulturelle Stätten, im Vergleich etwa zu Spanien (20), Frankreich (19) oder Deutschland (15).

Verteilung nach Epochen Aufnahmejahr

Per Klick zur interaktiven Grafik …

 

Die Tentativlisten

Das lag nicht etwa daran, dass es in Italien keine Vorschläge gegeben hätte – im Gegenteil: 1984 brachte das Land 32 Orte auf die Tentativliste, für die meisten davon beantragte das Land jedoch niemals die Aufnahme in die Welterbeliste. Zur Tentativliste: Der Welterbekonvention beigetretene Staaten können bei der UNESCO Listen mit den in den folgenden fünf bis zehn Jahren vorgesehenen Vorschlägen für die Welterbeliste einreichen. Die Eintragung auf der Tentativliste ist Voraussetzung für die Beantragung der Aufnahme in die Welterbeliste.

1987 wurden zwei Anträge (Selinunt und Castel del Monte, inzwischen aufgenommen) zurückgestellt, weil das Welterbekomitee verbindlichere Zusagen für den Schutz des Areals forderte. Mitte der 1990er-Jahre stieg die Zahl der gestellten (und angenommenen) Anträge sprunghaft: Von 1995 bis 1998 wurden 21 neue Weltkulturerbestätten in Italien in die Liste aufgenommen. Die Zahl der italienischen Einträge wurde damit mehr als verdreifacht (im gleichen Zeitraum wurden aber auch mehr als dreißig Nominierungen vorgenommen, die später gestrichen wurden). Waren die Bewerbungen in den 1990er-Jahren besser vorbereitet als die in den Jahren zuvor oder trat Italien  einfach nur offensiver, sprich mit mehr Anträgen auf? Das wäre ein interessantes Thema für eine zeitaufwändige Recherche (alle Dokumente zu den UNESCO-Komitee-Sitzungen sind downloadbar).

Einen neuen italienischen Bewerbungsschub gab es mit 31 Vorschlägen im Jahr 2006: Die meisten davon stehen noch heute auf der derzeit 40 Stätten umfassenden Tentativliste.

Bleibt Italien also Weltmeister? Die italienische UNESCO-Kommission hält dafür ein Umdenken für nötig: Im Gegensatz zu der eher spontanen Auswahl der Vorschläge in der Vergangenheit will man nun auf sorgfältig geplante Auswahl setzen, um den Wert der heimischen Kulturgüter noch besser zur Geltung zu bringen.

Lust auf mehr Wissenschaft aus Italien? Der Nature Index, eine große Datenbank über Publikationen aus vielen Ländern und Instituten, gibt Ihnen einen Überblick über die dortige Forschungsszene.

]]>
http://scilogs.spektrum.de/denkmale/italien-beim-kampf-um-den-titel-koennte-es-knapp-werden/feed/ 1
Schmerzmittel gegen Migräne – kombinieren oder nicht? http://scilogs.spektrum.de/graue-substanz/schmerzmitteln-gegen-migraene-kombinieren-oder-nicht/ http://scilogs.spektrum.de/graue-substanz/schmerzmitteln-gegen-migraene-kombinieren-oder-nicht/#respond Sun, 12 Jun 2016 14:30:29 +0000 Markus A. Dahlem http://scilogs.spektrum.de/graue-substanz/?p=13412 Weiterlesen]]> Schmerzmittel und spezifische Migränemittel sollten an nicht mehr als zehn von dreißig Tagen eingenommen werden. Hält man sich an diese Regel, haben Menschen mit häufigen Kopfschmerzen öfters keine Medikamente zur Verfügung. Immerhin werden an den zehn erlaubten Tagen die Tabletten nicht einzeln gezählt. Man kann und soll mit adäquater Dosis die Schmerzen dann behandeln. Die Frage ist: Können verschiedene Schmerzmittel kombiniert eingenommen werden oder ist die Monotherapie mit genau einem Wirkstoff das bessere Therapieprinzip?

Das 58. Jahrestreffen der amerikanischen Headache Society (AHS) geht heute zu Ende. Unter dem Hashtag #AHS16SD konnte man auf Twitter in den vergangenen vier Tagen Informationen aus der aktuellen Kopfschmerzforschung verfolgen. Auch ein Hinweis auf eine neue Studie, die eine Antwort auf oben genannte Frage gibt, wurde gleich zu Beginn getwittert.

ahs16sd_banner

Ausgezeichnete Studie zum Outcome

Bei der Eröffnung des Jahrestreffen am vergangenen Donnerstag wurde eine Studie zum Gebrauch von Schmerzmitteln gegen Migräne ausgezeichnet. Es ging um den »award for the best article 2015«.

Ziel dieser Studie war es, die Behandlungsergebnisse zu beurteilen, wenn zusätzlich zu einer akuten Behandlung mit einem sog. Triptan ein weiteres Schmerzmittel eingenommen wurde, beispielsweise ein Triptan und ein Paracetamol, ein Triptan und ein Opiat, ein Triptan und ein Beruhigungsmittel oder auch ein Triptan und noch ein anderes Triptan.

Viele Möglichkeiten und …

Triptane sind speziell entwickelte Migränemittel. Es gibt sieben verschiedene. Zwei Triptane kann man bereits rezeptfrei in der Apotheke kaufen, allerdings nur in kleinen Packungsgrößen. Neben den Triptanen kommen in der medikamentösen Migränetherapie auch andere Schmerzmittel zum Einsatz.

In den deutschen Leitlinien für Diagnostik und Therapie in der Neurologie (Georg Thieme Verlag) heißt es unter anderem: „die Kombination eines Triptans mit einem NSAR [nicht-steroidalen Antirheumatika, s.u.] ist der jeweiligen Monotherapie überlegen“. Wobei die Triptane überhaupt nur die „Therapie erster Wahl bei mittelschweren und schweren Migräneattacken [sind], die nicht oder nicht ausreichend auf eine Therapie mit Analgetika [Schmerzmittel] oder nicht steroidalen Antirheumatika ansprechen“. Man stutzt vielleicht kurz über den Begriff „erste Wahl“ bei dieser Empfehlung, da man offensichtlich immer erstmal mit NSAR anfängt.

… ein langer Weg zur Therapie

Erste Wahl hin oder her, fast alle Patienten haben einen langen Weg mit einer Reihe verschiedener medikamentöser Behandlungen hinter sich, bevor sie – hoffentlich – eine adequate Therapie finden. Das Deutsche Ärzteblatt schätzt, dass 3,7 Milliarden Schmerztabletten in Deutschlands Apotheken jährlich zur Linderung der Migräne verkauft werden. Da sollte es nicht verwundern, dass Schmerzmittel öfter auch mal kombiniert werden. Diesem Problem nehmen sich die Autoren der Studie nun an.

Wenn die Kopfschmerzen nicht auf ein bestimmtes Medikament in gewünschter Weise ansprechen, stehen natürlich mehrere Optionen zur Verfügung, schreiben die Autoren. Die Entscheidungen umfassen den Wechsel zu einem anderen Medikament und auch die Änderung der Dosis, des Zeitpunktes, oder der Art der Verabreichung (oral, nasal, rektal, subkutan) der anfangs gewählten Medikation – oder eben auch das Hinzufügen weiterer Schmerzmittel. Die Möglichkeiten sind nur durch die Geduld der Patienten begrenzt.

Geübte Praxis kaum validiert

Ein wenig Ordnung schaffen vorgefertigte Kombinationspräparate, die mehrere Wirkstoffe enthalten, beispielsweise ASS (Acetylsalicylsäure), Paracetamol und Koffein oder eine Fixkombination von einen Triptan mit einem NSAR (Sumatriptan und Naproxen) in einer Tablette. Zu solchen Fixkombination sind klinische Studien vorhanden. Darauf verweist die nun ausgezeichnete Studie auch. Die Autoren sehen allerdings einen hohen Bedarf in der Untersuchung der bisher oft geübten Praxis, einen weiteren Wirkstoff durch eine weitere Tablette der Therapie hinzuzufügen. Viel zu wenig weiß man darüber. Dass die Studie nun ausgezeichnet wurde, zeigt, dass die Vertreter der amerikanischen Headache Society dem zustimmen.

buse2016Adding_Cover

Es geht um bestimmte Kombinationen. Folgende drei Arzneimittelgruppen und deren Kombination mit einem Triptan wurden untersucht:

  1. NSAR (NSAID) sind sehr vielfältig. Sie wirken nicht nur schmerzstillend, sondern auch fiebersenkend und entzündungshemmend. Unter ihnen befinden sich auch bekannte Klassiker: ASS oder Acetylsalicylsäure, Paracetamol, Ibuprofen und vielleicht weniger bekannte Wirkstoffe, wie Metaminzol, Naproxen, Diclofenac, Ketoprofen, Ketorolac, Flurbiprofen, und einige weitere. Zur Abgrenzung zu den Opioiden (s. nächste Gruppe) wird diese Gruppe auch zu den Nicht-Opioid-Analgetika eingeordnet. Die nichtsteroidalen Antirheumatika (NSAR, engl. non-steroidal anti-inflammatory drugs, NSAID) bilden eine Untergruppe, die auch antiphlogistische Analgetika genannt wird (antiphlogistische=entzündungshemmend; Analgetika=Schmerzmittel).
  2. Opioide ist ein Sammelbegriff für Substanzen mit morphinartigen Eigenschaften. Morphin, auch als Morphium bekannt, ist ein Bestandteil des Opiums, was wiederum namensgebend für diese Klasse ist. Morphium ist somit quasi eine Referenzsubstanz. Opiate stammen dabei chemisch direkt vom Morphin ab, während Opioide alle Stoffe bezeichnet, die über die Opioidrezeptoren ihre Wirkungen vermitteln. Es gibt auch körpereigene Opioide, wie z.B. die Endorphine.
  3. Barbiturate sind, je nach Dosierung, Beruhigungsmittel und wirken auch antikonvulsiv, d.h. der Entstehung von nervösen Krämpfen entgegen, indem sie die neuronalen Erregbarkeit bzw. die Erregungsweiterleitung im zentralen Nervensystem hemmen.

Die Studie schaute auf eine Stichprobe mit 2.128 Migräneerkrankten, die alle mit einem Triptan medikamentös behandelt wurden. 111 Personen kombinierten dieses noch mit einem anderen Triptan, 118 fügten ihrer Therapie ein Opioid oder Barbiturat hinzu und 69 ein NSAID. Eine Referenzgruppe von etwa 1800 Fälle blieben bei dem konsequenten Behandlungskonzept mit nur einem Triptan.

Nach Anzahl der Kofschmerztagen unterteilt

Die Probanden in der Stichprobe wurden in drei Gruppen unterteilt, die über die Anzahl der Kopfschmerztage definiert wurden, nämlich als episodisch seltene, moderate und häufige Formen mit Kopfschmerztagen pro Monat zu 0-4 (selten), 5-9 (moderat) und ≥10 (häufig). Dabei wurde sich an der üblichen klinischen Einteilung zwar orientiert. Doch aufgrund zu kleiner Probandenzahlen wurde beschlossen, die übliche Einteilung nicht exakt einzuhalten, was die Interpretation der Ergebnisse erschwert.

Die übliche Einteilung hätte die Gruppe der episodisch-häufigen Migränepatienten unterteilt und ab >15 Kopfschmerztagen pro Monat nicht mehr von einer episodischen, sondern chronischen Form der Migräne gesprochen. Diese Zusammenführung ist nicht wirklich neu und als modifiziertes Silberstein-Lipton-Kriterium in der US-amerikanischen Kopfschmerzliteratur bekannt. Es sprechen also nicht allein niedrige Probandenzahlen für ein Zusammenlegen der chronischen Migräne mit der episodisch-häufigen Form.

Allgemein keine Verbesserung – NSAID Outcome gespalten

Um die Behandlungsergebnisse zu beurteilen, wurde der MIDAS-Fragebogen genutzt (Migraine Disability Assessment). Dieser Fragebogen wird vom Patienten selbst ausgefüllt. Er ermittelt die Beeinträchtigungen durch Migräne in den vorausgehenden 3 Monaten und erfasst verschiedene Bereiche des Lebens, wozu insbesondere Arbeit, Haushalt und/oder Schule sowie Freizeit gehören.

Die Autoren fanden heraus, dass die Monotherapie mit einem Triptan in der Regel nicht nochmal verbessert wurde, wenn andere Schmerzmittel hinzufügt wurden. Diese Ergebnisse legen insbesondere nahe, dass Menschen mit häufiger Migräne nicht geholfen wird und sich die Behandlungsergebnisse dann eher verschlechtern. In der Gruppe der episodisch-moderaten Form mit fünf bis neun Kopfschmerztagen pro Monat zeigte nur der zusätzliche Gebrauch von NSAID eine Verbesserung der Behandlungsergebnisse.

Keine persönliche Therapieempfehlung

Letztlich muss man sich dennoch jeden Fall individuell anschauen. Deswegen soll hier im Blog nicht der Eindruck entstehen, man könnte auf Basis dieser Ergebnisse eine persönliche Therapieempfehlung abgeben. Der Therapieerfolg hängt immer auch von lebensgeschichtlichen Aspekten ab, die nur eine Ärztin oder ein Arzt beurteilen kann. Beispielsweise könnten Begleiterkrankungen, besondere Risiken und andere Faktoren, die die Möglichkeit einer Prophylaxe einschränken, eine Rolle spielen. Hohe sportliche Aktivität oder Stress, schließen z.B. Beta-Blocker bzw. Antidepressiva in der Prophylaxe aus. Bei der Studie ging es aber nur um die Akuttherapie.

Nichtmedikamentöse Behandlungsstrategien noch zu wenig bekannt

Eine Aussage kann man mitnehmen: Die Autoren sehen in den Triptanen die tragende Säule einer Migränebehandlung, auch wenn Triptane nicht immer ausreichend ansprechen. Dass die Studie kaum Belege findet, dass andere akute Schmerzmittel eine Monotherapie mit Triptanen ergänzen können, zeigt laut den Autoren vor allem eins: den medizinischen Bedarf nach nichtmedikamentösen Behandlungsstrategien – dann hat man auch an den 20 Tagen, an denen man ohnehin keine Schmerzmittel einnehmen darf, eine Alternative. Bisher bieten vor allem klinische Spezialeinrichtungen gezielt solche Ansätze. Ein in der Niederlassung tätiger Arzt oder Neurologe kennt oft nicht die Gesamtbreite der Verhaltenstherapien und Neuromodulatoren gegen Migräne.

 

Literatur

Buse, Dawn C., et al. „Adding Additional Acute Medications to a Triptan Regimen for Migraine and Observed Changes in Headache‐Related Disability: Results From the American Migraine Prevalence and Prevention (AMPP) Study.“ Headache: The Journal of Head and Face Pain 55.6 (2015): 825-839. (open access)

]]>
http://scilogs.spektrum.de/graue-substanz/schmerzmitteln-gegen-migraene-kombinieren-oder-nicht/feed/ 0
Allez les Blogs – Das Erbe der Ukraine http://scilogs.spektrum.de/lifescience/allez-les-blogs-die-ukraine/ http://scilogs.spektrum.de/lifescience/allez-les-blogs-die-ukraine/#comments Sun, 12 Jun 2016 14:01:09 +0000 Anna Müllner http://scilogs.spektrum.de/lifescience/?p=338 Weiterlesen]]> scilogs_em2016
Die Ukraine kennen wir in letzter Zeit nur aus negativen Nachrichten. Der Konflikt mit Russland, Demonstrationen, Bürgerkrieg, Korruption. Auf dem Rasen macht das Land jedoch immer wieder einen guten Eindruck. Als weitere Sportler fallen uns noch die Klitschkobrüder ein, manch einer denkt vielleicht auch an den Sieg beim diesjährigen Eurovision Songcontest. Und dann? Dann denken wir an Dinge die noch länger her sind. Wir denken an 1986, vor dreißig Jahren, an ein  Atomkraftwerk im Nordosten des Landes, das damals zur Sowjetunion gehörte. Noch heute sind weite Teile der Gegend in einem Dreiländereck aus Weißrussland, Russland und Ukraine radioaktiv belastet. Die Städte und Dörfer rund um Tschernobyl sind Geisterstädte.

Das wissen wir also über das Land Ukraine:  Krieg, Vertreibung, leere Städte, ein paar Tore und linke Haken. Genau mit diesem Bild fuhr ich 2012 in die Ukraine, bzw fuhr ich dorthin, was damals noch Ukraine war. Und ich habe mich sehr schnell in das Land verliebt.

Das Ganze war eine Konzertreise meines Chores. Mit dem Zug fuhren wir von Budpast nach Kiev und von Kiev weiter nach Sevastopol. Auf der Rückreise fuhren wir von Sewastopol nach Kiev und von Kiev nach Warschau. Der Wodka war gut und spottbillig und so wurde es eine einigermaßen angenehme Fahrt. Stundenlang  zog an uns eine Landschaft vorbei, die ich als Nichtgeologin als Tundra bezeichnet hätte. Es sieht eher aus wie Ödland. Es war duster und das Gras war braun. So sehen verlassene Schlachtfelder aus. Und dennoch, all dies hatte seinen ganz eigenen Charme. Postapokalyptischer Chic. Untermalt war das Ganze von Milizen mit Gewehren auf der Schulter.

Poetisch gesehen ist es bei dieser Umgebung natürlich klar, dass die erste nicht kriegerische atomare Katastrophe hier passieren musste. Sie passte hier einfach genau hin. Aber mit Poesie hat das alles natürlich wenig zu tun. Tschernobyl war eine Verkettung von Konzeptionsfehlern, menschlichem Versagen und falschem Stolz.

Möglich war das alles durch die Kerne von Atomen. Atome sind die kleinen Teilchen, die unsere Welt ausmachen. Sie bestehen aus einem Kern von Neutronen und Protonen, die von Elektronen umkreist werden. Prinzipiell unterscheiden sich die verschiedenen Elemente auch nur in der Ladung ihres Atomkerns, die sich aus der Zahl ihrer Protonen und Neutronen  in ihrem Kern ergibt. Die Zahl der Neutronen ist dabei aber variabel. Elemente mit unterschiedlicher Neutronenzahl nennt man Isotope. Um die Isotope kenntlich zu machen schreibt man die Anzahl der Neutronen vor seinen Namen (#NElementname). Diese sind nicht immer stabil, sie können zerfallen. Das bedeutet, durch Abgabe von Energie werden sie zu einem anderen Element.

Für alle Isotope passiert dies unterschiedlich schnell. Außerdem geben sie dabei unterschiedliche Arten von ionisierender Strahlung ab.

Beim Alphazerfall geben die instabilen Isotope einfach ein 4Helium-Atom ab, also ein Heliumatom mit zwei extra Neutronen. Da sie sehr groß sind können sie kaum durch Materie dringen und so bietet unsere Haut einen guten Schutz vor Alphastrahlung. Allerdings wird es gefährlich wenn man einen Alphastrahler in die Nahrung, ins Wasser oder in die Atemluft gelangen. So wurde zum Beispiel der Doppelagent Alexander Litwinenko durch den Alphastrahler 210Polonium vergiftet.

Michaelsklosterstraße

Mykhailivs’ka Straße, in Kiev am Michaelskloster. Kiev hat den Charme Stockholms, nur deutlich bunter.

Beim Betazerfall entstehen Teilchen, die der instabile Atomkern hinausschleudert. In diesem Fall nicht solche mit Pudding sondern Elektronen oder deren Gegenstück, die Positronen. Diese reagieren wieder mit ihrem Umfeld. Vor Betastrahlung schützen schon sehr dünne und leichte Materialien wie Plexiglas. Als Beta-Strahler ist uns vor allem 131Iod bekannt. Da Iod beim Menschen in der Schilddrüse gespeichert wird, kann sich dort auch radioaktives Iod ansammeln. Wenn erwartet wird, dass man mit radioaktivem Iod in Kontakt kommt, füllt man diese  Speicher mit nicht-radioaktivem Iod auf. Dann wird neues Iod erstmal direkt wieder ausgeschieden und der Schaden in minimal. Radioaktives Iod kann, wie beim Unfall von Tschernobyl passiert, zu Schilddrüsenkrebs führen. Dieser ist früh entdeckt sehr gut behandelbar, auch wenn es erst einmal unlogisch erscheint, dass er mit genau dem gleichen 131Iod therapiert wird. Das liegt daran, dass die Schilddrüse als einziges Organ Iod speichern kann. Sie macht dabei keinen Unterschied zwischen dem harmlosen 127Iod und 131Iod. Das radioaktive 131Iod macht in der Schilddrüse dann das, was es am besten kann: Betazerfall und somit die Zellen in der unmittelbaren Umgebung schädigen. Die Betateilchen verursachen starke Schäden in der DNA, die zum Tod der Zellen führen. Nun sind dies aber Krebszellen und so erfüllt 131Iod dann ausnahmsweise einen guten Zweck: Die Krebszellen sterben ab. Das umliegende Gewebe wird geschont, da sich Iod außerhalb der Schilddrüse nicht einlagert. Die Schilddrüse wird dadurch jedoch komplett zerstört.

Hat sich der Kern nach Alpha- oder Betazerfall noch nicht beruhigt entsteht Gammastrahlung. Im Gegensatz zu den anderen Zerfällen handelt es sich hierbei aber um eine elektromagnetische Welle, ähnlich wie Licht. Sie tritt in Kernkraftwerken bei der Spaltung der Atomkerne auf. Diese Wellen sind so stark, dass die chemische Bindungen durchtrennen können. Das kann in unserer DNA passieren, oder es können andere Zellbausteine zerstört werden. Dadurch kann Krebs entstehen. In Tschernobyl war dies vor allem das 137Cäsium. In der Forschung habe ich übrigens genau dieses Isotop verwendet, um bestimmten Zellen Schaden zuzufügen. Diese Eigenschaft von Gammastrahlern nutzt man auch in der Krebstherapie. Man könnte Gammastrahlung jedoch auch nutzen, um unser Essen länger haltbar zu machen. Wichtig dabei ist, dass man kein radioaktives Isotop hinzufügt sondern es nur kurze Zeit in seine Nähe bringt. Dadurch werden Keime zerstört, ohne das Lebensmittel zu schädigen. Es wird be- und nicht verstrahlt.

Tschernobyl hat nicht nur zu einer großen Angst vor Strahlung geführt, sondern auch die Ukraine noch für sehr viele Jahre mit einem tragischen Ereignis verbunden. Genauso wie Strahlung nicht nur böse ist, sondern ein natürlich vorkommendes Phänomen, ist auch die Ukraine nicht nur die Geisterstadt Pripyat, sondern ein sich gerade sehr stark veränderndes, entwickelndes Land. Wollen wir hoffen, dass beide Frieden finden.

Kiosk-Fussball

Und natürlich viele Tore!

 

Lust auf mehr Wissenschaft aus der Ukraine? Der Nature Index, eine große Datenbank über Publikationen aus vielen Ländern und Instituten, gibt Ihnen einen Überblick über die dortige Forschungsszene.

]]>
http://scilogs.spektrum.de/lifescience/allez-les-blogs-die-ukraine/feed/ 4
Winston Churchill und die Antifaschisten http://scilogs.spektrum.de/con-text/winston-churchill-und-die-antifaschisten/ http://scilogs.spektrum.de/con-text/winston-churchill-und-die-antifaschisten/#comments Sun, 12 Jun 2016 12:54:19 +0000 Dierk Haasis http://scilogs.spektrum.de/con-text/?p=613 Weiterlesen]]> Sie haben so etwas sicherlich schon einmal gesehen: Das Portrait eine bekannten Politikers, Denkers, Humanisten o.ä. mit einem Kalenderspruch daneben. Selbstverständlich als Zitat mit dem Namen oder sogar der Signatur des Abgebildeten drin. So hat Einstein z.B. gesagt, dass man Zitaten aus dem Internet nicht trauen sollte, da sie leicht gefälscht werden können. Recht hat er! Und doch machen die Menschen weiter damit.

In den letzten Tagen taucht gerne wieder

The Fascists of the future will be the anti-fascists.

zugeschrieben Winston Churchill, auf.

(mehr …)

]]>
http://scilogs.spektrum.de/con-text/winston-churchill-und-die-antifaschisten/feed/ 15