Samstag, 20. Juni 2009

Panikattacken und Angstzustände - weit verbreitet oder massiv überschätzt?

Am vergangenen Freitag berichtete Stefan Stöcklin in der baz von diesem Science Artikel über einen neuen Wirkungsmechanismus für Psychopharmaka, dessen Co-Autoren u.a. von Novartis und Roche kommen.

Panikattacken und Angstzustände seien "verbreitete Störungen" schreibt er darin gleich zu Beginn. Dazu angeregt hat ihn wahrscheinlich der erste Satz des Papers in Science:
Anxiety disorders are highly prevalent disabling disorders
Die Fussnote dazu referiert auf einen Artikel von anno 2005 über die Prävalenz verschiedener psychischer Krankheiten gemäss Umfrage in den USA. Tabelle 2 in jener Publikation ist zu entnehmen, dass "any anxiety disorder" in der US-Bevölkerung gemäss dieser halbwegs repräsentativen Umfrag eine von gut vier Personen irgendwann Mal in ihrem Leben durchmacht. Das klingt nach viel. JedeR vierte AmerikanerIn hat demgemäss irgendwann im Leben (aktuelle Lebenserwartung: über 82) während einer kurzen oder längeren Phase, ein Mal oder mehrere Male etwas aus diesem Katalog: Panic disorder, Agoraphobia without panic, Specific phobia, Social phobia, Generalized anxiety disorder, Posttraumatic stress disorder, Obsessive-compulsive disorder, Separation anxiety disorder.
Der World Mental Health Survey, WMHS, vergleicht die Situation in mehreren Ländern. Diese Präsentation des WMHS (weitere Infos hier) stellt auf Seite 23 die 12-Monats-Prävalenz von Angststörungen in 17 Ländern nebeneinander. Daraus ist abzulesen: Jede 5. Person in den USA erlitt in den vergangenen 12 Monaten eine Angststörung (19%). Das ist der höchste Wert im internationalen Vergleich. In Israel, wo ich als einfacher Laie tendenziell deutlich mehr Fälle als in den USA vermuten würde aufgrund der dortigen Lebensumstände, erlitt nur jede 33. Person eine Angststörung (3%). In den USA sind also Angststörungen sechs Mal häufiger als in Israel. Deutschland liegt mit 8% im Mittelfeld. Die Schweiz ist im WMHS nicht erfasst.
Breiter gefasst sind die Zahlen auf Seite 22 derselben Präsentation. Dort werden die aufsummierten 12-Monats-Prävalenzen von allen psychischen Kankheiten gemäss internationalen Definitionen (WMH-CIDI / DSM-IV) verglichen. Die USA führen mit 27% (= 27% der AmerikanerInnen erlitten in den vergangenen 12 Monaten eine psychische Krankheit gemäss WMH-CIDI oder DSM-IV). Deutschland: 11%, Israel 10%, Nigeria 7% (tiefster Wert). Das heisst: In den USA sind psychische Krankheiten vier Mal häufiger als in Nigeria. Und immer noch knapp drei Mal häufiger als in Israel. Deutliche regionale Unterschiede scheinen vorhanden zu sein.
Die Situation hierzulande beschreiben Dokumente des Schweizerischen Gesundheitsobservatoriums. Dem fact sheet zur stationären Psychiatrie 2000 - 2006 ist zu entnehmen, dass in diesem Zeitraum recht konstant 50'000 PatientInnen jährlich stationär psychiatrisch behandelt wurden. Der Bericht Gesundheit in der Schweiz 2008 (2,6 MB, 374 Seiten) schreibt auf Seite 213 unter "Jahrespravalenz psychischer Erkrankungen"
Jedes Jahr erkranken etwa 25 bis 30 % der Bevölkerung erstmals oder wiederholt an einer psychischen Störung.

Damit wären wir im Bereich der Amerikaner, die's gemäss WMHS auf 27% bringen. Und um einen Faktor 2,5 höher als Deutschland. Auf Seite 214 steht in "Gesundheit Schweiz":
Dieselbe Grössenordnung psychischer Erkrankungshäufigkeit wurde auch für die Schweiz gefunden, beispielsweise in der so genannten «Zürich-Studie», die vor rund 30 Jahren gestartet wurde, auch leichtere Störungen erfasste und eine Lebenszeitprävalenz von 48 % ergab. Dies bedeutet, dass nahezu alle Menschen tief greifendes psychisches Leiden an sich selbst oder in ihrer nächsten Umgebung schon erfahren haben.

Die Datenlage für diese Aussage ist allerdings eher unklar, um nicht zu sagen sehr dünn und fragwürdig. Teilweise berufen sich die Autoren dieses Kapitels von "Gesundheit in der Schweiz 2008" auf den obsan-Bericht "Bestandesaufnahme und Daten zur psychiatrischen Epidemiologie". Dort steht auf Seite 27 und folgende:
Die mit Abstand wichtigsten Studien in der Schweiz sind die sogenannte Zürich-Studie von Jules Angst und die 1988-91 in Basel durchgeführte Studie von Hans-Rudolf Wacker.
Ueber Wackers Arbeit erfahren wir auf Seite 28 unter anderem:
Die Basler Studie wurde 1988-91 durchgeführt (Wacker, 1995). Die Stichprobe bildeten 470 Einwohner von Basel-Stadt, 261 Frauen und 209 Männer.
Zur Zürich Studie steht in "Bestandesaufnahme und Daten zur psychiatrischen Epidemiologie"
Das Sample der Zürich-Studie (Binder et al., 1982; Angst et al., 1984) geht einerseits aus einer Befragung anlässlich der militärischen Eintrittsmusterung der im Kanton Zürich wohnhaften Männer des Jahrgangs 1959 hervor sowie aus zusätzlich erhobenen Samples (im Kanton Zürich wohnhafte Schweizer Frauen des Jahrgangs 1958).

Die Teilnehmenden wurden 1978 einer Screening-Befragung unterzogen, in welcher u.a. die Symptom Check List SCL-90-R nach Derogatis (1977) zum Einsatz kam. Das Panel wurde anschliessend aufgrund einer stratifizierten Stichprobe gebildet, wobei als Schichtungskriterien das Geschlecht und die SCL-Werte verwendet wurden. Dabei waren die Befragten nach dem Screening in sogenannte High- und Low-Scorer unterteilt worden in Abhängigkeit davon, ob sie SCL-Scores über dem 85% Perzentil aufwiesen oder nicht. Die Panelstichprobe umfasste schliesslich etwa zwei Drittel High-Scorer und einen Drittel Low-Scorer. Die Low-Scorer sind gegenüber der Ausgangspopulation etwa um den Faktor 11 untergewichtet. Als Motiv für die gewählte Stichprobenschichtung ist natürlich die erhöhte Wahrscheinlichkeit für das Auftreten von psychischen und somatischen Symptomen und Störungen im Segment der High-Scorer zu
nennen.

Von den 591 TeilnehmerInnen der ersten umfassenden Befragung 1979 sind über die Befragungen 1981, 1986, 1988, 1993 und 1999 hinweg jeweils durchschnittlich 10 % der Befragten als Drop-Outs ausgeschieden. An der letzten Befragung 1999 beteiligten sich etwas mehr als 60% des Ausgangssamples. 47% der Befragten haben an allen sechs Befragungen teilgenommen.

Macht also 591 * 0,47 = 277 Personen, die die "Zürich Studie" über den gesamten Zeitraum erfasst. Etwas mehr über die Zürich Studie steht hier:
Angst Jules; Gamma Alex; Neuenschwander Martin; Ajdacic-Gross Vladeta; Eich Dominique; Rössler Wulf; Merikangas Kathleen R
Prevalence of mental disorders in the Zurich Cohort Study: a twenty year prospective study.
Epidemiologia e psichiatria sociale 2005;14(2):68-76.
BACKGROUND: In order to minimise retrospective recall in developing estimates of the prevalence of mental disorders in the general population, we conducted a prospective study of a cohort of youth from Zurich, Switzerland.
METHOD: A 20 year prospective study of a community-based cohort aged 19-20 from Zurich Switzerland. The sample was enriched by subjects scoring high on the Symptom Checklist 90 R (Derogatis, 1977). A semi-structured diagnostic interview was administered by clinically experienced psychologists and psychiatrists. The six interviews from 1979 to 1999 assessed diagnoses and sub-threshold manifestations of major diagnostic categories (with the exception of schizophrenia) for the past twelve months, depending on the current DSM versions (DSM-III, DSM-III R, DSM-IV). Additional information on symptoms and treatment were collected for the years between the interviews. The reported prevalence rates are weighted for stratified sampling and cumulate the one-year rates of the six interviews.
RESULTS: The cumulative weighted prevalence rates for any psychiatric disorder were 48.6% excluding, and 57.7% including tobacco dependence. In addition 29.2% and 21.8%, respectively manifested sub-diagnostic syndromes. Overall there were no significant gender differences. The corresponding treatment prevalence rates were 22.4% and 31.1%, respectively for the diagnostic subjects and 6.9% and 6.1%, respectively for the sub-diagnostic groups. The total treatment prevalence rate was 37.2% of the population (males 30.0%, females 44.1%).
CONCLUSIONS: Our findings reveal that psychiatric disorders are quite common in the general population. When the spectra of mental disorders are considered, nearly three quarters of the general population will have manifested at least one of the mental disorders across their lifetime.

Und ganz am Schluss, nach den dramatischen "Conclusions" (Raucher inbegriffen, erwischt es dreiviertel aller SchweizerInnen mindestens ein Mal im Leben mit einer "mental disorder") lesen wir dort:
LIMITATIONS: The data are based on a relatively small sample; a single age cohort, and the study was conducted in Zurich, Switzerland. These study features may diminish the generalisability of the findings.

Die Referenzstudie, auf die sich unter anderem "Gesundheit in der Schweiz" beruft mit der Aussage, für die Schweiz als ganzes gelte eine Lebenszeitprävalenz von 48 % für psychische Störungen, umfasst also gerade mal 277 Männer des Jahrgangs 1958 und Frauen des Jahrgangs 1959 über gut 20 Jahre ('79 bis '99) und sagt von sich selber, ihre Anlage (nur eine Alterskohorte, nur Personen aus Zürich) reduziere die Verallgemeinerbarkeit ihrer Erkenntnisse. Und trotzdem ist sie die offenbar wichtigste Quelle für die genau genommen nicht haltbare Aussage in "Gesundheit in der Schweiz" auf S. 214, "dass nahezu alle Menschen tief greifendes psychisches Leiden an sich selbst oder in ihrer nächsten Umgebung schon erfahren haben". Diese Extrapolation von 277 50jährigen Zürcherinnen und 51jährigen Zürchern auf die ganze Schweiz scheint mir doch recht fragwürdig. Die 470 Baslerinnen und Basler, die Wacker befragt hat, machen die Sache nicht schlüssiger.
Die wissenschaftlich nur schwach untermauerte Aussage erscheint an vielen Orten, wenn's um die Häufigkeit von psychischen Erkrankungen geht. Z.B. im BAG Bericht über die Europäische Ministerielle WHO-Konferenz zur Psychischen Gesundheit von 2005. Dort steht:
Nationale und internationale Studien zeigen, dass fast jede zweite Person im Verlauf ihres Lebens einmal – kürzer oder länger – an einer psychischen Krankheit leidet.

Sie taucht auf in "Psychische Gesundheit in der Schweiz" von 2007 unter "Fakten" auf Seite 10:
Ungefähr die Hälfte der Schweizer Bevölkerung erkrankt im Laufe des Lebens an einer behandlungsbedürftigen psychischen Störung (Ajdacic & Graf, 2003).

Sie kommt im Kapitel "Massnahmebereiche" in "Gesundheit im Kanton Zürich 2000 - 2006":
Jede zweite Person ist im Laufe ihres Lebens von psychischen Problemen betroffen, welche nach gegenwärtigen Diagnosekriterien das Ausmass einer psychischen Krankheit erreichen.

Sie ist 2007 auch Waffe im politischen Kampf, wenn NR Gutzwiller vom Bundesrat mehr Einsatz für die psychische Gsundheit der Bevölkerung verlangt:
Die Wahrscheinlichkeit, einmal im Leben an einem schweren psychischen Leiden zu erkranken, beträgt in der Schweiz nahe zu 50% und jedes Jahr erkranken 70'000 Menschen neu.

Und immer dient der obsan-Bericht "Bestandesaufnahme und Daten zur psychiatrischen Epidemiologie" als Referenz, der sich seinerseits in Sachen Prävalenz auf Angst und Wacker als Hauptzeugen beruft.

Kritik an den Prävalenz-Daten für die USA meldeten vor ein paar Jahren Horwitz und Wakefield an. Sie publizierten einen Artikel mit dem Titel
"the epidemic in mental illness: clinical fact or survey artifact?" Do half of all Americans suffer from mental disorders at some point in their lives? Or do surveys misdiagnose the distress that is a normal part of every life?
und halten darin unmissverständlich fest
Despite their rhetorical value, the high rates are a fiction; the studies establish no such thing. In fact, the extraordinarily high rates of untreated mental disorder reported by community studies are largely a product of survey methodologies that inherently overstate the number of people with a mental disorder. The inflated rates stem from standard questions about symptoms with no context provided that might distinguish the normal distress experienced in life from genuinely pathological conditions that indicate an underlying mental illness. Both get classified as signs of disorders. Moreover, because people experiencing normal reactions to stressful events are less likely than the truly disordered to seek medical attention, such questions are bound to inflate estimates of the rate of untreated disorders.

Was bleibt? Ist es reine Propaganda, zu sagen, Panikattacken und Angstzustände seien "verbreitete Störungen"? Propaganda, weil die Aussage sich auf eine fragwürdige Datenbasis stützt und lediglich psychopathologisierenden Techniken zur Stabilisierung der unsäglichen Verhältnisse in die Hände spielt? Seit die extrovertierte Forderung "macht kaputt, was euch kaputt macht!" (garantiert leicht deutbar als pathologisch!) etwas aus der Mode gekommen ist, abgelöst vom introvertierten Pillenschlucken (was kann man denn sonst tun?), liefern angeblich hohe Prävalenzen Argumente für den Ausbau von psychologischen / psychiatrischen Angeboten (und Forschungstätigkeiten). Wer wollte bedürftigen Individuen da davor sein?
Unlängst berichtete eine Berufskollegin von einem Tischgespräch, an dem die Beteiligten zum Schluss kamen, dass extrem vielen Leuten Burn-Out, Depressionen, Bipolare Störungen, Panikattacken etc. diagnostiziert würden. Meine Gegenfrage war, wieviele an dem Tisch Direktbetroffene waren oder wirklich persönlich und aus erster Hand entsprechende Geschichten kannten. Ich vermutete "urban legends" am Werk: Es kennt jeder jemanden, der jemanden kennt, der schon mal in stationärer psychiatrischer Behandlung war oder kurz davor. Sie meinte, niemand in der Runde sei direkt betroffen, aber alle kennten eine handvoll Betroffene. Ich blieb skeptisch und schlug vor an einem Samstagnachmittag in der Fussgängerzone mitten in der Stadt eine anonyme ad hoc Strassenumfrage durchzuführen. Einzige Auskunft, die's vom Publikum braucht: "Hat Ihnen in Ihrem Leben je eine entsprechend geschulte medizinische oder eine psychologische Fachperson eine psychische Krankheit diagnostiziert oder waren Sie schon mal in einer psychischen Verfassung, von der Sie glauben, sie wäre Ihnen wohl als psychische Krankheit diagnostiziert worden?" (Zugegeben, das ist nicht ganz identisch mit Prävalenz!) Meine Vermutung, wir kämen nicht über 3%, worst case 5%. Hätten die offiziellen Dokumente mit ihrer dünnen Datenbasis recht, müsste jede zweite Person mit "Ja!" antworten.

Mittwoch, 17. Juni 2009

Wasser, Helium3: Was die USA und China auf dem Mond suchen

Morgen startet die NASA-Rakete mit den zwei Sonden, die sich in der näheren Zukunft intensiv mit dem Mond beschäftigen werden. Die eine kreist mindestens ein Jahr um ihn herum. Die andere stürzt sich in ein paar Monaten in den Mondstaub. Peter Wurz, Professor für experimentelle Weltraum- und Planetenphysik und Mitdirektor des Physikalischen Instituts der Uni Bern, hat mir zu der Mission einige Fragen beantwortet. Das ist die Geschichte als Beitrag in 3:55


Das ist plusminus das Rohmaterial dafür in Interviewform:
Wie erklären Sie sich das neu erwachte Interesse am Mond? Macht es für Sie Sinn? (USA will zum Mars und übt dafür auf dem Mond; will vor Indien, und vor allem vor China, dort wieder bemannt landen)



Die Sonden suchen nach Wasser auf dem Mond. Wie kommt das denn dorthin? Es gab da ja nie Meere oder ähnliches! (von Kometen)



Wie kommt das Wasser in die Kometen? (bei der Entstehung des Sonnensystems)



Was profitieren Marsmissionen davon, wenn auf dem Mond Wasser gefunden wird? (Technologie)



Ausser üben für den Mars, was sind weitere Vorteile einer bemannten Station auf dem Mond? (ungestörte Weltraumbeobachtung)



Einige Wissenschaftler spekulieren auch darüber, man könnte den Mond als Ressourcenquelle nutzen. Was ist für die Erde so wertvoll, dass es sich dafür lohnt, auf dem Mond danach zu schürfen? (Helium3 für Fusionsreaktoren ist erklärtes Missionsziel der Chinesen)



Eines Tages werden chinesische Raketen im Pendelverkehr Proviant zum Mond bringen und Helium3 zur Erde? (durchaus vorstellbar!)



Bei der Gelegenheit: Der Mond zeigt uns immer die genau gleiche Seite. Wie kommt es zu dieser auffallenden Synchronizität von Erddrehung um sich selbst und Monddrehung um sich selbst und um die Erde? (Gezeitenkräfte!)

Freitag, 12. Juni 2009

Robbenbabies im Bundeshaus

Diese Woche hat sich Bundesbern mit den kanadischen Robbenbabies befasst, die jedes Jahr zu tausenden auf grausame Art und Weise geschlachtet werden. Denn es liegt ein politischer Vorstoss auf dem Tisch, der vorsieht, dass es in der Schweiz erlaubt werden soll, Robbenprodukte zu importieren, die gewonnen wurden während einer Jagd, die der kanadische Staat offiziell konzessioniert hat (Motion Aeschbacher wollte Einfuhr und Handel verbieten, von der Kommission für Wissenschaft, Bildung und Kultur abgelehnt und deutlich weniger strikt neuformuliert, vom Ständerat - auf Antrag der Kommission... - in der Form an Kommission zur Neuberatung zurückgeschickt).
Diese Regel geht aber den in der Robbenfrage engagierten Tierschutzorganisationen zu wenig weit. Eine ihrer Vertreterinnen, Sigrid Lüber von der Organisation Ocean Care, hat darum diese Woche in Bern in den Wandelhallen des Parlamentes intensiv lobbyiert für ihre Sichtweise. Was ist ihre Kritik an dem Ansatz der Kommission, dass Erzeugnisse aus kanadisch konzessioniert gejagten Robben doch gehandelt werden dürfen?


Morgen zu hören im Wissenschaftsmagazin.

Freitag, 5. Juni 2009

Home von Yann Arthus-Bertrand - Die Filmbesprechung

(anmoderation) Parallel zum heutigen UNO-Welt-Umwelt-Tag hat der französische Fotograf und Filmemacher Yann Arthus-Bertrand seinen neuen Dokumentarfilm veröffentlicht. Die Besonderheit: Arthus-Bertrand tat dies vergangene Nacht um 0 Uhr zeitgleich in 50 Ländern und auf dem Internet. Kostenlos. Der Film heisst "home". Arthus-Bertrand ist berühmt für seine atemberaubend schönen Landschaftsaufnahmen aus der Luft. Der Film "home" zeigt denn auch während 90 Minuten unseren Planeten aus der Vogelperspektive. Sein Thema: Wie's um die Umwelt auf unserer Erde bestellt ist. Und was unsere Rolle dabei war, ist und in Zukunft sein könnte.

(Beitrag) Die Welt zieht langsam und ruhig unter uns vorbei. Wir schweben in 100 Metern Höhe darüber hinweg. Wir sehen: rauchende Fabrikschlote, horizontweite Monokulturen, die Schachbrettästhetik westlicher Mega-Städte. Dann: Schmelzende Gletscher, brennende Wälder, ausgetrocknete Flussläufe.
Es ist ein beunruhigendes Panoptikum der Folgen menschlichen Handelns, das der Film home in den ersten 80 Minuten vor uns ausbreitet. Unser "home", unser daheim, ist kurz davor, in Flammen aufzugehen.
So beklemmend die Botschaft ist, ist sie zugegebenermassen doch nicht wirklich neu oder überraschend. Die Problemfelder, die "home" aufzeigt, haben andere Dokumentarfilme schon präziser und vertiefter abgearbeitet. Zu nennen sind: Der Film "unser täglich Brot" über die globalisierte Nahrungsmittelproduktion des Oesterreichers Nikolaus Geyrhalter. Oder: "ein böses Erwachen" über die Oelindustrie des Schweizers Basil Gelpke. Oder "Unsere Erde" der BBC. Oder auch "Eine unangenehme Wahrheit" über den Klimawandel von Al Gore.
Es ist die Optik von Yann Arthus-Bertrands "home", die den Film auszeichnet. Ganz simpel: Dass wir 90 Minuten über unsere Erde fliegen. Dass Formen und Farben der Landschaften, über die wir gleiten, so zu Gemälden werden. Als ob wir schliefen und des Nachts ein Engel uns mitnähme auf eine Weltreise. Auf eine Traumreise. Durch Fürchterliches und unaussprechlich Schönes.
Die Wirkung entsteht aus der Kombination von konsequent aus der Vogelperspektive gefilmten Bildern, plus einer meditativ-eindringlichen Filmmusik und dem Kommentar aus dem Off, der mit sanfter Stimme 80 Minuten lang beängstigende Fakten und Zusammenhänge aufzählt.
Die letzten 10 Minuten von Yann Arthus-Bertrands "home" gehören der Hoffnung. Wir lernen, dass die Solidarität unter Menschen den Egoismus von Nationen überwinden kann. Dass wir aufhören sollen, in der Erde zu bohren und stattdessen zum Himmel, zur Sonne blicken sollen. Gemeint ist: "Nutzt die Sonnenenergie, statt weiterhin Oel, Gas oder Kohle zu verbrennen!"
Dass wir verantwortliche konsumieren sollen. Das wir weniger Fleisch essen sollten, weil dessen industrielle Produktion reine Verschwendung ist und ihrerseits Hunger generiert.
Wir hören, dass Toleranz, Mässigung und das Teilen die neuen Paradigmen sind. Dass wir wissen, dass die Lösungen heute existieren. Und dass es an uns liegt, zu definieren, wie es mit diesem Planeten weitergeht. Dem ist wohl allem beizupflichten. Und auch dem wohl prägnanteste Satz des Films: Es ist zu spät, um noch Pessimist zu sein.
Allein: So wichtig der schonende Umgang von Dir und mir mit den Ressourcen der Erde ist, so umschifft der Film mit seinem Appell ans Individuum doch einen wichtigen Punkt: Es macht einen Unterschied, ob ich als Einzelperson nur noch zum Beispiel Bananen aus dem fairen Handel kaufe. Oder ob die Chefin einer Supermarktkette sich dazu durchringt, in ihrem Betrieb ganz auf fair trade umzustellen.
Der Film "home" ist kostenlos erhältlich, weil ein französischer Handelskonzern ihn finanziert. Nicht nur, aber auch gerade dessen Verhalten wird zeigen, ob die Botschaft des Films jene miterreicht, die an den Schalthebeln sitzen.
Abgesehen davon, sind die 90 Minuten Aufmerksamkeit, die "home" von Yann Arthus-Bertrand von uns verlangt, sicher keine vergeudete Zeit.

Leicht gekürzt gesendet heute in DRS2aktuell, wonach mir augenzwinkernd mitgeteilt wurde, der Teil
Als ob wir schliefen und des Nachts ein Engel uns mitnähme auf eine Weltreise. Auf eine Traumreise. Durch Fürchterliches und unaussprechlich Schönes.
habe in der Redaktion für grosse Erheiterung gesorgt. Meine Güte, kriegt euch wieder ein! Ich behaupte ja nicht die Existenz von Engeln... :-)

Toleranz, Mässigung und Teilen: die neuen Paradigmen / Home - das Transkript

Notizen zu und quasi-Transkript von der englischen Version des neuen Films von Yann Arthus-Bertrand: "Home"

Die ersten 23 Minuten +- : Woher das Leben kommt, wie es sich entwickelt hat. Pflanzen, Tiere: Nichts ist überflüssig. Alles ist verbunden.
[Minutage]: [ungefährer Inhalt]
23:30 min: tap into the energie deep inside the earth
24:40 städte
die hälfte der weltbevölkerung lebt in städten
usa 3 millionen bauern produzieren genügend getreide für 2 milliarden menschen, aber es wird nur zum kleinen teil dafür verwendet
70% des wasserverbrauchs gehen drauf für bewässerung
28:00 pestizide, dünger (alles kommt von der petrochemie)
29 almeria
29:20 concentration camp stile cattle farms
30: 13'000 liter wasser für 1 kilo kalbfleisch; agriculture is oil powered
31:25 los angeles
32:15 suburbia
32:50 auto = symbol des fortschritts
33:30 erzabbau
34:40 containerschiffe
35 90% des handels reist über das wasser
36 dubai: totem der modernität, beacon for all the worlds money. Nichts ist naturferner und naturabhängiger als Dubai.
36:50 Waltanz
37:58 Fischfang. Tausende Fischfabriken sind unterwegs. Dreiviertel der Fischgründe sind überfischt.
38:40 wir zerstören den lebenskreislauf, der uns gegeben wurde
39:40 500 millionen menschen leben in wüstengebieten
40:30 in saudiarabien sind fossile wasserreserven nahezu leer
41 israel
41:30 jordan nur noch ein rinnsal, der rest wird als gemüse und früchte in alle welt geflogen
42:50 indien übernutzung des grundwassers
43:50 las vegas grösste wasserkonsumenten der welt
44:22 palm springs
45 colorado river - wasserpegel sinkt kontinuierlich
45:40 feuchtgebiete
47:05 alles ist verbunden - bäume atmen grundwasser in die athmosphäre
48 urwälder enthalten dreiviertel der biodiversität der welt
49 amazonas 20% geschrumpft in 40 jahren. soja und weizen für fleischproduktion
50 borneo - folgen der palmölproduktion
51 eucalyptusblätter vergiften den boden
52 kohle in haiti - nur 2% der wälder in haiti noch vorhanden, folge: erosion
53 madagascar erosion
55 osterinseln
56 nigeria 70% der menschen leben unter armutsgrenze. paradoxon: die hälfte der armen lebt in ressourcenreichen ländern; ungleichheiten
57 Lagos landflucht aus not, nicht um weiterzukommen
58 1 von 6 menschen lebt in prekären verhältnissen
58:40 abfallberge mit menschen drin
1:00 ölsande in kanada extraktion braucht unmengen wasser
1:01: co2 & klima pole nordpol schmilzt weg
1:3:25 co2 konzentration so hoch wie nie in den letzten paar 100'000 jahren
1:4:45 buckelwale (?) in der arktis
1:5:20 eisbärin mit Jungen
1:6 Grönland wenn sein eis schmilzt: 7 meter sea level rise
1:11 kilimandscharo
1:14 Permafrost Methan
Wir haben noch 10 Jahre zeit, den trend umzukehren
1:16:49 wie sind verantwortlich für unsere taten
12x mehr militärausgaben als entwicklungshilfe
5000 tote täglich wegen schlechtem trinkwasser
1 milliarde menschen haben nicht zugang zu sauberem wasser
1 Milliarde hungert
50% des getreides weltweit ist für fleisch oder biotreibstoffe
13 millionen hektaren wald verschwinden jährlich
1:19:17 jedes vierte säugetier, jede 8te vogelart, jede 3te amphibienart ist vom aussterben bedroht
3/4 der fischgründe sind leergefischt oder vor dem kollaps
1:20:17 die polare eisdecke ist 40% dünner als vor 40 jahren
1:20:34 2050 wird's 200 millionen klimaflüchtlinge geben
1:21 andere zahlen den preis für unser verhalten. flüchtlingslager, gross wie städte, mitten in der wüste
1:21:19 es ist zu spät, um pessimist zu sein
1:22 NGOs beweisen: die solidarität unter menschen ist grösser als der egoismus von nationen
1:22:50 13% der kontinente sind schutzgebiete. harmonie zwischen mensch und natur kann die regel und nicht die ausnahme werden
1:23:30 costa rica hat gewählt zwischen militärausgaben und naturschutz. für den naturschutz. das land hat keine armee mehr.
1:23:56 nachhaltige waldwirtschaft muss zwingend werden
1:24:20 wie kann gerechtigkeit herrschen zwischen menschen, die nur mit ihren händen arbeiten und jenen, die maschinell und mit staatlichen subventionen anbauen?
1:24:27 Lasst uns verantwortliche Konsumenten sein! Achten wir darauf, was wir einkaufen!
1:24:39 Eine Landwirtschaft, die den ganzen Planeten ernährt IST möglich, wenn die Fleischproduktion die Nahrungsmittel nicht den Menschen aus dem Mund nimmt.
1:24:55 ich habe Häuser gesehen, die ihren eigenen Energiebedarf produzieren: 5000 Häuser in Freiburg im Breisgau
1:25:20 80% unseres energiebedarfs wird aus fossilen quellen gespiesen.
1:25:55 ich habe off shore windfarmen vor Dänemark gesehen, die 20% des Energiebedarfs des Landes generieren
1:26:40 so lange die Erde existiert, wird die Sonnenenergie unerschöpflich sein. Alles was wir tun müssen ist: Aufhören in der Erde zu bohren und beginnen, an den Himmel zu blicken!
1:27 Toleranz, Mässigung und Teilen sind die neuen Paradigmen
1:27:20 es ist zeit, zusammenzukommen. wichtig ist nicht, was verloren ist. sondern was noch bleibt.
1:27:44 wir wissen, dass die Lösungen heute existieren. Wir haben die Kraft zur Veränderung. Warum warten wir?
1:28:25 es liegt an uns, zu definieren, wie's weitergeht. Gemeinsam.

Donnerstag, 4. Juni 2009

Home - Die Welt von oben

Von PPR gesponsert, ist ab heute Mitternacht unter anderem hier der neue Film Home von Yann Arthus-Bertrand gratis im Netz zu sehen. 2 Stunden Flug über die Erde, dazu nur Musik und Off-Kommentar. Werde mal einen Blick drauf werfen und eventuell darüber erzählen. Hier ein paar offizielle Schnappschüsse von der Pressekonferenz:

Mittwoch, 3. Juni 2009

Manna für Manno: 172,5 mio CHF für Superrechner im Tessin - ohne dringenden Bedarf

Der Bundesrat hat am Freitag vor Pfingsten beschlossen, Manna auf das Hochleistungsrechenzentrum von Manno regnen zu lassen: 70 Millionen für einen Rechner, der 2012 in Cornaredo bei Lugano so schnell sein soll, wie heute die Top 2 der Top 500. Plus 50 Millionen für die Unterbringung der Maschine. Plus 5 Millionen für deren Kühlung. Plus 35 Millionen für's Aufrüsten des physischen Netzwerks ins und im Tessin und Fortbildungsmassnahmen an den Hochschulen, die den Rechner benutzen. Das sind zwar erst 160 Millionen, aber detailierter sind die Angaben weder im Artikel im papierenen Inlandteil der NZZ vom Samstag (leider nicht online; bedauerlicherweise meldet auch der Wissenschaftsteil nichts von dem grosszügigen Bundesratsbeschluss), noch im Schlussbericht des ETH-Rats zum "Schweizerischen Nationalen Strategischen Plan für Hochleistungsrechnen und -Vernetzung" vom 4. Juli 2007 (die Grundlage für den Bundesratsentscheid), noch in dessen Anhang G, in dem die Antworten der zur Vernehmlassung eingeladenen Fachleute versammelt sind. Die Gretchenfrage in dem knappen Dutzend Auskünfte, die sie zu geben hatten, war gleich die erste:
Should Switzerland acquire a petaflop-level system? If so, what are the technical and scientific justifications in terms of major national projects? If not, what is the top-performing computing system that Switzerland should acquire in 2008-2011?
Das offizielle "Abstimmungsresultat": Ja 20, Nein 4, "Nicht explizit" (Terminologie des Berichtes): 18. Im Bericht wird daraus gefolgert:
3.2 Braucht die Schweiz im Zeitraum 2008–11 ein System der Petaflops-Leistungsklasse?
Wenn die Schweiz in einer globalisierten Wissenschafts-, Wirtschafts- und Industriewelt wettbewerbsfähig bleiben will, ist die Antwort ein klares „Ja“. Die derzeitigen Spitzenrechner in der Schweiz erreichen ein Niveau von 20 Teraflops und es ist zu erwarten, dass innerhalb von drei bis vier Jahren Bedarf an Petaflops-Computing bestehen wird. Dieser Bedarf muss durch ein skalierbares System erfüllt werden, das bis 2010–11 Petaflops-Niveau erreichen kann.
Diese Schlussfolgerung beruht auf einem breiten Konsens und erklärten Absichten zahlreicher Schweizer Nutzer. Der Konsens entstand aus verschiedenen Voten, die am Tag der Offenen Tür für Interessengruppen im Dezember 2006 in Bern eingebracht wurden (zu den Ergebnissen des Tags der offenen Tür siehe Anhang B und G). Etwa die Hälfte der Teilnehmer brachte ein ausdrückliches Interesse an Petaflops-Leistung vor 2011 zum Ausdruck. Die meisten der Übrigen vertraten keine eindeutige Meinung und nur eine sehr kleine Minderheit sprach sich gegen die genannte Schlussfolgerung aus.

Aber stimmt das, was da steht, tatsächlich? Gibt es diesen "breiten Konsens"? Schauen wir die gemäss Seite B-1 ff. 4 Neinsager und die 18 "nicht expliziten" mal näher an. Sie interessieren mehr, denn sie haben der naheliegenden Versuchung widerstanden, einfach "Ja!" zu rufen auf die Frage, "Wollt ihr grösser, schneller, besser?"! Es stellt sich heraus: Mindestens einer sagt Nein, obwohl er zu den Ja!-Sagern gezählt wird. Und von den 18 "nicht expliziten" sind 15 eher dem Nein- & Skeptiker-Lager zuzuzählen. Und die 3 anderen enthalten sich der Stimme. Somit ergibt eine Nachzählung: 19 Ja-Sager gegen 20 Nein-Sager, bei 3 Enthaltungen. 20 (-1) : 4 (+1 +15) : 18 (-15). Ein sehr anderes Resultat, kein "breiter Konsens"! Insbesondere fällt auf, dass keiner der angefragten Industrievertreter einen Bedarf für einen Petaflop-Rechner im Tessin sieht. Die beschlossenen 160 Bundesmillionen stehen also auf deutlich dünnerem Eis, als der Bericht behauptet und der Bundesrat impliziert. Die Geschichte des CSCS in Manno war übrigens in den vergangenen Jahrzehnten immer mal wieder begleitet von heftigen Nebengeräuschen. Haben die 160 Millionen, die ins Tessin fliessen werden, vielleicht mehr mit Regionalpolitik als mit Spitzenforschung zu tun?

Explizit "Nein!" zu einem Petaflop-Rechner sagen 2006:

Jörg Hutter, Professor für physikalische Chemie, Uni ZH:
I don't think the investments into hardware of about 350 MSfr (estimated from money allocated for IBM and Cray to build a petaflop computer in the US) necessary for such a system can be justified today. The lack of a user community ready to use such a machine, together with the (most likely) imbalance of money spent for hardware instead of software and human resources will lead to a failure and will harm HPCN on the long term.
Victor Jongeneel, Schweizerisches Institut für Bioinformatik:
The acquisition of computer hardware should always be driven by specific projects, and not the other way around. If a project emerges that is of clear national interest and requires petaflop-level compute resources, then such an acquisition makes sense. If not, it doesn’t. In my specialty area (life science informatics) there are to my knowledge no projects at this time that would require general-purpose petaflop compute power. However, in the foreseeable future, life science research will move in the direction of computational simulation of ever-larger and more complex systems, and within 5-10 years will require this level of computing power, if not more.
Henrik Nordborg, ABB Forschungszentrum Schweiz:
A petaflop-system will probably have little immediate impact on more applied industrial research. The reason is that industrial research uses commercial software to a large extent, and this software is typically not available for the largest and fastest systems. The simulations typically also have the character of parameter studies, and it is therefore more important to be able to run many smaller jobs than one big one. Therefore, ABB would be more interested in flexible multi-purpose machines than a top-notch petaflop system.
Helena Van Swygenhoven, Paul Scherrer Institut:
Switzerland should have as goal to acquire a peta-flop system, however because the size of research budgets and the technological demand, acquisition should not be the immediate goal (2008-2011). The knowledge base at international level for effective use of petaflop platforms needs to be developed to avoid the use of peta-flop computers as a simple ensemble of tera-flop computers. Switzerland has high intellectual resources that should play an important role in the developments in the field of I/O, data mining, data visualization etc. necessary for the effective use of peta-flop computers. In other words, we should not jump blindly in the peta-flop race...
Und dann wären da noch die 18 als "nicht explizit" klassifizierten: Ron Appel, Direktor des Schweizerischen Instituts für Bioinformatik:
As often, there are two aspects to consider when deploying a large-scale nation-wide project. On one hand, developing a nation-wide High-Performance Computing and Networking infrastructure will allow many important projects to become realizable and thus will enable Swiss academic and industrial research and development to remain at the forefront of their respective fields. On the other hand, such an infrastructure will require large amounts of funds to be immobilized in hardware, software and human resources and thus the flexibility in setting up new innovative environments and projects that is absolutely necessary in today’s science might become difficult to maintain. This being stated, Switzerland should build the necessary infrastructure, funding scheme and competencies so that it can provide the required HPCN environment and resources when specific project require them.
Kim Baldridge, Uni ZH:
To decide this question, a careful and detailed analysis of the current situation of computational processing in the Swiss HPC centers, in particular at CSCS, should be performed. Which of the submitted jobs require an "expensive" supercomputer infrastructure, which could/should be executed on a "cheaper" cluster or grid infrastructure? How much necessary processing time cannot be granted to projects that are scientifically interesting? What could/should better run on individual University resources? How can the future needs be approximated by using current and previous such data? While there are several specific scientific domains that can exploit very high end computational infrastructure of the 'tera' and 'peta' scale, many areas of computing, petaflop-level systems are not efficient or employable, yet, access to general-purpose and commodity-style hardware, and grid oriented infrastructure is highly useful. Given strategic planning, it would be possible to bring a few of these latter domains into the higher end, but not without resources/people to restructure algorithms/applications.
Pawel Bednarek, ehem. Uni Fribourg:
Grid computing projects should get stronger, since thousands of desktop computers are idle during the night and most of the day. I think that cluster solutions are more price efficient than big vector computers and this kind of system are more flexible. Of course mixed systems are also very useful.
Richard Bührer, Direktionspräsident Fachhochschule Nordwestschweiz:
The Universities of Applied Sciences (UAS) in Switzerland heavily focus on application orientation (teaching, applied research and development). In order to provide high quality products the UAS base heavily on results from basic research being done at Universities and ETH. It is thus of great importance that basic research in Switzerland is done at top class level. For various research topics, the availability of high performance computing and networking at University level is thus fundamental. With respect to Universities and ETH, however, the availability of a petaflop system for UAS projects will be of much less importance.
Bastien Chopard, Informatiker, Uni GE:
The CSCS must play a central role in such a project. But all Universities, EPF, Technical school should be associated in a balance way. GRID technology must also be reinforced and supported by the Swiss government. Having a clear message from the Federal government is also instrumental to develop and coordinate existing projects at a local level and stimulate research institution to encourage local HPCN initiatives. I also think that financing a large computing infrastructure is important but new positions for young researchers and engineers must come together to exploit the potential, ensure novelty and continuity.
Doris Folini, damals an der EMPA, heute an der ETHZ, antwortet gar nicht auf die Gretchenfrage. Schade. Der Oekonom Beat Hotz Hart von der Uni ZH:
Im Rahmen der verfügbaren Mittel sowie in Einklang mit den laufenden Entwicklungen in Europa (z.B. anstehende Entscheide über Aufbau von Zentren des HPC) sollte die Schweiz deshalb geeignete Ressourcen für das Hochleistungsrechnen sowie entsprechende wissenschaftliche Beratung der Forschung zur Verfügung stellen. Die Ressourcen sollten aus Effizienzgründen wenigen, wissenschaftlich hervorragenden Projekten über einen Wettbewerbsmechanismus zugeteilt werden. Deren Resultate tragen einen wichtigen Beitrag zum wissenschaftlichen Output der Schweizer Forschung bei. Das Hochleistungsrechnen muss in der Schweiz unbedingt zwischen den relevanten Partnern CSCS, den Hochschulen und den Forschungsinstitutionen abgestimmt werden. Dabei sollte der Fokus auf die koordinierte Beschaffung und Benutzung der vernetzten Hochleistungsrechner (Supercomputers und Hochleistungsclusters) gelegt werden.
Mehdi Jazayeri, Informatiker an der Uni Lugano, äussert sich irritierenderweise explizit nicht zu Frage 1:
My comments apply only to the points 2 through 6 in which I have some expertise or interest.
Markus Meuwly, Chemiker an der Uni Basel, gibt keine Antwort auf die zentrale Frage, bermerkt aber:
As no institution – except maybe the ETH’s – have the HPCN facilities and knowledge right at their place, it is difficult for the majority of interested students to become familiar with HPCN.
Olivier Michielin vom Bioinformatikinstitut, antwortete mit einer einzigen, reichlich kryptischen Präsentationsfolie. Andrea Schlapbach von der Versicherungsgesellschaft SwissRe:
The financial services industry's needs on HPC exist. These needs are primarily of operational and not R&D nature. While it is possible that increasing HPC needs lead to acquiring computing performance services from a 3rd party, it is rather unlikely that such an operational service is easily shared with academia as the service level needs of commercial enterprises are different, and potentially much higher outside of the pure performance metric. Furthermore, top-end HPC infrastructures often require very specific application architectures, leading to a footprint which can be assessed as being too high.
- The insurance industry will continue to have a rather intense R&D involvement as risk management - in contrast to investment banking - is still a very evolving discipline. For this reason, active collaboration with academia already exists and needs to continue, i.e. these skills must be available. Such skills include risk modelling, implementation and HPC.
Beat Schmid , ehem. Uni SG:
We do not propose a specific solution, as Petaflops machine, or a grid of similar computing power. We leave such judgement to other schools, closer to technology.

Ulrich Straumann, Physiker an der Uni ZH, sagt Nein!, obwohl der unverständlicherweise als "Ja!"-Sager gezählt wird:
Do not buy a big system, which is supposed to serve everybody. The user acceptance is unpredictable, while the performance will be outdated soon. Instead invest in several small systems which are adapted to single projects or to a few projects with similar demands, and which can easily be scaled-up, when required.
Minh-Quang Tran, Plasmaphysiker an der EPFL:
The current emphasis on procurement of massively parallel systems based on peak performance measurements of simple mathematical algorithms fails to recognize that an important number of real applications that involve strong nonlinear and non-local effects achieve a very weak fraction of the peak performance quoted as a result of scalability problems to a large number of processors. The “Petaflop/s system” should be part of a much broader and long term vision about HPC in Switzerland. It can serve as a “flagship” and thus will hopefully attract the best human competences and stimulate the most challenging projects in the country and beyond. However, such a system alone will not be able to serve all HPCN needs, which are diverse and will almost certainly require several different types of computer architecture to be fulfilled. The recent evolution of computer architectures points to several crucial issues such as memory access and interconnect characteristics in order to assess the performance on real applications.
Rolf Wohlgemut, Siemens Schweiz, sagt eigentlich Nein, wird aber als "nicht explizit" aufgeführt:
Die Siemens Schweiz AG hat in der Vergangenheit noch keinen Bedarf an einer zentralen Supercomputing Leistung gehabt. Auch sehen wir für die nähere Zukunft ebenfalls keinen Bedarf. Wir könnten uns als globaler Konzern eher eine interne Gridlösung bei Bedarf vorstellen, um unsere weltweit verteilen Computerleistungen zu bündeln.

Dean Flanders, Informatikchef beim Friedrich Miescher Institut der Novartis in Basel, zählt die Liste zu den Ja!-Sagern, obwohl er gegenteilig argumentiert:
I have yet to see a supercomputer center or grid succeed in the democratization of high performance computing (HPC) and we should learn from these failures. CSCS needs to take a lead role in HPC in Switzerland, and facilitate HPC and its use (but not control it). However, as we already know, if a large single computer system is built, it will only be used to answer a limited number of big questions, inaccessible to most researchers, completely saturated (no matter how many CPUs), and be outdated the minute it enters the computing center. This PC strategy should be different, it should be pragmatic, involve scientists in the process, focus on solving scientific problems (not developing new technologies), have no “sacred cows” (be open to commercial vendors of software), and not re-invent wheel. That is why I recommend a nodal approach, bringing compute resources near to researchers (and their data) and providing a broad portfolio of compute resources. The goal should not be a petaflop computer, but a petaflop of computing. I feel at the moment there are very few technical issues to overcome for this to happen, it is more of an implementation (and political) issue to establish a robust HPC infrastructure in Switzerland.
Rolf Würgler, Rektor Uni Bern:
We see the role of CSCS as high performance computing center, not in a leadership of notional oder interantional HPCN activities. Leadership must be taken by all HPC centers, not just by one.
Mihaela Zavolan, Bioinformatikerin an der Uni Basel:
Whether Switzerland should acquire a peta-flop system.. in the long run it will happen. Whether it should be now or later, that depends on the user demands in the foreseeable future. As for the role of CSCS, that depends on too many things I do not know.