Freitag, 28. Oktober 2011

Professorengehälter steigen - Zum Glück!

Die Meldung hat es vor wenigen Wochen sogar zur ersten in der 20:00-Tagesschau geschafft: Das Bundesverfassungsgericht hat die derzeitige Besoldung von W2-Professoren für verfassungswiedrig erklärt, insbesondere ist sie zu gering. Die Kommentare in Onlineforen, die Berichterstattung und diverse Gespräche über die Jahre zeigen mir: Den meisten Leuten ist nicht klar, wie das mit der Professorenbesoldung so läuft oder sogar verschärft, was Professoren eigentlich tun. Also lohnt es, sich das Thema genauer anzuschauen.

Verhandlung des zweiten Senats des Bundesverfassungsgerichts, 1989,
Bundesarchiv, B 145 Bild-F080597-0004 / Reineke, Engelbert
CC-BY-SA-3.0-de, via Wikimedia Commons
Zunächst ist die Frage wie es sein kann, dass ein Professor eine Erhöhung der Bezüge vor Gericht einklagen kann. Das liegt daran, dass Professoren Beamte sind, weswegen sie auch keine Gehälter und Renten erhalten, sondern Bezüge und Pensionen. Damit einher gehen gewisse Einschränkungen der Rechte, insbesondere haben Beamte kein Streikrecht und damit keine Möglichkeit, eine Erhöhung ihres Einkommens durch Arbeitskampf durchzusetzen. Die Höhe der Bezüge von Beamten ist im Grundgesetz geregelt, weswegen das Verfahren vor dem Bundesverfassungsgericht landete. Eine normale Angestellte kann das also nicht.

Ein damit verwandter Punkt, der in vielen Kommentaren auftauchte ist, ob da jemand den Hals nicht vollkriegt und deswegen klagen muss. Es erinnert mich an den Fall von Hans Eichel, der kürzlich vor Gericht ging, um höhere Pensionsansprüche durchzusetzen und deswegen von vielen scharf kritisiert wurde. Meine Meinung dazu ist, dass weder Professoren noch Finanzminister unanständig viel verdienen und es kann ja auch nicht sein, dass ein hohes Gehalt zum Verlust des Rechts führt, Forderungen vor Gericht durchzusetzen zu können.

Worum geht es denn nun eigentlich? Hintergrund ist, dass deutsche Hochschulen in den letzten zehn Jahren in fast beispielloser Weise transformiert wurden, und zwar durch die Umstellung von Diplom auf Bachelor/Master und die Einführung der W-Besoldung. Diese löste fuer neu ausgeschriebene Stellen die C-Besoldung ab (W2/W3 statt C3/C4). Diese waren mit guten Bezügen ausgestattet, schon als C3 hatte man ein Auskommen, dass absolut ausreichte, um gut zu leben. Um sein Gehalt zu erhöhen, gab es im eine einzige Moeglichkeit, nämlich das erfolgreiche Bewerben auf Stellen an anderen Universitäten, was zu einer speziell geregelten Verhandlungsrunde mit der Ziel und der Heimuniversität führte.

Bei der W-Besoldung wurden die Bezüge in ein Grundgehalt und leistungsbezogene Boni unterteilt. Erklärtes Ziel war es, dabei keine Kürzung der Bezüge in Summe durchzuführen. Das Geld für die leistungsbezogenen Boni wurde also durch die Kürzung der Grundgehälter um 25% bereitgestellt. Und es ist dies, was letztlich zur Klage führte. Lassen wir erstmal die Boni beiseite und schauen uns nur das Grundgehalt an. Beim Kläger ergab sich ein Grundgehalt auf einer W2-Professur 2007 in Hessen von 4.000 Euro (diese sind seitdem leicht erhöht worden, in etwa Inflationsausgleich). Ich kenne seine familiären Verhältnisse nicht, aber als Single kommen dann fürs leicht rechnen 3.000 Euro netto raus, da Beamte weniger Abzüge als Angestellte haben. Davon geht noch die Krankenversicherung ab, wenn man das also als ein Angestellengehalt von 70.000 Brutto sieht, liegt man nicht ganz falsch.

Das ist ein gutes Gehalt, es liegt weit über dem Durchschnitt und ist damit für viele Menschen unerreichbar hoch. Vielleicht liegt hier ein Grund für das Unverständnis vieler bezüglich der Klage. Nun ist die Frage, was die Anforderungen an den Job sind, was für Leute man also mit diesem Gehalt locken will und welche Qualifikation gefordert wird. Die Qualifikation ist: Abgeschlossenes Hochschulstudium, Promotion, eine Habilitation oder äquivalente Leistungen oder anders gesagt der Nachweis, dass man auf einem bestimmten Gebiet eine absolute Expertin ist. Im Ergebnis liegt das durchschnittliche Berufungsalter bei 42.

Dazu kommt die Anforderung die an den Weg gestellt wird: Auslandserfahrung ist im wesentlichen ein muss. Nach der Promotion hat man in der Regel befristete Stellen und die Professur ist die erste Dauerstelle. Darüberhinaus zahlt man jeden Monat drauf: Die Einführung der W-Besoldung führte auch zu einer Kürzung der Gehälter im akademischen Mittelbau und so ist es nun nicht mehr unüblich, den Weg zur Professur als Angestellter auf TVL13 zu gehen, also etwa 50.000 Brutto (zu vergleichen mit einem promovierten Gruppenleiter und 5 Jahren Berufserfahrung irgendwo in der Industrie). Schliesslich ist da noch die Konkurrenz: Die Stellen sind begrenzt, wer also diesen Weg geht, geht ein hohes Risiko, denn es sind mehr Stellen im Mittelbau da als Professuren. Das bedeutet auch, dass eine 40-Stunden-Woche keine Option ist, denn damit schafft man den Sprung nicht, weil andere an einem vorbeiziehen. Als letzter Punkt ist noch anzumerken, dass man nicht an der Uni berufen werden kann, an der man gerade arbeitet, eine Professur impliziert also einen Wohnortwechsel. Dies ist für leitende Angestellte heutzutage natürlich nicht ungewöhnlich, sollte aber nicht unerwähnt bleiben und ist für die Frage, für welches Gehalt man umziehen will, nicht irrelevant.

Was sind denn nun die Anforderungen an den Job? Ein Professor ist ein leitender Angestellter, von dem erwartet wird, dass er Doktoranden anleitet (also Angestellte führt), Projekte selbstständig anleiert und durchführt, Spitzenforschung betreibt, sich ständig weiterbildet und gute Lehre macht. Stattliche Anforderungen und wenn man den Leuten nicht entsprechende Rahmenbedingungen bietet (Gehalt, Stellen, Ausrüstung), kann man nicht erwarten, Leute zu finden die diese erfüllen.

Wie sieht es nun mit den Boni aus? In der Praxis kriegen Professoren nennenswerte leistungsbezogene Zulagen. Der Verdacht liegt also auf der Hand, dass der Kläger einfach nicht gut genug ist, diese zu erhalten und deswegen vor Gericht zog (er bekam bei Klageerhebung 24 Euro Bonus). Nun, es gibt einen wesentlichen Unterschied zur freien Wirtschaft: Die Boni dort sind letztlich Mittel zum Zweck der Gewinnerhöhung und somit in der Theorie ein Gewinn für Arbeitgeber und Mitarbeiter. Dies ist bei Universitäten nicht der Fall: Gesetzt den Fall, dass alle Professoren die Zielvorgaben mit der Universität übererfüllen und alle Ansprüche an hohe Zulagen anmelden, kann die Präsidentin nur mit den Schultern zucken und sagen, dass das Finanzministerium von der Aussage, dass an ihrer Uni nur Rocker arbeiten würden, nicht überzeugt war und den Etat nicht erhöht hat. Und Drittmittel können eben nicht für Professorengehälter verwendet werden.

Im Ergebnis kneifen die Zulagen die Leute aus grundlagenorientierten und theoretischen Fächern, da die Unis häufig Zulagen über das Drittmittelvolumen vergeben. Und da hat man gegen Leute, die Millionen Drittmittel einwerben, weil ihr Equipment eben so teuer ist, keine Chance. Dies ist häufig auch die Trennlinie zwischen Professoren, die nennenswerte Nebeneinnahmen durch Gutachten und eine eigene Firma haben und denen, die neben dem Professorengehalt durch Vorträge und Bücher nur ein kleines Zubrot bekommen.

Hier sollen die Länder nun nachbessern und die Zulagen transparenter gestalten. Die Frage, ob das in einer Weise geschehen kann, die den Unis tatsächlich nutzt, sei dahingestellt.

Und sonst:

Montag, 26. September 2011

Mit Mathematik zum NBA-Champion?

Wer die deutschen Spiele bei der Basketball-Europameisterschaft verfolgt hat, hat vielleicht bemerkt, dass Kommentator Frank Buschmann von Dirk Nowitzkis Wurf berichtete, dass dieser von Nowitzkis Mentor, Holger Geschwindner, "mathematisch" designt worden sei.

Dirk Nowitzki beim Fade away jumper;
Keith Allison; CC-by-sa 3.0


Zuerst dachte ich, dass es sich um Dirks "Signature move", den "one-legged Fade-away" handeln würde. In der Tat findet man ein Video, in dem behauptet wird, dass Dirks Wurf, wenn er sich in einem Abstand von etwa 5 Metern vom Korb befindet, hochspringt, sich zurückfallen lässt und dann vom ausgestreckten Arm aus in einem Mindestwinkel wirft, vom Gegenspieler nicht mehr geblockt werden kann. Dieser Wurf hat aber mit Geschwindner nichts zu tun, der findet den nämlich gar nicht so klasse, weil es ein Wurf ist, den man nimmt wenn sonst gar nichts mehr geht. Er ist einfach aus dem Training heraus entstanden.

In einem weiteren Artikel las ich dann folgendes:
Dirk macht Liegestützen auf den Fingerspitzen, um den Ball beim Schuss besser beschleunigen zu können und lernt eine völlig neue Wurftechnik, die Geschwindner am Schreibtisch entwickelt hat: Mit Differential- und Integralrechnung sowie etlicher Ableitungen berechnet er eine Wurfkurve, bei der der Ball selbst dann in den Korb fällt, wenn Nowitzki Fehler macht.
Das klingt ja schon ziemlich interessant, aber was soll das bedeuten? Siehe da, es gibt einen Artikel über Geschwindner in den Mitteilungen der deutschen Mathematiker-Vereinigung und da erklärt dieser, worum es eigentlich geht. Geschwindner hat also sogar Mathematik studiert und hat sich folgende Frage gestellt: Wie muss ein Wurf aussehen der in den Korb geht, aber bei dem ich beim Abwurf möglichst weit vom eigentlich Wurf abweichen kann, so dass der Ball immer noch in den Korb geht?

Offensichtlich optimal, nur physikalisch unmöglich ist ein Wurf, bei dem der Ball mit Einfallswinkel 90 Grad in der Mitte des Rings runterkommt. Physikalisch möglich, aber sowohl mathematisch suboptimal als auch unsinnig sind Würfe, mit kleinen Einfallswinkeln, weil dann geringe Änderungen am Wurf dazu führen können, dass der Ball auf den Ring prallt. Genauer kommt bei 45 cm Ring- und 23 cm Balldurchmesser raus, dass man einen Winkel von mindestens 32 Grad braucht, damit der Ball ohne Ringberührung in den Korb fällt. Der optimale Winkel hängt auch vom Abwurfpunkt ab und damit vom Spieler, wie groß dieser ist, wie lang die Arme und wie hoch er springen kann. Geschwindner hat dann, als er in Nowitzki ein Basketball-Jahrhunderttalent erkannte, den in dieser Hinsicht optimalen Wurf für Nowitzki hergeleitet.

Wurfparabel; Geof, CC-by-sa
Nur wie hat er das gemacht? Wie er sagt, mittels Differential- und Integralrechnung. Ich habe es jetzt nicht nachkonstruiert, aber hier meine Gedanken: Der Wurf ist eine Wurfparabel. Die erste Frage ist, von wo ich abwerfe. Der Basketball-Lehrbuchwurf ist im Nowitzki-Photo demonstriert, also von etwa überm Kopf. Daraus resultiert eine konkrete Wurfparabel für diesen Spieler und seinen Abstand vom Korb. Ob ich von rechts oder links werfe ist dabei egal. Die Eingangsgröße ist der Abwurfwinkel. Was Geschwindner nun optimiert hat, ist mir nicht ganz klar. Zum Einen könnten wir uns anschauen, wie stark sich der Auftreffpunkt ändert, wenn wir den Winkel ändern. Und zwar gibt es zwei wichtige Sachen: Den Winkel so wählen, dass wir am meisten abweichen können und dann, dass wir seitlich am meisten abweichen können. Sagen wir, wir wüssten was wir genau haben wollen.

Dann haben wir eine Funktion f(α+dα)=y, wobei α der Zielabwurfwinkel, dα die Abweichung davon und y die Abweichung des Wurfes vom Mittelpunkt des Rings ist. y darf nun nicht grösser als 10 cm sein. Gesucht ist nun der Wert dαmax in Abhängigkeit von α, bei dem y=10 cm ist, denn das ist die maximale Abweichung die wir uns erlauben können. Da die Wurfparabel eine quadratische Funktion ist, braucht man dazu nur die Mitternachtsformel und hat eine zweite Funktion dαmax(α). Die eigentliche Lösung ist dann das α, für das dαmax(α) maximal wird. Wie bestimmt man das? Hierfür braucht man die Differentialrechnung, man muss also die Ableitung der Funktion dαmax(α) bestimmen, diese Null setzen und die Nullstelle ausrechnen. Dann haben wir den schwierigen Teil hinter uns. Jetzt nur noch den optimalen Wurf zehntausend Stunden in der Turnhalle üben, damit wir das auf Weltklasseniveau hinkriegen und siehe da, wir werden NBA-MVP :-)

Wo Geschwindner noch die Integralrechnung eingesetzt hat, weiss ich nicht. Vielleicht hat er das ganze ja noch ein zweites mal mit den Navier-Stokes-Gleichungen modelliert und einen Strömungslöser drübergejagt. Wenn nicht, vielleicht wollen die Dallas Mavericks krasse Forscher mit ein paar Drittmittel versorgen?

Was wir eben gemacht haben, nennt sich übrigens mathematische Modellierung. Oder im Schuldeutsch: Offene Textaufgabe. Und wenn ihr das eben schwer fandet, dann geht es Euch so wie den meisten Deutschen, denn mangelnde Fähigkeiten in dieser Hinsicht sind mit ein Grund für das schlechte Abschneiden beim PISA-Test.

Interessant ist übrigens an der Sache, warum das nicht Standard unter Basketballprofis ist, bzw. diese Formeln Standardwerkzeuge von Basketballtrainern sind. Holger Geschwindner wurde für diese Sache nämlich eher belächelt, bis Nowitzki diesen Riesenerfolg hatte. Also: Sportler! Lernt mehr Mathe und werdet so gut wie Nowitzki!

Und sonst:

Dienstag, 13. September 2011

WikiCon-Nachlese

Einfach mal etwas ungeordnet ein paar Impressionen von der Wikicon, auf der ich am Wochenende war. Zunächst: Das ganze war gut organisiert, alles lief reibungslos, da haben die (fast ausschließlich freiwilligen) Organisatoren wirklich gut gearbeitet. Wie jedesmal auf Wikipedianerveranstaltungen viele interessante Gespräche mit vielen interessanten alten und neuen Bekanntschaften geführt! Danke!

Der Balkon, auch Diddl-Club genannt;
Smial, CC-by-SA 3.0

Das Programm war interessant, es gab mehrere Parallelsessions, so dass eigentlich für jeden Geschmack immer etwas dabei war. Leider war die Qualität der Beiträge durchwachsen. Hier würde ich mir von der Gesamtorganisation her wünschen, dass beim nächsten mal mehr Arbeit in die Programmqualität gesteckt wird. Zum Einen tauchen ja diverse Leute auf, die zum erstenmal einen Vortrag halten und mit wenigen entsprechenden Vorgaben und Hilfestellungen mehr leisten könnten. Konkret könnte man die Beiträge in unterschiedliche Kategorien aufteilen (Vortrag, Workshop, Diskussion, beispielsweise), zum anderen ein längeres Abstract verlangen als das jetzt der Fall war. Außerdem sollte es mehr Zeit zum diskutieren über die Inhalte geben.

Drei Sachen waren etwas schade: Einmal das Fehlen eines externen Hauptvortragenden (Rainer Hammwöhner oder Christian Stegbauer würden mir spontan einfallen), denn so schmorte man mal wieder sehr viel im Wikipedianereigenen Saft. Dann die zu geringe Zahl an Kaffeepausen. Die sind wichtig, um mehr Raum für Gespräche zu bieten. Und schließlich dass die Vorträge nicht auf Zeitschienen liefen, die ein leichteres Wechseln zwischen Vorträgen erlaubt hätten.

Inhaltlich waren in dem was ich mir angeschaut habe die Bildfilter und die Qualität von Wikipediainhalten die zentralen Themen. Vor allem letzteres, wo ich mir den Vortrag von WiseWoman zu ethischen Problemen bei Artikeln zu lebenden Personen, den von Ziko zu Enzyklopädien und den von Carbidfischer zur Nachlese der Veranstaltung "Wikipedia meets Altertumswissenschaften" angehört habe. Auf der Podiumsdiskussion war das dann auch Thema. Bemerkenswertes Statement des Journalistikprofs Klaus Meier: "Gute Qualitätssicherung muss weh tun." Ist wohl was dran. Zum Vortrag am Freitag von Southpark zu "Chiara Ohoven und der Mär vom arbeitenden deutschen Mann" kam ich etwas zu spät, konnte nur noch die Diskussion mitkriegen. Hätte mir glaube ich sehr gut gefallen, aber vermutlich aus anderen Gründen als viele andere Zuhörer.

Eine schöne Sache kann man auf jedenfall rausziehen: Es fängt an, dass der Diskurs zu Qualität von Inhalten und wo die Reise hingehen soll, die sinnlosen Kategorien "Inkludismus und Exkludismus" verlässt. Bei diesen ist das größte Problem, dass es keine fünf Benutzer gibt, die man sinnvoll als Exkludisten bezeichnen kann (und ja auch gar nicht klar ist, was das sein soll) und eigentlich Exkludismus mehr der notwendige "Böse" Gegenpart für Hardcore-Inkludisten ist, wobei wieder nicht ganz klar ist, was das nun sein soll. Sicher ist, dass "Löschen ist ein notwendiger Bestandteil der Qualitätssicherung in der Wikipedia." ein Satz ist, der von 90% der Wikipedianern unterschrieben werden könnte. Die Frage ist halt, was man warum aufnimmt und dies lässt sich nicht sinnvoll in den Kategorien "Löschen ist doof" bzw. "Löschen ist toll" diskutieren.

Foundation-Präsident Ting Chen musste viele Fragen zum Bildfilter beantworten;
Ziko van Dijk, CC-by-sa 3.0
Southpark hat einige Sachen schön aufgezeigt: Die Relevanzkriterien werden von zu vielen Leuten nach Kategorien der gefühlten Bedeutung angewendet und gestaltet. Das führt dann zu Argumenten, bei denen Leute sagen: "Also wenn wir diese Pornodarsteller aufnehmen, dann ist es ja wohl keine Frage, dass wir diesen Künstler, Wissenschaftler und diese Bibliothek aufnehmen müssen." Ein Wikipediaartikel ist damit eine Belohnung für gute Leistungen und wer diesen oder jenen Artikel nicht aufnehmen will ist ein Neider, der die Leistung nicht würdigen kann. Sehr berühmt auch der Verweis auf Drittligafussballer. Die englische Wikipedia macht das besser: Da gibt es das Konzept der Notability, was vollkommen ignoriert, was Wikipedianer wichtig finden, sondern nur wie es rezipiert wurde und entsprechend Sekundärquellen vorhanden sind.

Der Lackmustest sind lebende Personen. Eines der Zitate der Konferenz war "lebende Personen sind immer ein Problem". Ich weiss gar nicht von wem es stammt, aber es hätte auch von mir stammen können :-) Egal wie man zu den Themen Relevanzkriterien, Qualität, Löschen, etc. steht. An der Frage ob ein ethisch und moralisch verantwortungsvoller Umgang mit den Biographien lebender Personen herauskommt oder die Freizeitgestaltung von Wikipedianer Vorrang vor diesen hat, entscheidet sich welche Wege überhaupt gangbar sind.

Sehr interessant auch die Ausführungen von Mathias Schindler und seinem neuen Chef Jan Engelmann über die Lobbying-Aktivitäten und den Berliner Wahlkampf. Ach ja, war schön mal viele der neuen Mitarbeiter von Wikimedia Deutschland kennenzulernen.Und diverse neue und alte Vorstände.

Drei Ex-Wikimedia-Vorstände, seit Ewigkeiten nicht mehr in Gruppe gesichtet...;
Alupus, CC-by-sa 3.0

Schliesslich ist da noch die erfreuliche Sache, dass die Bemühungen der Foundation (sprich von Sue Gardner), Entscheidungen verstärkt data-driven zu treffen, Früchte tragen. Es gibt also nicht nur Ergebnisse, sondern diese werden von der Foundation genutzt. Schön daran ist, dass das auch ausserhalb der Foundation, also in der Wikipedia Früchte trägt. Deswegen (und nachdem Hoch auf einem Baum mich wegen meiner mangelnden Kenntnis der dortigen Ergebnisse kräftig gescholten hat) nochmal der Link: Wikipedia Summer of Research 2011. Lest das! Und auch die Sachen von Manuel Merz! Dafür gibts auch nen Link auf diesen zeitlosen Insiderscherz: Frank Schulenburg trifft HaeB.

Und sonst:

Mittwoch, 31. August 2011

Reproduzierbares wissenschaftliches Rechnen

Ein Grundpfeiler theoretischer Wissenschaft ist, dass sie nachvollziehbar ist. In der Mathematik ist es der Beweis, der dies erlaubt. Beim Satz des Pythagoras kann ein Beweis von aufgeweckten Sechstklässlern nachvollzogen werden. Dies ist bei Perelmans Ausführungen zur Poincaré-Vermutung faktisch nicht mehr möglich, aber das ist die Ausnahme. Es ist schwierig genau zu sagen, aber wenn man im Thema drin ist (was auch immer das jetzt bedeutet), dauert es je nach Schwierigkeit Stunden oder Tage, einen Beweis nachzuvollziehen.

Diese graphische Darstellung eines Beweises des
Satz des Pythagoras ist für jeden nachvollziehbar; Hubi, CC-by-SA 3.0

Entsprechend ist ein Grundpfeiler experimenteller Wissenschaft, dass das Experiment reproduzierbar ist. Es muss also soweit beschrieben sein, dass der Versuchsaufbau nachgebaut und überprüft werden kann. Dass die Erdbeschleunigung auf der Erde ungefähr 10m/s^2 beträgt, kann man zu Hause mit einer Stoppuhr, einer schiefen Ebene und einer Flasche nachvollziehen. Weniger empfehlenswert ist es, das ITER-Experiment nachzubauen. Und auch wenn es erschreckenderweise Privatpersonen gibt, die das nötige Kleingeld von 20 Milliarden Euro hätten, um das tatsächlich zu tun, ist dieses Experiment praktisch nicht unabhängig reproduzierbar. Die Schwierigkeit bei Experimenten ist also, die nötige Ausrüstung zu haben.

Nun stellt sich die Frage, wie es mit dem dritten Paradigma der Wissenschaft aussieht, der "computational science" bzw. dem "Scientific Computing", deutsch "wissenschaftliches Rechnen". Dave Donoho (berühmter Statistiker in Stanford) ist der Meinung, dass "computational science" derzeit noch nicht den Stand einer Wissenschaft hat. Und ich muss teilweise zustimmen, es gibt verschiedene grundsätzliche Probleme in der Art, wie im Feld derzeit gearbeitet wird. Disclaimer: Der Autor ist keineswegs frei von diesen Problemen.

Otto Hahns Laborbuch zur Kernspaltung
findet sich heute im Deutschen Museum; J Brew, CC-by-sa 2.0
Das erste ist, dass die wenigsten ein Experimentatorenherz haben. Ein neues Verfahren wird also an ein paar Standardtestfällen ausprobiert, aber die wenigsten machen sich die Mühe, sich Testfälle auszudenken, an denen die Eigenschaften und Grenzen des Verfahrens wirklich illustriert werden, was dann die wissenschaftliche Aussage der Tests gering werden lässt. Dazu gehört, dass Techniken wie ein Laborbuch, in dem Experimentatoren akribisch festhalten, was sie wie wann und wozu gemacht haben, im wissenschaftlichen Rechnen absolut unüblich sind.

Es geht aber noch weiter: In zahlreichen Artikeln wird das numerische Experiment nicht ausreichend präzise beschrieben, weil entweder das verwendete Verfahren, das betrachtete Problem oder das Rechengitter nicht ausreichend beschrieben werden. Und da schlägt das obige zu: Fragt man den Autor, gerät der häufig in Panik, weil selbst die eigene Dokumentation nicht ausreichend ist, die Resultate ohne größere Arbeit nachzuvollziehen. Alternativ wird dies sogar absichtlich gemacht, um die Konkurrenz auszubremsen.

Diese Sachen sind teilweise kulturell bedingt: Zuwenige im Gebiet gehen mit gutem Beispiel voran und Dinge wie das Führen eines Laborbuchs werden nicht erlernt. Sie sind aber auch technisch bedingt, so erfordert Reproduzierbarkeit in der Regel ein hauseigenes Repository zur Versionskontrolle. Teilweise erfordert es aber auch die Veröffentlichung von zusätzlichen Daten, wie dem Rechengitter und das wiederum wird nur von den wenigsten Zeitschriften unterstützt.

Wenn man nun annimmt, dass die veröffentlichten Informationen prinzipiell ausreichend sind für die Reproduzierbarkeit, kann man den Vergleich zu Experimenten und mathematischen Beweisen ziehen. Und man stellt fest, dass im wissenschaftlichen Rechnen die große Hürde das Programmieren der neuen Verfahren ist. Ist das vorgestellte Verfahren nur eine kleine Modifikation von bestehenden, so ist das Einbauen eine Sache von unter einer Woche, unter der Annahme, dass ich einen Code für das bestehende habe. Viele interessante Verfahren stellen aber Alternativen zu grundlegenden dar und die zu implementieren bedeutet dann, einen komplett neuen Code zu schreiben, was Jahre dauert. Und das bedeutet, dass es faktisch unmöglich ist, diese Ergebnisse nachzuvollziehen.

An dieser Stelle möchte ich noch darauf hinweisen, dass dieses Problem nicht ganz akademisch ist. Das bekannteste Beispiel für derartige Probleme ist die Kontroverse um das Hockeyschläger-Diagramm, welches globale Erwärmung illustriert, und bei der der Klimawissenschaftler Michael E. Mann unter massive Kritik geriet. Hauptproblem war, dass seine Ergebnisse nicht nachvollziehbar und damit angreifbar waren (konkret verweigerte er sogar auf Anfrage die Herausgabe der zugrundeliegenden Daten). Dies führte zu einer Glaubwürdigkeitskrise dieser extrem wichtigen Wissenschaft.

Die Lösung liegt auf der Hand: Wissenschaftler sollten nicht nur die notwendigen Daten zum Nachvollziehen publizieren, sondern sogar ihren Code! Und dieses ist etwas, was viele auf die Barrikaden treiben würde, auch wenn es beispielsweise Kollaboration eher erleichtern würde.

Notwendig wäre hier auch eine sinnvolle Lizensierung des Codes. Zusammengefasst ist dies beispielsweise in diesem Artikel von Victoria Stodden, in dem sie einen "Reproducible Research Standard" vorschlägt. Im Zentrum des Artikels steht die Lizensierung von wissenschaftlichen Erzeugnissen, was die Sache leider wieder entsetzlich langweilig macht.

Und sonst:

Sonntag, 31. Juli 2011

Intermezzo II

Willkommen!; Singing Marge, CC-by-SA 3.0


In Memoriam Robert Gernhardt; Singing Marge CC-by-SA 3.0
Und sonst:
P. S. Der Ort Birken in British Columbia hat weder mit mir, noch meinen Vorfahren, noch sonstigen deutschen Einwanderern zu tun. Der benachbarte Lake Birkenhead wurde laut Wikipedia von Angehörigen der HMS Birkenhead benannt, welche nach Birkenhead in England benannt ist. Und daher der Name des Ortes Birken, sowie des Mount Birken darüber. 

Sonntag, 24. Juli 2011

Intermezzo

Wie angekündigt, urlaubsbedingt nur ein paar Links. Weisskopfseeadler gibts hier übrigens noch und nöcher. Schwarzbären verstecken sich dagegen vor der Sonne.

Ich suche ferner noch eine Gastbloggerin oder einen Gastblogger zwecks eines Wikimania-Berichts.

Und sonst:

Sonntag, 17. Juli 2011

Geht in Konzerte!

Die Beschäftigung mit freien Lizenzen ist vor allem eins: Langweilig. Es geht um technische, urheberrechtliche Fragen. Und es verdrängt, worum es eigentlich geht: Freie Software, freies Wissen, freie Kultur eben. Deswegen ein kurzer Aufruf: Unterstützt Künstler ohne CDs von doofen Labels zu kaufen, geht in Konzerte!

Konzerte sind super, wie jede Punkband beweist, wirken drei Akkorde Wunder und man kann beim Ticketkauf kaum was falsch machen, es wird garantiert ein guter Abend. Das ist bei Jazz leider nicht ganz so, weil es da immer wieder vorkommt, dass Leute die die Coolness erfunden haben, auf der Bühne abstinken.
Trombone Shorty; Derek Bridges, CC-by-SA 2.0
Nun war ich kürzlich in einem Konzert von Trombone Shorty, den ich hiermit herzlich empfehle. Spielt Posaune, Trompete und Schlagzeug, singen kann er auch und gut aussehen tut er auch noch. In der Band sind alle gut, wissen die Menge mitzunehmen, sind sozusagen alle cool, können aber auch was. Im letzten Stück haben sie noch einmal die Instrumente getauscht und auch das war gut. Ziemlich unglaublich.

Für die regelmässigen Leser: Ich bin derzeit viel auf Dienstreisen, mache auch noch Urlaub und ansonsten läuft es sehr gut, so dass ich mir weniger Zeit für das Blog nehme. Da mir jedoch von diversen Lesern gesteckt wurde, dass sie den "Und sonst"-Teil eh am Besten finden (unglaublich, schämt euch!), wird es noch kurze Posts mit Links geben.

Also: Grüsse aus Vancouver. Kan Ada eigentlich schon programmieren?

Und sonst:

Montag, 11. Juli 2011

Nie wieder 747

Vor einer Woche bin ich von San Francisco das erstemal mit einer Airbus A380 der Lufthansa nach Frankfurt geflogen. Darauf hatte ich mich seit der Buchung gefreut und ich kann nur sagen: Nie wieder 747!

In der 747, auch bei Lufthansa-Bestuhlung, wird der Flug immer dann zur Tortur, wenn die Vorderfrau den Sitz komplett nach hinten stellt. In der A380 in der ich geflogen bin, war das kein Problem. Darüberhinaus ist es merklich leiser. Ausserdem war mein Sitznachbar E-Techniker und konnte mir zu einem Optimierungsproblem an dem ich arbeite, ein paar Tips geben. Aber vielleicht war das gar keine Eigenschaft des Flugzeugs. Alles in allem in der Economy class immer noch kein Zuckerschlecken, aber erträglich und insofern eine dramatische Verbesserung. Auch sehr cool: Es gibt im Onboardentertainment-System drei Kameras die man sich anschauen kann, eine senkrecht nach unten, eine waagerecht nach vorne von der Nase aus und eine schräg nach unten vom Höhenleitwerk. Wirklich cool, sich letztere bei der Landung anzuschauen, wenn auch nicht unbedingt was für Leute mit Flugzeugsabsturzangst.

Auf den Flug gefreut habe ich mich auch, weil sich damit für mich ein Kreis schloss: Als krasse Forscher 2000 ihre erste Stelle als wissenschaftlicher Mitarbeiter antraten, war das im Sonderforschungsbereich 401, der als Thema die numerische Simulation des A380 hatte. Und zwar sind die zwei Dinge, die den Unterschied machen im Vergleich zu vorherigen Flugzeugen, einmal die Grösse und zum anderen die neuen Materialien, da in nennenswertem Masse kohlefaserbasierte Kunststoffe eingesetzt wurden.

Der erste Punkt bedeutet, dass die Reynolds-Zahl extrem groß wird, etwa 10^8. Diese dimensionslose Kennzahl erlaubt es, Strömungen von Modellen unterschiedlicher Größe miteinander zu identifizieren oder anders gesagt sagt sie einem, wie gut ein Windkanalmodell gefertigt sein muss, um das echte Flugzeug abzubilden, also wie gering Unreinheiten auf der Modelloberfläche sein dürfen. 10^8 bedeutet: So gut, dass man das Ding am Ende in Gold aufwiegen kann. Gleichzeitig ist die Dicke der Grenzschicht, in der die Fluggeschwindigkeit von Null auf der Oberfläche auf die Geschwindigkeit des umgebenden Fluids (hier Reisegeschwindigkeit von Mach 0.85) von der dimensionslosen Größenordnung 1/Re, also extrem dünn. Das wiederum bedeutet, dass die Grenzschicht in einem Computermodell extrem fein aufgelöst werden muss, was wiederum implizite Verfahren notwendig macht.

Die neuen Materialien bedeuten nun, dass das Problem des Flatterns komplett neu bewertet werden muss, da die extrem langen Kunststoffflügel so noch nie da gewesen waren. Das Grundproblem ist in folgendem NASA-Video illustriert.

Was dort passiert ist eine nichtlineare Interaktion zwischen der Luft und der Struktur, bei der die große Energie die die Luft in die Struktur pumpt, zu Instabilitäten führt und wenn der Pilot nicht reagiert zum Zerbrechen des Flügels und entsprechend Absturz des Flugzeugs. Dieses Phänomen tritt bei jedem Flugzeug auf, und zwar ab einer gewissen kritischen Geschwindigkeit die in der Regel mit dem Prototypen ermittelt wird und ab dann für die Piloten tabu ist.

Grundproblem dabei ist, dass Tragflächen absichtlich nicht starr sind, sondern leicht biegsam, eben damit sie nicht brechen. Macht man die Sachen aber zu biegsam, gibt man Flattern Vorschub. Beim A380 hängen die Tragflächen vor dem Start etwas durch, nach dem Flug biegen sie sich mehrere Meter nach oben. Ich saß über der Tragfläche und das Durchbiegen nachoben hat die komplette Aussicht versperrt.

Als Flugzeughersteller möchte man natürlich beim Prototypen keine unangenehmen Überraschungen mehr erleben. Was? Wir haben Flattern schon beim Abflug? Entsprechend wird das ganze mittels numerischer Simulation vorab angeschaut. Und auch die wiederum musste beim A380 Neuland betreten. Sprich: Ich fands ziemlich cool als das Viech abgehoben ist, die Flügel sich megamässig durchgebogen haben und die Piloten das mit der Landung gut hinbekommen haben.

Auf dann, Samstag in ner 747 nach Westen!

Und sonst:

Dienstag, 21. Juni 2011

Papier und Bleistift

Immer mal wieder werde ich gefragt, was krasse Forscher eigentlich so treiben. Und zwar zunehmend. Denn die meisten Leute können sich unter einem Studium etwas vorstellen (sowas wie Schule, nur an der Uni) und Doktorand ist einfach, da macht man halt was man so tun muss, um einen Doktortitel zu kriegen.  Aber was treibt jemand, der kein Professor ist und schon nen Doktortitel hat? Da fehlt den Leuten komplett das Bild, noch mehr bei einem Mathematiker. Biologen züchten Mäuse, Chemiker stehen am Bunsenbrenner, Physiker machen wichtige Experimente und Literaturwissenschaftler lesen. Nun, Mathematiker rechnen?!

Nein, natürlich nicht. Mathematiker machen Mathematik! Die Vorstellung dazu ist glaube ich jemand, der einsam in seinem Kämmerlein sitzt und denkt und mit Papier und Bleistift Formeln kritzelt.
Domenico Fetti: Archimedes (Denk, denk)
Nunja, da ist schon was dran. Ein wichtiger Teil der Arbeit ist das Lesen und möglichst Verstehen von Artikeln und Büchern, was häufig ohne Paper und Bleistift nicht möglich ist. Auch das Arbeiten und Umformen mit Gleichungen (unter Mathematikern häufig Rechnen genannt), um neue Sachen herzuleiten ist wichtig und war früher sicher einer der wichtigsten Punkte. Das hat sich durch den Computer etwas geändert. Und zwar erlauben numerische Verfahren, sowie Computer-Algebra-Systeme, einfach mal zu schauen wie die Landschaft überhaupt aussieht, ohne zu komplexen Gleichungen irgendwelche Lösungen auszurechnen. "Einfach mal" bedeutet hier konkret mehr oder weniger fluchende Stunden, Tage oder Wochen programmierend zu verbringen. Dieses ist nach der Literaturrecherche die wohl zweitwichtigste Arbeit. Trotz allem ist die heutige Situation kein Vergleich zur Zeit vor Computern (da war Rechner ein Beruf und kein Gerät und Numeriker bestanden nicht auf Grossrechnerzugang, sondern Zugriff auf eine grosse Zahl an Rechnerinnen), der Lochkartenära oder der Zeit vor Monitoren. Forschung ohne graphische Ausgabe kann ich mir kaum vorstellen.

Grusel: Lochkarte für eine Fortran-Zeile: Harke, CC-by-SA 3.0
Die Probleme die in der numerischen Mathematik heute erforscht werden, sind so komplex, dass zu einer erfolgreichen Forschergruppe mittlerweile semiprofessionelle Softwareentwicklung gehört, sprich Code muss gepflegt und gewartet werden, so dass die nächste Generation von Doktoranden nicht bei Null anfängt. Das erfordert Softwaredesign, Versionskontrollsysteme, eine Arbeitsgruppe mit der ich zusammenarbeite macht sogar Regression Testing. All das ist durchaus ein organisatorisches Problem, da die Dauerstellen im Mittelbau im wesentlichen gestrichen wurden, Professoren für sowas keine Zeit haben und Doktoranden ja eigentlich an ihrer Doktorarbeit arbeiten sollen.

Der nächste wichtige Aspekt sind Dienstreisen. Ohne Konferenzen und den direkten Austausch mit Kollegen wird zum Einen die eigene Forschung provinzieller bzw. weniger relevant, dazu kommt aber auch ein enormer Motivationsschub weil man sehen kann, dass die meisten anderen auch nur mit Wasser kochen. Mir macht Reisen Spass und somit ist dieser Aspekt auch einer der Gründe, warum mir der Beruf so viel Spass macht. Ach ja und warum dieser Post etwas kürzer gerät, denn zur Zeit ist Schwitzen in Kalifornien angesagt. Aber es kostet enorme Zeit: An- und Abreise ist in der Regel am Wochenende, dazu kommt die Vorbereitung der Vorträge und die Organisation solcher Reisen wird einem ebenfalls nicht abgenommen.

Dann ist da das Schreiben von Artikeln, das Planen, Durchführen, Auswerten und Visualisieren von numerischen Experimenten, die Betreuung von Diplomanden und Doktoranden, in der Freizeit Lehre und das Schreiben von Gutachten für ebenjene, sowie die Peer-Reviews. Das erstmalige Erstellen einer Vorlesung kostet pro gehaltene Stunde zwischen vier und acht Stunden Arbeit.

Wenn man bei all diesen Sachen mal die Ruhe hat, mit seinem Bleistift ein paar Schmierblätter zu füllen, dann weiss man dass man was geschafft hat.

Und sonst:
  • Wer ist der sozialste Arbeitgeber in den ganzen U. S. of A.? Die linken Socken von der Armee!
  • Top ten, warum es toll ist, NBA-Champion zu sein. Erklärung.
  • Ziemlich spektakulärer Fall von versuchter Manipulation von Wikipediaartikeln durch einen Mitarbeiter seines Projekts Wiki-Watch, das sich nach Eigendarstellung des Projekts der Forschung beispielsweise zu Manipulationen von Wikipedia widmet. Gleichzeitig bietet das ganze einen recht guten Einblick in die Welt der Entscheidungsprozesse in der Wikipedia. Und der Chef des ganzen, seines Zeichens preisgekrönter Journalist und Merkelbiograph macht munter mit. 
  • Druckwelle des Wandels. Interessanter Artikel von von Volker Perthes zum arabischen Frühling.

Montag, 13. Juni 2011

Gunter Dueck: Aufbrechen!

 Auf der diesjährigen re:publica gab es einen Vortrag von Gunter Dueck, auf den mich einige aufmerksam gemacht haben. Das ganze wurde ins Internet gestellt und ich ertappte mich dabei, gebannt dem 45-minütigen Vortrag zu folgen. Nun habe ich sein Buch "Aufbrechen! Warum wir eine Exzellenzgesellschaft werden müssen" gelesen und möchte es an dieser Stelle zum einen wärmstens weiter empfehlen und zum anderen zusammenfassen.

Das Buch lässt sich gut lesen, ist 200 Seiten dick und er untermauert seine Punkte durch leicht verständliche Beispiele, so ein bisschen Volkswirtschaft und Management für Dummies. Die Grundpunkte und ihre Konsequenzen werden sehr weit gedacht, und zwar in überzeugender Weise. Der einfache Stil hat natürlich auch einen Nachteil, und zwar dass er im Wesentlichen darauf verzichtet, seine Punkte durch wissenschaftliche Studien zu untermauern.

Sein Grundthema ist sozusagen die Zukunft und was die deutsche Gesellschaft seiner Meinung nach tun sollte, um in dieser Zukunft zu bestehen. Wer "Die Welt ist flach" von Thomas Friedman kennt, dem werden diverse Punkte vertraut sein. Konkreter geht es ihm um die stattfindende Industrialisierung der Dienstleistung, die insbesondere eine Konsequenz des Internets ist, und welche Folgen das für Wirtschaft und Gesellschaft hat.

Das Internet führt zu einer massiven Vereinfachung von Verwaltungsabläufen (Beispiel: Onlinebanking, elektronische Steuererklärung), aber auch dazu, dass Recherchen einfacher werden (Wikipedia, Google, etc.) und damit viele Dienstleistungen überflüssig werden. Einfache Dienstleistungen werden also entweder vom Kunden selber erledigt (Eintippen der Überweisung, Flugbuchung nicht mehr im Reisebüro, etc.) oder in den Niedriglohnsektor verschoben.  Gleichzeitig zeigen die Erfahrungen aus dem Solartechnologiebereich, wo der deutsche Markt massiv durch chinesische Firmen unter Druck gesetzt wird, dass High-Tech-Billigproduktion kein tragfähiges Zukunftskonzept für Deutschland ist. Die Quizfrage ist nun, wie man damit umgeht.

Nicht nur diese Kollegen müssten sich heute einen neuen Job suchen
Seine Antwort ist, dass Deutschland sich dem Premiumsegment der Dienstleistungsgesellschaft verschreiben muss. Und zwar eröffnet das Internet neben dem enormen Druck auf einfache Dienstleistungen eine riesige Zahl an neuen Möglichkeiten für neue Angebote: Videotelephonie ermöglicht Telemedizin, "intelligente Systeme" bei der Energieerzeugung, neue Unterhaltungssachen, wie echte 3-D-Spiele oder die Live-Übertragung von Konzerten oder Sportevents ins Wohnzimmer. Dazu gehört auch der Aufbau von intelligenter Infrastruktur, von Ausbildungssoftware, aber auch der Umbau von Wohnungen, um eine Videowand zu installieren oder der Ausbau des Internets. Deutschland soll der Ort werden, von dem aus diese ganzen Dinge entwickelt und an die ganze Welt verkauft werden.

All dies erfordert aber einen Umbau des Bildungssystems und wie er meint, sogar einen Wechsel des Menschenbildes, aber dazu später mehr. Zunächst ist es einleuchtend, dass wenn Deutschland kein Niedriglohnland werden soll, dass dann für die oben genannten Sachen gut ausgebildete Leute gebraucht werden. Konkret fordert er: "Alle sollen studieren!"

Bevor ich dazu inhaltlich etwas schreibe, also warum das sinnvoll sein soll, ein paar andere Gedanken. Bei den meisten Leuten dürfte der erste Gedanke ja sein: "Das geht nur, wenn das Niveau gesenkt wird." Er setzt noch einen drauf und behauptet, dass die meisten Leute mit Abitur unterbewusst denken: "Das würde ja bedeuten, dass mein Abitur und damit mein sozialer Status abgewertet werden würde. Deswegen will ich das nicht." Nicht ganz von der Hand zu weisen. Nun denn, warum meint er, dass das geht? Weil zum Einen die Bildung in der Bevölkerung höher ist als vor 20 Jahren noch. Dass mehr Leute Abitur machen als früher muss also nicht zwangsläufig mit einer Senkung des Niveaus einhergehen. Wer Abitur hat, dessen Kinder machen auch Abitur. Die Frage ist also, wie man die restlichen Leute zum Abitur bringt. Nun ja, zum Einen ist es erforderlich, Begeisterung zu wecken (einfach gesagt, trotzdem ein wichtiger Punkt). Aber: Bessere Pädagogen auf allen Ebenen von Kindergarten bis Uni könnten da viel bewirken.

Dazu kommt, dass neue Medien neue Lerntechniken erlauben. Er behauptet, dass es unterschiedliche Lerntypen gibt. Heute würde also für die meisten das Lesen ein wesentliches Element des Lernens sein. Dies wäre aber eine Frage der Technik und nicht naturgegeben. An diesem Punkt bin ich etwas skeptisch, ich selbst kann mir neue Dinge am Besten durch Lesen aneignen, aber das kann natürlich der Effekt von 30-jähriger Übung sein. Hier hätte ich mir etwas mehr Untermauerung gewünscht, wie ich auch insgesamt seine scharfe Kritik an Lehrern nicht ganz nachvollziehen kann. Die neue Generation, die in den letzten 10 Jahren eingestellt wurde, ist schon ganz anders als die Generation aus den 70ern. Ach ja, er scheint Commons nicht zu kennen, auf jedenfall fordert er die Einrichtung eines solchen Portals und die Bestückung dessen mit Lehrvideos zu jedem beliebigen Thema, und zwar den Besten die es gibt.

Sei es wie es sei, hat er einige sehr gute Argumente für die Notwendigkeit: Denn damit, dass die heutigen Deutschen eine höhere Bildung haben als früher, steigen auch die Ansprüche. Im Kindergarten wird erwartet, dass die Kinder schon etwas lernen, vielleicht sogar mit Fremdsprachen in Berührung kommen. Ein Fachhochschulstudium wäre dem viel angemessener. Alle Studien zu Lehrern zeigen, dass zwischen dem Ausbildungsgrad des Lehrers und dem Lernerfolg der Kinder eine sehr hohe Korrelation herrscht. Konsequenterweise sollten also Grundschullehrer nicht nur eine dreijährige Ausbildung, sondern eine vier bis fünf-jährige Ausbildung machen. Bei der Bank sterben die einfachen Dienstleistungen aus. Was man braucht, sind Mathematiker, Volkswirte und Betriebswissenschaftler.

Der nächste wichtige Punkt ist, dass es mit besserer Ausbildung alleine noch nicht getan ist. Dazu kommt, dass die "neue Welt" Leute erfordert, die multikompetent sind, wie er das nennt. Wer also in der IT arbeitet, muss nicht nur fachlich kompetent sein, sondern sie muss auch ein Grundverständnis davon haben, was die Kunden wollen und darüber mit anderen Abteilungen kommunizieren können. Jeder muss in der Lage sein, sich selbst zu motivieren, etwas neues zu lernen. Dazu nennt er den Punkt der "negativen Arbeit". Wer einfache Dienstleistungen schlecht verrichtet, etwa langsam oder fehlerhaft, der sorgt im schlimmsten Fall dafür, dass genau diese Dienstleistung nochmal gemacht werden muss. Der Schaden ist also im schlimmsten Fall dass die Arbeit genau dieser Person nichts wert ist. Passiert dies aber auf einer höheren Ebene, kann schlecht verrichtete Arbeit dazu führen, dass Kunden und Aufträge verloren gehen, dass ganze Produkte neu designt werden müssen, etc. Der maximale Schaden ist also wesentlich höher, als nur die Arbeit dieser Person.

Gefordert sind also Leute, die fachlich, sozial, sprachlich, interkulturell, analytisch kompetent sind, die kreativ sind, schnell lernen, andere führen können, etc. Diese Dinge klingen viel, sind aber wenn man mal drüber nachdenkt, eigentlich Selbstverständlichkeiten. Die Grundfrage die er dahinter sieht ist: Was für ein Menschenbild haben wir und zu was für Menschen erziehen und bilden wir Leute aus?

Brauchen wir Leute die tun was ihnen gesagt wird, von 9-17 diese Dinge erledigen, sich für sonst nichts interessieren und dann nach Hause gehen? Oder selbstständige Menschen, die sich selbst weiterentwickeln wollen, die der Gemeinschaft helfen wollen? Nun ja, seine Antwort ist klar, letzteres.

Schließlich setzt er sich noch mit der Frage auseinander, was der Staat tun muss, um diese neue Gesellschaft zu ermöglichen. Sein wesentlicher Punkt ist, dass der Staat Infrastruktur bereitstellen muss. Will ich von überall nach überall Videotelephonie, muss die Bandbreite stimmen. Will ich eine wirklich florierende Internetwirtschaft, brauche ich ein Micropayment-System, aber auch eine digitale Identität, damit man sich nicht mehr bei jedem einzelnen Dienst neu anmelden muss, mit all der Gefahr von Passwortklau etc. Beides sind aber Dinge, wo seiner Meinung nach der Staat gefordert ist, entweder weil der Ausbau von Internet außerhalb von Ballungszentren unwirtschaftlich ist oder die Marktteilnehmer von alleine nicht in der Lage sind, sich auf einen Standard zu einigen.

Und an diesem Punkt hat er mich fast zum Weinen gebracht. Die bisherigen Punkte fand ich extrem spannend, teilweise hatte ich sie schon an anderen Stellen gehört, aber er brachte jetzt ein Beispiel. Und zwar hat es in Deutschland Zeit meines Lebens in meinen Augen eigentlich nur zwei zukunftsweisende innenpolitische Weichenstellungen gegeben (außenpolitische wie die Wiedervereinigung oder den Euro mal rausgenommen), nämlich die Agenda 2010 und den Atomausstieg und ansonsten nur armseliges Klein-Klein mit Blick auf die nächste Wiederwahl passiert, gepaart mit Duckmäusersystemen in vielen Partien, die durch unlimitierte Wiederwählbarkeit begünstigt werden. Vom Internet und den Herausforderungen der Zukunft scheinen viel zu wenige Bundestagsabgeordnete überhaupt etwas zu verstehen. Wie also soll das in Deutschland funktionieren, die Gesellschaft für diese Zukunft fit zu machen?

Nun: anderswo geht es. Im Westen sind Politiker Anwälte und ähnliches. In China und ähnlichen Ländern sind die Macher Technokraten. Und jetzt kommt das Beispiel: In Singapur wurde 2005 ein Plan verabschiedet, wo das Land 2015 in Bezug auf das Internet sein will und warum, siehe hier und hier. Da tauchen Wort auf wie 1Gbit Bandbreite für jeden, iPv6-Verträglichkeit und, man höre und staune, dass man das tun wolle, nicht nur um die Wirtschaft fit zu machen, sondern, ich zitiere
IDA is committed to bringing the benefits of infocomm technology to the population. Working with organisations in the people sector and the infocomm industry, IDA develops initiatives to encourage the less ICT savvy to enrich their lives through adopting infocomm and using infocomm in a more sophisticated way. This includes providing assistance to low income households, senior citizens and people with disabilities to acquire computers and get connected to the Internet.
Es geht also darum, Leute die nicht IT-affin sind, die wenig Geld haben, die alt sind oder aufgrund von Behinderungen Probleme bei der Internetnutzung haben, an der neuen digitalen Gesellschaft teilhaben zu lassen, um "ihr Leben zu bereichern".

So etwas will ich auch. Sein Lösungsvorschlag: Eine neue Partei. Ich bin gespannt.

Und sonst:

Montag, 6. Juni 2011

Wikipedia: Bild oder doch eher FAZ?

Der Kachelmann-Prozess ist zu Ende und sowohl das Gericht als auch die Medien haben sich vor allem darin hervorgetan, das Leben des Beschuldigten und zu Teilen auch der Klägerin zu ruinieren. Wenn in Interviews mit Ehemaligen Freundinnen des Wettermoderators das Sex-Leben des Mannes ausgebreitet wird, dann sind das klare Persönlichkeitsrechtsverletzungen, die nicht mehr durch die Pressefreiheit gedeckt sind. Wenn er wollte, könnte Kachelmann die betreffenden Blätter auf Schadensersatz verklagen, was diese auch wissen und im Vorfeld einkalkulieren.

In der Wikipedia wurde das Thema wenig verwunderlich kontrovers und ausführlich diskutiert. Das Diskussionsarchiv für Mai bis November 2010 umfasst 180 Kilobyte, das sind so grob 40 Bildschirmseiten Text. In der Version vom 7. Juni 2010 wird nur kurz darauf eingegangen, dass er angeklagt ist und sich in U-Haft befindet. Dem vorangegangen waren Diskussionen, ab wann man diese Tatsachen überhaupt bringt und welches Medienecho eine Aufnahme in die Wikipedia rechtfertigt. Bis zum 1. Dezember wird der Abschnitt von 2 auf 5 Sätze erweitert. Mittlerweile ist dies ein eigener Abschnitt. Nie wurden seine sexuellen Vorlieben thematisiert oder die vorherigen Beziehungen. Anders gesagt hat sich Wikipedia in diesem Fall verantwortungsvoller und auch gesetzestreuer verhalten als viele sonstige Medien. Und insgesamt? Ist Wikipedia was den Umgang mit aktuellen Themen und insbesondere lebenden Personen angeht eher FAZ als eine Institution dessen, was sich Qualitätsjournalismus nennt? Oder eher BILD?

Die Frage wird dadurch wichtig, dass Wikipedia eine der meistgelesenen Websites der Welt ist. Was in Wikipedia über lebende Personen steht, hat also das Potenzial, die Wahrnehmung der Welt über diese Personen zu prägen, zu ändern und auch zu verfälschen.

Beim Support-Team, einer Gruppe von Freiwilligen, die Emails an die Wikipedia beantwortet, gehen mittlerweile täglich Emails von Betroffenen ein, denen etwas an ihrem Artikel nicht passt. Das können Eitelkeiten sein, aber auch Sachen, die für Außenstehende wie Eitelkeiten wirken. Etwa wenn eine Frau aus dem Showgeschäft schreibt, dass sie schon Absagen hatte, weil ihr Geburtsdatum bei Wikipedia stehe. Es können einfach nur blöde Scherze sein, die aber nicht entdeckt werden. Unter anderem solche waren es, die mich motivierten, die gesichteten Versionen zu entwickeln, die letztlich lebenden Personen Schutz gegenüber diesen Dingen liefern, da nun jeder Edit von nicht vertrauenswürdigen Leuten in der deutschsprachigen Wikipedia vorab begutachtet wird.

Barbara Streisand machte erste Erfahrungen mit dem Streisand-Effekt;
Allen Warren, CC-by-sa 3.0
Es können aber auch Fälle sein, bei denen der Betroffene Bundestagsabgeordneter ist und der Wikipediaartikel die Boulevardpresse mit Details über einen unschönen Streit mit einem ehemaligen Freund rezipiert. Und derjenige sich einen Anwalt nimmt, der im Endeffekt sorgt, dass dann auch die letzte Person weiß, dass sein Mandant ehemaliger Stasi-Mitarbeiter ist.

Manchmal sind es glatte Falschaussagen, die über Wikipedia verbreitet werden. Manchmal werden diese Falschaussagen durch alle öffentlich zugänglichen Quellen verbreitet. "Ja, aber ich muss es doch am Besten wissen", schreiben die Betroffenen dann ungläubig, wenn Wikipedianer Nachweise verlangen.

Die Wikimedia Foundation hat das Problem auf dem Schirm, so gibt es beispielsweise eine eigene Policy für Biographien lebender Personen und gerade eben hat sie eine Policy für den Umgang mit Photos lebender Personen verabschiedet. Nur bedeuten diese immer nur, dass die Communities in den Einzelprojekten angehalten sind, diese auch zu befolgen, nicht dass die Foundation diese durchsetzen würde.

In der deutschsprachigen Wikipedia ist es so, dass ein wesentlicher Teil der 1000 regelmässig Aktiven das Problem auf dem Schirm hat und sich der ethischen und moralischen Dimension bewusst ist. Und deswegen ist Wikipedia auch eher FAZ als BILD. Und da Wikipedia besser wird und die FAZ schlechter, wird es in zehn Jahren auch heißen: FAZ, eher BILD oder Wikipedia?

Leider gibt es auch einige laute Mitarbeiter (um nicht zu sagen Trolle), die sich als Kämpfer gegen Zensur sehen und stilisieren und jede Beschwerde Betroffener zu Wikipediaartikeln als unzulässige Beeinflussung bekämpfen, ungeachtet des Sachstands. Treten Probleme bei wirklich bekannten Personen auf, ist es somit auch nur eine Frage von Einsatz und Zeit, bis die Artikel den eigenen Ansprüchen von Wikipedia genügen: Am Ende gewinnen dann doch die besseren Belege.

Das, wo es wirklich schlimm wird, sind Personen, die nicht wirklich bekannt sind. Im schlimmsten Fall läuft das so ab: Person Y ist wenig bekannt, es gibt keine Quelle, die sich explizit mit ihr auseinandersetzt, aber sie erfüllt aber die Wikipedia-Relevanzkriterien im Bereich "Birchlog-Autor". Person X legt Artikel über Person Y ab. Die Motivation sei mal dahin gestellt, aber kürzlich habe ich gesehen, wie ein Artikel angelegt wurde, weil Verwechslungsgefahr mit einer anderen Person bestand. Anders gesagt: X hat keine Ahnung, wer Y ist, außer dem, was Google ausspuckt. Dies ist hier nun nicht viel, aber es gibt einige Fundstellen über dies und was, was Y so in seinem Leben getrieben hat.

Der Artikel ist damit ein Abbild dessen, was Google über Y weiß. Es ist kein Abbild dessen, was Y ausmacht und gibt somit, ohne dass er etwas falsches enthalten würde, ein Zerrbild dessen wieder, was Y in seinem Leben so getrieben hat. Unwichtige Aspekte, die Autor X nicht einordnen konnte, werden erwähnt und damit aufgebauscht. Wichtige Aspekte, die via Google nicht so einfach zu finden sind, werden nicht erwähnt. Die Inkludisten bei Wikipedia sagen nun: Das wird sich mit der Zeit schon bessern, irgendwann kommt jemand, der weiß mehr.

Nur: Die Erfahrung zeigt, das passiert nicht, bis dann irgendwann Y den Artikel findet und sich zu Recht beschwert. Typischerweise, indem der Artikeltext gelöscht wird, was von Vandalenjägern revertiert und mit Drohungen kommentiert wird. Was nun? Die kafkaeske Variante ist, einen Löschantrag zu stellen. Dann nämlich muss in der Diskussion nachgewiesen werden, dass die Person doch ein so ein kleines Licht ist, dass die Wikipedia-Relevanzkriterien nicht erfüllt sind. Wohlgemerkt ohne dass Y sich je gebrüstet hätte, wird jetzt öffentlich diskutiert, wies um die Meriten von Y steht und das Beste: Y würde sich freuen, wenn rauskommt, dass das noch nix ist mit der Berühmtheit. Gleichzeitig bemühen sich Leute, die es als ihre Aufgabe ansehen "Artikel vor Löschung zu retten" darum, die Relevanz im Artikel darzustellen, indem sie jedes noch zu unwichtige Detail was ihnen als relevanzbegründend erscheint, in den Artikel packen. Die Alternative zum Löschantrag ist, dass Y weitere Quellen bereitstellt, damit Wikipedianer die Unwuchten im Artikel beseitigen können.

All dies ist leider kein Scherz, ich beobachte das immer wieder, insbesondere im Bereich Wissenschaftler, bei dem viele Benutzer jeden Professor als relevant erachten, ungeachtet dass die meisten dieser nicht in der Öffentlichkeit stehen. So liefern viele Artikel zu Professoren in der Wikipedia ein Zerrbild oder sind Selbstdarstellungen von Leuten, die die Relevanzkriterien ausnutzen, um sich zu verewigen. 

Was tun? Ich schlage vor, dass die bestehenden Relevanzkriterien mit zwei wesentlichen anderen Richtlinien in Wikipedia abgeglichen werden: Dem Neutralen Standpunkt und der zu Artikeln über lebende Personen. Kurz gesagt kann ein qualitativ guter und ethisch vertretbarer Wikipediaartikel über eine lebende Person nur dann geschrieben werden, wenn ausreichend neutrale Quellen zur Person vorhanden sind. Ist dies bei der Personengruppe, um die es sich in dem Relevanzkriterium dreht, nicht der Fall, wird das Relevanzkriterium entsprechend verschärft. Gleichzeitig führt das weg von den unsäglichen Situationen, in denen Wikipedianer enzyklopädische Relevanz anhand von gefühlter Bedeutung bewerten.

Ach ja und ich schlage vor, dass die Nutzung der BILD als Quelle in der Wikipedia verboten wird.

Und sonst:
  • Wie eigentlich immer, ein lesenswerter Kommentar von Torsten Kleinz zur derzeitigen Kampagne, Wikipedia UNESCO-Welterbe-Status zu geben: Wikipedia ist Weltkultur – deal with it
  • Google-Art-Project: MOMA Museum of Modern Art. Fürs meistüberschätzte Werk Van Goghs rechts an der Säule vorbei, dann nach links zur Wand schauen (Danke an Margit).
  • Shaquille O'Neal arbeitet an seinem Doktortitel. (2'50 etwa)
  • Zwei Drittel der französischen AKW müssen vielleicht wegen der aktuellen Hitzewelle abgeschaltet werden (danke an Peter).

Samstag, 28. Mai 2011

Kollaborative Wissenschaft

Wissenschaft wird immer kollaborativer. Das Hookesche Gesetz konnte Hook noch völlig alleine rauskriegen. Gleichzeitig war es kein Zufall, dass zu der Zeit in den Naturwissenschaften eine Fülle an neuen Resultaten erzielt wurde, nämlich durch die Mitglieder der damals neuen Royal Society. Wissenschaft ist vor allem dann gut, wenn Wissenschaftler den Ideen andere Wissenschaftler ausgesetzt werden. Einstein war nicht etwa die Ausnahme, sondern einfach egozentrisch, als er in seiner Arbeit zur speziellen Relativitätstheorie keine Literatur angab, obwohl Lorentz und Poincaré schon fast alles veröffentlicht hatten und ihnen nur der entscheidende Geistesblitz fehlte.

Heute gibt es Experimente wie am Large Hadron Collider in Cern, bei denen auf den Veröffentlichungen vermutlich 50, vielleicht 100 Leute stehen werden. Die Zeiten, wo einsame Wissenschaftler in ihrem Kämmerlein sitzen, sind vorbei. Das hat viele Gründe. Zum einen gibt es mehr Wissenschaftler als früher. Zum anderen gibt es neue Möglichkeiten der Kommunikation wie Email oder das WWW. Und schließlich sind in vielen Gebieten der Wissenschaft die einfachen Probleme gelöst, viele der heutigen Probleme sind interdisziplinär und erfordern damit inhärent Zusammenarbeit mehrerer Wissenschaftler.

Ein anderes interessantes Beispiel ist das Polymath-Projekt. Dieses wurde von Fields-Medaillen-Träger Timothy Gowers ins Leben gerufen und stark von Fields-Medaillen-Träger Terence Tao unterstützt. Dort wurde ein mathematisches Problem auf einem Blog gestellt und Leute dazu eingeladen, ihren Senf dazuzugeben. Nach kurzer Zeit nahm das ganze Fahrt auf, das Problem war nach ein paar Wochen gelöst und sogar eine etwas allgemeinere Aussage bewiesen. Begleitet wurde das ganze über ein Wiki, auf dem Zwischenergebnisse aufbereitet wurden, um in den hunderten von Kommentaren nicht den Überblick zu verlieren.

Und trotz allem ist Kollaboration in der Wissenschaft nicht das, was sein könnte. Eine gute Zusammenfassung bietet der wirklich sehenswerte TED-Talk von Michael Nielsen:


Ebenfalls interessant ist das Blog Research cycle research, auf das ich über den Vortrag von Daniel Mietchen auf der letzten Wikipiedia Academy gestoßen bin. Wissenschaftler nutzen Werkzeuge wie offene Wikis nicht, wissenschaftliche Ergebnisse werden weiterhin in Form von diskreten Artikeln publiziert, statt dass andere Wissenschaftler kontinuierlich über Forschritt informiert und eingeladen werden, ihre Ideen einzubringen, wissenschaftliche Artikel werden wenig kommentiert und  Daten, Codes und Ergebnisse werden wenig ausgetauscht, sondern vor Zugriff durch andere Wissenschaftler geschützt. 

Es ist nicht so, als ob es nicht Versuche gäbe, das zu ändern. Beispielsweise gibt es zahlreiche wissenschaftliche Wikis, von Leuten gestartet, die für einzelne Disziplinen ein wissenschaftliches Repositorium schaffen wollten. Diese sind aber mittlerweile alle tot.

Es gibt Leute, die OpenSource-Code produzieren, ein Beispiel ist PETSc, ein anderes DEAL II. Ein Großteil der Softwareentwicklung findet aber an den Instituten selbst statt, die ihre Codes geheim halten. Übrigens auch ein Problem bei der Wissenschaftlichkeit: ein Großteil der Artikel in der numerischen Mathematik ist praktisch nicht validierbar, da von Dritten dazu erstmal einige Jahre Codeentwicklung betrieben werden müsste. Wissenschaftlich redlich wäre es, die eigenen Codes offenzulegen.

Was Publikationen angeht, sind OpenAccess-Journals auf dem Vormarsch, aber noch ist es der Standard, etwa bei Elsevier zu publizieren. Ein Unternehmen mit einer traumhaften Rendite, das keine nennenswerte eigene Dienstleistung bringt. Und dadurch, dass es dort ein Bezahlmodell gibt, sind die dort publizierten Artikel für außenstehende nicht einsehbar, was es natürlich schwieriger macht, Ideen zu liefern.

Die Antwort, warum Wissenschaftler die neuen Möglichkeiten so wenig nutzen, ist recht einfach: Im Wissenschaftsbetrieb ist für Karriere weniger die wissenschaftliche Arbeit an sich wichtig, sondern dass die eigene wissenschaftliche Leistung gegenüber dritten dokumentierbar ist. Im wesentlichen geschieht dies dadurch, dass man Artikel schreibt, die in Zeitschriften mit Peer Review erscheinen. In Deutschland ist das sogar im Hochschulrahmengesetz quasi fest geschrieben, ein wesentlicher Punkt in Berufungsverhandlungen sind nämlich die Gutachten, die am Ende des Prozesses über die 3-5 verbleibenden Kandidaten in Auftrag gegeben werden. Basis für diese ist das wissenschaftliche Werk, gegeben durch Zeitschriftenartikel. Die Frage, ob die Person in der Lage ist, Mitarbeiter zu führen spielt ebenso keine Rolle wie Aspekte der Wissenschaftskommunikation. Auch wenn ich der vermutlich meist gelesene Mathematiker meines Alters in ganz Deutschland bin, ich bezweifle, dass dies bei Bewerbungen nützlich sein wird.

Das impliziert mehrere Dinge: Für einen nicht etablierten Wissenschaftler ist es nicht von Vorteil, seine Forschungsergebnisse zu früh zu publizieren, weil dann die Gefahr besteht, dass andere die Sachen aufgreifen und selbst weiter entwickeln. Zu viel Zusammenarbeit mit anderen kann also kontraproduktiv sein. Das bedeutet ebenfalls, dass es nicht von Vorteil ist, eigene Daten zu veröffentlichen oder eigene Codes herauszugeben.

Das zeigt auch, warum das Polymath-Projekt funktioniert hat: Weil Gowers und Tao weltberühmt sind, weil sie sich nicht mehr etablieren müssen, können sie frei von solchen Zwängen offene Wissenschaft betreiben.

Damit ist leider auch klar, dass das Problem nichttrivial ist: Das große Problem ist, wie ich noch sagen kann, ob ein bestimmter Wissenschaftler gut ist, wenn ich die individuelle Leistung nicht mehr so gut belegen kann. Meiner Meinung nach gibt es eine Lösung: Die Berufungsverfahren müssen dann breiter aufgestellt werden, den Kandidaten muss intensiver auf den Zahn gefühlt werden, Assessment Center sollten Standard sein. Dann ist es durchaus möglich, festzustellen, ob jemand in der modernen Wissenschaft, die neben wissenschaftlichen Qualitäten Führungsqualitäten fordert, Organisationstalent auch Teamfähigkeit fordert, etwas bewegen kann. Meiner Meinung nach sogar besser, als wenn man nur die Zeitschriftenartikel betrachtet.

Es gibt noch einen zweiten Weg, wie etwas geändert werden kann: Die wichtigen Wissenschaftsorganisationen müssen an finanzielle Förderung Bedingungen in dieser Hinsicht knüpfen. Wenn die deutsche Forschungsgemeinschaft Geld nur unter der Bedingung gibt, dass die Ergebnisse in Open-Access-Zeitschriften erscheinen, dass Codes und Daten offengelegt werden, dann verändert sich die Wissenschaftslandschaft. Die DFG ist auf dem Weg dahin, Matthias Kleiner hat diese Themen auf dem Schirm und Veränderungen sind sichtbar. Kurioserweise ist der Widerstand von innerhalb der Wissenschaft am größten: Narzissmus und Konservativität sind leider weit verbreitet.

Schließlich ist da noch ein dritter Weg: Nicht etablierte Wissenschaftler sollten einfach machen. Oder zumindest ein bisschen. Sage ich mir zumindest: Den nächsten Artikel, den publizierst Du dann aber in einem Open Access Journal und nicht da wo es für die Karriere am Besten wäre. Und irgendwann veröffentlichst Du Deine Software. Ganz bestimmt...

Und sonst:
  •  Followup von letzter Woche: Das Future Chips Blog (danke an Peter)
  • Chinafarmer ist ein geflügeltes Wort unter World-of-Warcraft-Spielern und die Ausbeutung dieser durch ihre Arbeitgeber nicht anders als auf chinesischen Baustellen. Aber im Gefängnis durch die Wärter?
  • Wie ich das letzte mal schrieb, ist Dirk in der Form seines Lebens. On the receiving end, ist die Inkarnation von Enttäuschung. Also: Neuauflage von 2006 aus, Mavericks gegen Heat. Was krasse Forscher mit Schnittchenorganisateusen in spe im Dezember schon bewundern durften.

Mittwoch, 18. Mai 2011

Mathematiker: Das Ende der Nahrungskette?

Da werden sich die Leser wundern: Mathematiker, Herrscherinnen des Wissenschaftskosmos, Könige der Abstraktion, Heldinnen der Grundlagenforschung irgendetwas anderem Unteran als den eigenen Launen oder dem Drittmittelgeber? Ich weiß, ich weiß, man mag es kaum glauben.

Und streng genommen stimmt es auch nicht, da des bedauerlichen Umstandes von dem ich schreiben möchte, wohl nur die Numeriker etwas wissen, während die Zahlentheoretiker im obersten Stock des Elfenbeinturms einfach nie aus dem Fenster schauen. Es geht um Hardware. Die numerische Mathematik bedient sich Computer, um mathematische Probleme zu lösen. Dabei sind auch beachtliche Erfolge erzielt worden. Hardwaremässig wurde seit 1950 eine Beschleunigung um einen Faktor von 10^9 erzielt (gemeint sind ähnliche Investitionskosten). Dazu kommen für mathematische Probleme noch die Verbesserungen der zugrundeliegenden numerischen Verfahren, was für viele relevante Problemklassen ein Faktorvon 10^5 bis 10^7 ist. Die beiden Sachen multiplizieren sich und so kann ich die Laplace-Gleichung heute 10^16 mal schneller lösen als früher oder, was heute eine Sekunde braucht, hätte 1950 300 Millionen Jahre gebraucht.

Die Hardwareverbesserung wird empirisch durch Moore's Law beschrieben. Und dies kommt nun an eine physikalische Grenze, weil die Dimensionen, auf denen gearbeitet wird, Molekülbreite erreichen. Und auch wenn Intel derzeit einige Stunts macht, wird es keine 20 Jahre mehr dauern, bis die Verbesserungen einzelner Mikroprozessoren das Ende der Fahnenstange erreicht haben. Das wissen natürlich auch die Hardwarehersteller und deswegen gibt es den Trend zur Parallelisierung, also verschiedene Prozessoren in derselben Maschine zu haben, die beispielsweise einen gemeinsamen Arbeitsspeicher haben. Im Supercomputingbereich ist das nichts neues, sondern ganz normal. Auf dem PC-Markt ist das mittlerweile angekommen, jeder Computer den man heutzutage kauft, hat einen Multicore-Prozessor.


NVidia-GeForce-GPU. Wir hams immer gewusst:
Computerspiele führen zu nix gutem!
Bild: Tors via Wikimedia Commons

Neu ist dagegen der Trend, im Scientific Computing Grafikprozessoren (GPUs für Graphical Processor Units) zu nutzen. Und zwar hat sich dank der vielen fleissigen Computerspieler ein riesiger Bedarf nach Grafikhardware entwickelt. Denn was macht Standard-Computergrafik-Software? Sie rechnet aus, ob Teile der Spielfigur vielleicht gerade in einer Wand stecken, sie rechnet aus, was der Spieler jetzt gerade sehen kann und berechnet die entsprechende Grafik, alles basierend auf analytischer Geometrie. Vielleicht löst sie nebenbei noch die Flachwassergleichungen, weil bei denen nettaussehende Oberfächenwellen rauskommen, vor denen sich Spielerinnen versonnen den berechneten Sonnenuntergang betrachten können. Anders gesagt: Im Gegensatz zu einer CPU ist eine GPU für einen einzigen Zweck konzeptioniert: Numbercrunching. Oder nochmal anders gesagt: Für Numerik.

Das wurde Numerikern klar, sie probierten ihre Verfahren auf GPUs auf und berichteten von atemberaubenden Beschleunigungsfaktoren von 1000. Und durch den wachsenden Markt im Bereich der numerischen Strömungsmechanik wurde Nvidia klar, dass sie ihr Geld nicht nur von Computerspielern beziehen müssen, sondern dass da ein komplett neuer Kundenkreis wartet. Und als Nebenbemerkung: Der Gründer und Geschäftsführer Jen-Hsun Huang ist Stanford-Absolvent und aufgrund einer großzügigen Spende ist das neue Ingenieurwissenschaften-Gebäude, in dem auch mein Institut sitzt, nach ihm benannt. Und eines Tages Ende 2010 stand er vor der Tür des Instituts, betrachtete das beschreibende Poster, sagte "Das ist genau das, was ich unterstützen will" und spendete einen GPU-Cluster.

Wie auch immer, Tatsache ist, dass die Beschleunigungsfaktoren von 1000 nur auf zwei Dingen beruhen: Einem Vergleich von Äpfeln und Birnen und dem Nutzen schlechter Codes, die nie für die CPU optimiert wurden. Schaut man genauer hin, was vergleichbare CPUs und GPUs leisten, kommt man auf einen Faktor von 5, wobei die GPU mehr kostet und auch mehr Strom verbraucht. Auch das ist aber nicht der Punkt, an dem Mathematiker wie ich anfangen, doof zu gucken.

Der Punkt ist: Eine handelsübliche CPU ist inhärent sequentiell, es wird also brav ein Befehl nach dem anderen abgearbeitet, in Spezialfällen können die CPUs zwei Dinge gleichzeitig erledigen. Eine GPU ist dagegen inhärent parallel, die macht so genanntes Multithreading und macht einfach mal 1000 Multiplikationen parallel. Und da fangen die Konsequenzen für den Mathematiker an.

Nehmen wir an, ich habe ein Verfahren, bei dem ich warten muss, bis ein Ergebnis da ist, bevor ich das nächste ausrechnen kann. Das klassische Beispiel ist hier das Gauß-Seidel-Verfahren. Dieses liefert näherungsweise Lösungen linearer Gleichungssysteme, indem es mit einer Lösung anfängt, in der ersten Gleichung alle bis auf die erste Unbekannte festhält und dann die erste Unbekannte so wählt, dass die Gleichung stimmt. Dann geht es weiter zur zweiten Gleichung, hält alle Unbekannten bis auf die zweite fest, wobei es für die erste Unbekannte den eben errechneten neuen Wert nimmt und bestimmt die zweite Unbekannte so, dass die zweite Gleichung erfüllt ist. Dadurch ist die erste Gleichung nicht mehr erfüllt! Führt man das bis zur letzten Gleichung durch, hat man einen Näherungsvektor, der unter gewissen Voraussetzungen näher an der Lösung ist als der ursprüngliche. Dieser Zyklus wird nun wiederholt. Klar ist aber: auf der GPU wäre das Verfahren nicht schneller als auf der CPU, weil ich eine Gleichung nach der anderen abarbeiten muss.

Eine Alternative ist das Jacobi-Verfahren. Das macht dasselbe wie Gauß-Seidel, nur werden in jeder Gleichung die Werte der alten Näherung genommen. Dadurch kann ich in jeder Gleichung die neue Iteration gleichzeitig ausrechnen. Wie geschaffen für eine GPU, bzw. im allgemeinem für parallele Rechnungen, im Gegensatz zu Gauß-Seidel.

Und das ist dann das Ende des lamentierens: Elektrotechniker basteln neue Hardware. Informatiker basteln dafür Compiler. Numeriker schauen sich das an, stellen fest dass ihre Verfahren auf der neuen Hardware mit den neuen Compilern nicht mehr funktionieren und fragen sich, ob das die Rache der Informatiker und Elektrotechniker dafür ist, dass sie im Studium Mathe hören mussten.


Und sonst:
Creative Commons Lizenzvertrag
Birchlog von P. Birken steht unter einer Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 3.0 Deutschland Lizenz.
Beruht auf einem Inhalt unter birchlog.blogspot.com.