Samstag, 30. April 2011

Simulationsmethoden für Windkraftanlagen

An der Uni Kassel gibt es seit einigen Jahren ein Promotionskolleg ScoSA von Mathematikern und Ingenieuren mit dem Thema numerische Strömungsmechanik, dessen Fokus in der letzten Zeit auf Windkraftanlagen gesetzt wurde. Daraus entstanden ist in diesem Sommersemester eine Ringvorlesung "Simulationsmethoden für Windkraftanlagen", die in Zusammenarbeit des Promotionskollegs mit dem Fraunhofer Institut für Windenergie und Energie-Systemtechnologie (ISET) läuft. Geplant ist das schon länger, aber die Ereignisse der letzten Monate zeigen, dass das ein recht interessantes Thema ist.

Was sind denn eigentlich die Schwierigkeiten bei Windkraftanlagen, beziehungsweise was lässt sich noch verbessern? Nun, während sich im Onshore-Bereich ein gewisser Standard etabliert hat, sind im Offshore-Bereich, wo die Energie der Zukunft gewonnen werden soll, noch fast alle Fragen offen. Das fängt bei der Platzierung an, etwa bei der Frage, wo und in welchem Ausmass man in der Ostsee bauen kann, ohne dass der Austausch mit der Nordsee gefärdet ist. Es geht beim Bau weiter mit der Frage, wo man guten Untergrund findet, wie man das ganze kostengünstig gestalten kann und so weiter. Die nächste Frage ist die Wartung: Kann man die Systeme so gestalten, dass sie wenig Wartung brauchen oder sogar selbstwartend sind bzw. von Land aus computergesteuert gewartet werden können, um nicht ständig rüberfahren zu müssen?

Alpha Ventus im Bau, DOTI/Matthias Ibeler, CC-by-sa 3-0
Diesen Fragen ist eins gemein: Sie sind schwierig und wichtig, aber die Simulation von Windkraftanlagen spielt dabei aber keine essentielle Rolle. Zum Glück für krasse Forscher gibt es aber noch weitere. Die eine ist, wie man ein Rotorblatt baut, so dass es einen hohen Wirkungsgrad hat. Oder wie man einen Windpark baut, so dass der Nachlauf der Strömung die Anlagen windab nicht negativ beeinflusst.
Lillgrund Offshore-Anlage bei Malmö. Schlaue Platzierung? Oder nicht?
Mariusz Paździora, CC-by-sa 3.0
Die derzeit vermutlich größte Herausforderung ist es, die Downtime der Anlagen zu reduzieren. Im Moment werden Anlagen aus Sicherheitsgründen bei besonders starkem oder besonders böigem Wind abgeschaltet und laufen somit grob 30% der Zeit gar nicht. Wenn also viel Wind da ist und viel Strom produziert werden könnte, ist Feierabend. Dazu kommt noch, dass das Wiederanfahren Strom benötigt, also erstmal wieder Energie investiert werden muss. Eine interessante Idee ist, die Rotorblätter aus adaptiven Kunststoffen zu fertigen, die in der Lage sind, aufgrund von Umwelteinflüssen in kurzer Zeit ihre Eigenschaften zu ändern, etwa weich oder hart.

Bei der Lösung dieser Probleme kann eine numerische Simulation entscheidend sein. Diese ist hier extrem schwierig. Zunächst handelt es sich um eine so genannte Fluid-Struktur-Interaktion, bei der der Wind (die Luft) mit dem Rotorblatt interagiert. Diese Interaktion ist nichtlinear und ist in Form von Flattern ein gefürchtetes Phänomen in der Luftfahrt. Dann erzeugt das Rotorblatt hinter sich eine turbulente Strömung, die Lärm erzeugt, der minimiert werden will, sowie die Anlagen windab beeinflusst. Schließlich gibt es eine Fluid-Struktur-Interaktion zwischen dem Wasser und dem Turm der Anlage. Auch diese ist wieder hochkomplex. Schließlich ist da noch der Untergrund. Beim Bau von Masten und Türmen ist es Allgemeinbildung bei den Bauingenieuren, dass der Grund eine wesentliche Rolle bei der Stabilität spielt. Entsprechend sind die typischen Untergründe in westlichen Ländern in dieser Hinsicht gut untersucht bzw. man weiß wie man ein Fundament bauen sollte, damit so ein Ding für die Ewigkeit steht. Beim Nordseegrund? Eher unklar. Ach ja, selbstverständlich ist die Machzahl klein, damit ist die akustische Welle sehr schnell gegenüber der Windgeschwindigkeit und das Problem somit steif, es sind also implizite Verfahren zur Zeitintegration nötig.

Fluid-Struktur-Interaktion ist ein heißes Thema in der Numerik. Grund ist, dass die Lösung schon nur eines Problems (Fluid oder Struktur) eine Vielzahl an Herausforderungen darstellt, sich aber ein gewisser Standard herausgebildet hat mit dem man arbeiten kann. Damit ist man heutzutage in der Lage, gekoppelte Probleme zu betrachten (neudeutsch: Multiphysics), womit sich ein attraktives Forschungsgebiet ergibt. Kopplung heißt dabei, dass man zwei Gebiete hat, in denen jeweils ein eigenes mathematisches Modell gilt, die aber an einem Rand interagieren. Hier könnte das die Luft mit den Navier-Stokes-Gleichungen und das Rotorblatt mit einem elastischen Strukurmodell sind, die auf der Oberfläche des Blattes Kräfte austauschen. Der Wind drückt, das Blatt drückt zurück.Oder die Wellen und die inkompressiblen Navier-Stokes-Gleichungen mit dem Turm.

Das Problem ist nun, dass es grundsätzlich viele Möglichkeiten gibt, diese Kopplung mathematisch zu definieren, davon sich aber viele als völlig unbrauchbar herausstellen und erst so langsam Klarheit herrscht, was man tun sollte. Schränkt man sich dann noch ein, indem man sagt, dass man die Codes wiederverwenden will, die in jahrzehntelanger Arbeit für die Einzelprobleme entwickelt wurden, wird das ganze noch etwas schwieriger.

Ein weiterer interessanter Aspekt ist, dass dieselben mathematischen Techniken bei der Entwicklung von Verfahren für Supercomputer genutzt werden. Bei der Nutzung von Parallelrechnern in der numerischen Simulation wird typischerweise jedem Prozessor oder Blocks von Prozessoren ein räumliches Gebiet zugewiesen und dort wird das Problem lokal gelöst (und damit parallel auf allen Prozessoren). Dann müssen aber diese lokalen Lösungen miteinander abgeglichen werden und das ist mathematisch dasselbe wie bei der Fluid-Struktur-Interaktion, nur dass dann nicht verschiedene mathematische Modelle miteinander gekoppelt werden, sondern dasselbe Modell zigmal mit sich selbst.

Und sonst:

Sonntag, 24. April 2011

Ein viertes Paradigma der Wissenschaft

Bevor er Ende Januar 2007 spurlos auf See verschwand, hat Jim Gray, seines Zeichens mit schlechten Wikipedia-Artikeln geschlagener Turing-Preisträger, sich mit dem Gedanken beschäftigt, dass datenbasierte Wissenschaft ein viertes Paradigma eben derselben sein könnte beziehungsweise schon ist. Der Gedanke ist in dem Sammelband "The fourth paradigm" ausgeführt.

Mit Paradigma ist hier eine grundlegende Herangehensweise zu wissenschaftlicher Erkenntnis zu gelangen, gemeint. Und wenn er vom vierten redet, was sind dann die ersten drei? Das erste ist in seinen Augen empirische Wissenschaft, also die Natur zu betrachten und daraus Schlüsse zu ziehen, indem man etwa einen Zusammenhang zwischen Mond und Flut beobachtet. Als zweites wäre da theoretische Wissenschaft, bei der theoretische Überlegungen angestellt und mathematische Modelle aufgestellt werden. Zwei herausragende Beispiele wären Newtons Principia Mathematica und die newtonschen Gesetze oder Einsteins spezielle und allgemeine Relativitätstheorie. So weit so gut, bei diesen beiden wird vermutlich niemand wiedersprechen, damit wird man schon in der Schule konfrontiert. Theoretische Wissenschaft nutzt dabei einen Modellierungskreislauf:
  1. Definiere den Teil der Wirklichkeit, der betrachtet werden soll. 
  2. Stelle ein möglichst einfaches mathematisches Modell auf (einen Satz von Gleichungen), das diese Wirklichkeit beschreibt. 
  3. Löse das Modell und schaue, ob es tatsächlich die zu untersuchenden Phänomene beschreibt. Wenn Nein, gehe zu 2. und wähle ein komplexeres Modell. Wenn du das Modell nicht lösen kannst, suche einen Mathematiker der es kann. Wenn der das Modell nicht lösen kann, warte 50 Jahre, bis die Mathematik so weit ist und schreibe unterdessen "wissenschaftliche" Artikel ohne jegliche Relevanz zu einem vereinfachten Modell, das deine Physik nicht beschreibt. 
Sir Godfrey Kneller: Sir Isaac Newton. Konnte das 3-Körper-Problem der Astronomie auch nicht lösen. Ebensowenig das 2-Körper-Problem der Soziologie und starb kinderlos.
Mittlerweile ist man in den Natur- und Ingenieurswissenschaften (Wirtschaftswissenschaftler überspringen in der Regel den Schritt mit der Suche nach dem Mathematiker und gehen direkt zum letzten Teil mit den "wissenschaftlichen" Artikeln) in der Situation, dass die interessierenden Modelle nicht mehr gelöst werden können. Sie sind zu komplex und teilweise konnte sogar nachgewiesen werden, dass gar keine Lösungen hingeschrieben werden können, etwa beim Drei-Körper-Problem, aber auch bei den Navier-Stokes-Gleichungen.

An die Stelle einer exakten Lösung tritt dann die approximierbare Lösung, womit wir beim weniger bekannten dritten Paradigma sind, welches er "Computational Science" nennt. Dies ist erst in den letzten Jahrzehnten aufgekommen ist, und zwar bedingt durch drei Punkte:
  1. Das Aufkommen leistungsfähiger und bezahlbarer Rechner
  2. Die Bereitstellung und drastische Verbesserung numerischer Verfahren, mit denen mathematische Modelle auf diesen Rechnern ausgewertet werden können
  3. Das Problem, dass die interessanten mathematischen Modelle mittlerweile zu komplex sind, als dass sie von Menschen ausgewertet werden könnten
Mit "Computational Science" bezeichnet er also die Nutzung von Computersimulationen, um wissenschaftliche Erkenntnisse zu gewinnen. In den Natur- und Ingenieurswissenschaften ist dies mittlerweile Standard. Ein drittes Paradigma ist es, weil es eine neue Denkweise eröffnet, Phänomene zu betrachten, bei der reale Experimente durch Computersimulationen ersetzt werden. Ferner erweitert es den Modellierungskreislauf um einen weiteren Feedbackloop:
  1. Definiere den Teil der Wirklichkeit, der betrachtet werden soll. 
  2. Stelle ein möglichst einfaches mathematisches Modell auf, das diese Wirklichkeit beschreibt. 
  3. Programmiere ein numerisches Verfahren, um Lösungen der Gleichungen mit einer gewissen Genauigkeit anzunähern (dies nennt sich Computermodell oder numerisches Modell). 
  4. Stelle fest, ob die heutigen Verfahren und Rechner in der Lage sind, das Computermodell zu behandeln. Wenn Nein, gehe zu 3. und wähle eine geringere Genauigkeit. Wenn das nicht funktioniert, gehe zu 2. und vereinfache das Modell.
  5. Löse das Computermodell und schaue, ob es tatsächlich die betrachteten Phänomene beschreibt. Wenn Nein, gehe zu 2. und wähle ein komplexeres Modell. Wenn Du schon vorher das mathematische Modell vereinfacht hast, um das Computermodell überhaupt auswerten zu können, suche Dir einen Numeriker, der Deinen Code anschaut, Dir Tiernamen gibt und ihn in einer Stunde um einen Faktor zehn beschleunigt. Wenn das nicht ausreicht, warte ein paar Jahre, bis entweder die Rechner dank Moore's Law das Problem erledigen können oder die Numeriker effizientere Verfahren bereit stellen. Veröffentliche währenddessen Deine Arbeiten und nenne es "Proof of Concept".
In der Schule wird dieses Paradigma nicht behandelt und im Wikipediaartikel zum mathematischen Modell heißt es banal: "Ein so genanntes Computermodell ist nichts anderes als ein mathematisches Modell, das man mit dem Computer auswertet. Dieser Vorgang wird auch Computersimulation genannt." Man beachte den Link auf die Computersimulation, wirklich kein schönes Beispiel wikipedianischer Autorenkunst.

 
Simulation oder Visualisierung einer X-43A-Scramjet-Simulation? Bild: NASA
Umgekehrt ist vielen Ingenieuren der Unterschied zwischen einer Simulation und einer Visualisierung derselben gar nicht mehr klar, so selbstverständlich sind diese Werkzeuge geworden.

Grey setzt nun noch einen drauf und redet von einem vierten Paradigma, nämlich datenbasierter Wissenschaft. Und zwar so wie Computer es möglich machen, von theoretischen Modellen auf numerische Modelle zu gehen, machen sie es ebenso möglich, von rein empirischen Beobachtungen auf das elektronische Sammeln von Daten mit anschließender Auswertung zu gehen. Dies hat deswegen eine neue Qualität, weil mittlerweile Datenmengen gesammelt werden, die jede Vorstellungskraft übersteigen und außerdem zunehmend Auswerteprogramme und geräte zur Verfügung stehen, mit denen diese Datenmengen nutzbar gemacht werden können. Dies kann in einer einfachen Form Visualisierung am Bildschirm bedeuten, aber auch komplexer sein wie die CAVE (nein, habe ich leider noch nicht erleben können), bei der 3D-Daten in einem echten Raum erfahrbar werden.

Ein krasses Beispiel ist das Planetary Skin Institute. Und zwar liefern NASA-Satelliten ja von jedem Punkt der Erde mindestens alle 24 Stunden ein Bild (naja, manchmal nur von Wolken, aber egal). Diese gigantischen Datenmengen werden gesammelt und erlauben es, nicht nur eine Darstellung der Erdoberfläche zu liefern, sondern insbesondere eine zeitliche Entwicklung der Mengen an Getreide, Wäldern oder Wüsten zu liefern. Und damit sind plötzlich Untersuchungen möglich, die noch vor zehn Jahren völlig unvorstellbar waren.

Und für die dies bis zum Ende geschafft haben:
  • Terry Taos Karrieretip: Schreib auf was Du hast!
  • "Obama's Wars" von Bob Woodward gelesen über den Umgang der Obama-Regierung mit Afghanistan. Am deutlichsten wird, wie unfassbar unfähig die Vorgängerregierung war. Und dass es keinen zufriedenstellenden Ausgang in Afghanistan geben wird. Interessant dazu: Link.
  • Wie bewirbt man ein Luxusklo für 6.400$? So! (Danke an Tim.)

Samstag, 16. April 2011

Editor-Trends-Study-Followup

Ich habe nach meinem Posting letzte Woche zur Editor Trends Study der Wikimedia Foundation nochmal etwas rumgefragt und gelesen und wurde dabei auf verschiedene Dinge gestoßen, die insgesamt das Bild ergeben, dass die Wikimedia Foundation den Handschuh bereits aufgenommen hat.

Zum Beispiel ist es für die Foundation seit einigen Wochen möglich, bei einer Gruppe von Nutzern Features an- oder auszuschalten, um deren Effekt zu testen. Erste Ergebnisse sind da, der konkrete Vorschlag die Position der Sektions-Edit-Buttons zu verschieben, scheint positive Effekte zu haben.

Darüberhinaus wurde im Februar diesen Jahres das Artikel-Feedback-Tool, eine Anwendung der Flagged Revisions, etwas systematischer untersucht. Erik Moeller, Deputy Director der Wikimedia Foundation, hatte damals mit mir an den Flagged Revisions gearbeitet und dabei diesen Aspekt, also nicht nur wie bei den gesichteten Versionen ein eindimensionales Feld, sondern ein mehrdimensionales Feld zu haben, bei dem man mehreren Attributen unterschiedliche Levels zu weisen kann (Beispiel), eingebracht. Das Problem bei dem Feedback ist, es so zu gestalten, dass man etwas damit anfangen kann. "Like" oder "Not like" ist für die Autoren eines Wikipediaartikels vielleicht motivierend, wenn die Leser den Artikel mögen, aber im anderen Fall wenig hilfreich. Die Untersuchung zeigt, dass es möglich ist, die Abfragen so zu gestalten, dass am Ende ein vernünftiges Maß für Qualität herauskommt.

Ebenfalls eine sehr schöne Initiative hat den schönen Namen Account Creation Improvement Project. Das ist ehrlich gesagt schon lange überfällig: Und zwar ist der Anmeldemechanismus wenig einladend, es wird nicht so richtig deutlich, warum es gut wäre, wenn sich die Leute anmelden und wenn man sich angemeldet hat, gibt es keine zwingende Folgebetreuung. In der deutschsprachigen Wikipedia gibt es hier das Mentorenprogramm, was ganz gut funktioniert, aber nur Leute abholt, die sich aktiv darum bemühen. Darüberhinaus bemüht sich das Nachsichtungsprojekt, darum, Neulingen Hilfestellungen zu geben, da sie über die noch freuzuschaltenden Seiten nach Konstruktion vor allem mit Neulingen in Kontakt kommen. Nächster Schritt wäre eine dringend nötige Verbesserung der Benutzerseiten, die es den Leuten einfacher machen, etwas über sich mitzuteilen.

Dieses Projekt zeigt meiner Meinung nach, warum es so wichtig ist, dass fest bezahlte Kräfte sich dieser Dinge annehmen. Zum Einen erfordert es Fertigkeiten, die unter den Wikipedianern, die vor allem Enzyklopädieartikel schreiben können, nicht weit vebreitet sind. Zum anderen ist es nicht einfach, sich zu überlegen, wie man die Benutzeranmeldung vernünftig macht und das dann noch implementiert zu kriegen und mit einem vernünftigen Design zu koppeln erfordert direkt eine Arbeitsgruppe, die über einen längeren Zeitraum an der Sache arbeitet.

Schließlich hat Stephen Walling in einem Artikel auf dem Wikimedia Blog untersucht, ob die Edits neuer Benutzer eigentlich brauchbar sind für Wikipedia. Er und seine Mitstreiter kommen zu dem Ergebnis, dass das auch mit den gestiegenen Qualitätsansprüchen noch der Fall ist, wobei sie nicht offenlegen, was ihre eigenen Ansprüche an Edits sind.

Anders gesagt: Die Wikimedia Foundation geht das Problem der zurückgehenden Mitarbeiterzahlen an. Bei Wikimedia Deutschland sehe ich leider eher dass man sich verzettelt. Beim Kompass 2020 wurde versäumt, bei der Erstellung die Community einzubinden, so dass diese sich den Plan nicht zu Eigen gemacht hat. Darüberhinaus ist der Plan sehr ambitioniert, es wird aber nicht versucht, einzelne Teile als wichtiger als andere zu identifizieren, sondern statt dessen an allen Bereichen gleichzeitig gearbeitet wird. Mal sehen wo die Reise hingeht.

Ach ja: Die Wikimedia Foundation hat derzeit eine Masse an offenen Stellen, insbesondere im IT-Bereich.

Und sonst:
  • Unglaublich interessanter Vortrag von Gunter Dueck von der re:publica. Makes you really think...
  • Das Harvard-Entrance-Exam 1869. Der Mathematikteil scheint am stärksten obsolet, heute würde man da komplett andere Fragen stellen.
  • Total niedlich. Nur, wenn das Krümelmonster jetzt für jeden Keks einen Dollar braucht, wo soll das enden?!

Samstag, 9. April 2011

Editor-Trends-Study der Wikimedia Foundation

Vor kurzem hat die Wikimedia Foundation einen Bericht zur Entwicklung der Anzahl der Mitarbeiter bei Wikipedia veröffentlicht, die Editor Trends Study, die im wesentlichen sagt, dass die Wikipedia-Projekte einer existenziellen Bedrohung ausgesetzt sind, weil immer weniger mitmachen. Dort findet man die Kurzform, wesentlich detaillierter ist das ganze hier, und ich empfehle allen für die das wichtig ist, es auch zu lesen. Ansonsten hat Witty Lama das ganze ebenfalls gut zusammengefasst. Wie groß das Problem ist, hatte Eugene Kim mir im Januar erklärt. Kurz gesagt: Entweder die Wikimedia Foundation oder Wikimedia Deutschland müssen jemanden einstellen, um sich dezidiert um dieses Problem zu kümmern, und zwar zügig, denn es ist ein schwieriges Problem, bei dem keine schnellen Lösungen zu erwarten sind. Und nun das ganze in lang.

Die wesentliche Grafik ist die folgende:

Mitarbeiterentwicklung auf der englischen Wikipedia über Zeit. Blau: Anzahl der aktiven Autoren, Rot: Anteil an Neulingen aus dem Zeitraum, die nach einem Jahr noch dabei sind. WMF, CC-by-SA.
Was man sieht ist, dass nach einer Phase starken Wachstums seit 2005 die Anzahl aktiver Autoren abnimmt, sowie dass der Anteil an Neulingen die nach einem Jahr noch dabei sind, abnimmt. Bei der Studie werden neue Mitarbeiter als solche gezählt, die innerhalb eines Monats mindestens zehn Bearbeitungen getätigt haben, aktiv ist man ab dann, wenn man mindestens fünf Bearbeitungen innerhalb eines Monats getätigt hat.

Aus der Analyse ziehen die Autoren fünf wesentliche Schlüsse, bei denen hervorzuheben ist, dass sie dieselben sind für alle großen Wikipedias:
  1. Die Wikipedia-Communities bestehen zunehmend aus Mitarbeitern, die schon lange dabei sind und weniger aus Neulingen. 
  2. Zwischen Mitte 2005 und 2007 ist die Rate mit der Neulinge dabeibleiben, dramatisch gesunken und ist seitdem auf niedrigem Niveau. 
  3. Dies kann nicht mit der Annahme erklärt werden, dass früher viel mehr Leute experimentiert oder vandaliert haben. 
  4. Über die letzten drei Jahre ist die Neulingsdabeibleibrate nicht weiter gesunken.
  5. Mitarbeiter, die schon mindestens drei Jahre dabei sind, bleiben mit einer Wahrscheinlichkeit von 75-80% ein weiteres Jahr.
Kurz gesagt stirbt die Wikipedia einen langsamen Tod. Diese Schlüsse gefallen mir, denn die Autoren ziehen nur Schlüsse aus ihren Daten, die diese garantiert hergeben. Aufgrund der Methode, sich ausschließlich auf die Anzahl an Benutzern zu beschränken, die innerhalb einer gewissen Zeitspanne so und so viele Edits getätigt haben, ist es nicht möglich Aussagen darüber zu treffen, was für Benutzer aufhören und warum. Sind es alte, junge, schlechte, gute, technikaffine, weibliche, mönnliche oder Benutzer mit anderen Attributen, die der Wikipedia vermehrt den Rücken kehren?

Ebensowenig ist unklar, warum ein Neuling erst gar nicht weitermacht. Klar ist nur aus anderen Studien, dass die Leute die dabei bleiben, bei gewissen Attributen eine homogene Gruppe bilden, sie sind nämlich zu über 90% männlich und stark überdurchschnittlich gut gebildet (siehe etwa die Ergebnisse von Manuel Merz). Ein Fehlschluss bietet sich hier an: Nur Neulinge die aus dieser Gruppe sind, bleiben dabei, Frauen und Hauptschüler werden vergrault. Das vergisst die Alternative: Schon unter den Neulingen sind nur Leute aus der genannten Gruppe und die Selektion findet bereits vorher statt, Frauen und Hauptschüler finden Wikipedia schon initial nicht attraktiv.

Allerdings sind die Daten der Editor-Trends-Studie geeignet ein paar Ursachen mit hoher Wahrscheinlichkeit auszuschliessen. Da das Phänomen auf allen großen Wikipedias beobachtet werden kann, ist es unwahrscheinlich, dass das Problem aus spezifischen Eigenheiten resultiert, die etwa der deutschen oder englischsprachigen Wikipedia inne sind. Zwar zeigen die Daten unterschiedliche quantitative Ausprägungen auf den verschiedenen Projekten, aber keine qualitativen. Etwa sind in der deutschsprachigen Wikipedia die Raten, mit der Neulinge dabeibleiben, höher als in anderen Wikipedias:
Anteil an Neulingen vom Januar 2009, die nach X Monaten noch dabei sind, WMF, CC-by-sa
Die absolute Zahl an Neulingen ist aber in der deutschsprachigen Wikipedia um einne Faktor zehn kleiner als in der englischen (1.000 gegenüber 10.000)!

Da die Problematik ferner seit etwa 2005 andauert, ist die Ursache nicht in Änderungen in der Projektorganisation, wie etwa dem Wechsel der Lizenz oder den gesichteten Versionen zu suchen.

Warum ist das ganze eigentlich existenziell bedrohlich? Zunächst droht langfristig der Tod des Projekts, da dann niemand mehr mitmacht. Nun könnte man sich auf den Standpunkt stellen, dass sich die Lage irgendwann von selbst stabilisieren würde. Das grosse Problem ist aber, dass schon jetzt nicht weniger, sondern mehr Leute notwendig sind, um das Projekt über die nächsten zehn Jahre zu dem zu machen, was es sein könnte. Im Bereich Mathematik sind es in der deutschsprachigen Wikipedia etwa zehn regelmässige Mitarbeiter für einen Artikelbestand von etwa 8.000 Artikeln, insgesamt sind es 1000 sehr aktive Benutzer. Zu wenig für den derzeitigen Artikelbestand von 1 Millionen, viel zu wenig für einen Artikelbestand von 2 Millionen. Das ist übrigens auch ein Problem für die Neutralität, arbeitet doch schon jetzt kein repräsentativer Schnitt der Bevölkerung mit, verschiedene Themen sind alleine dadurch einem starken Bias ausgesetzt. So könnte man aufgrund der Wikipedia auf die Idee kommen, dass Geschichte eine Abfolge von Schlachten und Herrschern ist. Der Zufluss von Autorinnen und Autoren mit frischen Ideen und Kenntnissen in bisher vernachlässigten Themenbereichen ist nichts anderes als notwendig.

Und damit wären wir auch beim schwierigsten Teil, der Lösung. Zunächst ist es unklar, wie eine Lösung aussieht, weil die Ursache unklar ist. Ich habe verschiedene Ideen, woran es liegen könnte und bin mir ziemlich sicher, dass die Begriffe Usability und Betriebsklima bei der Ursache eine Rolle spielen. Die viel grössere Schwierigkeit ist aber, dass es garantiert keine einfachen Lösungen gibt. Insbesondere fehlen allen Projekten Plattformen, auf denen die Mitarbeiter gemeinsam an solchen arbeiten können. Weder das Wiki, noch die Mailingliste haben sich hierfür etabliert, ebensowenig sind Stammtische dafür geeignet. Verschärfend kommt hierbei dazu, dass die Aufmerksamkeitsspanne von Wikipedianern aus verschiedenen Gruenden sehr begrenzt ist. Auf der Mailingliste der deutschsprachigen Wikipedia gab es gar keine Diskussion, die auf der des deutschen Vereins ist nach 10 Tagen eingeschlafen, die auf der Seite des Community-Blattes Kurier nach 7.

Eine Methode die helfen würde, wurde bisher von der Wikimedia Foundation viel zu wenig beachtet, nämlich das Messen der Auswirkungen von Veränderungen auf die Aktivität und die Art der Aktivität. Es gibt also keinen Prozess, bei dem einzelne Elemente des Layouts oder der Benutzerführung geändert werden, der Effekt gemessen und dann die nächste Änderung betrachtet wird! Dasselbe gilt für Policy-Änderungen auf den Projekten, deren Effekte keinerlei Feedback-Loop unterliegen.

Die bisherigen Erfahrungen bei Projekten dieser Schwierigkeit (Lizenzwechsel, gesichtete Versionen, etc.) zeigen, dass es einen langen Atem braucht, eine dezidierte Person die sich des Problems annimmt und die Ressourcen hat, die notwendigen Änderungen Softwaremässig durchzusetzen und insbesondere, dass die Community durch Diskussionen, Feedback und Überzeugungsarbeit so eingebunden wird, dass sie auf die Änderungen nicht mit Ablehnung reagiert, weil die von außen aufoktroiert werden, sondern sich die Lösung zu Eigen macht. Anders geht es nicht. In diesem Fall wären denke ich ein bis zwei Jahre erforderlich, mit Erforschung der Ursachen, Entwicklung von Strategien für die Beseitigung der Probleme, Implementierung dieser Strategien in der MediaWiki-Software und der Community.

Es gibt nun genau zwei Organisationen die in der Lage wären, ein derartiges Projekt zu stemmen: Wikimedia Deutschland e.V. und die Wikimedia Foundation. Wer beißt an?

Und zum Schluss:
  • Interessanter Artikel zu den Gefahren der Kernkraft aus dem Blickwinkel eines Nichtdeutschen, entsprechend ohne die peinliche Hysterie: Die wahre Gefahr.
  • Ich bin nun stolzer Besitzer von Rollkoffern mit vier Rollen. Macht doppelt so viel Lärm wie Rollkoffer mit zwei Rollen, ist aber geil. Die nächste Stufe des Reisens hat Mrs Pool erreicht: Vorhang auf! (Danke an Pavel)
  • Kann mich im dritten Anlauf irgendwie doch für Dr. MacNinja begeistern. 
Creative Commons Lizenzvertrag
Birchlog von P. Birken steht unter einer Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 3.0 Deutschland Lizenz.
Beruht auf einem Inhalt unter birchlog.blogspot.com.