Von der Wiki- zur Omnipedia

Welche Artikel sind es wert, in die Wikipedia aufgenommen zu werden. Welche erfüllen die erforderlichen Voraussetzungen nicht? Wer legt die Kriterien zur Bewertung der Relevanz von Themen fest?

In den letzten Wochen ist es zu teils sehr emotionalen Debatten über die Kriterien und Methoden gekommen, nach denen in der deutschen Wikipedia Artikel für aufnahmewürdig befunden werden. Vorherschend dabei ist ein Schwarz-Weiß-Denken: die so genannten Inkludisten befürworten die Aufnahme möglichst aller Lemmata, die Exkludisten hingegen fürchten um die Qualität und würden die Wikipedia gerne nach dem Vorbild einer klassischen Enzyklopädie gestalten.

So verhärtet die Fronten zwischen den beiden Anschauungen auch sein mögen, liegt der Ausweg aus diesem Dilemma wohl in einem Mittelweg. De facto wird es niemandem gelingen, eine allgemeingültge Definition für die Relevanz von Artikeln zu entwickeln. Was also bleibt, ist eine Personalisierung der Wikipedia; jeder muss die Möglichkeit haben, die für ihn optimale Version der Online Enyklopädie zu wählen oder bei Bedarf sogar eine eigene Version anzubieten.

So ist schon in den letzten Wochen bei vielen Leuten der Wunsch nach einem Fork der Wikipedia aufgekommen. Problem dabei ist, dass eine solche Spaltung des Systems von MediaWiki nicht unterstützt wird; ein Fork würde mit einer kompletten Trennung aller Inhalte einher gehen. Wesentlich sinnvoller scheint ein verteilter Ansatz, bei dem die Wiki-Software soweit verändert wird, dass sie die gegenseitige Aktualisierung von Artikeln in unterschiedlichen Wikipedia-Versionen unterstützt.

Einen naheliegenden Ansatz um dies zu erreichen, hat vergangene Woche Tim Weber vorgeschlagen. Durch den Einsatz der Versionsverwaltugslösung Git soll die dezentrale Verwaltung unterschiedlicher Versionen der Wikipedia unterstützt werden. Ziel ist es, pro Sprachvariante künftig beliebig viele “Geschmacksrichtungen” der Wikipedia (eine allgemeine, eine wissenschaftliche, eine für Nerds etc.) anbieten zu können.

Unabhängig von der aktuellen Diskussion wäre dies meiner Meinung nach eine konsequente Weiterentwicklung des Konzepts der gesichteten und geprüften Artikel, die ja auch bereits eine Art Versionierung einführen. Bei der konkreten technologischen Umsetzung bestehen verschiedene Möglichkeiten: von einer “integrierten Lösung” mit nur einem User Interface bis hin zu einem gentrenten Deployment der einzelnen “Repositories” wäre alles denkbar.

So besteht die Hoffnung, dass die Wikipedia durch die bisher nicht besonders konstruktiv geführte Debatte um die Relevanzkriterien doch noch eine positive Entwicklung erfährt.

[netzpolitik.org: Relevanzkriterien: Wikipedia-Verein lädt zur Diskussion nach Berlin!]
[Announcing Levitation: Wikipedia into Git]
[Chaosradio 151: Die Wikipedia-Debatte]
[Medienradio 14: Plomplom]

On the implausibility of the explosives plot

Auf der Mailinglist Interesting-People beschreibt der Chemiker David Farber auf äußerst amüsante Weise die Schwierigkeiten, die auf die mutmaßlichen Terroristen der geplanten Attentate von letzter Woche bei der Synthese des Flüssigsprengstoffes zugekommen wären. Seine Conclusio: Es ist höhst unwahrscheinlich, dass es selbst einem erfahrenen Chemiker gelungen wäre, den in den Medien beschriebenen Sprengstoff auf dem Sitz eines Flugzeuges bzw. auf einer Flugzeugtoilette erfolgreich herzustellen.

If you choke from fumes, or if your explosives go off before you’ve got enough made to take out the airplane — say if you only have enough to shatter the mirror in the bathroom and spray yourself with one of the most evil oxidizers around — you aren’t going to be famous as the martyr who killed hundreds of westerners. Your determination and willingness to die doesn’t matter — you still need to get the job done.

Im zweiten Teil seines Postings folgt dann eine Generalabrechnung mit der Idee, den Flugverkehr terrorfrei machen zu können.

Now, books aren’t the only things you could nitrate. Pants and shirts? Sure. It might take a lot of effort to get things just so or they will look wrong to the eye, but I bet you can do it. Clearly, we can’t allow people on planes wearing clothes. Nudity in the air will doubtless be welcomed by many as an icebreaker, having been deprived of their computers and all reading material for entertainment.

[Link via Fefe]

Das Web erfassbar machen

Ich möchte aber gleich nochmal auf die GeoParser API, die beim Projekt Gutenkarte zum Einsatz kommt, zurückkommen. Sie erlaubt es, komplexe Webressourcen erfassbar zu machen, indem lediglich die darin vorkommenden geographischen Orte visualisiert werden. In diesem Zusammenhang ist aber auch das Projekt Websites as Graphs von Interesse, obwohl es im Unterschied zur GeoParser API nicht auf semantischer, sondern auf syntaktischer Ebene ansetzt.

Hier zwei Beispiele zur GeoParser API:

http://labs.metacarta.com/GeoParser/?url=http://de.wikipedia.org/wiki/Kommunismus[…]

http://labs.metacarta.com/GeoParser/?url=http://www.spiegel.de[…]

Besonders im Zusammenhang mit dem Schlagwort Semantic Web, werden solche Projekte in Zukunft sicher noch an Bedeutung gewinnen.

[GeoParser API]
[Websites as Graphs]

Alte Karten: Altes Deutschland/Gutenkarte

Historische Karten – Deutschland am Ende des 18. Jahrhunderts zeigt, wie zersplittert dieses Land vor rund 200 Jahren war. Die Entwicklung der deutschen Grenzen seit 1812 ist hingegen auf den Seiten des Instituts für europäische Geschichte der Uni Mainz anhand zahlreicher Karten illustriert.

Interessante Karten anderer Art finden sich beim Projekt Gutenkarte. Durch den Einsatz der GeoParser API von MetaCarta werden literrarische Werke nach geographischen Orten durchsucht, und in eine Karte eingetragen. So findet sich hier zum Beispiel die eindrucksvolle Karte zu Edward Gibbons The History of the Decline and Fall of the Roman Empire. Die zugrunde liegenden Texte stammen zur Gänze aus dem Project Gutenberg.

[IEG-Maps]
[Gutenkarte]

Big Brother, ahoi!

In einer aktuellen q/depesche warnt die Quintessenz vor den Gefahren, die sich aus der Kombination von Überwachungsmaßnahmen und der auf EU-Ebene (Parlament & Rat) beschlossenen Vorratsdatenspeicherung ergeben.

Sollten die Pläne zur Vorratsdatenspeicherung umgesetzt werden, sind Missbräuche der Daten zu erwarten. Zahlreiche Beispiele in der Vergangenheit zeigen, dass sich der Missbrauch geheimer Überwachungsbefugnisse nicht verhindern lässt. Bekannt geworden ist etwa die Bespitzelung kritischer Journalisten und Aktivisten in Deutschland, politischer Gegenspieler in Frankreich sowie von Menschenrechts- und Umweltverbänden in Großbritannien und den USA. Auch die regierungsinterne und andere sicherheitsrelevante Kommunikation wäre nicht mehr vor unbefugtem Zugriff geschützt, wie der Abhörskandal in Griechenland vor drei Monaten gezeigt hat.

Passend dazu ein aktueller Artikel in der Sunday Times: Cameras set racial poser on car crime. Obwohl nur 11 Prozent der Londoner schwarzer Hautfarbe sind, beträgt deren Anteil an den Verhaftungen in Folge der Einführung eines neuen Kameraüberwachungssystems 46 Prozent.

… between April 2005 and January this year the units generated 2,023 arrests. Of these 923 were black suspects, while 738 (36%) came from white backgrounds. Asians accounted for just over 9% of arrests.

Auch wenn im zugrundeliegenden Bericht versucht wird, Rassismus als Quelle für diese Zahlen auszuschließen, bleibt er dennoch eine schlüssige Erklärung schuldig.

[q/depesche: Überwachungsskandale: Mit Data Retention ganz einfach]
[The Sunday Times: Cameras set racial poser on car crime via Fefe]

Linuxwochen 2006

Urania Wien
Quelle: pts

Nach dem Auftakt letzte Woche in Salzburg, geht’s Ende dieser Woche richtig los – am Freitag in Krems und Kapfenberg und am Samstag dann im Grazer Joanneum. Mittlerweile ist auch schon das Programm für die Wiener Linuxwochen online.

Partizipieren!

[Link]