albatros | texte

Halbmonatliche Bibliographie von Zeitschriftenaufsätzen

Mehr Bekanntheit verdient ein Service der Bibliothek der Deutschen Bundesbank. Alle 14 Tage veröffentlicht man dort eine Bibliographie von Zeitschriftenaufsätzen , in der man einen Überblick vorwiegend über das wirtschaftswissenschaftliche Schrifttum zu volks- und finanzwirtschaftlichen Themen bekommt. Ausgewertet werden aber auch rechtswissenschaftliche und sozialpolitische Zeitschriften. Jede Ausgabe schließt mit dem Punkt „8.3 Digitalisierung“. Die Halbmonatliche Bibliographie gibt es seit 1972, die Online-Ausgabe seit 2005. Am 15. März 2019 erschien die Ausgebe Nr. 1100. Auf der Website der Bundesbank sind derzeit alle Ausgaben zurück bis Anfang 2016 frei abrufbar. Ältere Hefte werden in Bibliotheken gesammelt.

Suchmaschinen ade

In meinem letzten Beitrag hatte ich – zugegeben: etwas flapsig formuliert – mehr Wissenschaft und Literatur gefordert. Was meine ich damit konkret? Zunächst zur Wissenschaft (später mehr zur Literatur):

Ich habe ziemlich weitgehend bereits die Suchmaschinen durch OPACs und insbesondere durch Discovery-Dienste mehrerer Bibliotheken ersetzt. Das heißt, ich gebe einen Begriff, der mir fremd ist oder allgemein: über den ich mehr erfahren möchte, in das Suchfenster meines Webbrowsers ein und frage mehrere OPACs ab. Der nächste Schritt ist dann ein Klick auf „Artikel und mehr“. Es ist eigentlich egal, wo man das tut, auch ein paar Fachportale der Fachinformationsdienste beziehe ich mit ein, das Ergebnis ist immer gehaltvoller als das, was mir die Suchmaschinen anzubieten haben, und sei es nur, weil durch die Sacherschließung ein brauchbarer Einstieg in neue Themen erleichtert wird und weil durch den Zugang zu Ressourcen, auf die ich Zugriff habe, Informationen direkt verfügbar sind und nicht als zweiter Aufguss.

Die Suchmaschinen sind mittlerweile so kaputtoptimiert worden, dass immer der suchmaschinenoptimierte Content ganz nach oben gespült wird und die eigentlich interessanten Websites darunter verschwinden. Suchmaschinen lohnen sich nur noch, wenn man sehr gezielte Abfragen macht. Wie das geht, wurde im März in der c't auf aktuellem Stand erklärt. Da ging schon mal mehr, viel mehr, wurde alles abgeschafft (ich glaube, ich werde alt, kann das sein?). Das gilt übrigens auch für Bibliothekskataloge, auch dort wird es zunehmend schwieriger, gezielte Abfragen durchzuführen. Aber faktisch leisten die OPACs und die Discovery-Dienste zum Lernen heute das, was früher bei mir auch die Suchmaschine konnte, heute aber nicht mehr kann.

Es ist etwa ein Jahr her, dass mir gar nichts anderes mehr übrig blieb, als mich darauf einzustellen. Und die Entwickler der OPACs wären sicherlich gut beraten, einmal darüber nachzudenken, wieviel „Suchmaschine“ in einem OPAC stecken sollte. Weniger ist mehr. Trust me.

Auch diese Veränderung in meinem Such- und Informationsverhalten ist ein ganz praktisches Indiz für die Zunahme der Ungleichheit bei der Bildung, also für die digitale Spaltung, was den Zugang zu Information angeht. Das bessere Angebot verdrängt das schlechtere, aber mit dem „besseren“, also mit dem qualitativ hochwertigeren Werkzeug muss man ja erst einmal umgehen lernen. Wenn man jetzt noch bedenkt, dass Recherche-Kurse in der Erwachsenenbildung so gut wie nicht mehr stattfinden, seit die meisten meinen, googlen reiche aus, mehr brauche es nicht, deshalb buchen sie solche Kurse nicht mehr, so mag man daraus ersehen, wie schwer es ist, in einer Medien- und Informationsgesellschaft gegen diese Form der Bewusstseinsindustrie anzuarbeiten. Sisyphos lebt.

Kaufmann und Esperanto

Zu Pfingsten der Hinweis auf einen Text aus der Münchener Allgemeinen Zeitung vom 2. Oktober 1921, Seite 5 f., abzurufen bei DigiPress, den Zeitungsportal der Bayerischen Staatsbibliothek. Dort beschrieb Dr. oec. publ. Dr. jur. Fr. Franke, München, die Vorzüge von Esperanto für Kaufleute. Ein absolut lesenswerter Beitrag, aus dem man ersehen mag, wie schnell sich schon seinerzeit die gesellschaftlichen Rahmenbedingungen veränderten.

Das gilt auch für andere Länder. Ein Blick in ProQuest Historical Newspapers, zu nutzen über Nationallizenz, zeigt die Häufigkeit, mit der der Begriff Esperanto in den amerikanischen Zeitungen auftauchte, die in der Datenbank enthalten sind. Der Höhepunkt lag zwischen 1900 und 1909, die Kurve sinkt dann ab bis Ende der 1920er-Jahre und bricht völlig ein während des Zweiten Weltkriegs. Ab den 1960er-Jahren geht es wieder etwas bergauf, sinkt ab den 1970er-Jahren aber schon wieder und bleibt seitdem etwa auf gleichem Niveau.

Häufigkeit des Suchbegriffs „Esperanto“ in ProQuest Historical Newspapers (1843–1988, Bildzitat)

Interessant ist aber, wie sich die Einstellung zu der „Welthilfssprache“ in der Zeit verändert hat. Zu Anfang nahm man das Projekt ernst und berichtete über Erfolge. Mittlerweile ist es nur noch eine kuriose Randnotiz wert.

Also zurück in die 1920er-Jahre. Dr. Franke begann seinen Beitrag mit einer Betrachtung, die man durchaus auch heute noch findet, mit einer Art Marketing-Weisheit:

Jede große Idee wird im ersten Jahrzehnt totgeschwiegen, im zweiten Jahrzehnt verspottet, im dritten bekämpft, und in den vierten zehn Jahren setzt sich die Idee durch.

Sie kann aber auch fast gänzlich von der Bildfläche verschwinden und sich ganz in einen inner circle zurückziehen, die Idee.

Keine Eindrücke von der Frankfurter Buchmesse 2018

Nach mehreren Jahren konnte ich die Messe dieses Jahr leider nicht besuchen. Aber man verfolgt natürlich schon, was man so vorfindet im Netz, die „Narrative“ von den sechs Millionen verlorenen Buchkäufern über die letzten etwa fünf Jahre hinweg und von dem fehlenden Verlegernachwuchs und so weiter.

Die Verlagsbranche sucht nach ihrer Postwachstums-Strategie. Wenn man der New York Times glaubt, ist das ein Gemischtwarenladen, eine Buchhandlung im Hessischen ersetzt den Bäcker und den Metzger im Ort und reagiert damit auf den Umsatzrückgang bei den Büchern.

In Publishers Weekly kam die Nachlese schon am Freitagabend: Alles im grünen Bereich, stable for a fourth-straight year—a sign that the fair has found solid footing again after attendance declines in the recession-challenged years following the 2009 event. Ja, da war was, wenn es jetzt noch weiter geschrumpft wäre, wäre bald kaum noch was übrig, was den ganzen Bohei noch rechtfertigen könnte.

Während andere linke Verlage auf der Buchmesse waren, hielt sich Konkret dem teuren Trubel fern – und rang wegen einem Titelbild mit dem Presse-Grosso – anscheinend erfolgreich. Erfahrungen, die sonst nur Titanic trafen – aber das ist schon eine Weile her. Sonneborn aktualisiert derweil lieber einen Auftritt, den es Anfang der 1970er Jahre auf der Messe gab, als zuletzt jemand mit einer alten Uniform in Frankfurt unterwegs war. Das Originalfoto war bis heute in der Ausstellung mit Aufnahmen von Inge Werth aus der Zeit um 1968 im Frankfurter Museum Giersch zu sehen.

Und First Monday brachte rechtzeitig eine Themenausgabe zum digitalen Lesen – sehr zu empfehlen, im Anschluss an die Diskussion vom letzten Jahr.

Mal schauen, worum es im kommenden Jahr gehen wird.

Zotero mit Unpaywall

Eine kurze Durchsage: Zotero nutzt in der neuesten Version Unpaywall, um auf PDFs von Aufsätzen zuzugreifen, die von den Verlagen ansonsten hinter einer Bezahlschranke versteckt werden. Der Geist ist aus der Flasche, es gibt kein Zurück mehr. Die Paywall wird immer löcheriger und ist schon lange am Ende. Wer wird denn da noch prozessieren?

Keine Zotero-Erweiterung mehr für Safari 12

Eine Woche vor dem Release von macOS Mojave hat Apple schon heute mehrere Updates für Sierra und High Sierra veröffentlicht, darunter auch den neuen Safari 12.

Da Apple sein Ökosystem immer mehr schließt, müssen nun alle Erweiterungen für Safari durch die AppStore bezogen werden. Frei verteilte Versionen von Safari-Erweiterungen mit der Dateiendung .safariextz funktionieren nicht mehr, sie werden beim ersten Start von Safari 12 deaktiviert und gelöscht.

Das betrifft einige weit verbreiteter Erweiterungen, in meinem Fall vor allem den Werbeblocker uBlock Origin und den Connector zu der Literaturverwaltung Zotero.

Im Zotero-Forum wird darüber schon seit Juni diskutiert, und die Entwickler haben sich dafür entschieden, das Bookmarklet zu überarbeiten, mit dem man aus Safari in die lokale Zotero-App speichern kann. Beim nächsten Synchronisieren wandern die neu erstellten Einträge dann in die ggf. angebundene Cloud. Eine Zotero-Erweiterung für die AppStore soll es aber nicht mehr geben.

Wer also weiter mit Safari und Zotero arbeiten will, bleibt nur der Workaround über das Bookmarklet. Der weitere Betrieb von Safari 11 unter Sierra und High Sierra ist möglich, aber aus Sicherheitsgründen nicht zu empfehlen. Wer flexibler ist, kann stattdessen den Webbrowser wechseln und Firefox oder Google Chrome einsetzen, denn deren Zotero-Erweiterungen funktionieren natürlich weiterhin klaglos.

LaTeX lebt

Dear TeXers,

Summer with its conferences is upon us. I am writing this text after a full day at the Joint Conference on Digital Libraries at Fort Worth, TX. As befits JCDL, at registration we were given the proceedings volume in digital form. By the way, I've run pdfinfo on the files and found out that of 102 papers presented there, 68 were typeset in TeX. I think the rumors of the imminent demise of TeX in the academic world are somewhat exaggerated. […]

Boris Veytsman, TeX Announce Mailing List, 7. Juni 2018.

ZoteroBib

ZoteroBib ist eine Web-Lösung, die auf der Literaturverwaltung Zotero aufsetzt und sich wohl an Anwender richtet, die Zotero (noch) nicht installiert haben. Der Blogpost aus der vergangenen Nacht gibt eine etwas ausführlichere Einführung. Einträge können per URL, ISBN oder DOI erstellt und im lokalen Browser-Cache gesammelt werden (wenn man das zulässt). Man kann also weitersurfen und immer wieder zu der Seite zurückkehren. Jeder Eintrag kann händisch nachbearbeitet werden, was z.B. notwendig wird, wenn das Tool Probleme mit Umlauten hat. Die Formatierung erfolgt über das bekannte Reservoir an den in Zotero verfügbaren Zitierstilen (derzeit sind es über 9000, wie man liest). Am Ende können sowohl einzelne Einträge als auch die komplette Literaturliste formatiert exportiert werden, entweder in die Zwischenablage, als Datei (RTF, RIS, BibTeX, HTML) oder direkt zur Übernahme ins lokal installierte Zotero. – Eine Notlösung, natürlich, wohl vor allem für mobile Anwender, die neugierig machen will in einem hart umkämpften Markt, in dem man bekanntlich nicht zimperlich ist, wenn es um Gratis-Varianten und Campus-Lizenzen geht.

Die Onleihe, die E-Papers, das DRM und der Schwarze Peter

Merkwürdig ruhig geworden ist es in den Biblioblogs zum Thema Onleihe. Dabei geht es schon seit über einem Monat ziemlich hoch her, und wenn ich nichts Besseres zu tun gehabt hätte, wäre ich, nachdem ich sie von Anfang an kritisch begleitet hatte, selbstverständlich auch bei den ersten gewesen, die die Probleme mit der EKZ-Tochter Divibib zum Thema gemacht hätte. Aber das kann man ja noch noch in Ruhe nachholen, denn so schnell läuft sie uns nicht weg. Was ist also passiert?

Man kann guten Gewissens sagen, dass die Onleihe jetzt endgültig kaputt ist, und zwar ausgerechnet kurz vor dem Weihnachtsfest, wenn also ganz viele Benutzer endlich die Zeit haben, sich einmal umzuschauen, vielleicht auch mal mit neuen Geräten etwas Neues auszuprobieren und im Angebot zu stöbern und wenn die digitalen Lösungen besonders wichtig werden, weil die Präsenzangebote wegen der Feiertagsschließung vielerorts nicht zugänglich sind.

Die Divibib behauptet – bisher ohne Quellenangabe –, Adobe habe angekündigt, die Weiterentwicklung des DRM bei seinem Adobe Reader einzustellen. In vorauseilendem Gehorsam – anderer Version: weit und weise vorausschauend – stelle man deshalb schon heute die Bereitstellung von PDFs für die E-Papers in der Onleihe um. Jedenfalls aber bis März 2018 komplett. Dort gab es bisher PDFs, die man im Reader öffnen konnte. Neuerdings kann man nur noch PDFs herunterladen, die in dem E-Book-Programm Adobe Digital Editions zu öffnen sind.

So weit, so gut, könnte man denken. Nimmt man halt ein anderes Programm, und gut ists. So ist es aber nicht.

Es fängt damit an, dass die PDFs, die die Presseverlage derzeit freigeben, in der aktuellen Version 4.5.7 von Adobe Digital Editions (ADE) nicht zu öffnen sind. E-Books gehen (meist?), aber E-Papers nicht. ADE zeigt nur leere Seiten an. Im Fall der FAZ sieht das dann so aus:

Ansicht der FAZ aus der Onleihe in ADE 4.5.7 am 15. Dezember 2017

Deshalb empfiehlt die Onleihe per Dauereinblendung in ihrem User-Forum offiziell ein Downgrade auf Version 4.5.6 – trotz der damit verbundenen Sicherheitslücken, die man sich mit einer veralteten Version auf sein System holen würde und die, wie es bei Exploits eben so üblich ist, auch schon ausgenutzt werden, weil sie entsprechend bekannt gemacht worden sind. Wer das nicht wagt, kann bis auf weiteres keine E-Papers mehr über die Onleihe lesen. Dieses Problem betrifft alle Benutzer auf allen Plattformen.

Banner im User-Forum der Onleihe in diesen Tagen

Wenn man das denn Lesen nennen will. Denn das Navigieren in einem ADE-PDF ist etwas ganz anderes als bei einem Reader-PDF. Adobe Digital Editions ist offensichtlich nicht dafür ausgelegt, mit so großen grafisch gestalteten Seiten zu arbeiten. Das Scrollen funktioniert nur wie in Zeitlupe, ist für den täglichen Gebrauch zur flüssigen Zeitungslektüre daher unbrauchbar. Es liegt auch nicht am eigenen System: Eine 30 MB große PDF-Datei belegt auf meinem Rechner mit ADE genau 33 MB Arbeitsspeicher. ADE ist einfach eine Schnecke, weil das Programm ja vor allem dazu dient, Bleiwüsten im Format EPUB darzustellen, was etwas ganz anderes ist.

Auf dem Mac kommt hinzu, dass ADE hier schon seit 2014 nicht mehr ordentlich funktioniert. Die ACSM-Datei wird noch heruntergeladen und ADE wird geöffnet. Nach dem Download der Zieldatei hängt sich Adobe Digital Editions aber zuverlässig auf und legt sich dann schlafen wie ein Eichhörnchen, das zur Winterruhe gefunden hat. Bis man es über das Apfel-Menü abschießt. Die EPUB- oder die PDF-Datei findet man dann im Digital-Editions-Verzeichnis. Man kann sie in der Regel in ADE öffnen und in dessen Bibliothek importieren – sofern es kein E-Papier ist, das funktioniert – siehe oben – nur mit älteren Versionen. Die letzte Version, die man auf dem Mac nutzen kann, ist derzeit, wie man liest, wohl ADE 4.0.3 aus dem Februar 2015. Die Situation hat sich damit nochmals erheblich verschlechtert – wobei die FAQ der Onleihe zu dem Thema „Onleihe auf dem Mac“ für sich genommen schon immer legendär zu nennen war. Schon heute darf sie als ein Klassiker der Netzkultur gelten.

Die Onleihe bietet zur Jahreswende 2017/18 also ein wirklich desolates Bild. Nur wer sich in ein Software-Museum zurückzieht, kann darüber noch E-Papers lesen. Die Probleme bei den E-Books seien nicht ganz so schlimm – aber das weiß man ja immer erst, wenn man versucht, eine bestimmte Datei zu öffnen. Man muss abwarten, was einen dann erwartet und von Fall zu Fall schauen, ob es geht und was damit geht.

Dementsprechend ist der Unmut der Benutzer im User-Forum der Onleihe. Dort geht es schon wochenlang hoch her. Die Moderatoren und die sonstigen Support-Kräfte kommen kaum hinterher. Ehrlicherweise sollte man sagen, dass die Ausleihe von E-Papers faktisch eingestellt worden sei, schreibt dort ein User:

„Nach all den vielen Beiträgen muss man doch den Schluss ziehen, dass keine ePapers mehr für Normalnutzer, die nicht in die Trickkiste greifen können oder wollen, angeboten werden. Das gilt zumindest für die großformatigen Tageszeitungen. Ein vernünftiges Lesen ist nicht mehr möglich, egal mit welcher Hardware, mit welchem Betriebssystem und mit welchem Leseprogramm.“

Andere posten Links zu den veralteten ADE-Versionen und Anleitungen, die angeblich noch gehen. Ungeübte Benutzer fragen etwas schüchtern, woran es denn liege, dass man die Onleihe nicht mehr nutzen könne. Der Sohn habe doch alles so formidabel eingerichtet, und jetzt klappt es nicht?

Und auch die Bibliotheken reagieren langsam. Eine teilte einem Benutzer mit:

„…der Onleiheverbund der onleiheSaar hat sich entschlossen, die Zeitungen abzubestellen, da die Divibib eine problemlose Nutzung nicht gewährleistet.“

Ob es stimmt, dass das DRM für den Adobe Reader tatsächlich nicht mehr weiterentwickelt wird, steht übrigens zumindest derzeit in den Sternen. Zu googeln ist dazu nichts. Und die Onleihe hat dazu auch in ihrem schon immer ziemlich unübersichtlichen und merkwürdig rau moderierten User-Forum keinen Beleg genannt.

Was wir hier sehen, war jedenfalls voraussehbar. Das DRM, das schon den Plattenlabels vor Jahren um die Ohren flog und das zunehmend auch bei den E-Books abgeschafft worden ist, ist endgültig am Ende, die Download-Lösungen werden durch Streaming mit Flatrates ersetzt. Dieser Trend war schon vor Jahren aus den USA bekannt, und es rächt sich nun, dass die öffentlichen Bibliotheken auf diesen Dino gesetzt haben. Hier wurde viel Geld verbraten, sehr viel Steuergeld, das auch an Adobe fließt, das schon viele Jahre lang seelenruhig bleibt und offenbar keinen ordentlichen Service mehr angeboten hat. Von rechtlichem Druck auf die großen Konzerne hat man jedenfalls nichts gehört. Offiziell wird der Schwarze Peter zwischen den Verlagen, die ein DRM fordern würden, Adobe und, soweit betroffen, auch Apple, hin und her geschoben. Leidtragende der verkorksten Lage sind die Benutzer/innen, die nun jedenfalls bei der digitalen Zeitungslektüre in die Röhre schauen.

Gut beraten war, wer auf Lösungen wie beispielsweise das Pressearchiv Genios oder auf den PressReader via Munzinger gesetzt hatte, die schlicht im Webbrowser laufen (es gibt noch andere). Was man sich natürlich erst einmal leisten können muss, denn das ist schon etwas teurer am Markt. Hier sind die Bibliotheken im Rhein-Main-Gebiet – mit Ausnahme von Darmstadt – übrigens leider vergleichsweise schlecht aufgestellt – schlechter als in vielen anderen Gegenden Deutschlands, wo der digitale Sektor sehr viel größer aufgebaut worden ist, so dass nun schnell Alternativen zur Onleihe verfügbar sind, auf die man jetzt, wo sie gebraucht werden, direkt verweisen kann. Im Forum waren immerhin schon Vergleiche zu BER gezogen worden…

Man kann, wie eingangs schon gesagt, mit gutem Gewissen davon ausgehen, dass die Adobe-DRM-Lösung endgültig kaputt ist und dass man insoweit auch zumindest teilweise kapituliert hat. Und der Ausblick auf ein eigenes Onleihe-DRM, das immer mal wieder erwähnt wurde, erscheint heute noch eher trüb, denn das grinst nicht gerade um die Ecke.

Frustrierte Benutzer werden sich abwenden und sich anderweitig orientieren. Vielleicht ist das den Verlagen auch ganz recht, die ja ihre Digitalangebote derzeit zunehmend in den Markt drücken wollen und dafür die freien Meldungen auf den Zeitungs-Websites auch eher vernachlässigen.

Wenn demnächst mal wieder von der sogenannten Digitalen Agenda die Rede ist, sollte man ruhig einmal auf das DRM-Debakel und das Right to E-Read zu sprechen kommen. Es wäre sicherlich ein guter Maßstab für die Frage, wie weit die Digitalisierung in der Informations- und Wissensgesellschaft überhaupt schon vorangekommen ist – oder eben nicht.

Wikipedia baut ab, oder: Was von „open“ übrig bleibt II

Ein schöner Aperçu zur Mediengeschichte der letzten etwa zehn Jahre (auch wenn er es im Titel enger fasst) ist bei André Staltz zu lesen (via Stephen Downes, der zaghaft widerspricht).

Facebook saugt alles mögliche in sich hinein, während Google nur noch außerhalb des Web wächst und selbst Wissen direkt anbietet, ohne den Sprung auf eine externe Quelle, direkt innerhalb des Google-Ökosystems.

Natürlich kommt einem die neue Richtung der Wikimedia Foundation in den Sinn: Wenn sie bei alledem nicht mitspielen würde und Wikipedia nicht als knowledge as a service anböte, würde sie relativ schnell untergehen. Also stellen sie immer mehr Schnittstellen bereit, um ihr Wissen an Google verschenken können, weil die es sonst woanders sich schenken lassen würden oder notfalls auch ad hoc hinzukaufen, wenn es gebraucht wird.

Und selbstverständlich entsteht damit auch ein noch größeres wettbewerbsrechtliches Problem als bisher schon, wenn die ehemalige Suchmaschine nur noch eine einzige Empfehlung ausspricht und ausgibt, anstelle von einer Liste mit einer bisweilen fünfstelligen Anzahl von Suchtreffern, aus denen der Benutzer auswählen muss. Von einem Ranking wird man nicht mehr sprechen können, und Google wird sich mit dieser Technik eher einer noch strengeren Prüfung durch die EU-Kommission unterwerfen. Es könnte sogar sein, dass diese Technik in der EU gar nicht eingesetzt werden darf.

Während das Web verschwindet, entsteht eine Landschaft aus völlig separaten Ökosystemen, die Endgeräte ansteuern, in denen kombinierte Antwort- und Bestellmaschinen integriert sind. Diese Entwicklung ersetzt den alten Computer mit Webbrowser vollständig. Sie verläuft disruptiv und ist nicht mehr umkehrbar.

Es bedarf keiner Erörterung, dass sich dies auch noch weiter auf die hergebrachten Mitmachprojekte des Web 2.0 auswirken wird. Wer an diese Technik aus Apps plus Endgeräte gewöhnt ist und damit aufwächst, wird nie auf die Idee kommen, an einem Massenprojekt wie Wikipedia teilzunehmen, weil er sich so etwas gar nicht mehr vorstellen kann. Normal ist, dass man auf riesige Datenbestände zugreift, die automatisiert erstellt oder jedenfalls automatisiert ausgewählt worden sind, aber nicht, dass man sie als Autor eigenhändig mit schreibt, kuratiert, pflegt und kollektiv verwaltet. Das liegt alles zentral bei der Firma, die es anbietet. Top-down, also nicht in den Händen einer Community, bottom-up.

Dieser Wandel hält von der Mitarbeit ab, und der Konflikt, der sich daraus ergibt, steht wiederum im Mittelpunkt des Streits, der gerade zwischen Community und Wikimedia Foundation entstanden ist. Benutzer haben sich geweigert, die neue Strategie einfach abzunicken, sie widersprechen und verlangen echte Mitsprache, die dort gerade verloren gegangen ist.

Wissen wird wieder exklusiver, und die Entscheidung darüber liegt sowohl bei den GAFAs als auch bei den großen amerikanischen Foundations nicht mehr in der Hand der Benutzer, sondern beim Management. Insoweit gibt es keinen Unterschied zwischen ihnen.

Und doch wird es auch in diesen Szenarien aus virtuellen Gemeinschaften, virtuellen Realitäten und künstlicher Intelligenz immer wieder Nutzer geben, die dank natürlicher Intelligenz unter dem Radar fliegen und sich abseits dieser großen Lager organisieren und zusammenfinden werden, in Nischen und Kommunen, und dort alternative Entwürfe sich ausdenken und leben werden. In Inseln der Vernunft in einem Meer von Unsinn und mit Spaß am Gerät, natürlich. Aber nicht mehr bei den Großen des Plattformkapitalismus, sondern ganz woanders.

Hier entsteht etwas ähnliches wie in der Politik: Die Entfremdung zwischen Apparat und Zivilgesellschaft führt dazu, dass sich letztere vom Betrieb abwendet und „schon mal anfängt“ mit eigenen Projekten, die von unten beginnen: vegetarisches Essen statt Massentierhaltung, Autos werden abgeschafft, Postwachstum beginnt bottom-up. Der Bruch zwischen Apparat und Unterbau erfolgt langsam, und die Bruchstellen klaffen lange Zeit hinweg leise, aber immer mehr, ganz ähnlich wie eine Eisscholle, die eines Tages abbricht und einfach weg treibt in eine andere Richtung, wo sich beide nie wieder begegnen werden. Den großen Eisberg, der sie gebar, ficht das nicht an. So beginnt etwas Neues.

Staltz, André. 2017. The Web began dying in 2014, here’s how. André Staltz. 30. Oktober. staltz.com (zugegriffen: 5. November 2017). – Yannick. 2017. Die Wikipedia der Zukunft: Zwischen Dienstleistung und politischem Projekt. netzpolitik.org. 1. November. netzpolitik.org (zugegriffen: 2. November 2017). – Paumier, Guillaume und Nicole Ebber. 2017. Service and equity: A new direction for the Wikimedia movement towards 2030. Wikimedia Blog. 3. November. blog.wikimedia.org (zugegriffen: 5. November 2017).

Sie sind nicht angemeldet