albatros | texte

Eindrücke von der Frankfurter Buchmesse 2017

Von der Sicherheit war viel die Rede im Vorfeld dieser Buchmesse. Bis hin zu der Empfehlung, keine Rücksäcke und keine Rollkoffer mitzubringen, denn alles werde gefilzt werden am Eingang, was zu langen Schlangen an demselben führen könne. Die Aufforderung hat nicht viel Eindruck gemacht, offenbar, denn natürlich kommen alle, wie immer, mit ihrem Gepäck – wie denn auch sonst soll man das stundenlange Herumlaufen in den trotz Wegwerfteppich so unwirtlichen Hallen noch ertragen, wo ein halber Liter Leitungswasser im Wegwerfpack für drei Euro verkauft wird.

Überhaupt: Der Andrang an Besuchern. Mit dem ist es nicht so weit her wie gewünscht. Bei mittäglichen Gang von Halle 4 in Halle 3 waren wir doch recht einsam auf dem schnieken Laufband unterwegs. Es war so leer wie noch nie auf der Messe, und ich komme seit etwa zehn Jahren hierher.

Eine Branche im Abbau ist zu besichtigen. Der Umsatz konnte nur durch Preiserhöhungen aufgefangen werden; der Rückgang ist also bereinigt durchaus vorhanden, möchte man den Branchenjournalisten zuraunen. Eine Branche, die sich in die Eventisierung flüchtet, so war zu lesen, um ihren gesellschaftlichen Bedeutungsverlust zu kontern. Das gelingt, und die Bücher, die in den großen Verlagen produziert werden und dann durch die Verwertungskette Buchhandel, Bibliothek und Antiquariat durchgereicht werden, sind immer noch gern genutzte Aufhänger, an denen sich der Journalismus abarbeitet, um damit ganze Kulturteile zu füllen mit Kritiken und Autoreninterviews, das ganze Jahr über. Die Digitalisierung fand statt – und doch nicht, jedenfalls nicht so, wie es vorhergesagt worden war. Das E-Book ist bis heute eine Randerscheinung geblieben. Der allergrößte Teil des Marktes besteht weiterhin aus gedruckten Büchern, und so hat es auch eine gewisse Berechtigung, dass das Mainzer Gutenberg-Museum wieder seinen Namensgeber an der Druckerpresse auffährt, wo es immer noch zugeht wie vor fünfhundert Jahren.

Aber dem Buch an sich brechen die Leser weg, sagte die Ex-FAZ-Journalistin und Piper-Verlegerin Felicitas von Lovenberg gerade in einem Interview im Handelsblatt. Es ist also nicht nur eine Frage des Absatzes, der Einnahmen oder des Umsatzes oder wie man es sonst betriebswirtschaftlich bezeichnen möge, es ist ein tiefgreifender und kaum wieder umkehrbarer Medienwandel, der dazu geführt hat, dass Bücher weitaus weniger beachtet werden, während Fernsehserien aus dem amerikanischen Pay-TV auch schon mal in der U-Bahn besprochen und zitiert werden – wenn man die Ohren für sowas offen hält.

Andererseits die schwierige wirtschaftliche Lage vor allem der kleinen Verleger, die Christoph Links in den Frankfurter Heften zusammengefasst hat.

Der Medienwandel wird greifbar. Er ist hier zu besichtigen, Jahr für Jahr.

Es ist ein bisschen wie bei den Pressekonferenzen in den Museen, wo durch die Zusammenlegung der Redaktionen über die Jahre immer weniger Journalisten kamen, so dass sie schließlich auch die Blogger einluden – nicht weil sie verstanden hätte, was diese tun, aber weil die renommierten Häuser gerne eine ansehnliche Zahl an Schreibern um sich scharen, wenn sie sie rufen. Im Fall der Buchmesse sind es die Verlagsfusionen, die mittlerweile doch auffallen. Wo weiland doch immer wieder mittelständische inhabergeführte Verlagshäuser zwischen den großen Playern auftauchten, sehen wir heute sogenannte Gruppen, also beispielsweise die Westermann Gruppe, die eine Handvoll Schulbuchverlage als Marken verwaltet und deren Produkte feilbietet. Im naturwissenschaftlichen Bereich fällt die Übernahme des Schattauer Verlags durch den ebenfalls in Stuttgart ansässigen Thieme Verlag auf. Wieder einer weniger.

Und alles so englisch heute hier, auch wo man es gar nicht erwartet hätte. In der Wissenschafts- und Bibliotheks-Halle, okay, da mag es angehen. Aber auch in den anderen Hallen wurden die Aussteller bunt gemischt, und es kann schon mal vorkommen, dass man von der Seite in amerikanischem Englisch wie selbstverständlich gefragt wird, ob man sich für Kinderbücher interessiere?

Auch der Bildungsbereich, kaum wiederzuerkennen, so klein, so international. Schon vergangenes Jahr war viel Luft zwischen den Ständen, dieses Jahr ist es eher noch ein bißchen mehr geworden.

Der Brockhaus, der vor zwei Jahren rein online wiederauferstanden war und der im letzten Jahr den Eintritt ins Schulbuchgeschäft verkündet hatte, fehlt diesmal vollständig. Die Messe wird offenbar nicht benötigt, um die Zielgruppe zu erreichen. Und man verspricht sich davon anscheinend keinen zusätzlichen Nutzen mehr. Viele öffentliche Bibliotheken bieten den Zugriff auf die Enzyklopädie mittlerweile an. Das neu hinzugekommene Kinder- und Jugendlexikon und die Kurse für Schüler zum Selbstlernen werden dagegen noch selten hinzugekauft. Zu teuer für die meisten Bibliotheken, in unserer Gegend kam deshalb leider kein Konsortium zustande.

Dafür ist Wikipedia dieses Jahr vor Ort, in Halle 4.2 am Stand A58, ziemlich hinten am Rande platziert, aber gut zu finden dank großem Wikipedia-Ball, der auf diese Wand projiziert wird, wo sich die Hallengänge kreuzen. Deutsche und französische Wikipedianer haben sich hier versammelt, um, passend zum Gastland Frankreich, an Artikeln zur Deutschland und Frankreich zu basteln. Ein portables Fotostudio bietet Gelegenheit, Autoren und weitere Prominente zu fotografieren, um deren Artikel zu bebildern.

Wer fehlte noch? Größere Zeitungen, den Spiegel und den Freitag habe ich nicht bemerkt, aber vielleicht habe ich sie übersehen.

Dafür viel Politik. Der Rechtsruck in der Gesellschaft macht sich bemerkbar, und die Buchmesse reagiert darauf. Sie gibt der Neuen Rechten durchaus ein Forum, indem sie sie ausstellen läßt, aber sie platziert den Stand der Jungen Welt neben den der Jungen Freiheit, und der Antaios Verlag ist schräg gegenüber von der Amadeo Antonio Stiftung. Die Bürger wehren sich dagegen, dass die Rechte auf diese Weise ein Forum für ihre Positionen und für ihre Texte bekommt. Buchmesse gegen Rechts sammelt Unterschriften für eine weltoffene Buchmesse und gegen eine Bühne für rechte Propaganda, und am Orbanism Space lagen Lesezeichen für Respekt und für Gutmenschen aus mit dem Hashtag #verlagegegenrechts. Can Dündar war anwesend unter Applaus, als heute mittag der Raif-Badawi-Preis der Friedrich–Naumann-Stiftung Ahmet Şık verliehen wurde, einer der vielen Journalisten, die derzeit in der Türkei in Haft sind. Dazu passend auch das neue Buch von Naomi Klein, die bezogen auf die Entwicklungen in den USA, zu Maßnahmen gegen die Politik Donald Trumps aufruft. Dagegen kaum Politiker auf der Messe.

Zum Abschluss aber noch einmal ein Blick auf die Diskussion über das digitale Lesen. Auch sie auf Englisch, natürlich. How does reading work? A debate on the impact of digital on reading hieß das Panel, das am Nachmittag in Halle 3.1 an Stand B33 im Kulturstadion im Bildungsbereich stattfand. Zwei Wissenschaftler – Anezka Kuzmicova von der Universität Stockholm und Adriaan van der Weel von der Universität Leiden –, Jens Nymand Christensen, ein Mitarbeiter der EU-Kommission, und der Moderator Ruediger Wischenbart unterhielten sich über Probleme, Desiderate und Forschungsergebnisse zum Thema Lesekompetenz und ganz besonders zum Einsatz von gedruckten Schulbüchern im Vergleich zu digitalen Lehrbüchern. Die Ergebnisse, um die es dabei ging, waren vor kurzem auf einer Tagung in Vilnius vorgestellt worden; am Montag dieser Woche hatte die FAZ darüber berichtet – der Beitrag ist hier zu lesen, und auch in El Pais wurde darüber berichtet.

Dabei war die Kehrseite des oben angesprochenen Wegbrechens der Leserschaft zu bemerken: Die Lesefähigkeit nimmt in der EU spürbar ab, und das dürfte nach Ansicht des Podiums zumindest auch mit dem Wandel von Print zu Online zu tun haben. Betroffen sind vor allem die schlechter gestellten Schichten, Lesen zu können ist also in allererster Linie eine soziale Frage, aber nicht nur. Und Lesen können heißt Denken können. Erst das vertiefte Lesen helfe, grundlegende Kompetenzen zu entwickeln, die für das Verstehen von Narrativen und weiteren komplexen Zusammenhängen unabdingbar seien. Ein Nebeneffekt sei, dass man beim deep reading die Konzentrationsfähigkeit entwickle und erhalte. Man war sich aber einig, dass man bei der Frage, wie sich Print- und Onlinemedien auf das Lernen auswirkten, allemal Neuland betrete, was vor allem den Lehrern zu schaffen mache, weniger den Schülern.

Man empfahl vor allem, für das grundlegende Lernen gedrucktes Material zu verwenden und erst zum weiteren Arbeiten digitale Medien und Geräte einzusetzen, und zwar aus zwei Gründen: Zum einen verhinderten audiovisuelle Inhalte, dass sich die Vorstellungskraft herausbilden könne. Zum anderen seien Bildschirme sehr stark mit Unterhaltung und Zerstreuung und weniger mit Konzentration konnotiert, so dass auch bei nüchterner Aufbereitung des Materials bestimmte Erwartungen angestoßen würden, die die Wahrnehmung negativ beeinflussen könnten. Man war sich auch darüber einig, dass es sinnvoll sei, dass Schüler lernten, von Hand zu schreiben – die Diskussion darüber, ob Blockschrift oder gar Maschinenschrift vorzugswürdig wäre oder ob gar Diktiersysteme ausreichten, wurde gestreift, aber im Ergebnis abgelehnt. Pragmatisch sei es sinnvoll, bis auf weiteres den Gebrauch von Tablets durch Kinder und Schüler zu beschränken. Uneinigkeit bestand in Bezug auf die Gamification des Lernens; während einerseits im Spiel ein sehr niedrigschwelliger Zugang zu allen denkbaren Inhalten liege, wurde dem entgegengehalten, dass sie einer vertieften Beschäftigung mit Themen gerade entgegenständen.

Soweit zur Digitalisierung der Schule. Auf die abschließende Frage aus dem Publikum, wie ältere, die mit Printmaterial aufgewachsen waren, den negativen Auswirkungen des digitalen Lesens entgegenwirken könnten, war sich Adriaan van der Weel sehr sicher. Schon Nicholas Carr hatte in seinem Buch und in dem gleichnamigen Aufsatz im Atlantic Is Google making us stupid? vor etwa zehn Jahren am Ende sich wieder dem Strom der Texte und des übrigen digitalen Contents hingegeben, mit den bekannten Folgen des Verlusts der Aufmerksamkeit und der Konzentrationsfähigkeit. Dagegen helfe nur eines: Read books!

Literatur: N.N. 2017. Zwischen Diskursmedium und Kundenschwund. buchreport. 10. Oktober. www.buchreport.de (zugegriffen: 11. Oktober 2017). – Müller, Anja Tuma und Felicitas von Lovenberg. 2017. Das Buch ist schöner als ein paar Bits. Handelsblatt, 9. Oktober, Abschn. Unternehmen & Märkte. – Links, Christoph. 2017. Gegenwind für die Buchbranche Problematische Gesetzesentscheidungen und globale Herausforderungen. Neue Gesellschaft Frankfurter Hefte. 1. September. www.frankfurter-hefte.de (zugegriffen: 11. Oktober 2017). – Jacobs, Michael. 2017. Messe-Flucht: Für viele Mainzer Verlage rechnet sich die Frankfurter Buchmesse nicht mehr. Allgemeine Zeitung. 7. Oktober. www.allgemeine-zeitung.de (zugegriffen: 7. Oktober 2017). – Dupré, Johanna. 2017. Lesestoff aus der Apotheke: Digitalisierung verändert die Buchbranche grundlegend. Allgemeine Zeitung. 7. Oktober. www.allgemeine-zeitung.de (zugegriffen: 7. Oktober 2017). – N.N. 2015. Als Wissensservice im Netz: Der Brockhaus kehrt zurück. Börsenblatt. 15. Oktober. www.boersenblatt.net (zugegriffen: 10. Oktober 2017). – Roesler-Graichen, Michael. 2016. Interview mit Hubert Kjellberg, Brockhaus NE: „Das Ergebnis unserer Arbeit ist kein Buch mehr“. Börsenblatt. 12. August. www.boersenblatt.net (zugegriffen: 10. Oktober 2017). – N.N. 2017. Wikipedia:Frankfurter Buchmesse 2017. Wikipedia. 7. Oktober. de.wikipedia.org (zugegriffen: 11. Oktober 2017). – Klein, Naomi. 2017. Gegen Trump: wie es dazu kam und was wir jetzt tun müssen. Übers. von Gabriele Gockel. Frankfurt am Main: S. Fischer. – Küchemann, Fridtjof. 2017. Ist das nun mutig oder dumm? Buch oder Tablet: Wie wir einen Text verstehen, hängt auch vom Medium ab. Was bedeutet das für das künftige Lesen und Lernen? Frankfurter Allgemeine Zeitung, 9. Oktober, Abschn. Feuilleton. - Carbajosa, Ana. 2015. ¿Recuerdas cuando leíamos de corrido? EL PAÍS. 24. Mai. politica.elpais.com (zugegriffen: 11. Oktober 2017). – N.N. 2017. E-READ COST. 11. Oktober. ereadcost.eu (zugegriffen: 11. Oktober 2017). – Carr, Nicholas. 2008. Is Google Making Us Stupid? What the Internet is doing to our brains. The Atlantic, August. www.theatlantic.com (zugegriffen: 13. April 2017).

Neue Open-Access-Zeitschrift Wiki Studies

Welcome to the first issue of Wiki Studies, an open-access, peer-reviewed journal addressing the intersection of Wikipedia and higher education.

In this issue we bring you four articles. The first three articles will appear as “case studies,” or reports from educators on insights gleaned from the use of Wikipedia in various aspects of higher education.

via Wiki-research-l

Die Onleihe funktioniert nicht unter macOS 10.13 High Sierra

Ein Benutzer beklagt sich im Webforum der Onleihe darüber, dass er seit dem Upgrade von macOS 10.12 auf 10.13 High Sierra keine EPUBs mehr öffnen könne. Adobe Digital Editions lade die Daten nicht mehr herunter.

Das Problem besteht aber bereits seit 2014 und hat sich nun anscheinend noch verschärft. Auch Benutzer, die Microsoft Windows einsetzen, haben seit Anfang 2017 von Problemen berichtet.

Sowiport wird eingestellt

Gesis stellt zum Jahresende das sozialwissenschaftliche Rechercheportal Sowiport ein:

Wir fokussieren unser Rechercheangebot künftig auf eine digitale, möglichst freie Verfügbarkeit und Nachnutzbarkeit von Publikationen (Open Access) und Forschungsdaten (Open Data) sowie damit verbundenen Informationen. Mit der neuen GESIS-Suche bieten wir ein Rechercheangebot, welches den Fokus auf Open Access und Verknüpfungen von Informationen legt.

Sehr zu empfehlen wäre eine lokale Archivierung von Recherche Spezial, das von 2008 bis 2014 sozialwissenschaftliche Literatur zusammengefaßt hatte. Allein die Themenauswahl spricht für sich.

Die Literatur- und Forschungsnachweise aus ausgewählten Sowiport-Datenbanken vermitteln einen Eindruck über die Qualität und den Umfang der in der übergreifenden Sowiport-Suche integrierten Datenbanken. Zugleich verschaffen Sie Ihnen einen raschen Überblick über die sozialwissenschaftliche Forschungslandschaft.

Der Fachinformationsdienst Soziologie befindet sich noch im Aufbau.

Wikipedia baut ab, oder: Was von „open“ übrig bleibt

Es ist schon eine Weile her, daß ich einen Blick auf die Entwicklung bei Wikipedia geworfen hatte.

Die Sommer-Statistik ist jetzt mit großer zeitlicher Verzögerung veröffentlicht worden. Die Tabelle zeigt: Es gab noch nie so wenig Autoren, seit ich 2005 bei dem Projekt begonnen hatte, siehe die Spalten "Wikipedians Edits >5" bzw. "Edits >100". Es sind jetzt nur noch 4600 mit mehr als fünf und 720 mit mehr als 100 Bearbeitungen pro Monat.

Zur Neuautorenwerbung hatte Wikimedia Deutschland im Sommer Banner geschaltet, ergänzt um entsprechende Anleitungen. Daraufhin gab es 159 Neuanmeldungen, von denen dann aber nur 32 editiert haben; davon hatten zwei mehr als zehn Bearbeitungen gemacht – das war das Ziel der Kampagne. Eine Herbstaktion wird folgen, natürlich auch ein entsprechender "Dankes-Banner" ab Neujahr nach der alljährlichen Spendenkampagne.

Die Folge des Autoren-Exodus ist vor allem, daß die Inhalte schon seit mehreren Jahren und breit angelegt veralten. Sie werden nicht mehr aktualisiert, und auch eine inhaltliche und redaktionelle Weiterentwicklung bleibt aus, während sich das Web und auch die bibliothekarischen und archivalischen Online-Angebote immer weiter entwickeln und die Suchmaschinen zu Antwortmaschinen geworden sind. Und die wissenschaftlichen Bibliotheken bauen die Fachinformationsdienste auf, die sich nur noch an Wissenschaftler richten – die Folge: Wissen wird wieder exklusiver, es verschwindet hinter Paywalls und ist nur noch für Insider abrufbar, noch viel restriktiver als zu Print-Only-Zeiten; ich bekomme ohne Affiliation z.B. keinen Remote-Zugriff auf Datenbanken der FIDs direkt vom FID. Das ist ein völlig unzureichender Stand für eine Wissens- und Informationsgesellschaft – das Gegenteil müßte das Ziel sein: Wissen zu befreien und immer besser zugänglich zu machen. Der einzige Trend, der von allem, was einst als open angedacht war, übrig bleibt, wird nach alledem wohl Open Access sein, und wenn es so käme, wäre es ein großer Erfolg, ganz gleich in welcher Variante.

Es ist nicht möglich, einen toten Knoten im Netz wiederzubeleben, die Karawane ist weitergezogen. Man kann heute gerade noch mit Wikipedia arbeiten, aber ihre Nützlichkeit wird bald noch weiter abnehmen und schließlich wird der Korpus so wirken wie heute ein Brockhaus aus den 1970er Jahren anmutet: Das meiste ist nicht ganz falsch, aber eben angestaubt, und man muß sich die weitere Entwicklung der darauffolgenden Jahrzehnte hinzudenken und woanders recherchieren. Es gibt heute genügend andere Quellen, und das Bessere ist stets der Feind des Guten. Das galt auch schon beim Aufstieg von Wikipedia gegenüber den früheren Nachschlagewerken.

Was ist Content Marketing?

  • Baetz, Brigitte. 2017. Unternehmen machen Medien – Mit Inhalten auf Kundenfang. Hintergrund. Köln: Deutschlandfunk, 28. Mai. www.deutschlandfunk.de (zugegriffen: 29. Mai 2017).

  • Fröhndrich, Sina. 2017. Content Marketing – Wenn Unternehmen zu Medienmachern werden. @mediasres. Köln: Deutschlandfunk, 22. Mai. www.deutschlandfunk.de (zugegriffen: 23. Mai 2017).

  • Frühbrodt, Lutz. 2016. Content Marketing. OBS-Arbeitshefte. Frankfurt am Main: Otto Brenner Stiftung. www.otto-brenner-shop.de (zugegriffen: 29. Mai 2017).

  • Vetter, Johannes. 2016. Unabhängiger Journalismus: „Content-Marketing hat uns der Teifl gebracht“. derStandard.at. 27. November. derstandard.at (zugegriffen: 23. Mai 2017).

Etwas fluffig kann man sagen: Content Marketing ist alles, was unter den ersten zwanzig Treffern bei Google angezeigt wird, wenn man vom Wikipedia-Artikel und den journalistischen Angeboten absieht. Also das, was man nicht lesen will. Der Grund, weshalb Suchmaschinen für mich immer uninteressanter geworden sind, denn SEO spült den Kram unbarmherzig nach oben, egal in welcher Filterbubble man sich gerade befindet. Mein erster Zugriff auf ein Thema ist mittlerweile immer über einen Bibliothekskatalog oder über ein Archiv.

Neu beim Project Gutenberg: Ocean Steamships

Das Buch, bekannt aus dem Zauberberg von Thomas Mann, ist seit heute auf Project Gutenberg verfügbar. Dank an Chris Curnow, Brian Wilcox and the Online Distributed Proofreading Team.

His theories still generate controversy

Die Library of Congress hat heute Dokumente aus dem Sigmund-Freud-Archiv erstmals online gestellt. Es handelt sich um 20.000 Dokumente aus dem Bestand des Archivs, die bei der LOC verwahrt werden – persönliche Papiere der Familie Freud, Briefe und Postkarten, Kalender und Notizbücher, aber auch die Manuskripte von Freuds Schriften, außerdem über hundert Interviews von Kurt R. Eissler, die zum ersten Mal veröffentlicht werden, schreibt Margaret McAleer im Blog der Bibliothek, während man auf deren Website die lakonische Einordnung liest: His theories still generate controversy. Die Digitalisierung wurde von der britischen Polonsky Foundation getragen.

Netzlese 2017-01-29

Geert Lovink kommt demnächst nach Frankfurt, kommenden Samstag, den 4. Februar, hält er bei der Langen Nacht der Sozialforschung im Rahmen der Frankfurter Positionen einen Vortrag im MMK1 zum Thema Das Selbst im digitalen Netz, neben räusper Mercedes Bunz, Kai Dröge und Olivier Voirol, Tanja Gojny, Olga Goriunova, Rembert Hüser, Eva Illouz, Julika Rudelius, Christina Schachtner sowie Uwe ­Vormbusch. Beginn ist um 19 Uhr, Eintritt frei. Zuletzt hatte Geert Lovink bei La Repubblica ein Interview über Social Media zu Zeiten von Trump gegeben. Das Museum zeichnet seine Vorträge üblicherweise auf und stellt sie auf YouTube, hoffentlich auch diesmal.

An dem Abend wird von Solisten des Ensemble Modern auch For Philip Guston von Morton Feldman aufgeführt. Dauer: Fünf Stunden.

Die documenta14 findet dieses Jahr statt, ab April in Athen, ab Juni dann in Kassel, jeweils hundert Tage lang. Sie landet nicht wie ein Raumschiff in Athen, bevor sie nach Kassel weiterzieht. Sie ist vielmehr eine gewollte Verfremdung von einer Stadt zur anderen und in allem, was bei diesem Projekt zwischen beiden hin- und hertreibt, heißt es auf der Website zur Kunstvermittlung der Ausstellung. Athen und Kassel? Die Regierungsübernahme durch SYRIZA in Griechenland war im Januar 2015, ist also nun auch schon wieder zwei Jahre her. Und Varoufakis Superstar, dieses Drama begann am 27. Januar 2015. Das Referendum, wonach er als Finanzminister zurücktrat, fand am 5. Juli 2015 statt. Er bleibt in Kontakt mit seiner zweiten Heimat Australien und gibt bisweilen Interviews im dortigen Rundfunk, in denen er die europäischen Verhältnisse erklärt, zuletzt vergangene Woche den Populismus in Europa.

Antje Schrupp hat dazu aufgerufen, im September zur Bundestagswahl zu gehen und dort, bitte, eine Partei zu wählen, die auch Aussichten darauf hat, ins Parlament einzuziehen. Wer kleinere Parteien wählt, stärkt den politischen Gegner, die Rechtsextremisten stehen bekanntlich wieder vor dem Berliner Reichstag, ganz ähnlich wie vor 84 Jahren. Das Bundesverfassungsgericht hat die NPD gerade mit einer etwas sonderbaren Begründung nicht verboten, und auch die anderen dürfen weitermachen. Antje kritisiert derweil die Rückwärtsgewandtheit der LINKEN, die weiterhin mehrheitlich auf eine Arbeits- und Vollbeschäftigungsgesellschaft und auf ganz viel Staat setzten. Christoph gegen das Grundeinkommen Butterwegge als Bundespräsidentenkandidat passe in dieses Bild. Stimmt. Aber wenn ich nur die Wahl habe zwischen denjenigen, die über fünf Prozent kommen, ist die Auswahl am Ende nicht mehr so groß.

Politisch getrieben ist auch Eric Bonse, der Brüsseler Europakorrespondent der taz, der immer noch leidenschaftlich gegen Martin Schulz anschreibt, der Linksblinker und Rechtsabbieger, der gerade von der ehemaligen Schröder-Truppe auf den Schild seiner Partei gehoben worden ist. Man hat rochiert – Außenminister wird BuPrä, Wirtschaftsminister wird Außenminister, ehemalige Justizministerin wird Wirtschaftsministerin – und die Massenmedien gehorchen aufs Wort und machen sofort ein Kopf-an-Kopf-Rennen mit Angela Merkel daraus. Klar, es würde einem nicht einmal auffallen, wenn Schulz Mitglied bei der CDU wäre. Daß die Leute hierzulande meinen, es sei nicht bekannt, welche Positionen er vertrete, zeigt nur, wie wenig Aufmerksamkeit man den Vorgängen auf der europäischen Ebene beimißt. Gut, es stand nicht alles in den Zeitungen. Aber alles war jahrelang in den europapolitischen Blogs zu verfolgen. Unter anderem bei lostineurope.eu. Siehe aber dort auch die dortige Blogroll. Schulz ist bei weitem kein unbeschriebenes Blatt.

A propos Europa. Zum Beispiel die Schweiz. Da gab es zu Anfang des Jahres eine Sendung des Schweizer Radios SRF2 Kultur zur Urheberrechtsreform, die dort demnächst ansteht. Zur Erinnerung: Die Reformen, die es bei uns gab, gingen allesamt auf EU-Recht zurück. Und was sind die Themen, die nun aktuell(!) in der Schweiz diskutiert werden? An der Spitze steht die Pirateriebekämpfung, also Raubkopien, die über Tauschbörsen verteilt werden. Gefolgt von der Bibliothekstantieme, die es in der Schweiz noch nicht gibt. Und schließlich: Bildrechte. Ja, wirklich, die Sendung wurde am 6. Januar 2017 veröffentlicht. Aber auf einen Blick über die Grenzen hinweg wird man in dem Programm ebenso vergeblich warten wie auf den Begriff der Freien Lizenz oder der Freien Inhalte.

Deshalb zum Schluß ein Link zum WikiMOOC, den Wikimédia France ab März bei fun-mooc.fr durchführt. Alles, was man als neuer Autor über Wikipedia wissen sollte. Leider nur auf Französisch, aber vielleicht demnächst auch auf Deutsch, wer weiß? Ich bin dran.

Don't believe the Fake

Die Diskussion um Fake News geht leider weitgehend am Thema vorbei. Anstatt sich zu fragen, ob und in welchem Umfang es solche Meldungen gegeben hatte oder noch gibt und welche Folgen sie gehabt haben könnten, sollte man sich eher die Frage vorlegen, warum sie überhaupt beachtet werden? Ausgangspunkt ist ihr Ort: Wie kommt es, daß Menschen meinen, auf Sozialen Netzwerken finde man noch mehr vor, außer heißer Luft und einer Gelegenheit, seine guten Daten abgeben zu dürfen? Daß man dort auch noch irgendetwas erfahren könne, etwas Neues und Richtiges noch dazu. Das ist eine wirklich drollige und insgesamt so abwegige Vorstellung, daß man schon daraus ersehen kann, daß die Ideen darüber, woher man sich informieren könne, völlig durcheinander gekommen sind. Das gleiche gilt für Suchmaschinen, die ebenso wie Soziale Netzwerke, Werbeplattformen sind und also auf Desinformation zugeschnitten wurden. Sie sind sozusagen der Fake an sich. Das gleiche gilt natürlich auch für die „Online-Ausgaben der Zeitungen“, die ihre Meldungen ganz anders anordnen als in der Print-Ausgabe, was sich ebenfalls nachteilig auf die Qualität auswirkt. Und überhaupt: Zeitungsenten gabs eigentlich schon immer.

Trotzdem hat das Nachdenken eingesetzt. Auf der anderen Seite des Informationsspektrums, sozusagen. Ein schönes Beispiel dafür ist der Tagungsbericht Der Intellektuelle in postfaktischen Zeiten – Das „Denk-Festival“ in Weimar, der am 1. Dezember 2016 im Deutschlandfunk ausgestrahlt wurde. Zwei Zitate:

  • Wer behält den Durchblick mit welchen Argumenten?

  • Wir haben doch einen Zerfall von Öffentlichkeit in User-Gemeinden. Wir kennen die Subjektivierung der Wahrheit, die Reduktion der Wahrnehmung auf das Passende. Und da spielen wir – gemeint sind Intellektuelle – einfach eine geringere Rolle, wir sehen das doch auch empirisch: Wo ist unser Platz geblieben, den wir noch vor zehn Jahren in der „Zeit“ gehabt hätten? Es sind nur noch wenige Presseorgane, in denen wir überhaupt noch mit unseren Auffassungen zur Geltung kommen können. Ich glaube, daß am Ende unserer Zukunfts-, unserer Fortschritts-, unserer Emanzipationserzählung es nicht mehr die Intellektuellen sind, sondern, um es brutal zu sagen, die Social Bots, also die Beeinflussungsalgorithmen, die ganz anderswo diskutiert werden als in dem, was wir aufrufen, wenn wir von Voltaire bis Gramsci sprechen.

Aber auch das ist nicht wirklich neu, sondern genaugenommen nur eine weitere Spielart der Dialektik der Aufklärung reloaded. Es ist der alte Konflikt zwischen Vernunft und Kulturindustrie, nicht mehr, aber auch nicht weniger.

Netzlese 2016-11-29

  • Das Gesetzgebungsverfahren für ein neues Urhebervertragsrecht ist vertagt worden, es wird also dieses Jahr nicht mehr abgeschlossen.

  • Der VGH Baden-Württemberg hat beschlossen, daß der Bürger keinen Anspruch auf Einsicht in die Fachliteratur hat, die in einer Gerichtsbibliothek vorhanden ist. Der Kläger hatte Prozeßkostenhilfe für eine dementsprechende Feststellungsklage begehrt, weil er einen juristischen Kommentar zum Verwaltungsvollstreckungsgesetz in der Bibliothek des Verwaltungsgerichts einsehen wollte. Der Sachverhalt trägt durchweg skurrile Züge: Ein Schriftsatz verschwand spurlos, so daß die Beschwerdefrist verstrich. Eine Abschrift wollte der Kläger aber nicht vorlegen, weil er „Verwechselungsgefahr“ befürchtete. Dann hatte er zwei Richter des erkennenden Senats – erfolglos, natürlich – wegen Befangenheit abgelehnt. Am Ende wird es slapstickhaft, denn der VGH versagt ihm den Zugang zur Gerichtsbibliothek ausgerechnet unter Rückgriff auf das Landesinformationsfreiheitsgesetz Baden-Württemberg, weil juristische Literatur, die im Buchhandel käuflich ist, keine amtliche Informationen seien, zu denen man auf diesem Wege Zugang erlangen könnte. Das ist zwar an sich richtig, das Urteil ist aber vor allem ein Musterbeispiel für den Umgang der Justiz und der Verwaltung mit vermeintlichen Querulanten geworden. Die Urteilsbegründung ist selbst ein Beispiel für ein über das Ziel hinausschießenden Staat, der die Verhältnismäßigkeit der Mittel nicht mehr wahrt. Richtig daher – wenn auch wiederum sprachlich unangemessen – die Anmerkung bei Archivalia: Unzählige Gerichtsbibliotheken sind ohne weiteres für die Öffentlichkeit zugänglich, ohne dass der Geschäftsbetrieb gestört wird. … Was vom Bürger bezahlt wird, muss ihm auch zur Verfügung stehen. (VGH Baden-Württemberg, Beschluss vom 11. Oktober 2016 – 1 S 1122/16, JurPC Web-Dok. 173/2016).

  • Der SPD-Wahlkampfberater Frank Stauss hat in seinem Blog die Narrative dekonstruiert, mit denen hierzulande versucht worden ist, den Wahlsieg Donald Trumps zu verarbeiten. Er macht schon seit Monaten auf allen möglichen Kanälen Stimmung für seinen Auftraggeber. Anscheinend auch auf Wikipedia: Sein Wikipedia-Artikel hat 2013 ein Benutzer angelegt, der so heißt wie seine Werbefirma: Butter pr. Er ist bis heute kaum geändert worden. Aber sei's drum – Stauss argumentiert: Nicht Trump habe die Wahl gewonnen, sondern Clinton habe sie verloren, und zwar weil sie die Rainbow-Coalition nicht ausreichend habe mobilisieren können. Das Konzept für Frauen, LGBT, Latinos, African Americans… habe am Ende nicht ausgereicht; es wäre möglich gewesen, diese Wählerschaft für die Demokraten zu gewinnen, aber nicht für die Clintons. – Stammt denn das Rätselspiel um den Spitzenkandidaten der 20-Prozent-Partei, das derzeit in den Nachrichten zelebriert wird, auch von Stauss? Wirklich kritisch wäre es gewesen darüber nachzudenken, wieviele Prozent der Wähler an dem Spektakel in Übersee überhaupt teilgenommen hatten.

  • Jens Milker greift in einem Beitrag auf JuWiss die Frage auf, ob der Betrieb von Social Bots in den Schutzbereich der Meinungsfreiheit falle. Die Unterschiede zwischen der amerikanischen und der deutschen Verfassungsdokmatik hatte schon Adrian Lobe in der Zeit beschrieben: Die Meinungsäußerungsfreiheit im amerikanischen Verfassungsrecht gehe so weit, daß es nicht auf den Grundrechtsträger ankomme – der Programmierer? der Betreiber? der von den Äußerungen des Bots Begünstigte? oder derjenige, der wirtschaftlich von dem Bot profitiert? –, sondern auf die Meinungsäußerung selbst abzustellen sei. Auch Maschinen käme demnach freedom of speech zu. Das ist auch in den USA nicht unbestritten, hierzulande würde man es erst recht nicht so ohne weiteres annehmen, und Milker referiert infolgedessen das bekannte Inventar des Staatsrechts zum Wettbewerb der politischen Parteien und zu Meinungsäußerungen im Wahlkampf – lesenswert, so knapp gefaßt wird man es kaum woanders finden. Mit dem Argument, das ist nicht von uns, das macht der Algorithmus!, war Google schon in der Autocomplete-Entscheidung des Bundesgerichtshofs 2013 gescheitert. Ärgerlich ist, daß Milker kritiklos bleibt, wo es heißt, Täuschungen und Lügen kann man mit Mitteln einer Gegendarstellung im Meinungskampf entgegentreten. Das ist ja gerade die Frage, ob man unter den Bedingungen der in jeder Hinsicht entgrenzten digitalen Öffentlichkeit so etwas noch kann, wenn Wahlkampf von – ggf. im Ausland sitzenden – Trolls und Hackern auf Facebook und Twitter geführt wird, für den normalen Bürger nicht mehr nachvollziehbar, der von seiner Plattform gewöhnt ist, die Filterblase seines Vertrauens vorgespiegelt zu bekommen. Wo soll hier eine Gegendarstellung erfolgen? Sie ist in der Filterblasen-Technik der sozialen Medien ja gerade nicht mehr vorgesehen. Das wäre demnach eine der ersten Vorkehrungen, die der Gesetzgeber sicherstellen müßte, um den Wettbewerb der politischen Meinungen im Wahlkampf sicherzustellen: Einen Gegendarstellungsanspruch, eine widersprechende und korrigierende Nachricht, die an alle ausgeliefert wird, die die monierte Botschaft vorher erhalten hatten. Also das Aushebeln des Geschäftsmodells dieser Plattformen: Daß es keinen Widerspruch mehr geben soll. Unvollstreckbar in den USA, weil das angesichts der Meinungsäußerungsfreiheit gegen die ordre public verstoßen würde. Obwohl das Ende des Widerspruchs gerade der Ausschluß jeglicher Diskussion ist, der sich selbst auf die Meinungsfreiheit berufen sollte? Die Entgrenzung, die mit den amerikanischen Plattformen Wikipedia und Google begonnen hatte, ist 2016 auch in Deutschland bis in den demokratischen Prozeß vorgedrungen. Der Geist ist aus der Flasche. Der Wettbewerb setzt aber aus technischer Sicht vor allem voraus, daß Meinungsäußerungen überhaupt noch transportiert werden und an den Rezipienten gelangen können. Wahrscheinlich kann bis auf weiteres keine Seite auf den Einsatz von Social Bots verzichten, um eine gewisse Waffengleichheit im Wettbewerb herbeizuführen – auch wenn es sich um eine in jeder Hinsicht regelwidrige und unfaire Technik handelt. Und das wird Rückwirkungen auf das Recht haben. Code is law.

Von der Dyade zum Netzwerk

Sandra Uschtrin beschrieb (mp3) am 1. November 2016 im Gespräch auf hr2-kultur den Übergang von der Dyade Autor/Buchverlag zu Netzwerkstrukturen von Selbständigen, die gar nicht mehr im Verlag publizieren wollten, sondern ihren Content selbstbestimmt vermarkten würden. Nur beim Rechte-Verkauf für Übersetzungen sei der Verlag derzeitig noch notwendig, räumt sie ein. Die Gatekeeper-Funktion des Verlags werde von Bloggern übernommen, die nunmehr die Rolle innehätten, welche Rezensionen in Zeitungen und Zeitschriften früher zugekommen sei.

Sie hat nicht ganz unrecht, wenn sie auch davon lebt, so etwas zu erzählen. Die Bibliothek kommt in ihrer Erzählung nicht vor.

Die Frankfurter Buchmesse in zehn Jahren

Ich versuche mir vorzustellen, wie die Frankfurter Buchmesse in zehn Jahren sein wird.

Zunächst glaube ich, daß es sie in zehn Jahren auch noch geben wird. Es ist eher eine Frage der Größe.

E-Books laufen schlecht, und ich glaube nicht, daß sich bis dahin daran etwas ändern wird. Wenn es also in zehn Jahren noch eine Buchmesse geben sollte, wird es dort auch noch gedruckte Bücher geben.

Im Mittelpunkt steht die Veränderung der Öffentlichkeit durch die Digitalisierung. Die Öffentlichkeit fragmentiert sich immer mehr. Die Digitalisierung hat die Gatekeeper beseitigt: Jeder, der etwas publizieren möchte, kann das sofort tun, ohne daß er jemanden davon überzeugen müßte, daß der Content verkäuflich wäre, und ohne dafür prohibitiv hohe Kosten tragen zu müssen. Insoweit treten Buch, Wiki, Blog und soziales Netzwerk nebeneinander. Sie verdrängen einander nicht, haben auch nicht notwendigerweise etwas miteinander zu tun. Sie ergänzen sich, sind aber auch nicht gegeneinander austauschbar. Was heißt das?

Man kann den allgemeinen Trend im Zeitablauf als eine immer weiter zunehmende Kommerzialisierung des freien Netzes lesen. Es gibt aber auch eine entgegengesetzte Sichtweise, nämlich die Entkommerzialisierung des verlegerischen und korporativen Medienbetriebs.

Der Trend geht ziemlich klar in Richtung Entkommerzialisierung des Publizierens: Man findet einfach keinen Verlag mehr für sein Buch und muß es daher selbst erstellen, wenn man etwas veröffentlichen will. Die Verwertungskette Verlag – Buchhandel – Bibliothek – Antiquariat funktioniert immer weniger. Die Erträge lassen nach. Deshalb wird in den Verlagen immer mehr gängige Massenware produziert, alles, was als eine Nische erscheint, was sich „zu speziell“ ausnimmt und daher zu wenig einzuspielen verspricht, geht unter und muß hinter der Content-Mauer erst einmal gefunden werden. Es ist eine Art Hollywoodisierung des Buchgeschäfts.

Umgekehrt läuft der Vertrieb aus der Sicht des Autors rein online: Er inszeniert sich selbst als Experte und geht in Online-Communities, um seine Sachkunde zur Schau zu stellen. Wen das überzeugt, der wird seine Bücher kaufen. Das wird die primäre wirtschaftliche Funktion von sozialen Netzwerken und Blogs aus der Sicht des Publizisten sein.

Die Buchmesse wird daher in Zukunft vor allem noch sehr viel kleiner sein, denn die Selfpublisher brauchen sie nicht, bei ihnen läuft der gesamte Vertrieb online und in und aus virtuellen Netzwerken heraus. Ihr Publikum ist nicht mehr dort, sondern sitzt, wie es früher im Fernsehen hieß, „draußen an den Empfängern“, also an ihren Clients.

Die Verlage, die so eine Messe brauchen, und die Medien, die sich an sie dran hängen, werden sich also auf immer weniger substantielle Inhalte ausrichten. Dadurch wird die Messe einen immer kleineren Teil des Marktes abbilden. Alle Nischen fallen weg.

Am Ende wird sie kein gesellschaftliches Ereignis mehr sein, sondern nur noch eine Show von Massenmedien für Massenmedien, die von denen wahrgenommen wird, die überhaupt noch Massenmedien konsumieren – und das sind ja auch immer weniger.

Wie sich das anfühlt, kann man bei einem Nischenmarkt wie dem für Lehrbücher zu dem Textsatzsystem LaTeX heute schon sehen. Hier habe ich mal alle Lehrbücher und sonstigen Lehrtexte zusammengetragen, die seit 2005 erschienen sind. Jeweils nur die letzte Auflage, also das, was heute noch von Interesse ist auf dem jeweils letzten Stand. Wenn man die Jahrgänge durchgeht, sieht man, daß der Markt 2012 gekippt ist: Seitdem gibt es fast nur noch Bücher im Selbstverlag. Im darauffolgenden Jahr stellte Pearson die Produktion von IT-Büchern ein. Das alles findet auf einer Buchmesse also schon lange gar nicht mehr statt.

Eine untere Grenze für die Größe bzw. die Kleinheit der Messe ist nicht vorstellbar. Am Ende ist womöglich ein einziges Zimmer ausreichend. Oder das Blaue Sofa.

Eindrücke von der Frankfurter Buchmesse 2016

Auf die Frankfurter Buchmesse angesprochen, soll Marcel Reich-Ranicki einmal gesagt haben: „Das ist eine Verkaufsveranstaltung – damit habe ich nichts zu tun!“

Aber natürlich ist das Geschehen vielschichtig. Der Verkauf ist der treibende Anlaß, aber das Gut, das hier verkauft wird, ist sozusagen der Treibstoff der Informations- und Wissensgesellschaft, der im Kapitalismus natürlich auch eine Ware ist, und je länger ich die Messe besuche, desto mehr nähere ich mich ihr aus vergleichender Sicht.

Ganz klar war früher „mehr Lametta“, das ist überall so. Aber es war auch ingesamt „mehr los“. Heute war zum Auftakt doch ziemlich ruhiger Betrieb. Auch die Taschenkontrolle am Eingang war nicht so neu, wie der Newsletter vorab tat, das gabs auch früher schon, samt Polizeistreifen.

„Rund 10.000 anwesende akkreditierte Journalisten, darunter 2.000 Blogger“ zählt die PR-Abteilung der Buchmesse. Da haben sie wohl auch die Kameraleute und die Strippenzieher von 3sat und Arte noch mitgezählt?

Begonnen habe ich heute tatsächlich als Freebie-Sammler gegenüber vom Blauen Sofa: Das Deutschlandradio Kultur verteilt seine letzten orangenen Kugelschreiber mit dem alten Namenszug, bevor es bald ein neues Sendestudio bekommt und zu „Deutschlandfunk Kultur“ umbenannt wird. Also her mit den schönen Kugelschreibern, denn das ist ein langlebiges Modell. Ein Andenken zu Lebzeiten. Die mit Abstand schönsten Bleistifte gibts diesmal bei DeGruyter und bei Springer Nature.

Nach notwendigen Einkäufen und einem kleinen Mittagsmahl führt mich mein Weg natürlich in die Halle 4.2, und dort nach etwas Umsehen bei den ganz großen in ihren Standlandschaften, zu – ein Tusch! – Brockhaus. Vor einem Jahr wiederauferstanden, hat der schwedische Erwerber die Marke aus der Plattform von Munzinger gelöst, über die die ehrwürdige Enzyklopädie vermarktet worden war, und vertreibt seitdem ein Multimedia-Nachschlagewerk auf einer eigenen Website – die heute abend – wie bitte? – wegen Wartungsarbeiten offline ist. Hm.

Immerhin: Vor dem Hintergrund des Autorenschwunds bei Wikipedia wird die Brockhaus Enzyklopädie, auf die ich seit Jahresanfang dank unserer Stadtbibliothek zugreifen kann, um ein Kinder- und um ein Jugendlexikon erweitert. Das sind eigene Korpora, die auf dem früheren gedruckten Kinder-Brockhaus – den es nicht mehr gibt – aufbauen bzw. abgespeckte Inhalte aus der großen Enzyklopädie für die jugendlichen Leser. Außerdem gibt es neu ein Programm, in dem „Basiswissen“ zum Selbststudium didaktisch aufbereitet wird. Diese Module ergänzen die Enzyklopädie und richten sich speziell an Schüler, die Hilfe beim Nachbereiten des Unterrichts oder bei den Hausaufgaben suchen.

Und daneben steigt Brockhaus ins Schulbuchgeschäft ein und stellt Lehrmaterial bereit, das auf die Lehrpläne der Bundesländer abgestimmt ist. Bisher gibt es dazu einen PR-Bericht und eine Pressemitteilung. Angeboten wird der Zugriff auf den Content aus einführenden Modulen samt Aufgaben. Alles weitere – Internetzugang und Clients – liegt bei der Schule. Die Nutzung erfolgt plattformunabhängig in einem Webbrowser, also keine Apps, keine Einbindung in ein entsprechendes digitales Ökosystem, aber kein kollaboratives Arbeiten. Noch nicht.

Eine Lehrerin, mit der ich ins Gespräch kam, erklärte mir als Hintergrund zu solchen Angeboten, an den Frankfurter Schulen werde sich bis 2018 erst einmal gar nichts tun, was die Technik angeht. Als erstes würden jetzt die Toiletten saniert.

Und Duden legt beim „Klassenzimmer der Zukunft“ einen Flyer aus zur „Learn Attack“ mit WhatsApp-Nachhilfe vom „professionellen Nachhilfelehrer“, „sofort“. Man sprach über den „Nachmittagsmarkt“. Da ist viel Bewegung drin derzeit. Deutschland in der „Bildungspanik“ – so Heinz Bude schon 2011.

Auch über den Schülerduden via Munzinger sprach man. Aber Munzinger ist auf der Messe nicht vertreten.

Überhaupt, ist es ja mittlerweile viel spannender geworden, darüber nachzusinnen, wer alles nicht gekommen ist, als sich anzuschauen, wer diesmal erschien. O'Reilly Deutschland, sozusagen der Suhrkamp unter den Computerverlagen, war letztes Jahr noch da, dieses mal aber wieder nur noch O'Reilly UK.

Die „Verkaufsveranstaltung“ ist eben nicht mehr unbedingt notwendig fürs Marketing. Andererseits merkt man dem Betrieb aber auch die Klassengesellschaft stärker an als früher. Es gab immer schon die Einfamilienhäuser unter den Messeständen, an den großen Kreuzungen gelegen, und hinten raus die Nordsee, ebenso wie die Einzimmerwohnungen in den engen Nebenstraßen. Aber durch den Wegfall der früheren angelsächsischen Halle 8 internationalisiert sich die Szene, und die Kontraste werden härter.

Wie schon in den Vorjahren bloggen auch diesmal Café Digital, u. a. Andrea Diener bei der FAZ und Carmen Treulieb wieder nebenan.

Unter zehn Cent pro Artikel

Beim Spiegel hat sich in den letzten Tagen mehr getan als nur ein Facelifting für die alte Tante SpOn – die 1996 mal so aussah. Auf ihre Hauptseite setzen sie jetzt häufiger Beiträge, von denen nur der Teaser frei lesbar ist. Wer mehr haben möchte, muß 39 Cent zahlen. Für eine ganze Woche dieser „Spiegel-Plus“-Beiträge hätte der Verlag gerne 3,90 Euro. Das ist eine Menge Geld, und man denkt an Fefes Beitrag über die Abo-Verträge von FAZ und Süddeutscher Zeitung, die auch ziemlich happig daherkommen. Oder täuscht der Eindruck?

Eher nicht. Beim Chaosradio gab es im vergangenen Mai eine Sendung über Online-Werbung. Ab Minute 01:39:16 werden Gegenmodelle zur Werbefinanzierung diskutiert und den Einnahmen aus der Werbung gegenübergestellt. Die profitablen Portale, also diejenigen, die mehr als eine „schwarze Null schreiben“, nehmen dabei „unter zehn Cent pro Artikel“ pro Leser ein, bezogen auf ihre Einnahmen für die jeweilige Seite, geteilt durch die Zahl der Leser eines Artikels, der mit Werbung versehen war. Die Einnahmen durch das User-Tracking muß man wohl noch dazu rechnen, denn mit diesen Daten bezahlen wir ja ebenfalls und zusätzlich („Du bist das Produkt“).

Daran sieht man, wieviel Luft in solchen Mondpreisen steckt und warum es legitim und notwendig ist, auf Alternativen auszuweichen, um sich zu informieren. Es steckt sogar unverschämt viel Luft in solchen Preisen. Und man kann das überhaupt nur ernsthaft vorstellen, weil die meisten Leute von den Online-Angeboten der Bibliotheken auch im Bereich E-Paper immer noch gar nichts wissen. Auch in der Sendung des Chaosradios kein Wort dazu. Mir mittlerweile unverständlich.

Die Zukunft kann nur eine kollektive Pauschallösung für alle Verlage gemeinsam sein. Wenn ich vierzig Euro zahle (sic!), darf ich erwarten, daß ich Zugriff auf die gesamte deutschsprachige Presse erhalte, und zwar aktuell und Archiv. Zugang und Abrechnung erfolgen über meine Bibliothek über die Nutzungsgebühren. So können auch sozial Bedürftige leicht eine angemessene Vergünstigung erhalten: Information als Grundrecht wäre für sie freizustellen, wie heute schon. Damit wären die privaten Verlage genauso gut bedient wie die Rundfunkanstalten. Man könnte sogar mal wieder eine Kulturflatrate für alles zusammen andenken – wem das nicht anno 2016 zu retro wäre…

Sic transit gloria mono

Nur noch 60 Tage bis zur Buchmesse! meldet mir die Propaganda derselben. Die jährliche Bestandsaufnahme, the annual jamboree steht wieder bevor im Oktober. Ihr naht Euch wieder, schwankende Gestalten. Wie ist es also bestellt um die Verlage und das ganze Drumherum?

In der Arno-Schmidt-Mailingliste sickerte gerade durch, daß die traditionsreiche Reihe der rororo-Monographien ziemlich unbemerkt eingestellt worden sei. Was bleibt, sind demnach Restbestände.

Es war eigentlich absehbar, daß die monos irgendwann ganz verschwinden werden, denn unsere Bibliotheken bieten uns so viele biographische und literarische Informationen online, daß es eigentlich keinen Grund mehr gibt, sich noch eine mono zuzulegen. Sie liefen auch in den Bibliotheken nicht mehr gut, unsere Stadtbibliothek hat sie zunehmend ausgemuster. Vor etwa acht Jahren (?) verschwanden sie aus den Frankfurter Buchhandlungen, vor etwa zwei Jahren auch aus den Bahnhofsbuchhandlungen.

Der Verlag denke über eine Verwertung als E-Book nach, hört man. Aber ohne Bilder. rororo-monos ohne Bilder. Die mono als ein unbebildertes E-Book bliebe nicht nur weit hinter dem zurück, was technisch seit geraumer Zeit schon mit EPUB3 möglich wäre, es wäre auch sonst eine Bankrotterklärung, denn an die Stelle einer ordentlichen Backlist träte damit eine bloße Resteverwertung, ein digitaler Ramschtisch, der nach allem, was ich gerade aus der Diskussion der letzten Tage entnommen habe, zudem noch ganz lieblos bereitet würde.

Denn die monos waren aus drei Gründen attraktiv: Sie waren sorgfältig recherchiert (von Autoren, die ihr Sujet beherrschten), gut und interessant bebildert und zudem angenehm zu lesen. Wenn eines dieser Elemente wegfiele (die Bebilderung), ist fraglich, ob der reine Text noch trägt. Ich fürchte, nein. Ich verstehe auch nicht, warum man die Bildrechte nicht für das E-Book erwirbt und damit ein funktionierendes Konzept zerstört. Munzinger und Brockhaus und Kindler sind – zumindest bei uns im Rhein-Main-Gebiet – online allgemein verfügbar. Und den Rest besorgt Wikipedia: it’s free. And free trumps quality all the time.

Die Verlage haben den Schlag noch nicht gehört. Sie müssen sich schon etwas einfallen lassen, wenn sie weiterhin für Autoren attraktiv bleiben wollen. Sie haben die Gatekeeper-Rolle schon lange verloren. Ich glaube, das ist den meisten Verlegern noch gar nicht bewußt geworden. Wenn ich die Wahl habe, gehe ich doch schon heute den Weg über den Selbstverlag. Und in diesem Fall: Ohne Bilder kann jeder. Ob man damit etwas einnimmt, steht freilich auf einem anderen Blatt.

Und was die Herstellung angeht: Mit Pandoc ist es nun wirklich kein Hexenwerk mehr, einen Text in viele verschiedene Zielformate zu konvertieren. Dazu braucht man weder einen Mediengestalter noch eines der völlig überteuerten Adobe-Programme. Entsprechende Dienstleister bieten schon seit langem auch Lösungen auf Basis von XSL/XML/LaTeX an. Wer näheres erfahren möchte, möge sich auf der Frankfurter Buchmesse im Oktober mal in der Halle 4.2 umtun und die Vorträge besuchen.

Die Onleihe geht auf dem Mac nicht mehr

Man glaubte es ja nicht, wenn man es nicht selbst erlebt hätte: Die Onleihe kriegt es seit mehr als zwei Jahren nicht auf die Reihe, EPUBs weiterhin für Mac-Anwender bereitzustellen. Fiel mir auf, nachdem ich meinen Rechner letzte Woche – im übrigen problemlos – von Mavericks auf El Capitan umgestellt hatte.

Ja, wirklich: Man kann derzeit auf dem Mac mit aktuellem OS X El Capitan und auch mit dem Vorgänger Yosemite keine EPUBs aus der Onleihe kontrolliert öffnen. Das Problem ist seit längerem schon bekannt, es gibt dazu eine FAQ, zuletzt geändert am 14. Januar 2016.. Dort wird behauptet, das Problem liege nicht bei der Onleihe, sondern bei Apple oder Adobe. Der Benutzer möge sich deshalb an diese Firmen wenden.

Man empfiehlt als Workaround ein Downgrade auf Digital Editions 1.7 – das ändert hier aber nichts, zumal die Schrift in den Menüs in dieser Uralt-Version auch kaum noch zu lesen ist. Was bleibt, ist nur die „Lösung“, Digital Editions 4 beim Laden des EPUBs durch „Sofort beenden“ abzuschießen und die Datei danach händisch aus dem ADE-Ordner zu öffnen.

Die Onleihe bedient sich proprietärer Technik, die funktioniert dann jahrelang nicht, und zwar nicht mit irgendwelcher Vintage-Software, sondern mit aktuellen Systemen. Es wird ein Downgrade auf eine Uralt-Version von ADE empfohlen, die schon längst nicht mehr gepflegt wird, der Downloadlink führt zu einer obskuren Drittplattform, nicht zum Hersteller Adobe, und dann wird zur Abhilfe dem Benutzer nahegelegt, bei diesen Firmen vorstellig zu werden.

Um es einmal sehr deutlich zu sagen: Meine Bibliotheken zahlen beträchtliche Beträge an die Divibib, die es über einen so langen Zeitraum hinweg nicht geschafft hat, ihre Ausleihe ordentlich auf dem Mac zum Laufen zu bringen, und ich würde schon erwarten, daß die Onleihe unter diesen Umständen bitte bei Adobe und Apple vorstellig wird, denn sie nutzt Adobes Software, zwingt mir deren DRM auf und zahlt für die Lizenzierung. Stattdessen zuckt man mit den Schultern und tut so, als wasche man seine Hände in Unschuld.

Wenn man ausweislich der FAQ zwei Betriebssystem-Versionen nacheinander – Yosemite kam im Oktober 2014 auf den Markt, El Capitan ein Jahr später – keine Lösung bereitstellt, sich aber nun schon zwei Jahre lang weiter für den Dienst bezahlen läßt, ist das schon bemerkenswert. Verwunderlich auch, daß unsere Bibliotheken das mitmachen.

Mit Open Access gegen die VG-Wort-Verlags-Ausschüttung?

Nachdem die Diskussion um den Anteil, den die Verlage an wissenschaftlichen Publikationen haben, wieder einmal ins Rollen gekommen ist, auch meine 2ct dazu:

Der Anteil, den die Verlage an meinen Veröffentlichungen hatten, war genau null. Insoweit decken sich mein Erfahrungen mit dem, was auch aus anderen Fächern als Jura schon hinreichend beschrieben worden ist. Es gab und gibt nur einen Grund, bei einem Fachverlag zu veröffentlichen: Die Sichtbarkeit der Arbeit im Bibliothekskatalog und die Beachtung durch das Schrifttum und durch die Rechtsprechung. Bundessozialgericht und Bundesverfassungsgericht hätten meine Diss nicht zitiert, wenn sie bei Books on Demand erschienen wäre. Natürlich wäre es dieselbe Arbeit gewesen. Derselbe Text. Aber so sind sie halt, die großen Leute, um es mit Saint-Exupéry zu sagen.

Das einzige, was sich in der Rechtswissenschaft seitdem verändert hat, ist, daß Urteile mittlerweile zunehmend aus proprietären Datenbanken heraus zitiert werden, statt aus Zeitschriften oder amtlichen Entscheidungssammlungen. Um das zu ermöglichen, wurden sie mit amtlichen Randnummern versehen. Und solange die Rechtswissenschaft so funktioniert, kann man eigentlich niemand dazu raten, in dem Fach auf Open Access zu setzen.

Der Wandel wird nicht durch die Autoren kommen, er müßte notwendigerweise von der anderen Seite ausgehen, um den Autoren ein Signal zu setzen. Und warum sollte das so sein? Gerichte und Schrifttum haben dazu keinen Anlaß. Ein Verdienst der Verlage ist das gewiß nicht. Und erst recht kein Grund, ihnen einen Obulus aus den Einnahmen der VG Wort zuzuschachern, wie es die Bundesregierung nun wieder tun will.

Die Diskussion krankt daran, daß sie alle Verlage über einen Kamm schert. Belletristik und Sachbücher, die aufwendig zu lektorieren sind, sind eben ein anderes Geschäft als Wissenschaft, wo überhaupt nichts lektoriert wird. Hier werden wissenschaftliche Texte 1:1 übernommen, der Verlag hat daran überhaupt keinen Anteil. Er sorgt – siehe oben – ausschließlich für die Beachtung des Textes in der Öffentlichkeit des jeweiligen Fachs.

Nachdenken über Sci Hub

Auf der Mailingliste Inetbib ist am Wochenende ein Beitrag über Sci Hub aus Archivalia kontrovers diskutiert worden. Klaus Graf hatte darin der derzeitigen Stand zum Verhältnis von Fernleihe und Open Access zusammengefaßt und dabei auch Portale einbezogen, die weitergehen, als nur Open-Access-Papiere im Rahmen der jeweiligen Lizenz weiterzuverteilen. Repositorien gibt es viele. Sci Hub bietet, wenn ich es richtig verstanden habe, so gut wie alles an, was im Format PDF daherkommt und nicht bei drei auf den Bäumen ist, ohne sich dabei um das Urheberrecht der Autoren und die davon abgeleiteten Verwertungsrechte von Verlagen zu kümmern.

Die Fernleihe, die von den Verlegern immer wieder gern gegen die Zeitschriftenkrise angeführt wird, sei, so Klaus Graf in seinem Beitrag, zumindest in ihrer nordamerikanischen Spielart ILL, nicht attraktiv genug und könne das Unvermögen der chronisch unterfinanzierten Bibliotheken, die Informationsflut zu den Lesern zu bringen, langfristig nicht ausgleichen. Zudem würde sie hierzulande subventioniert – das seien Kosten, die man genaugenommen mit einbeziehen müsse, wenn man ausrechne, wieviel Open Access den Steuerzahler letztlich koste. Wenn alle Wissenschaft Open Access wäre, entfielen auch diese Kosten, und allen wäre gedient. Bis es aber soweit sei, so könnte man es auf den Punkt bringen, müsse man wohl mit grauen Portalen wie Sci Hub leben. Und: Mit Sci Hub ist es wie mit dem Leben: Genießen wir es, solange es geht.

So dauerte es dann auch nicht lange, bis ein Listenteilnehmer den Vorwurf erhob, das sei im Grunde genommen eine Aufforderung, massenhaft Rechtsbruch zu begehen. Er genieße an seinem Leben, dass er aufrecht gehen kann und sich nicht wie ein Dieb wegschleichen müsse. Dagegen erhob sich substantiierter Widerspruch, zumal der damit angegriffene Blogpost mehrfach die Unrechtmäßigkeit der diversen Schattenbibliotheken betont.

Man kann die Diskussion als eine Fallstudie lesen, sowohl auf die Lage der Literaturversorgung als auch auf die Entwicklung des Netzes.

Die vorgenannten Kommentare liefen auf einer Mailingliste ein, der größten bibliothekarischen Liste im deutschsprachigen Raum zwar, aber auf einer Liste, die doch sehr viel enger daherkommt als die Öffentlichkeit, die die Archivalia finden – das Blog ist darüberhinaus für viele lesenswert, auch abseits der Bibliotheksszene. Es gab Widerspruch, aber nicht im Web 2.0, also in den Blogkommentaren, sondern in dem alten Medium der Mailingliste, in deren Archiv man das also nachlesen kann. Und zwar, weil der Blogpost von seinem Autor auch dort angekündigt worden war. Darin wird die fortwährende Fragmentierung der Datennetze deutlich. Zwar hatte Geert Lovink schon 2008, auf dem Höhepunkt des Blog-Booms, in seinem „Berliner“ Buch Zero Comments das Ausbleiben der Kommentare bemerkt. Sie sind aber auch nicht an einen neuen Ort „umgezogen“. Diskutiert wird in Diskutiermedien, und das sind weiterhin Mailinglisten. Jede Nachricht wird an die Teilnehmer persönlich versandt und zugestellt. Twitter spielte bei der Verbreitung des Posts eine gewisse Rolle, so gelangte der Beitrag auf Rivva; dort werden bisher aber nur drei Blogs erwähnt, die das Thema aufgegriffen haben – auch bei ihnen wurde bisher nicht kommentiert.

Man kann diese Diskussionsmüdigkeit im Web 2.0 mit mehreren Trends in Beziehung bringen: mit dem Ekel vor dem Netz im Zuge der Snowden-Affäre, aber auch mit dem allgemeinen Rückzug aus dem Netz infolge der Shitstorms, der Online-Kampagnen und der sonstigen nervtötenden Begleiterscheinungen. Die Blütezeiten des Netzes sind vorbei. Das Pendel schwingt in die andere Richtung, und die Gruppen der Intensivnutzer und der Zurückhaltenden scheiden sich immer deutlicher.

Zum anderen greift Archivalia aber auch einen sehr wesentlichen Trend auf, den man aufmerksam beobachten sollte. Denn Portale wie Sci Hub, von einer Studentin gegründet, und sonstige schwarze Kanäle verweisen auf die Einstellung der Menschen zum Recht.

Wenn es heißt, Sci Hub sei unrechtmäßig, so ist das wahrscheinlich richtig. Aber diese Wertung trifft auf eine Generation, der die Quellen, aus denen sie schöpft, egal geworden sind – und zwar gerade auch im Angesicht der allgemeinen Überwachung. Es wäre aus technischer Sicht überhaupt kein Problem, sie zu stellen, das hat man bei der Verfolgung der Software- und Musik-„Piraterie“ gesehen. Aber vielleicht wird es dazu bei der Literaturversorgung gar nicht kommen, denn die Verlage rudern ja schon lange zurück, etwa indem das „harte DRM“ bei E-Books zunehmend fallengelassen und durch bloße Wasserzeichen ersetzt wird. Den Rest besorgte bei der Musik der Übergang von Download zu Streaming. Dazu wird es auch hier immer mehr kommen. Gerade deswegen muten ja der PDF- und EPUB-Download bei der Onleihe und der Versuch des Marketings der Süddeutschen Zeitung so retro an, im Zuge ihrer Panama-Papers-Kampagne Abonnenten für ihr E-Paper zu gewinnen. Der direkte Zugriff auf Daten aus dem Web und die Flatrate sind die Zukunft, und zwar nicht die Flatrate für eine Zeitung oder Zeitschrift, sondern für so etwas wie Sci Hub, wo man alles aus einer Quelle bekommt. So wie man ja auch bei Google irgendwie alles finden kann. So nehmen die meisten Menschen eben das Internet wahr: Alles aus einer Hand. Verteilte Lösungen schwinden, zentralisierte wachsen. Ein Paradoxon im fragmentierten Netz mit seinen fragmentierten Öffentlichkeiten. Am Ende finden sie sich alle an einen Knoten im Netz wieder. Im Bibliothekswesen überschneidet sich das mit der Erzählung von der Bibliothek von Babel, die am Ende die ganze Welt ist. Und wenn die Verlage das nicht von sich aus einsehen und sich für die Vermarktung zusammentun, werden die Benutzer das eben ganz pragmatisch auf andere Weise herbeiführen.

Am Ende wurde die Pirate Bay kommerzialisiert und aus dem Reich der Schattenwirtschaft ins helle Licht geführt – bevor sie schließlich aus dem allgemeinen Bewußtsein verschwand. Heute kennt sie keiner mehr. So wird es auch mit Sci Hub und Co. kommen. Bloß die Fernleihe, die wird es ganz sicherlich auch neben der normalen Ausleihe und dem Verkauf von Texten weiterhin geben, und das würde ich doch auch hoffen.

Denn eine Welt mit 100-prozentigem Open Access ist wahrscheinlich nicht erreichbar. Und das liegt einfach daran, daß es mehr Prestige mit sich bringt, bei einem externen Verlag zu publizieren als auf dem OA-Server der universitätseigenen Unibibliothek. Nur der Dritte kann die Gewähr dafür bieten, daß der Autor und sein Text ausgewählt worden sind, dort zu erscheinen. Auch wenn das Lektorat mittlerweile vielfach ausfällt: Do-it-yourself und Selfpublishing werden nicht für alle Zwecke und auch nicht für alle Fächer eine gangbare Lösung sein. Bei den Juristen wird jedenfalls weiter ganz viel gedruckt. Es ist kein Zufall, daß sich die Konstanzer Juristen gerade gegen eine Verpflichtung zur Zweitveröffentlichung ihrer Texte gewandt haben. Und auch dieser Bedarf will weiterhin über Bibliotheken verteilt sein. Nur sie können sowohl eine Infrastruktur für proprietäre als auch für offene Medien organisieren und betreiben. Mit der Fernleihe auch ortsübergreifend.

Ob das eine billiger als das andere sein wird, ist am Ende übrigens geschenkt, denn beides wird nebeneinander bestehen. Das Verlagsprodukt wird man ebensowenig verdrängen können wie den Open Access. Die Autoren wie die Benutzer haben sich darauf eingestellt.

Remote Access: Die Stadtbibliothek Darmstadt baut ab

Die Stadtbibliothek Darmstadt bietet KLG, KLfG und PressReader über Munzinger an; außerdem Genios, letzteres aber nur noch mit einer kleinen Auswahl an deutschsprachiger Presse; die Fachzeitschriften wurden vor einem halben Jahr schon fallengelassen, schrieb ich vor kurzem. Und stelle nun fest, daß die Süddeutsche Zeitung ziemlich leise aus dem Darmstädter Genios gestrichen worden ist. Dafür gibt es nun sehr viel Provinzpresse, also etwa die Osterländer Volkszeitung. Nichts gegen die Osterländer Volkszeitung, aber die Entwicklung ist doch enttäuschend. Es verbleiben für meine Interessen: Zeit, Spiegel, Frankfurter Rundschau, taz, NZZ und Der Standard. Nicht gerade wenig, aber es fing mal attraktiver an. Mit fehlt weiterhin die FAZ. Zumal der PressReader via Munzinger doch ziemlich umständlich zu bedienen ist, bei mir nur in Safari und Google Chrome funktioniert und offenbar auch keine Volltextsuche über alle Texte anbietet. Ebenso wie die E-Papers aus der Onleihe. Man muß sie einzeln herunterladen und kann nicht gezielt alle Beiträge zu einem bestimmten Thema ansehen. Sehr nachteilige Entwicklung für die Benutzer.

Neues von den Suchmaschinen

Zum 20. Geburtstag der Metasuchmaschine MetaGer hat Wolfgang Sander-Beuermann einen Blick auf die Geschichte der Suchmaschinen zusammengetragen, den man in dem dazugehörigen Wikipedia-Artikel nicht findet:

  • 1993 Am MIT in den USA, wird der erste Webcrawler entwickelt: "World Wide Web Wanderer"; in Stanford startet Suchmaschine "Excite"; eingestellt vor vielen Jahren
  • 1994 "Yahoo" startet in Sunnyvale Kalifornien: zuerst als Verzeichnisdienst
  • 1994 "WebCrawler" startet an der Univ. of Washington mit Volltext-Indexierung; eingestellt vor vielen Jahren
  • 1994 "Lycos" startet an der Carnegie Mellon University; eingestellt vor vielen Jahren
  • 1995 "Altavista", Kalifornien: die erste Suchmaschine, die versucht, das gesamte WWW zu erfassen; eingestellt 2013
  • 1996 An der Uni Hannover geht "MetaGer" ans Netz
  • 1996 Als erste Deutsche Suchmaschine mit eigenem Index startet "Eule"; eingestellt vor vielen Jahren
  • 1997 An der TU Berlin startet "Fireball"; eingestellt ca. 2009
  • 1998 "Google" geht ans Netz, Stanford, Kalifornien
  • 2000: in Deutschland: "Aladin", "Dino", "Crawler", "Kolibri" ... eingestellt vor vielen Jahren
  • 2003 "Seekport", Deutschland; eingestellt ca. 2009

Also: Herzlichen Glückwunsch, MetaGer! Die Metasuchmaschine ist gerade völlig neu programmiert worden, und die Oberfläche hat auch ein Facelifting erhalten. In der Hilfe findet man auch einige Tips für die Arbeit mit MetaGer. Beispielsweise kann man durch einen Klick auf das kleine schwarze Dreieck neben einem Suchergebnis eine neue Suche starten und dabei die jeweilige Domain ausschließen oder die Suche auf diese beschränken. MetaGer speichert keine personenbezogenen Daten über die Benutzer und bietet auch einen TOR-Hidden-Service an. Einen Rückblick speziell auf die Geschichte von MetaGer findet man ebenfalls im Blog von SUMA-EV, dem gemeinnützigen Betreiber.

Währenddessen wurde die Metasuchmaschine Ixquick eingestellt. Der niederländische Betreiber spricht zwar vom „Zusammenlegen“ mit dem Portal Startpage. Es läuft aber auf eine Einstellung von Ixquick hinaus, denn Startpage bleibt bestehen und Ixquick liefert seitdem nur noch Startpage-Ergebnisse. Startpage ist ein anonymisierendes Interface zur Google-Suche. Mit anderen Worten: Wer Google über Startpage abfragt, erhält die Ergebnisse, die Google für die Filterbubble der Startpage-Benutzer bereithält.

Ich bevorzuge MetaGer. Oder DuckDuckGo.

Munzinger-Archiv: Chronik

Das Munzinger-Archiv bietet in den Länderinformationen eine Chronik, die ziemlich aktuell gehalten wird. Darin findet man die offiziösen Agenturmeldungen der Mainstream-Medien, konzentriert und sachlich zusammengefaßt. Man kann sie durchsuchen und sich beispielsweise nur die Meldungen für bestimmte Länder, bestimmte Themen oder für einen Zeitraum ausgeben lassen, bis zur Gegenwart. Das Ergebnis kann man über die Liste am rechten Seitenrand weiter filtern nach Datum, Ländern und Thema. Eine Alternative zu den „Online-Ausgaben“ der Zeitungen und zu den reinen Presse-Archiven.

Remote Access

Klaus Graf berichtet über Möglichkeiten des Remote Access zu Datenbanken und E-Books bei wissenschaftlichen und öffentlichen Bibliotheken. Interessant auch sein Hinweis auf Angebote, die man als Förderer amerikanischer Alumni-Vereine nutzen kann. Solche Angaben sind schwer zu finden, man muß sie bei den jeweiligen Bibliotheken recherchieren, was recht aufwendig ist. DBIS und EZB weisen nur die Verfügbarkeit von Datenbanken in den Campus-Netzen der wissenschaftlichen Bibliotheken nach, ohne Angaben zum Remote Access von zuhause. Und für die öffentlichen Bibliotheken fehlt eine zentrale Auskunft gleich ganz. Sie sind ja auch nur vereinzelt an virtuelle Kataloge angeschlossen. Viel zu wenig bekannt sind jedenfalls die Nationallizenzen für Personen mit einem Wohnsitz in Deutschland.

Ein Blick auf die Lage in Rhein-Main: Unsere Stadtbibliothek in Neu-Isenburg hat schnell gehandelt: Seit Anfang März steht der wiederauferstandene Brockhaus zur Verfügung. Daneben der Kindler über Munzinger. Bei der Stadtbücherei Frankfurt läuft der Brockhaus weiter über Munzinger (da hat wohl die Kündigung nicht geklappt, darf man annehmen); daneben gibts dort auch den Duden. Die Stadtbibliothek Darmstadt bietet KLG, KLfG und PressReader über Munzinger an; außerdem Genios, letzteres aber nur noch mit einer kleinen Auswahl an deutschsprachiger Presse; die Fachzeitschriften wurden vor einem halben Jahr schon fallengelassen.