albatros | texte

LaTeX lebt

Dear TeXers,

Summer with its conferences is upon us. I am writing this text after a full day at the Joint Conference on Digital Libraries at Fort Worth, TX. As befits JCDL, at registration we were given the proceedings volume in digital form. By the way, I've run pdfinfo on the files and found out that of 102 papers presented there, 68 were typeset in TeX. I think the rumors of the imminent demise of TeX in the academic world are somewhat exaggerated. […]

Boris Veytsman, TeX Announce Mailing List, 7. Juni 2018.

ZoteroBib

ZoteroBib ist eine Web-Lösung, die auf der Literaturverwaltung Zotero aufsetzt und sich wohl an Anwender richtet, die Zotero (noch) nicht installiert haben. Der Blogpost aus der vergangenen Nacht gibt eine etwas ausführlichere Einführung. Einträge können per URL, ISBN oder DOI erstellt und im lokalen Browser-Cache gesammelt werden (wenn man das zulässt). Man kann also weitersurfen und immer wieder zu der Seite zurückkehren. Jeder Eintrag kann händisch nachbearbeitet werden, was z.B. notwendig wird, wenn das Tool Probleme mit Umlauten hat. Die Formatierung erfolgt über das bekannte Reservoir an den in Zotero verfügbaren Zitierstilen (derzeit sind es über 9000, wie man liest). Am Ende können sowohl einzelne Einträge als auch die komplette Literaturliste formatiert exportiert werden, entweder in die Zwischenablage, als Datei (RTF, RIS, BibTeX, HTML) oder direkt zur Übernahme ins lokal installierte Zotero. – Eine Notlösung, natürlich, wohl vor allem für mobile Anwender, die neugierig machen will in einem hart umkämpften Markt, in dem man bekanntlich nicht zimperlich ist, wenn es um Gratis-Varianten und Campus-Lizenzen geht.

Die Onleihe, die E-Papers, das DRM und der Schwarze Peter

Merkwürdig ruhig geworden ist es in den Biblioblogs zum Thema Onleihe. Dabei geht es schon seit über einem Monat ziemlich hoch her, und wenn ich nichts Besseres zu tun gehabt hätte, wäre ich, nachdem ich sie von Anfang an kritisch begleitet hatte, selbstverständlich auch bei den ersten gewesen, die die Probleme mit der EKZ-Tochter Divibib zum Thema gemacht hätte. Aber das kann man ja noch noch in Ruhe nachholen, denn so schnell läuft sie uns nicht weg. Was ist also passiert?

Man kann guten Gewissens sagen, dass die Onleihe jetzt endgültig kaputt ist, und zwar ausgerechnet kurz vor dem Weihnachtsfest, wenn also ganz viele Benutzer endlich die Zeit haben, sich einmal umzuschauen, vielleicht auch mal mit neuen Geräten etwas Neues auszuprobieren und im Angebot zu stöbern und wenn die digitalen Lösungen besonders wichtig werden, weil die Präsenzangebote wegen der Feiertagsschließung vielerorts nicht zugänglich sind.

Die Divibib behauptet – bisher ohne Quellenangabe –, Adobe habe angekündigt, die Weiterentwicklung des DRM bei seinem Adobe Reader einzustellen. In vorauseilendem Gehorsam – anderer Version: weit und weise vorausschauend – stelle man deshalb schon heute die Bereitstellung von PDFs für die E-Papers in der Onleihe um. Jedenfalls aber bis März 2018 komplett. Dort gab es bisher PDFs, die man im Reader öffnen konnte. Neuerdings kann man nur noch PDFs herunterladen, die in dem E-Book-Programm Adobe Digital Editions zu öffnen sind.

So weit, so gut, könnte man denken. Nimmt man halt ein anderes Programm, und gut ists. So ist es aber nicht.

Es fängt damit an, dass die PDFs, die die Presseverlage derzeit freigeben, in der aktuellen Version 4.5.7 von Adobe Digital Editions (ADE) nicht zu öffnen sind. E-Books gehen (meist?), aber E-Papers nicht. ADE zeigt nur leere Seiten an. Im Fall der FAZ sieht das dann so aus:

Ansicht der FAZ aus der Onleihe in ADE 4.5.7 am 15. Dezember 2017

Deshalb empfiehlt die Onleihe per Dauereinblendung in ihrem User-Forum offiziell ein Downgrade auf Version 4.5.6 – trotz der damit verbundenen Sicherheitslücken, die man sich mit einer veralteten Version auf sein System holen würde und die, wie es bei Exploits eben so üblich ist, auch schon ausgenutzt werden, weil sie entsprechend bekannt gemacht worden sind. Wer das nicht wagt, kann bis auf weiteres keine E-Papers mehr über die Onleihe lesen. Dieses Problem betrifft alle Benutzer auf allen Plattformen.

Banner im User-Forum der Onleihe in diesen Tagen

Wenn man das denn Lesen nennen will. Denn das Navigieren in einem ADE-PDF ist etwas ganz anderes als bei einem Reader-PDF. Adobe Digital Editions ist offensichtlich nicht dafür ausgelegt, mit so großen grafisch gestalteten Seiten zu arbeiten. Das Scrollen funktioniert nur wie in Zeitlupe, ist für den täglichen Gebrauch zur flüssigen Zeitungslektüre daher unbrauchbar. Es liegt auch nicht am eigenen System: Eine 30 MB große PDF-Datei belegt auf meinem Rechner mit ADE genau 33 MB Arbeitsspeicher. ADE ist einfach eine Schnecke, weil das Programm ja vor allem dazu dient, Bleiwüsten im Format EPUB darzustellen, was etwas ganz anderes ist.

Auf dem Mac kommt hinzu, dass ADE hier schon seit 2014 nicht mehr ordentlich funktioniert. Die ACSM-Datei wird noch heruntergeladen und ADE wird geöffnet. Nach dem Download der Zieldatei hängt sich Adobe Digital Editions aber zuverlässig auf und legt sich dann schlafen wie ein Eichhörnchen, das zur Winterruhe gefunden hat. Bis man es über das Apfel-Menü abschießt. Die EPUB- oder die PDF-Datei findet man dann im Digital-Editions-Verzeichnis. Man kann sie in der Regel in ADE öffnen und in dessen Bibliothek importieren – sofern es kein E-Papier ist, das funktioniert – siehe oben – nur mit älteren Versionen. Die letzte Version, die man auf dem Mac nutzen kann, ist derzeit, wie man liest, wohl ADE 4.0.3 aus dem Februar 2015. Die Situation hat sich damit nochmals erheblich verschlechtert – wobei die FAQ der Onleihe zu dem Thema „Onleihe auf dem Mac“ für sich genommen schon immer legendär zu nennen war. Schon heute darf sie als ein Klassiker der Netzkultur gelten.

Die Onleihe bietet zur Jahreswende 2017/18 also ein wirklich desolates Bild. Nur wer sich in ein Software-Museum zurückzieht, kann darüber noch E-Papers lesen. Die Probleme bei den E-Books seien nicht ganz so schlimm – aber das weiß man ja immer erst, wenn man versucht, eine bestimmte Datei zu öffnen. Man muss abwarten, was einen dann erwartet und von Fall zu Fall schauen, ob es geht und was damit geht.

Dementsprechend ist der Unmut der Benutzer im User-Forum der Onleihe. Dort geht es schon wochenlang hoch her. Die Moderatoren und die sonstigen Support-Kräfte kommen kaum hinterher. Ehrlicherweise sollte man sagen, dass die Ausleihe von E-Papers faktisch eingestellt worden sei, schreibt dort ein User:

„Nach all den vielen Beiträgen muss man doch den Schluss ziehen, dass keine ePapers mehr für Normalnutzer, die nicht in die Trickkiste greifen können oder wollen, angeboten werden. Das gilt zumindest für die großformatigen Tageszeitungen. Ein vernünftiges Lesen ist nicht mehr möglich, egal mit welcher Hardware, mit welchem Betriebssystem und mit welchem Leseprogramm.“

Andere posten Links zu den veralteten ADE-Versionen und Anleitungen, die angeblich noch gehen. Ungeübte Benutzer fragen etwas schüchtern, woran es denn liege, dass man die Onleihe nicht mehr nutzen könne. Der Sohn habe doch alles so formidabel eingerichtet, und jetzt klappt es nicht?

Und auch die Bibliotheken reagieren langsam. Eine teilte einem Benutzer mit:

„…der Onleiheverbund der onleiheSaar hat sich entschlossen, die Zeitungen abzubestellen, da die Divibib eine problemlose Nutzung nicht gewährleistet.“

Ob es stimmt, dass das DRM für den Adobe Reader tatsächlich nicht mehr weiterentwickelt wird, steht übrigens zumindest derzeit in den Sternen. Zu googeln ist dazu nichts. Und die Onleihe hat dazu auch in ihrem schon immer ziemlich unübersichtlichen und merkwürdig rau moderierten User-Forum keinen Beleg genannt.

Was wir hier sehen, war jedenfalls voraussehbar. Das DRM, das schon den Plattenlabels vor Jahren um die Ohren flog und das zunehmend auch bei den E-Books abgeschafft worden ist, ist endgültig am Ende, die Download-Lösungen werden durch Streaming mit Flatrates ersetzt. Dieser Trend war schon vor Jahren aus den USA bekannt, und es rächt sich nun, dass die öffentlichen Bibliotheken auf diesen Dino gesetzt haben. Hier wurde viel Geld verbraten, sehr viel Steuergeld, das auch an Adobe fließt, das schon viele Jahre lang seelenruhig bleibt und offenbar keinen ordentlichen Service mehr angeboten hat. Von rechtlichem Druck auf die großen Konzerne hat man jedenfalls nichts gehört. Offiziell wird der Schwarze Peter zwischen den Verlagen, die ein DRM fordern würden, Adobe und, soweit betroffen, auch Apple, hin und her geschoben. Leidtragende der verkorksten Lage sind die Benutzer/innen, die nun jedenfalls bei der digitalen Zeitungslektüre in die Röhre schauen.

Gut beraten war, wer auf Lösungen wie beispielsweise das Pressearchiv Genios oder auf den PressReader via Munzinger gesetzt hatte, die schlicht im Webbrowser laufen (es gibt noch andere). Was man sich natürlich erst einmal leisten können muss, denn das ist schon etwas teurer am Markt. Hier sind die Bibliotheken im Rhein-Main-Gebiet – mit Ausnahme von Darmstadt – übrigens leider vergleichsweise schlecht aufgestellt – schlechter als in vielen anderen Gegenden Deutschlands, wo der digitale Sektor sehr viel größer aufgebaut worden ist, so dass nun schnell Alternativen zur Onleihe verfügbar sind, auf die man jetzt, wo sie gebraucht werden, direkt verweisen kann. Im Forum waren immerhin schon Vergleiche zu BER gezogen worden…

Man kann, wie eingangs schon gesagt, mit gutem Gewissen davon ausgehen, dass die Adobe-DRM-Lösung endgültig kaputt ist und dass man insoweit auch zumindest teilweise kapituliert hat. Und der Ausblick auf ein eigenes Onleihe-DRM, das immer mal wieder erwähnt wurde, erscheint heute noch eher trüb, denn das grinst nicht gerade um die Ecke.

Frustrierte Benutzer werden sich abwenden und sich anderweitig orientieren. Vielleicht ist das den Verlagen auch ganz recht, die ja ihre Digitalangebote derzeit zunehmend in den Markt drücken wollen und dafür die freien Meldungen auf den Zeitungs-Websites auch eher vernachlässigen.

Wenn demnächst mal wieder von der sogenannten Digitalen Agenda die Rede ist, sollte man ruhig einmal auf das DRM-Debakel und das Right to E-Read zu sprechen kommen. Es wäre sicherlich ein guter Maßstab für die Frage, wie weit die Digitalisierung in der Informations- und Wissensgesellschaft überhaupt schon vorangekommen ist – oder eben nicht.

Wikipedia baut ab, oder: Was von „open“ übrig bleibt II

Ein schöner Aperçu zur Mediengeschichte der letzten etwa zehn Jahre (auch wenn er es im Titel enger fasst) ist bei André Staltz zu lesen (via Stephen Downes, der zaghaft widerspricht).

Facebook saugt alles mögliche in sich hinein, während Google nur noch außerhalb des Web wächst und selbst Wissen direkt anbietet, ohne den Sprung auf eine externe Quelle, direkt innerhalb des Google-Ökosystems.

Natürlich kommt einem die neue Richtung der Wikimedia Foundation in den Sinn: Wenn sie bei alledem nicht mitspielen würde und Wikipedia nicht als knowledge as a service anböte, würde sie relativ schnell untergehen. Also stellen sie immer mehr Schnittstellen bereit, um ihr Wissen an Google verschenken können, weil die es sonst woanders sich schenken lassen würden oder notfalls auch ad hoc hinzukaufen, wenn es gebraucht wird.

Und selbstverständlich entsteht damit auch ein noch größeres wettbewerbsrechtliches Problem als bisher schon, wenn die ehemalige Suchmaschine nur noch eine einzige Empfehlung ausspricht und ausgibt, anstelle von einer Liste mit einer bisweilen fünfstelligen Anzahl von Suchtreffern, aus denen der Benutzer auswählen muss. Von einem Ranking wird man nicht mehr sprechen können, und Google wird sich mit dieser Technik eher einer noch strengeren Prüfung durch die EU-Kommission unterwerfen. Es könnte sogar sein, dass diese Technik in der EU gar nicht eingesetzt werden darf.

Während das Web verschwindet, entsteht eine Landschaft aus völlig separaten Ökosystemen, die Endgeräte ansteuern, in denen kombinierte Antwort- und Bestellmaschinen integriert sind. Diese Entwicklung ersetzt den alten Computer mit Webbrowser vollständig. Sie verläuft disruptiv und ist nicht mehr umkehrbar.

Es bedarf keiner Erörterung, dass sich dies auch noch weiter auf die hergebrachten Mitmachprojekte des Web 2.0 auswirken wird. Wer an diese Technik aus Apps plus Endgeräte gewöhnt ist und damit aufwächst, wird nie auf die Idee kommen, an einem Massenprojekt wie Wikipedia teilzunehmen, weil er sich so etwas gar nicht mehr vorstellen kann. Normal ist, dass man auf riesige Datenbestände zugreift, die automatisiert erstellt oder jedenfalls automatisiert ausgewählt worden sind, aber nicht, dass man sie als Autor eigenhändig mit schreibt, kuratiert, pflegt und kollektiv verwaltet. Das liegt alles zentral bei der Firma, die es anbietet. Top-down, also nicht in den Händen einer Community, bottom-up.

Dieser Wandel hält von der Mitarbeit ab, und der Konflikt, der sich daraus ergibt, steht wiederum im Mittelpunkt des Streits, der gerade zwischen Community und Wikimedia Foundation entstanden ist. Benutzer haben sich geweigert, die neue Strategie einfach abzunicken, sie widersprechen und verlangen echte Mitsprache, die dort gerade verloren gegangen ist.

Wissen wird wieder exklusiver, und die Entscheidung darüber liegt sowohl bei den GAFAs als auch bei den großen amerikanischen Foundations nicht mehr in der Hand der Benutzer, sondern beim Management. Insoweit gibt es keinen Unterschied zwischen ihnen.

Und doch wird es auch in diesen Szenarien aus virtuellen Gemeinschaften, virtuellen Realitäten und künstlicher Intelligenz immer wieder Nutzer geben, die dank natürlicher Intelligenz unter dem Radar fliegen und sich abseits dieser großen Lager organisieren und zusammenfinden werden, in Nischen und Kommunen, und dort alternative Entwürfe sich ausdenken und leben werden. In Inseln der Vernunft in einem Meer von Unsinn und mit Spaß am Gerät, natürlich. Aber nicht mehr bei den Großen des Plattformkapitalismus, sondern ganz woanders.

Hier entsteht etwas ähnliches wie in der Politik: Die Entfremdung zwischen Apparat und Zivilgesellschaft führt dazu, dass sich letztere vom Betrieb abwendet und „schon mal anfängt“ mit eigenen Projekten, die von unten beginnen: vegetarisches Essen statt Massentierhaltung, Autos werden abgeschafft, Postwachstum beginnt bottom-up. Der Bruch zwischen Apparat und Unterbau erfolgt langsam, und die Bruchstellen klaffen lange Zeit hinweg leise, aber immer mehr, ganz ähnlich wie eine Eisscholle, die eines Tages abbricht und einfach weg treibt in eine andere Richtung, wo sich beide nie wieder begegnen werden. Den großen Eisberg, der sie gebar, ficht das nicht an. So beginnt etwas Neues.

Staltz, André. 2017. The Web began dying in 2014, here’s how. André Staltz. 30. Oktober. staltz.com (zugegriffen: 5. November 2017). – Yannick. 2017. Die Wikipedia der Zukunft: Zwischen Dienstleistung und politischem Projekt. netzpolitik.org. 1. November. netzpolitik.org (zugegriffen: 2. November 2017). – Paumier, Guillaume und Nicole Ebber. 2017. Service and equity: A new direction for the Wikimedia movement towards 2030. Wikimedia Blog. 3. November. blog.wikimedia.org (zugegriffen: 5. November 2017).

Die Top 10 der nicht zuende gelesenen Romane

Der französische Radiosender France Culture hat seine Hörer auf den sozialen Netzwerken gefragt, welche Bücher sie nie zuende gelesen hätten. Über 3000 Antworten seien eingegangen. Das Ergebnis wurde im Oktober in Form einer Top-10-Liste veröffentlicht:

  1. Ulysses von James Joyce
  2. Die Wohlgesinnten von Jonathan Littell
  3. Auf der Suche nach der verlorenen Zeit von Marcel Proust
  4. Der Herr der Ringe von J. R. R. Tolkien
  5. Die Schöne des Herrn von Albert Cohen
  6. Der Mann ohne Eigenschaften von Robert Musil
  7. Rot und Schwarz von Stendhal
  8. Madame Bovary von Gustave Flaubert
  9. Hundert Jahre Einsamkeit von Gabriel Garcia Marquez
  10. Reise ans Ende der Nacht von Louis-Ferdinand Céline

Combis-Schlumberger, Hélène. 2017. Top 10 des livres que vous n’avez jamais réussi à finir. France Culture. 6. Oktober. www.franceculture.fr (zugegriffen: 5. November 2017).

Eindrücke von der Frankfurter Buchmesse 2017

Von der Sicherheit war viel die Rede im Vorfeld dieser Buchmesse. Bis hin zu der Empfehlung, keine Rücksäcke und keine Rollkoffer mitzubringen, denn alles werde gefilzt werden am Eingang, was zu langen Schlangen an demselben führen könne. Die Aufforderung hat nicht viel Eindruck gemacht, offenbar, denn natürlich kommen alle, wie immer, mit ihrem Gepäck – wie denn auch sonst soll man das stundenlange Herumlaufen in den trotz Wegwerfteppich so unwirtlichen Hallen noch ertragen, wo ein halber Liter Leitungswasser im Wegwerfpack für drei Euro verkauft wird.

Überhaupt: Der Andrang an Besuchern. Mit dem ist es nicht so weit her wie gewünscht. Bei mittäglichen Gang von Halle 4 in Halle 3 waren wir doch recht einsam auf dem schnieken Laufband unterwegs. Es war so leer wie noch nie auf der Messe, und ich komme seit etwa zehn Jahren hierher.

Eine Branche im Abbau ist zu besichtigen. Der Umsatz konnte nur durch Preiserhöhungen aufgefangen werden; der Rückgang ist also bereinigt durchaus vorhanden, möchte man den Branchenjournalisten zuraunen. Eine Branche, die sich in die Eventisierung flüchtet, so war zu lesen, um ihren gesellschaftlichen Bedeutungsverlust zu kontern. Das gelingt, und die Bücher, die in den großen Verlagen produziert werden und dann durch die Verwertungskette Buchhandel, Bibliothek und Antiquariat durchgereicht werden, sind immer noch gern genutzte Aufhänger, an denen sich der Journalismus abarbeitet, um damit ganze Kulturteile zu füllen mit Kritiken und Autoreninterviews, das ganze Jahr über. Die Digitalisierung fand statt – und doch nicht, jedenfalls nicht so, wie es vorhergesagt worden war. Das E-Book ist bis heute eine Randerscheinung geblieben. Der allergrößte Teil des Marktes besteht weiterhin aus gedruckten Büchern, und so hat es auch eine gewisse Berechtigung, dass das Mainzer Gutenberg-Museum wieder seinen Namensgeber an der Druckerpresse auffährt, wo es immer noch zugeht wie vor fünfhundert Jahren.

Aber dem Buch an sich brechen die Leser weg, sagte die Ex-FAZ-Journalistin und Piper-Verlegerin Felicitas von Lovenberg gerade in einem Interview im Handelsblatt. Es ist also nicht nur eine Frage des Absatzes, der Einnahmen oder des Umsatzes oder wie man es sonst betriebswirtschaftlich bezeichnen möge, es ist ein tiefgreifender und kaum wieder umkehrbarer Medienwandel, der dazu geführt hat, dass Bücher weitaus weniger beachtet werden, während Fernsehserien aus dem amerikanischen Pay-TV auch schon mal in der U-Bahn besprochen und zitiert werden – wenn man die Ohren für sowas offen hält.

Andererseits die schwierige wirtschaftliche Lage vor allem der kleinen Verleger, die Christoph Links in den Frankfurter Heften zusammengefasst hat.

Der Medienwandel wird greifbar. Er ist hier zu besichtigen, Jahr für Jahr.

Es ist ein bisschen wie bei den Pressekonferenzen in den Museen, wo durch die Zusammenlegung der Redaktionen über die Jahre immer weniger Journalisten kamen, so dass sie schließlich auch die Blogger einluden – nicht weil sie verstanden hätte, was diese tun, aber weil die renommierten Häuser gerne eine ansehnliche Zahl an Schreibern um sich scharen, wenn sie sie rufen. Im Fall der Buchmesse sind es die Verlagsfusionen, die mittlerweile doch auffallen. Wo weiland doch immer wieder mittelständische inhabergeführte Verlagshäuser zwischen den großen Playern auftauchten, sehen wir heute sogenannte Gruppen, also beispielsweise die Westermann Gruppe, die eine Handvoll Schulbuchverlage als Marken verwaltet und deren Produkte feilbietet. Im naturwissenschaftlichen Bereich fällt die Übernahme des Schattauer Verlags durch den ebenfalls in Stuttgart ansässigen Thieme Verlag auf. Wieder einer weniger.

Und alles so englisch heute hier, auch wo man es gar nicht erwartet hätte. In der Wissenschafts- und Bibliotheks-Halle, okay, da mag es angehen. Aber auch in den anderen Hallen wurden die Aussteller bunt gemischt, und es kann schon mal vorkommen, dass man von der Seite in amerikanischem Englisch wie selbstverständlich gefragt wird, ob man sich für Kinderbücher interessiere?

Auch der Bildungsbereich, kaum wiederzuerkennen, so klein, so international. Schon vergangenes Jahr war viel Luft zwischen den Ständen, dieses Jahr ist es eher noch ein bißchen mehr geworden.

Der Brockhaus, der vor zwei Jahren rein online wiederauferstanden war und der im letzten Jahr den Eintritt ins Schulbuchgeschäft verkündet hatte, fehlt diesmal vollständig. Die Messe wird offenbar nicht benötigt, um die Zielgruppe zu erreichen. Und man verspricht sich davon anscheinend keinen zusätzlichen Nutzen mehr. Viele öffentliche Bibliotheken bieten den Zugriff auf die Enzyklopädie mittlerweile an. Das neu hinzugekommene Kinder- und Jugendlexikon und die Kurse für Schüler zum Selbstlernen werden dagegen noch selten hinzugekauft. Zu teuer für die meisten Bibliotheken, in unserer Gegend kam deshalb leider kein Konsortium zustande.

Dafür ist Wikipedia dieses Jahr vor Ort, in Halle 4.2 am Stand A58, ziemlich hinten am Rande platziert, aber gut zu finden dank großem Wikipedia-Ball, der auf diese Wand projiziert wird, wo sich die Hallengänge kreuzen. Deutsche und französische Wikipedianer haben sich hier versammelt, um, passend zum Gastland Frankreich, an Artikeln zur Deutschland und Frankreich zu basteln. Ein portables Fotostudio bietet Gelegenheit, Autoren und weitere Prominente zu fotografieren, um deren Artikel zu bebildern.

Wer fehlte noch? Größere Zeitungen, den Spiegel und den Freitag habe ich nicht bemerkt, aber vielleicht habe ich sie übersehen.

Dafür viel Politik. Der Rechtsruck in der Gesellschaft macht sich bemerkbar, und die Buchmesse reagiert darauf. Sie gibt der Neuen Rechten durchaus ein Forum, indem sie sie ausstellen läßt, aber sie platziert den Stand der Jungen Welt neben den der Jungen Freiheit, und der Antaios Verlag ist schräg gegenüber von der Amadeo Antonio Stiftung. Die Bürger wehren sich dagegen, dass die Rechte auf diese Weise ein Forum für ihre Positionen und für ihre Texte bekommt. Buchmesse gegen Rechts sammelt Unterschriften für eine weltoffene Buchmesse und gegen eine Bühne für rechte Propaganda, und am Orbanism Space lagen Lesezeichen für Respekt und für Gutmenschen aus mit dem Hashtag #verlagegegenrechts. Can Dündar war anwesend unter Applaus, als heute mittag der Raif-Badawi-Preis der Friedrich–Naumann-Stiftung Ahmet Şık verliehen wurde, einer der vielen Journalisten, die derzeit in der Türkei in Haft sind. Dazu passend auch das neue Buch von Naomi Klein, die bezogen auf die Entwicklungen in den USA, zu Maßnahmen gegen die Politik Donald Trumps aufruft. Dagegen kaum Politiker auf der Messe.

Zum Abschluss aber noch einmal ein Blick auf die Diskussion über das digitale Lesen. Auch sie auf Englisch, natürlich. How does reading work? A debate on the impact of digital on reading hieß das Panel, das am Nachmittag in Halle 3.1 an Stand B33 im Kulturstadion im Bildungsbereich stattfand. Zwei Wissenschaftler – Anezka Kuzmicova von der Universität Stockholm und Adriaan van der Weel von der Universität Leiden –, Jens Nymand Christensen, ein Mitarbeiter der EU-Kommission, und der Moderator Ruediger Wischenbart unterhielten sich über Probleme, Desiderate und Forschungsergebnisse zum Thema Lesekompetenz und ganz besonders zum Einsatz von gedruckten Schulbüchern im Vergleich zu digitalen Lehrbüchern. Die Ergebnisse, um die es dabei ging, waren vor kurzem auf einer Tagung in Vilnius vorgestellt worden; am Montag dieser Woche hatte die FAZ darüber berichtet – der Beitrag ist hier zu lesen, und auch in El Pais wurde darüber berichtet.

Dabei war die Kehrseite des oben angesprochenen Wegbrechens der Leserschaft zu bemerken: Die Lesefähigkeit nimmt in der EU spürbar ab, und das dürfte nach Ansicht des Podiums zumindest auch mit dem Wandel von Print zu Online zu tun haben. Betroffen sind vor allem die schlechter gestellten Schichten, Lesen zu können ist also in allererster Linie eine soziale Frage, aber nicht nur. Und Lesen können heißt Denken können. Erst das vertiefte Lesen helfe, grundlegende Kompetenzen zu entwickeln, die für das Verstehen von Narrativen und weiteren komplexen Zusammenhängen unabdingbar seien. Ein Nebeneffekt sei, dass man beim deep reading die Konzentrationsfähigkeit entwickle und erhalte. Man war sich aber einig, dass man bei der Frage, wie sich Print- und Onlinemedien auf das Lernen auswirkten, allemal Neuland betrete, was vor allem den Lehrern zu schaffen mache, weniger den Schülern.

Man empfahl vor allem, für das grundlegende Lernen gedrucktes Material zu verwenden und erst zum weiteren Arbeiten digitale Medien und Geräte einzusetzen, und zwar aus zwei Gründen: Zum einen verhinderten audiovisuelle Inhalte, dass sich die Vorstellungskraft herausbilden könne. Zum anderen seien Bildschirme sehr stark mit Unterhaltung und Zerstreuung und weniger mit Konzentration konnotiert, so dass auch bei nüchterner Aufbereitung des Materials bestimmte Erwartungen angestoßen würden, die die Wahrnehmung negativ beeinflussen könnten. Man war sich auch darüber einig, dass es sinnvoll sei, dass Schüler lernten, von Hand zu schreiben – die Diskussion darüber, ob Blockschrift oder gar Maschinenschrift vorzugswürdig wäre oder ob gar Diktiersysteme ausreichten, wurde gestreift, aber im Ergebnis abgelehnt. Pragmatisch sei es sinnvoll, bis auf weiteres den Gebrauch von Tablets durch Kinder und Schüler zu beschränken. Uneinigkeit bestand in Bezug auf die Gamification des Lernens; während einerseits im Spiel ein sehr niedrigschwelliger Zugang zu allen denkbaren Inhalten liege, wurde dem entgegengehalten, dass sie einer vertieften Beschäftigung mit Themen gerade entgegenständen.

Soweit zur Digitalisierung der Schule. Auf die abschließende Frage aus dem Publikum, wie ältere, die mit Printmaterial aufgewachsen waren, den negativen Auswirkungen des digitalen Lesens entgegenwirken könnten, war sich Adriaan van der Weel sehr sicher. Schon Nicholas Carr hatte in seinem Buch und in dem gleichnamigen Aufsatz im Atlantic Is Google making us stupid? vor etwa zehn Jahren am Ende sich wieder dem Strom der Texte und des übrigen digitalen Contents hingegeben, mit den bekannten Folgen des Verlusts der Aufmerksamkeit und der Konzentrationsfähigkeit. Dagegen helfe nur eines: Read books!

Literatur: N.N. 2017. Zwischen Diskursmedium und Kundenschwund. buchreport. 10. Oktober. www.buchreport.de (zugegriffen: 11. Oktober 2017). – Müller, Anja Tuma und Felicitas von Lovenberg. 2017. Das Buch ist schöner als ein paar Bits. Handelsblatt, 9. Oktober, Abschn. Unternehmen & Märkte. – Links, Christoph. 2017. Gegenwind für die Buchbranche Problematische Gesetzesentscheidungen und globale Herausforderungen. Neue Gesellschaft Frankfurter Hefte. 1. September. www.frankfurter-hefte.de (zugegriffen: 11. Oktober 2017). – Jacobs, Michael. 2017. Messe-Flucht: Für viele Mainzer Verlage rechnet sich die Frankfurter Buchmesse nicht mehr. Allgemeine Zeitung. 7. Oktober. www.allgemeine-zeitung.de (zugegriffen: 7. Oktober 2017). – Dupré, Johanna. 2017. Lesestoff aus der Apotheke: Digitalisierung verändert die Buchbranche grundlegend. Allgemeine Zeitung. 7. Oktober. www.allgemeine-zeitung.de (zugegriffen: 7. Oktober 2017). – N.N. 2015. Als Wissensservice im Netz: Der Brockhaus kehrt zurück. Börsenblatt. 15. Oktober. www.boersenblatt.net (zugegriffen: 10. Oktober 2017). – Roesler-Graichen, Michael. 2016. Interview mit Hubert Kjellberg, Brockhaus NE: „Das Ergebnis unserer Arbeit ist kein Buch mehr“. Börsenblatt. 12. August. www.boersenblatt.net (zugegriffen: 10. Oktober 2017). – N.N. 2017. Wikipedia:Frankfurter Buchmesse 2017. Wikipedia. 7. Oktober. de.wikipedia.org (zugegriffen: 11. Oktober 2017). – Klein, Naomi. 2017. Gegen Trump: wie es dazu kam und was wir jetzt tun müssen. Übers. von Gabriele Gockel. Frankfurt am Main: S. Fischer. – Küchemann, Fridtjof. 2017. Ist das nun mutig oder dumm? Buch oder Tablet: Wie wir einen Text verstehen, hängt auch vom Medium ab. Was bedeutet das für das künftige Lesen und Lernen? Frankfurter Allgemeine Zeitung, 9. Oktober, Abschn. Feuilleton. - Carbajosa, Ana. 2015. ¿Recuerdas cuando leíamos de corrido? EL PAÍS. 24. Mai. politica.elpais.com (zugegriffen: 11. Oktober 2017). – N.N. 2017. E-READ COST. 11. Oktober. ereadcost.eu (zugegriffen: 11. Oktober 2017). – Carr, Nicholas. 2008. Is Google Making Us Stupid? What the Internet is doing to our brains. The Atlantic, August. www.theatlantic.com (zugegriffen: 13. April 2017).

Neue Open-Access-Zeitschrift Wiki Studies

Welcome to the first issue of Wiki Studies, an open-access, peer-reviewed journal addressing the intersection of Wikipedia and higher education.

In this issue we bring you four articles. The first three articles will appear as “case studies,” or reports from educators on insights gleaned from the use of Wikipedia in various aspects of higher education.

via Wiki-research-l

Die Onleihe funktioniert nicht unter macOS 10.13 High Sierra

Ein Benutzer beklagt sich im Webforum der Onleihe darüber, dass er seit dem Upgrade von macOS 10.12 auf 10.13 High Sierra keine EPUBs mehr öffnen könne. Adobe Digital Editions lade die Daten nicht mehr herunter.

Das Problem besteht aber bereits seit 2014 und hat sich nun anscheinend noch verschärft. Auch Benutzer, die Microsoft Windows einsetzen, haben seit Anfang 2017 von Problemen berichtet.

Sowiport wird eingestellt

Gesis stellt zum Jahresende das sozialwissenschaftliche Rechercheportal Sowiport ein:

Wir fokussieren unser Rechercheangebot künftig auf eine digitale, möglichst freie Verfügbarkeit und Nachnutzbarkeit von Publikationen (Open Access) und Forschungsdaten (Open Data) sowie damit verbundenen Informationen. Mit der neuen GESIS-Suche bieten wir ein Rechercheangebot, welches den Fokus auf Open Access und Verknüpfungen von Informationen legt.

Sehr zu empfehlen wäre eine lokale Archivierung von Recherche Spezial, das von 2008 bis 2014 sozialwissenschaftliche Literatur zusammengefaßt hatte. Allein die Themenauswahl spricht für sich.

Die Literatur- und Forschungsnachweise aus ausgewählten Sowiport-Datenbanken vermitteln einen Eindruck über die Qualität und den Umfang der in der übergreifenden Sowiport-Suche integrierten Datenbanken. Zugleich verschaffen Sie Ihnen einen raschen Überblick über die sozialwissenschaftliche Forschungslandschaft.

Der Fachinformationsdienst Soziologie befindet sich noch im Aufbau.

Wikipedia baut ab, oder: Was von „open“ übrig bleibt

Es ist schon eine Weile her, daß ich einen Blick auf die Entwicklung bei Wikipedia geworfen hatte.

Die Sommer-Statistik ist jetzt mit großer zeitlicher Verzögerung veröffentlicht worden. Die Tabelle zeigt: Es gab noch nie so wenig Autoren, seit ich 2005 bei dem Projekt begonnen hatte, siehe die Spalten "Wikipedians Edits >5" bzw. "Edits >100". Es sind jetzt nur noch 4600 mit mehr als fünf und 720 mit mehr als 100 Bearbeitungen pro Monat.

Zur Neuautorenwerbung hatte Wikimedia Deutschland im Sommer Banner geschaltet, ergänzt um entsprechende Anleitungen. Daraufhin gab es 159 Neuanmeldungen, von denen dann aber nur 32 editiert haben; davon hatten zwei mehr als zehn Bearbeitungen gemacht – das war das Ziel der Kampagne. Eine Herbstaktion wird folgen, natürlich auch ein entsprechender "Dankes-Banner" ab Neujahr nach der alljährlichen Spendenkampagne.

Die Folge des Autoren-Exodus ist vor allem, daß die Inhalte schon seit mehreren Jahren und breit angelegt veralten. Sie werden nicht mehr aktualisiert, und auch eine inhaltliche und redaktionelle Weiterentwicklung bleibt aus, während sich das Web und auch die bibliothekarischen und archivalischen Online-Angebote immer weiter entwickeln und die Suchmaschinen zu Antwortmaschinen geworden sind. Und die wissenschaftlichen Bibliotheken bauen die Fachinformationsdienste auf, die sich nur noch an Wissenschaftler richten – die Folge: Wissen wird wieder exklusiver, es verschwindet hinter Paywalls und ist nur noch für Insider abrufbar, noch viel restriktiver als zu Print-Only-Zeiten; ich bekomme ohne Affiliation z.B. keinen Remote-Zugriff auf Datenbanken der FIDs direkt vom FID. Das ist ein völlig unzureichender Stand für eine Wissens- und Informationsgesellschaft – das Gegenteil müßte das Ziel sein: Wissen zu befreien und immer besser zugänglich zu machen. Der einzige Trend, der von allem, was einst als open angedacht war, übrig bleibt, wird nach alledem wohl Open Access sein, und wenn es so käme, wäre es ein großer Erfolg, ganz gleich in welcher Variante.

Es ist nicht möglich, einen toten Knoten im Netz wiederzubeleben, die Karawane ist weitergezogen. Man kann heute gerade noch mit Wikipedia arbeiten, aber ihre Nützlichkeit wird bald noch weiter abnehmen und schließlich wird der Korpus so wirken wie heute ein Brockhaus aus den 1970er Jahren anmutet: Das meiste ist nicht ganz falsch, aber eben angestaubt, und man muß sich die weitere Entwicklung der darauffolgenden Jahrzehnte hinzudenken und woanders recherchieren. Es gibt heute genügend andere Quellen, und das Bessere ist stets der Feind des Guten. Das galt auch schon beim Aufstieg von Wikipedia gegenüber den früheren Nachschlagewerken.

Sie sind nicht angemeldet