albatros | texte

Neu beim Project Gutenberg: Ocean Steamships

Das Buch, bekannt aus dem Zauberberg von Thomas Mann, ist seit heute auf Project Gutenberg verfügbar. Dank an Chris Curnow, Brian Wilcox and the Online Distributed Proofreading Team.

His theories still generate controversy

Die Library of Congress hat heute Dokumente aus dem Sigmund-Freud-Archiv erstmals online gestellt. Es handelt sich um 20.000 Dokumente aus dem Bestand des Archivs, die bei der LOC verwahrt werden – persönliche Papiere der Familie Freud, Briefe und Postkarten, Kalender und Notizbücher, aber auch die Manuskripte von Freuds Schriften, außerdem über hundert Interviews von Kurt R. Eissler, die zum ersten Mal veröffentlicht werden, schreibt Margaret McAleer im Blog der Bibliothek, während man auf deren Website die lakonische Einordnung liest: His theories still generate controversy. Die Digitalisierung wurde von der britischen Polonsky Foundation getragen.

Netzlese 2017-01-29

Geert Lovink kommt demnächst nach Frankfurt, kommenden Samstag, den 4. Februar, hält er bei der Langen Nacht der Sozialforschung im Rahmen der Frankfurter Positionen einen Vortrag im MMK1 zum Thema Das Selbst im digitalen Netz, neben räusper Mercedes Bunz, Kai Dröge und Olivier Voirol, Tanja Gojny, Olga Goriunova, Rembert Hüser, Eva Illouz, Julika Rudelius, Christina Schachtner sowie Uwe ­Vormbusch. Beginn ist um 19 Uhr, Eintritt frei. Zuletzt hatte Geert Lovink bei La Repubblica ein Interview über Social Media zu Zeiten von Trump gegeben. Das Museum zeichnet seine Vorträge üblicherweise auf und stellt sie auf YouTube, hoffentlich auch diesmal.

An dem Abend wird von Solisten des Ensemble Modern auch For Philip Guston von Morton Feldman aufgeführt. Dauer: Fünf Stunden.

Die documenta14 findet dieses Jahr statt, ab April in Athen, ab Juni dann in Kassel, jeweils hundert Tage lang. Sie landet nicht wie ein Raumschiff in Athen, bevor sie nach Kassel weiterzieht. Sie ist vielmehr eine gewollte Verfremdung von einer Stadt zur anderen und in allem, was bei diesem Projekt zwischen beiden hin- und hertreibt, heißt es auf der Website zur Kunstvermittlung der Ausstellung. Athen und Kassel? Die Regierungsübernahme durch SYRIZA in Griechenland war im Januar 2015, ist also nun auch schon wieder zwei Jahre her. Und Varoufakis Superstar, dieses Drama begann am 27. Januar 2015. Das Referendum, wonach er als Finanzminister zurücktrat, fand am 5. Juli 2015 statt. Er bleibt in Kontakt mit seiner zweiten Heimat Australien und gibt bisweilen Interviews im dortigen Rundfunk, in denen er die europäischen Verhältnisse erklärt, zuletzt vergangene Woche den Populismus in Europa.

Antje Schrupp hat dazu aufgerufen, im September zur Bundestagswahl zu gehen und dort, bitte, eine Partei zu wählen, die auch Aussichten darauf hat, ins Parlament einzuziehen. Wer kleinere Parteien wählt, stärkt den politischen Gegner, die Rechtsextremisten stehen bekanntlich wieder vor dem Berliner Reichstag, ganz ähnlich wie vor 84 Jahren. Das Bundesverfassungsgericht hat die NPD gerade mit einer etwas sonderbaren Begründung nicht verboten, und auch die anderen dürfen weitermachen. Antje kritisiert derweil die Rückwärtsgewandtheit der LINKEN, die weiterhin mehrheitlich auf eine Arbeits- und Vollbeschäftigungsgesellschaft und auf ganz viel Staat setzten. Christoph gegen das Grundeinkommen Butterwegge als Bundespräsidentenkandidat passe in dieses Bild. Stimmt. Aber wenn ich nur die Wahl habe zwischen denjenigen, die über fünf Prozent kommen, ist die Auswahl am Ende nicht mehr so groß.

Politisch getrieben ist auch Eric Bonse, der Brüsseler Europakorrespondent der taz, der immer noch leidenschaftlich gegen Martin Schulz anschreibt, der Linksblinker und Rechtsabbieger, der gerade von der ehemaligen Schröder-Truppe auf den Schild seiner Partei gehoben worden ist. Man hat rochiert – Außenminister wird BuPrä, Wirtschaftsminister wird Außenminister, ehemalige Justizministerin wird Wirtschaftsministerin – und die Massenmedien gehorchen aufs Wort und machen sofort ein Kopf-an-Kopf-Rennen mit Angela Merkel daraus. Klar, es würde einem nicht einmal auffallen, wenn Schulz Mitglied bei der CDU wäre. Daß die Leute hierzulande meinen, es sei nicht bekannt, welche Positionen er vertrete, zeigt nur, wie wenig Aufmerksamkeit man den Vorgängen auf der europäischen Ebene beimißt. Gut, es stand nicht alles in den Zeitungen. Aber alles war jahrelang in den europapolitischen Blogs zu verfolgen. Unter anderem bei lostineurope.eu. Siehe aber dort auch die dortige Blogroll. Schulz ist bei weitem kein unbeschriebenes Blatt.

A propos Europa. Zum Beispiel die Schweiz. Da gab es zu Anfang des Jahres eine Sendung des Schweizer Radios SRF2 Kultur zur Urheberrechtsreform, die dort demnächst ansteht. Zur Erinnerung: Die Reformen, die es bei uns gab, gingen allesamt auf EU-Recht zurück. Und was sind die Themen, die nun aktuell(!) in der Schweiz diskutiert werden? An der Spitze steht die Pirateriebekämpfung, also Raubkopien, die über Tauschbörsen verteilt werden. Gefolgt von der Bibliothekstantieme, die es in der Schweiz noch nicht gibt. Und schließlich: Bildrechte. Ja, wirklich, die Sendung wurde am 6. Januar 2017 veröffentlicht. Aber auf einen Blick über die Grenzen hinweg wird man in dem Programm ebenso vergeblich warten wie auf den Begriff der Freien Lizenz oder der Freien Inhalte.

Deshalb zum Schluß ein Link zum WikiMOOC, den Wikimédia France ab März bei fun-mooc.fr durchführt. Alles, was man als neuer Autor über Wikipedia wissen sollte. Leider nur auf Französisch, aber vielleicht demnächst auch auf Deutsch, wer weiß? Ich bin dran.

Don't believe the Fake

Die Diskussion um Fake News geht leider weitgehend am Thema vorbei. Anstatt sich zu fragen, ob und in welchem Umfang es solche Meldungen gegeben hatte oder noch gibt und welche Folgen sie gehabt haben könnten, sollte man sich eher die Frage vorlegen, warum sie überhaupt beachtet werden? Ausgangspunkt ist ihr Ort: Wie kommt es, daß Menschen meinen, auf Sozialen Netzwerken finde man noch mehr vor, außer heißer Luft und einer Gelegenheit, seine guten Daten abgeben zu dürfen? Daß man dort auch noch irgendetwas erfahren könne, etwas Neues und Richtiges noch dazu. Das ist eine wirklich drollige und insgesamt so abwegige Vorstellung, daß man schon daraus ersehen kann, daß die Ideen darüber, woher man sich informieren könne, völlig durcheinander gekommen sind. Das gleiche gilt für Suchmaschinen, die ebenso wie Soziale Netzwerke, Werbeplattformen sind und also auf Desinformation zugeschnitten wurden. Sie sind sozusagen der Fake an sich. Das gleiche gilt natürlich auch für die „Online-Ausgaben der Zeitungen“, die ihre Meldungen ganz anders anordnen als in der Print-Ausgabe, was sich ebenfalls nachteilig auf die Qualität auswirkt. Und überhaupt: Zeitungsenten gabs eigentlich schon immer.

Trotzdem hat das Nachdenken eingesetzt. Auf der anderen Seite des Informationsspektrums, sozusagen. Ein schönes Beispiel dafür ist der Tagungsbericht Der Intellektuelle in postfaktischen Zeiten – Das „Denk-Festival“ in Weimar, der am 1. Dezember 2016 im Deutschlandfunk ausgestrahlt wurde. Zwei Zitate:

  • Wer behält den Durchblick mit welchen Argumenten?

  • Wir haben doch einen Zerfall von Öffentlichkeit in User-Gemeinden. Wir kennen die Subjektivierung der Wahrheit, die Reduktion der Wahrnehmung auf das Passende. Und da spielen wir – gemeint sind Intellektuelle – einfach eine geringere Rolle, wir sehen das doch auch empirisch: Wo ist unser Platz geblieben, den wir noch vor zehn Jahren in der „Zeit“ gehabt hätten? Es sind nur noch wenige Presseorgane, in denen wir überhaupt noch mit unseren Auffassungen zur Geltung kommen können. Ich glaube, daß am Ende unserer Zukunfts-, unserer Fortschritts-, unserer Emanzipationserzählung es nicht mehr die Intellektuellen sind, sondern, um es brutal zu sagen, die Social Bots, also die Beeinflussungsalgorithmen, die ganz anderswo diskutiert werden als in dem, was wir aufrufen, wenn wir von Voltaire bis Gramsci sprechen.

Aber auch das ist nicht wirklich neu, sondern genaugenommen nur eine weitere Spielart der Dialektik der Aufklärung reloaded. Es ist der alte Konflikt zwischen Vernunft und Kulturindustrie, nicht mehr, aber auch nicht weniger.

Netzlese 2016-11-29

  • Das Gesetzgebungsverfahren für ein neues Urhebervertragsrecht ist vertagt worden, es wird also dieses Jahr nicht mehr abgeschlossen.

  • Der VGH Baden-Württemberg hat beschlossen, daß der Bürger keinen Anspruch auf Einsicht in die Fachliteratur hat, die in einer Gerichtsbibliothek vorhanden ist. Der Kläger hatte Prozeßkostenhilfe für eine dementsprechende Feststellungsklage begehrt, weil er einen juristischen Kommentar zum Verwaltungsvollstreckungsgesetz in der Bibliothek des Verwaltungsgerichts einsehen wollte. Der Sachverhalt trägt durchweg skurrile Züge: Ein Schriftsatz verschwand spurlos, so daß die Beschwerdefrist verstrich. Eine Abschrift wollte der Kläger aber nicht vorlegen, weil er „Verwechselungsgefahr“ befürchtete. Dann hatte er zwei Richter des erkennenden Senats – erfolglos, natürlich – wegen Befangenheit abgelehnt. Am Ende wird es slapstickhaft, denn der VGH versagt ihm den Zugang zur Gerichtsbibliothek ausgerechnet unter Rückgriff auf das Landesinformationsfreiheitsgesetz Baden-Württemberg, weil juristische Literatur, die im Buchhandel käuflich ist, keine amtliche Informationen seien, zu denen man auf diesem Wege Zugang erlangen könnte. Das ist zwar an sich richtig, das Urteil ist aber vor allem ein Musterbeispiel für den Umgang der Justiz und der Verwaltung mit vermeintlichen Querulanten geworden. Die Urteilsbegründung ist selbst ein Beispiel für ein über das Ziel hinausschießenden Staat, der die Verhältnismäßigkeit der Mittel nicht mehr wahrt. Richtig daher – wenn auch wiederum sprachlich unangemessen – die Anmerkung bei Archivalia: Unzählige Gerichtsbibliotheken sind ohne weiteres für die Öffentlichkeit zugänglich, ohne dass der Geschäftsbetrieb gestört wird. … Was vom Bürger bezahlt wird, muss ihm auch zur Verfügung stehen. (VGH Baden-Württemberg, Beschluss vom 11. Oktober 2016 – 1 S 1122/16, JurPC Web-Dok. 173/2016).

  • Der SPD-Wahlkampfberater Frank Stauss hat in seinem Blog die Narrative dekonstruiert, mit denen hierzulande versucht worden ist, den Wahlsieg Donald Trumps zu verarbeiten. Er macht schon seit Monaten auf allen möglichen Kanälen Stimmung für seinen Auftraggeber. Anscheinend auch auf Wikipedia: Sein Wikipedia-Artikel hat 2013 ein Benutzer angelegt, der so heißt wie seine Werbefirma: Butter pr. Er ist bis heute kaum geändert worden. Aber sei's drum – Stauss argumentiert: Nicht Trump habe die Wahl gewonnen, sondern Clinton habe sie verloren, und zwar weil sie die Rainbow-Coalition nicht ausreichend habe mobilisieren können. Das Konzept für Frauen, LGBT, Latinos, African Americans… habe am Ende nicht ausgereicht; es wäre möglich gewesen, diese Wählerschaft für die Demokraten zu gewinnen, aber nicht für die Clintons. – Stammt denn das Rätselspiel um den Spitzenkandidaten der 20-Prozent-Partei, das derzeit in den Nachrichten zelebriert wird, auch von Stauss? Wirklich kritisch wäre es gewesen darüber nachzudenken, wieviele Prozent der Wähler an dem Spektakel in Übersee überhaupt teilgenommen hatten.

  • Jens Milker greift in einem Beitrag auf JuWiss die Frage auf, ob der Betrieb von Social Bots in den Schutzbereich der Meinungsfreiheit falle. Die Unterschiede zwischen der amerikanischen und der deutschen Verfassungsdokmatik hatte schon Adrian Lobe in der Zeit beschrieben: Die Meinungsäußerungsfreiheit im amerikanischen Verfassungsrecht gehe so weit, daß es nicht auf den Grundrechtsträger ankomme – der Programmierer? der Betreiber? der von den Äußerungen des Bots Begünstigte? oder derjenige, der wirtschaftlich von dem Bot profitiert? –, sondern auf die Meinungsäußerung selbst abzustellen sei. Auch Maschinen käme demnach freedom of speech zu. Das ist auch in den USA nicht unbestritten, hierzulande würde man es erst recht nicht so ohne weiteres annehmen, und Milker referiert infolgedessen das bekannte Inventar des Staatsrechts zum Wettbewerb der politischen Parteien und zu Meinungsäußerungen im Wahlkampf – lesenswert, so knapp gefaßt wird man es kaum woanders finden. Mit dem Argument, das ist nicht von uns, das macht der Algorithmus!, war Google schon in der Autocomplete-Entscheidung des Bundesgerichtshofs 2013 gescheitert. Ärgerlich ist, daß Milker kritiklos bleibt, wo es heißt, Täuschungen und Lügen kann man mit Mitteln einer Gegendarstellung im Meinungskampf entgegentreten. Das ist ja gerade die Frage, ob man unter den Bedingungen der in jeder Hinsicht entgrenzten digitalen Öffentlichkeit so etwas noch kann, wenn Wahlkampf von – ggf. im Ausland sitzenden – Trolls und Hackern auf Facebook und Twitter geführt wird, für den normalen Bürger nicht mehr nachvollziehbar, der von seiner Plattform gewöhnt ist, die Filterblase seines Vertrauens vorgespiegelt zu bekommen. Wo soll hier eine Gegendarstellung erfolgen? Sie ist in der Filterblasen-Technik der sozialen Medien ja gerade nicht mehr vorgesehen. Das wäre demnach eine der ersten Vorkehrungen, die der Gesetzgeber sicherstellen müßte, um den Wettbewerb der politischen Meinungen im Wahlkampf sicherzustellen: Einen Gegendarstellungsanspruch, eine widersprechende und korrigierende Nachricht, die an alle ausgeliefert wird, die die monierte Botschaft vorher erhalten hatten. Also das Aushebeln des Geschäftsmodells dieser Plattformen: Daß es keinen Widerspruch mehr geben soll. Unvollstreckbar in den USA, weil das angesichts der Meinungsäußerungsfreiheit gegen die ordre public verstoßen würde. Obwohl das Ende des Widerspruchs gerade der Ausschluß jeglicher Diskussion ist, der sich selbst auf die Meinungsfreiheit berufen sollte? Die Entgrenzung, die mit den amerikanischen Plattformen Wikipedia und Google begonnen hatte, ist 2016 auch in Deutschland bis in den demokratischen Prozeß vorgedrungen. Der Geist ist aus der Flasche. Der Wettbewerb setzt aber aus technischer Sicht vor allem voraus, daß Meinungsäußerungen überhaupt noch transportiert werden und an den Rezipienten gelangen können. Wahrscheinlich kann bis auf weiteres keine Seite auf den Einsatz von Social Bots verzichten, um eine gewisse Waffengleichheit im Wettbewerb herbeizuführen – auch wenn es sich um eine in jeder Hinsicht regelwidrige und unfaire Technik handelt. Und das wird Rückwirkungen auf das Recht haben. Code is law.

Von der Dyade zum Netzwerk

Sandra Uschtrin beschrieb (mp3) am 1. November 2016 im Gespräch auf hr2-kultur den Übergang von der Dyade Autor/Buchverlag zu Netzwerkstrukturen von Selbständigen, die gar nicht mehr im Verlag publizieren wollten, sondern ihren Content selbstbestimmt vermarkten würden. Nur beim Rechte-Verkauf für Übersetzungen sei der Verlag derzeitig noch notwendig, räumt sie ein. Die Gatekeeper-Funktion des Verlags werde von Bloggern übernommen, die nunmehr die Rolle innehätten, welche Rezensionen in Zeitungen und Zeitschriften früher zugekommen sei.

Sie hat nicht ganz unrecht, wenn sie auch davon lebt, so etwas zu erzählen. Die Bibliothek kommt in ihrer Erzählung nicht vor.

Die Frankfurter Buchmesse in zehn Jahren

Ich versuche mir vorzustellen, wie die Frankfurter Buchmesse in zehn Jahren sein wird.

Zunächst glaube ich, daß es sie in zehn Jahren auch noch geben wird. Es ist eher eine Frage der Größe.

E-Books laufen schlecht, und ich glaube nicht, daß sich bis dahin daran etwas ändern wird. Wenn es also in zehn Jahren noch eine Buchmesse geben sollte, wird es dort auch noch gedruckte Bücher geben.

Im Mittelpunkt steht die Veränderung der Öffentlichkeit durch die Digitalisierung. Die Öffentlichkeit fragmentiert sich immer mehr. Die Digitalisierung hat die Gatekeeper beseitigt: Jeder, der etwas publizieren möchte, kann das sofort tun, ohne daß er jemanden davon überzeugen müßte, daß der Content verkäuflich wäre, und ohne dafür prohibitiv hohe Kosten tragen zu müssen. Insoweit treten Buch, Wiki, Blog und soziales Netzwerk nebeneinander. Sie verdrängen einander nicht, haben auch nicht notwendigerweise etwas miteinander zu tun. Sie ergänzen sich, sind aber auch nicht gegeneinander austauschbar. Was heißt das?

Man kann den allgemeinen Trend im Zeitablauf als eine immer weiter zunehmende Kommerzialisierung des freien Netzes lesen. Es gibt aber auch eine entgegengesetzte Sichtweise, nämlich die Entkommerzialisierung des verlegerischen und korporativen Medienbetriebs.

Der Trend geht ziemlich klar in Richtung Entkommerzialisierung des Publizierens: Man findet einfach keinen Verlag mehr für sein Buch und muß es daher selbst erstellen, wenn man etwas veröffentlichen will. Die Verwertungskette Verlag – Buchhandel – Bibliothek – Antiquariat funktioniert immer weniger. Die Erträge lassen nach. Deshalb wird in den Verlagen immer mehr gängige Massenware produziert, alles, was als eine Nische erscheint, was sich „zu speziell“ ausnimmt und daher zu wenig einzuspielen verspricht, geht unter und muß hinter der Content-Mauer erst einmal gefunden werden. Es ist eine Art Hollywoodisierung des Buchgeschäfts.

Umgekehrt läuft der Vertrieb aus der Sicht des Autors rein online: Er inszeniert sich selbst als Experte und geht in Online-Communities, um seine Sachkunde zur Schau zu stellen. Wen das überzeugt, der wird seine Bücher kaufen. Das wird die primäre wirtschaftliche Funktion von sozialen Netzwerken und Blogs aus der Sicht des Publizisten sein.

Die Buchmesse wird daher in Zukunft vor allem noch sehr viel kleiner sein, denn die Selfpublisher brauchen sie nicht, bei ihnen läuft der gesamte Vertrieb online und in und aus virtuellen Netzwerken heraus. Ihr Publikum ist nicht mehr dort, sondern sitzt, wie es früher im Fernsehen hieß, „draußen an den Empfängern“, also an ihren Clients.

Die Verlage, die so eine Messe brauchen, und die Medien, die sich an sie dran hängen, werden sich also auf immer weniger substantielle Inhalte ausrichten. Dadurch wird die Messe einen immer kleineren Teil des Marktes abbilden. Alle Nischen fallen weg.

Am Ende wird sie kein gesellschaftliches Ereignis mehr sein, sondern nur noch eine Show von Massenmedien für Massenmedien, die von denen wahrgenommen wird, die überhaupt noch Massenmedien konsumieren – und das sind ja auch immer weniger.

Wie sich das anfühlt, kann man bei einem Nischenmarkt wie dem für Lehrbücher zu dem Textsatzsystem LaTeX heute schon sehen. Hier habe ich mal alle Lehrbücher und sonstigen Lehrtexte zusammengetragen, die seit 2005 erschienen sind. Jeweils nur die letzte Auflage, also das, was heute noch von Interesse ist auf dem jeweils letzten Stand. Wenn man die Jahrgänge durchgeht, sieht man, daß der Markt 2012 gekippt ist: Seitdem gibt es fast nur noch Bücher im Selbstverlag. Im darauffolgenden Jahr stellte Pearson die Produktion von IT-Büchern ein. Das alles findet auf einer Buchmesse also schon lange gar nicht mehr statt.

Eine untere Grenze für die Größe bzw. die Kleinheit der Messe ist nicht vorstellbar. Am Ende ist womöglich ein einziges Zimmer ausreichend. Oder das Blaue Sofa.

Eindrücke von der Frankfurter Buchmesse 2016

Auf die Frankfurter Buchmesse angesprochen, soll Marcel Reich-Ranicki einmal gesagt haben: „Das ist eine Verkaufsveranstaltung – damit habe ich nichts zu tun!“

Aber natürlich ist das Geschehen vielschichtig. Der Verkauf ist der treibende Anlaß, aber das Gut, das hier verkauft wird, ist sozusagen der Treibstoff der Informations- und Wissensgesellschaft, der im Kapitalismus natürlich auch eine Ware ist, und je länger ich die Messe besuche, desto mehr nähere ich mich ihr aus vergleichender Sicht.

Ganz klar war früher „mehr Lametta“, das ist überall so. Aber es war auch ingesamt „mehr los“. Heute war zum Auftakt doch ziemlich ruhiger Betrieb. Auch die Taschenkontrolle am Eingang war nicht so neu, wie der Newsletter vorab tat, das gabs auch früher schon, samt Polizeistreifen.

„Rund 10.000 anwesende akkreditierte Journalisten, darunter 2.000 Blogger“ zählt die PR-Abteilung der Buchmesse. Da haben sie wohl auch die Kameraleute und die Strippenzieher von 3sat und Arte noch mitgezählt?

Begonnen habe ich heute tatsächlich als Freebie-Sammler gegenüber vom Blauen Sofa: Das Deutschlandradio Kultur verteilt seine letzten orangenen Kugelschreiber mit dem alten Namenszug, bevor es bald ein neues Sendestudio bekommt und zu „Deutschlandfunk Kultur“ umbenannt wird. Also her mit den schönen Kugelschreibern, denn das ist ein langlebiges Modell. Ein Andenken zu Lebzeiten. Die mit Abstand schönsten Bleistifte gibts diesmal bei DeGruyter und bei Springer Nature.

Nach notwendigen Einkäufen und einem kleinen Mittagsmahl führt mich mein Weg natürlich in die Halle 4.2, und dort nach etwas Umsehen bei den ganz großen in ihren Standlandschaften, zu – ein Tusch! – Brockhaus. Vor einem Jahr wiederauferstanden, hat der schwedische Erwerber die Marke aus der Plattform von Munzinger gelöst, über die die ehrwürdige Enzyklopädie vermarktet worden war, und vertreibt seitdem ein Multimedia-Nachschlagewerk auf einer eigenen Website – die heute abend – wie bitte? – wegen Wartungsarbeiten offline ist. Hm.

Immerhin: Vor dem Hintergrund des Autorenschwunds bei Wikipedia wird die Brockhaus Enzyklopädie, auf die ich seit Jahresanfang dank unserer Stadtbibliothek zugreifen kann, um ein Kinder- und um ein Jugendlexikon erweitert. Das sind eigene Korpora, die auf dem früheren gedruckten Kinder-Brockhaus – den es nicht mehr gibt – aufbauen bzw. abgespeckte Inhalte aus der großen Enzyklopädie für die jugendlichen Leser. Außerdem gibt es neu ein Programm, in dem „Basiswissen“ zum Selbststudium didaktisch aufbereitet wird. Diese Module ergänzen die Enzyklopädie und richten sich speziell an Schüler, die Hilfe beim Nachbereiten des Unterrichts oder bei den Hausaufgaben suchen.

Und daneben steigt Brockhaus ins Schulbuchgeschäft ein und stellt Lehrmaterial bereit, das auf die Lehrpläne der Bundesländer abgestimmt ist. Bisher gibt es dazu einen PR-Bericht und eine Pressemitteilung. Angeboten wird der Zugriff auf den Content aus einführenden Modulen samt Aufgaben. Alles weitere – Internetzugang und Clients – liegt bei der Schule. Die Nutzung erfolgt plattformunabhängig in einem Webbrowser, also keine Apps, keine Einbindung in ein entsprechendes digitales Ökosystem, aber kein kollaboratives Arbeiten. Noch nicht.

Eine Lehrerin, mit der ich ins Gespräch kam, erklärte mir als Hintergrund zu solchen Angeboten, an den Frankfurter Schulen werde sich bis 2018 erst einmal gar nichts tun, was die Technik angeht. Als erstes würden jetzt die Toiletten saniert.

Und Duden legt beim „Klassenzimmer der Zukunft“ einen Flyer aus zur „Learn Attack“ mit WhatsApp-Nachhilfe vom „professionellen Nachhilfelehrer“, „sofort“. Man sprach über den „Nachmittagsmarkt“. Da ist viel Bewegung drin derzeit. Deutschland in der „Bildungspanik“ – so Heinz Bude schon 2011.

Auch über den Schülerduden via Munzinger sprach man. Aber Munzinger ist auf der Messe nicht vertreten.

Überhaupt, ist es ja mittlerweile viel spannender geworden, darüber nachzusinnen, wer alles nicht gekommen ist, als sich anzuschauen, wer diesmal erschien. O'Reilly Deutschland, sozusagen der Suhrkamp unter den Computerverlagen, war letztes Jahr noch da, dieses mal aber wieder nur noch O'Reilly UK.

Die „Verkaufsveranstaltung“ ist eben nicht mehr unbedingt notwendig fürs Marketing. Andererseits merkt man dem Betrieb aber auch die Klassengesellschaft stärker an als früher. Es gab immer schon die Einfamilienhäuser unter den Messeständen, an den großen Kreuzungen gelegen, und hinten raus die Nordsee, ebenso wie die Einzimmerwohnungen in den engen Nebenstraßen. Aber durch den Wegfall der früheren angelsächsischen Halle 8 internationalisiert sich die Szene, und die Kontraste werden härter.

Wie schon in den Vorjahren bloggen auch diesmal Café Digital, u. a. Andrea Diener bei der FAZ und Carmen Treulieb wieder nebenan.

Unter zehn Cent pro Artikel

Beim Spiegel hat sich in den letzten Tagen mehr getan als nur ein Facelifting für die alte Tante SpOn – die 1996 mal so aussah. Auf ihre Hauptseite setzen sie jetzt häufiger Beiträge, von denen nur der Teaser frei lesbar ist. Wer mehr haben möchte, muß 39 Cent zahlen. Für eine ganze Woche dieser „Spiegel-Plus“-Beiträge hätte der Verlag gerne 3,90 Euro. Das ist eine Menge Geld, und man denkt an Fefes Beitrag über die Abo-Verträge von FAZ und Süddeutscher Zeitung, die auch ziemlich happig daherkommen. Oder täuscht der Eindruck?

Eher nicht. Beim Chaosradio gab es im vergangenen Mai eine Sendung über Online-Werbung. Ab Minute 01:39:16 werden Gegenmodelle zur Werbefinanzierung diskutiert und den Einnahmen aus der Werbung gegenübergestellt. Die profitablen Portale, also diejenigen, die mehr als eine „schwarze Null schreiben“, nehmen dabei „unter zehn Cent pro Artikel“ pro Leser ein, bezogen auf ihre Einnahmen für die jeweilige Seite, geteilt durch die Zahl der Leser eines Artikels, der mit Werbung versehen war. Die Einnahmen durch das User-Tracking muß man wohl noch dazu rechnen, denn mit diesen Daten bezahlen wir ja ebenfalls und zusätzlich („Du bist das Produkt“).

Daran sieht man, wieviel Luft in solchen Mondpreisen steckt und warum es legitim und notwendig ist, auf Alternativen auszuweichen, um sich zu informieren. Es steckt sogar unverschämt viel Luft in solchen Preisen. Und man kann das überhaupt nur ernsthaft vorstellen, weil die meisten Leute von den Online-Angeboten der Bibliotheken auch im Bereich E-Paper immer noch gar nichts wissen. Auch in der Sendung des Chaosradios kein Wort dazu. Mir mittlerweile unverständlich.

Die Zukunft kann nur eine kollektive Pauschallösung für alle Verlage gemeinsam sein. Wenn ich vierzig Euro zahle (sic!), darf ich erwarten, daß ich Zugriff auf die gesamte deutschsprachige Presse erhalte, und zwar aktuell und Archiv. Zugang und Abrechnung erfolgen über meine Bibliothek über die Nutzungsgebühren. So können auch sozial Bedürftige leicht eine angemessene Vergünstigung erhalten: Information als Grundrecht wäre für sie freizustellen, wie heute schon. Damit wären die privaten Verlage genauso gut bedient wie die Rundfunkanstalten. Man könnte sogar mal wieder eine Kulturflatrate für alles zusammen andenken – wem das nicht anno 2016 zu retro wäre…

Sic transit gloria mono

Nur noch 60 Tage bis zur Buchmesse! meldet mir die Propaganda derselben. Die jährliche Bestandsaufnahme, the annual jamboree steht wieder bevor im Oktober. Ihr naht Euch wieder, schwankende Gestalten. Wie ist es also bestellt um die Verlage und das ganze Drumherum?

In der Arno-Schmidt-Mailingliste sickerte gerade durch, daß die traditionsreiche Reihe der rororo-Monographien ziemlich unbemerkt eingestellt worden sei. Was bleibt, sind demnach Restbestände.

Es war eigentlich absehbar, daß die monos irgendwann ganz verschwinden werden, denn unsere Bibliotheken bieten uns so viele biographische und literarische Informationen online, daß es eigentlich keinen Grund mehr gibt, sich noch eine mono zuzulegen. Sie liefen auch in den Bibliotheken nicht mehr gut, unsere Stadtbibliothek hat sie zunehmend ausgemuster. Vor etwa acht Jahren (?) verschwanden sie aus den Frankfurter Buchhandlungen, vor etwa zwei Jahren auch aus den Bahnhofsbuchhandlungen.

Der Verlag denke über eine Verwertung als E-Book nach, hört man. Aber ohne Bilder. rororo-monos ohne Bilder. Die mono als ein unbebildertes E-Book bliebe nicht nur weit hinter dem zurück, was technisch seit geraumer Zeit schon mit EPUB3 möglich wäre, es wäre auch sonst eine Bankrotterklärung, denn an die Stelle einer ordentlichen Backlist träte damit eine bloße Resteverwertung, ein digitaler Ramschtisch, der nach allem, was ich gerade aus der Diskussion der letzten Tage entnommen habe, zudem noch ganz lieblos bereitet würde.

Denn die monos waren aus drei Gründen attraktiv: Sie waren sorgfältig recherchiert (von Autoren, die ihr Sujet beherrschten), gut und interessant bebildert und zudem angenehm zu lesen. Wenn eines dieser Elemente wegfiele (die Bebilderung), ist fraglich, ob der reine Text noch trägt. Ich fürchte, nein. Ich verstehe auch nicht, warum man die Bildrechte nicht für das E-Book erwirbt und damit ein funktionierendes Konzept zerstört. Munzinger und Brockhaus und Kindler sind – zumindest bei uns im Rhein-Main-Gebiet – online allgemein verfügbar. Und den Rest besorgt Wikipedia: it’s free. And free trumps quality all the time.

Die Verlage haben den Schlag noch nicht gehört. Sie müssen sich schon etwas einfallen lassen, wenn sie weiterhin für Autoren attraktiv bleiben wollen. Sie haben die Gatekeeper-Rolle schon lange verloren. Ich glaube, das ist den meisten Verlegern noch gar nicht bewußt geworden. Wenn ich die Wahl habe, gehe ich doch schon heute den Weg über den Selbstverlag. Und in diesem Fall: Ohne Bilder kann jeder. Ob man damit etwas einnimmt, steht freilich auf einem anderen Blatt.

Und was die Herstellung angeht: Mit Pandoc ist es nun wirklich kein Hexenwerk mehr, einen Text in viele verschiedene Zielformate zu konvertieren. Dazu braucht man weder einen Mediengestalter noch eines der völlig überteuerten Adobe-Programme. Entsprechende Dienstleister bieten schon seit langem auch Lösungen auf Basis von XSL/XML/LaTeX an. Wer näheres erfahren möchte, möge sich auf der Frankfurter Buchmesse im Oktober mal in der Halle 4.2 umtun und die Vorträge besuchen.

Die Onleihe geht auf dem Mac nicht mehr

Man glaubte es ja nicht, wenn man es nicht selbst erlebt hätte: Die Onleihe kriegt es seit mehr als zwei Jahren nicht auf die Reihe, EPUBs weiterhin für Mac-Anwender bereitzustellen. Fiel mir auf, nachdem ich meinen Rechner letzte Woche – im übrigen problemlos – von Mavericks auf El Capitan umgestellt hatte.

Ja, wirklich: Man kann derzeit auf dem Mac mit aktuellem OS X El Capitan und auch mit dem Vorgänger Yosemite keine EPUBs aus der Onleihe kontrolliert öffnen. Das Problem ist seit längerem schon bekannt, es gibt dazu eine FAQ, zuletzt geändert am 14. Januar 2016.. Dort wird behauptet, das Problem liege nicht bei der Onleihe, sondern bei Apple oder Adobe. Der Benutzer möge sich deshalb an diese Firmen wenden.

Man empfiehlt als Workaround ein Downgrade auf Digital Editions 1.7 – das ändert hier aber nichts, zumal die Schrift in den Menüs in dieser Uralt-Version auch kaum noch zu lesen ist. Was bleibt, ist nur die „Lösung“, Digital Editions 4 beim Laden des EPUBs durch „Sofort beenden“ abzuschießen und die Datei danach händisch aus dem ADE-Ordner zu öffnen.

Die Onleihe bedient sich proprietärer Technik, die funktioniert dann jahrelang nicht, und zwar nicht mit irgendwelcher Vintage-Software, sondern mit aktuellen Systemen. Es wird ein Downgrade auf eine Uralt-Version von ADE empfohlen, die schon längst nicht mehr gepflegt wird, der Downloadlink führt zu einer obskuren Drittplattform, nicht zum Hersteller Adobe, und dann wird zur Abhilfe dem Benutzer nahegelegt, bei diesen Firmen vorstellig zu werden.

Um es einmal sehr deutlich zu sagen: Meine Bibliotheken zahlen beträchtliche Beträge an die Divibib, die es über einen so langen Zeitraum hinweg nicht geschafft hat, ihre Ausleihe ordentlich auf dem Mac zum Laufen zu bringen, und ich würde schon erwarten, daß die Onleihe unter diesen Umständen bitte bei Adobe und Apple vorstellig wird, denn sie nutzt Adobes Software, zwingt mir deren DRM auf und zahlt für die Lizenzierung. Stattdessen zuckt man mit den Schultern und tut so, als wasche man seine Hände in Unschuld.

Wenn man ausweislich der FAQ zwei Betriebssystem-Versionen nacheinander – Yosemite kam im Oktober 2014 auf den Markt, El Capitan ein Jahr später – keine Lösung bereitstellt, sich aber nun schon zwei Jahre lang weiter für den Dienst bezahlen läßt, ist das schon bemerkenswert. Verwunderlich auch, daß unsere Bibliotheken das mitmachen.

Mit Open Access gegen die VG-Wort-Verlags-Ausschüttung?

Nachdem die Diskussion um den Anteil, den die Verlage an wissenschaftlichen Publikationen haben, wieder einmal ins Rollen gekommen ist, auch meine 2ct dazu:

Der Anteil, den die Verlage an meinen Veröffentlichungen hatten, war genau null. Insoweit decken sich mein Erfahrungen mit dem, was auch aus anderen Fächern als Jura schon hinreichend beschrieben worden ist. Es gab und gibt nur einen Grund, bei einem Fachverlag zu veröffentlichen: Die Sichtbarkeit der Arbeit im Bibliothekskatalog und die Beachtung durch das Schrifttum und durch die Rechtsprechung. Bundessozialgericht und Bundesverfassungsgericht hätten meine Diss nicht zitiert, wenn sie bei Books on Demand erschienen wäre. Natürlich wäre es dieselbe Arbeit gewesen. Derselbe Text. Aber so sind sie halt, die großen Leute, um es mit Saint-Exupéry zu sagen.

Das einzige, was sich in der Rechtswissenschaft seitdem verändert hat, ist, daß Urteile mittlerweile zunehmend aus proprietären Datenbanken heraus zitiert werden, statt aus Zeitschriften oder amtlichen Entscheidungssammlungen. Um das zu ermöglichen, wurden sie mit amtlichen Randnummern versehen. Und solange die Rechtswissenschaft so funktioniert, kann man eigentlich niemand dazu raten, in dem Fach auf Open Access zu setzen.

Der Wandel wird nicht durch die Autoren kommen, er müßte notwendigerweise von der anderen Seite ausgehen, um den Autoren ein Signal zu setzen. Und warum sollte das so sein? Gerichte und Schrifttum haben dazu keinen Anlaß. Ein Verdienst der Verlage ist das gewiß nicht. Und erst recht kein Grund, ihnen einen Obulus aus den Einnahmen der VG Wort zuzuschachern, wie es die Bundesregierung nun wieder tun will.

Die Diskussion krankt daran, daß sie alle Verlage über einen Kamm schert. Belletristik und Sachbücher, die aufwendig zu lektorieren sind, sind eben ein anderes Geschäft als Wissenschaft, wo überhaupt nichts lektoriert wird. Hier werden wissenschaftliche Texte 1:1 übernommen, der Verlag hat daran überhaupt keinen Anteil. Er sorgt – siehe oben – ausschließlich für die Beachtung des Textes in der Öffentlichkeit des jeweiligen Fachs.

Nachdenken über Sci Hub

Auf der Mailingliste Inetbib ist am Wochenende ein Beitrag über Sci Hub aus Archivalia kontrovers diskutiert worden. Klaus Graf hatte darin der derzeitigen Stand zum Verhältnis von Fernleihe und Open Access zusammengefaßt und dabei auch Portale einbezogen, die weitergehen, als nur Open-Access-Papiere im Rahmen der jeweiligen Lizenz weiterzuverteilen. Repositorien gibt es viele. Sci Hub bietet, wenn ich es richtig verstanden habe, so gut wie alles an, was im Format PDF daherkommt und nicht bei drei auf den Bäumen ist, ohne sich dabei um das Urheberrecht der Autoren und die davon abgeleiteten Verwertungsrechte von Verlagen zu kümmern.

Die Fernleihe, die von den Verlegern immer wieder gern gegen die Zeitschriftenkrise angeführt wird, sei, so Klaus Graf in seinem Beitrag, zumindest in ihrer nordamerikanischen Spielart ILL, nicht attraktiv genug und könne das Unvermögen der chronisch unterfinanzierten Bibliotheken, die Informationsflut zu den Lesern zu bringen, langfristig nicht ausgleichen. Zudem würde sie hierzulande subventioniert – das seien Kosten, die man genaugenommen mit einbeziehen müsse, wenn man ausrechne, wieviel Open Access den Steuerzahler letztlich koste. Wenn alle Wissenschaft Open Access wäre, entfielen auch diese Kosten, und allen wäre gedient. Bis es aber soweit sei, so könnte man es auf den Punkt bringen, müsse man wohl mit grauen Portalen wie Sci Hub leben. Und: Mit Sci Hub ist es wie mit dem Leben: Genießen wir es, solange es geht.

So dauerte es dann auch nicht lange, bis ein Listenteilnehmer den Vorwurf erhob, das sei im Grunde genommen eine Aufforderung, massenhaft Rechtsbruch zu begehen. Er genieße an seinem Leben, dass er aufrecht gehen kann und sich nicht wie ein Dieb wegschleichen müsse. Dagegen erhob sich substantiierter Widerspruch, zumal der damit angegriffene Blogpost mehrfach die Unrechtmäßigkeit der diversen Schattenbibliotheken betont.

Man kann die Diskussion als eine Fallstudie lesen, sowohl auf die Lage der Literaturversorgung als auch auf die Entwicklung des Netzes.

Die vorgenannten Kommentare liefen auf einer Mailingliste ein, der größten bibliothekarischen Liste im deutschsprachigen Raum zwar, aber auf einer Liste, die doch sehr viel enger daherkommt als die Öffentlichkeit, die die Archivalia finden – das Blog ist darüberhinaus für viele lesenswert, auch abseits der Bibliotheksszene. Es gab Widerspruch, aber nicht im Web 2.0, also in den Blogkommentaren, sondern in dem alten Medium der Mailingliste, in deren Archiv man das also nachlesen kann. Und zwar, weil der Blogpost von seinem Autor auch dort angekündigt worden war. Darin wird die fortwährende Fragmentierung der Datennetze deutlich. Zwar hatte Geert Lovink schon 2008, auf dem Höhepunkt des Blog-Booms, in seinem „Berliner“ Buch Zero Comments das Ausbleiben der Kommentare bemerkt. Sie sind aber auch nicht an einen neuen Ort „umgezogen“. Diskutiert wird in Diskutiermedien, und das sind weiterhin Mailinglisten. Jede Nachricht wird an die Teilnehmer persönlich versandt und zugestellt. Twitter spielte bei der Verbreitung des Posts eine gewisse Rolle, so gelangte der Beitrag auf Rivva; dort werden bisher aber nur drei Blogs erwähnt, die das Thema aufgegriffen haben – auch bei ihnen wurde bisher nicht kommentiert.

Man kann diese Diskussionsmüdigkeit im Web 2.0 mit mehreren Trends in Beziehung bringen: mit dem Ekel vor dem Netz im Zuge der Snowden-Affäre, aber auch mit dem allgemeinen Rückzug aus dem Netz infolge der Shitstorms, der Online-Kampagnen und der sonstigen nervtötenden Begleiterscheinungen. Die Blütezeiten des Netzes sind vorbei. Das Pendel schwingt in die andere Richtung, und die Gruppen der Intensivnutzer und der Zurückhaltenden scheiden sich immer deutlicher.

Zum anderen greift Archivalia aber auch einen sehr wesentlichen Trend auf, den man aufmerksam beobachten sollte. Denn Portale wie Sci Hub, von einer Studentin gegründet, und sonstige schwarze Kanäle verweisen auf die Einstellung der Menschen zum Recht.

Wenn es heißt, Sci Hub sei unrechtmäßig, so ist das wahrscheinlich richtig. Aber diese Wertung trifft auf eine Generation, der die Quellen, aus denen sie schöpft, egal geworden sind – und zwar gerade auch im Angesicht der allgemeinen Überwachung. Es wäre aus technischer Sicht überhaupt kein Problem, sie zu stellen, das hat man bei der Verfolgung der Software- und Musik-„Piraterie“ gesehen. Aber vielleicht wird es dazu bei der Literaturversorgung gar nicht kommen, denn die Verlage rudern ja schon lange zurück, etwa indem das „harte DRM“ bei E-Books zunehmend fallengelassen und durch bloße Wasserzeichen ersetzt wird. Den Rest besorgte bei der Musik der Übergang von Download zu Streaming. Dazu wird es auch hier immer mehr kommen. Gerade deswegen muten ja der PDF- und EPUB-Download bei der Onleihe und der Versuch des Marketings der Süddeutschen Zeitung so retro an, im Zuge ihrer Panama-Papers-Kampagne Abonnenten für ihr E-Paper zu gewinnen. Der direkte Zugriff auf Daten aus dem Web und die Flatrate sind die Zukunft, und zwar nicht die Flatrate für eine Zeitung oder Zeitschrift, sondern für so etwas wie Sci Hub, wo man alles aus einer Quelle bekommt. So wie man ja auch bei Google irgendwie alles finden kann. So nehmen die meisten Menschen eben das Internet wahr: Alles aus einer Hand. Verteilte Lösungen schwinden, zentralisierte wachsen. Ein Paradoxon im fragmentierten Netz mit seinen fragmentierten Öffentlichkeiten. Am Ende finden sie sich alle an einen Knoten im Netz wieder. Im Bibliothekswesen überschneidet sich das mit der Erzählung von der Bibliothek von Babel, die am Ende die ganze Welt ist. Und wenn die Verlage das nicht von sich aus einsehen und sich für die Vermarktung zusammentun, werden die Benutzer das eben ganz pragmatisch auf andere Weise herbeiführen.

Am Ende wurde die Pirate Bay kommerzialisiert und aus dem Reich der Schattenwirtschaft ins helle Licht geführt – bevor sie schließlich aus dem allgemeinen Bewußtsein verschwand. Heute kennt sie keiner mehr. So wird es auch mit Sci Hub und Co. kommen. Bloß die Fernleihe, die wird es ganz sicherlich auch neben der normalen Ausleihe und dem Verkauf von Texten weiterhin geben, und das würde ich doch auch hoffen.

Denn eine Welt mit 100-prozentigem Open Access ist wahrscheinlich nicht erreichbar. Und das liegt einfach daran, daß es mehr Prestige mit sich bringt, bei einem externen Verlag zu publizieren als auf dem OA-Server der universitätseigenen Unibibliothek. Nur der Dritte kann die Gewähr dafür bieten, daß der Autor und sein Text ausgewählt worden sind, dort zu erscheinen. Auch wenn das Lektorat mittlerweile vielfach ausfällt: Do-it-yourself und Selfpublishing werden nicht für alle Zwecke und auch nicht für alle Fächer eine gangbare Lösung sein. Bei den Juristen wird jedenfalls weiter ganz viel gedruckt. Es ist kein Zufall, daß sich die Konstanzer Juristen gerade gegen eine Verpflichtung zur Zweitveröffentlichung ihrer Texte gewandt haben. Und auch dieser Bedarf will weiterhin über Bibliotheken verteilt sein. Nur sie können sowohl eine Infrastruktur für proprietäre als auch für offene Medien organisieren und betreiben. Mit der Fernleihe auch ortsübergreifend.

Ob das eine billiger als das andere sein wird, ist am Ende übrigens geschenkt, denn beides wird nebeneinander bestehen. Das Verlagsprodukt wird man ebensowenig verdrängen können wie den Open Access. Die Autoren wie die Benutzer haben sich darauf eingestellt.

Remote Access: Die Stadtbibliothek Darmstadt baut ab

Die Stadtbibliothek Darmstadt bietet KLG, KLfG und PressReader über Munzinger an; außerdem Genios, letzteres aber nur noch mit einer kleinen Auswahl an deutschsprachiger Presse; die Fachzeitschriften wurden vor einem halben Jahr schon fallengelassen, schrieb ich vor kurzem. Und stelle nun fest, daß die Süddeutsche Zeitung ziemlich leise aus dem Darmstädter Genios gestrichen worden ist. Dafür gibt es nun sehr viel Provinzpresse, also etwa die Osterländer Volkszeitung. Nichts gegen die Osterländer Volkszeitung, aber die Entwicklung ist doch enttäuschend. Es verbleiben für meine Interessen: Zeit, Spiegel, Frankfurter Rundschau, taz, NZZ und Der Standard. Nicht gerade wenig, aber es fing mal attraktiver an. Mit fehlt weiterhin die FAZ. Zumal der PressReader via Munzinger doch ziemlich umständlich zu bedienen ist, bei mir nur in Safari und Google Chrome funktioniert und offenbar auch keine Volltextsuche über alle Texte anbietet. Ebenso wie die E-Papers aus der Onleihe. Man muß sie einzeln herunterladen und kann nicht gezielt alle Beiträge zu einem bestimmten Thema ansehen. Sehr nachteilige Entwicklung für die Benutzer.

Neues von den Suchmaschinen

Zum 20. Geburtstag der Metasuchmaschine MetaGer hat Wolfgang Sander-Beuermann einen Blick auf die Geschichte der Suchmaschinen zusammengetragen, den man in dem dazugehörigen Wikipedia-Artikel nicht findet:

  • 1993 Am MIT in den USA, wird der erste Webcrawler entwickelt: "World Wide Web Wanderer"; in Stanford startet Suchmaschine "Excite"; eingestellt vor vielen Jahren
  • 1994 "Yahoo" startet in Sunnyvale Kalifornien: zuerst als Verzeichnisdienst
  • 1994 "WebCrawler" startet an der Univ. of Washington mit Volltext-Indexierung; eingestellt vor vielen Jahren
  • 1994 "Lycos" startet an der Carnegie Mellon University; eingestellt vor vielen Jahren
  • 1995 "Altavista", Kalifornien: die erste Suchmaschine, die versucht, das gesamte WWW zu erfassen; eingestellt 2013
  • 1996 An der Uni Hannover geht "MetaGer" ans Netz
  • 1996 Als erste Deutsche Suchmaschine mit eigenem Index startet "Eule"; eingestellt vor vielen Jahren
  • 1997 An der TU Berlin startet "Fireball"; eingestellt ca. 2009
  • 1998 "Google" geht ans Netz, Stanford, Kalifornien
  • 2000: in Deutschland: "Aladin", "Dino", "Crawler", "Kolibri" ... eingestellt vor vielen Jahren
  • 2003 "Seekport", Deutschland; eingestellt ca. 2009

Also: Herzlichen Glückwunsch, MetaGer! Die Metasuchmaschine ist gerade völlig neu programmiert worden, und die Oberfläche hat auch ein Facelifting erhalten. In der Hilfe findet man auch einige Tips für die Arbeit mit MetaGer. Beispielsweise kann man durch einen Klick auf das kleine schwarze Dreieck neben einem Suchergebnis eine neue Suche starten und dabei die jeweilige Domain ausschließen oder die Suche auf diese beschränken. MetaGer speichert keine personenbezogenen Daten über die Benutzer und bietet auch einen TOR-Hidden-Service an. Einen Rückblick speziell auf die Geschichte von MetaGer findet man ebenfalls im Blog von SUMA-EV, dem gemeinnützigen Betreiber.

Währenddessen wurde die Metasuchmaschine Ixquick eingestellt. Der niederländische Betreiber spricht zwar vom „Zusammenlegen“ mit dem Portal Startpage. Es läuft aber auf eine Einstellung von Ixquick hinaus, denn Startpage bleibt bestehen und Ixquick liefert seitdem nur noch Startpage-Ergebnisse. Startpage ist ein anonymisierendes Interface zur Google-Suche. Mit anderen Worten: Wer Google über Startpage abfragt, erhält die Ergebnisse, die Google für die Filterbubble der Startpage-Benutzer bereithält.

Ich bevorzuge MetaGer. Oder DuckDuckGo.

Munzinger-Archiv: Chronik

Das Munzinger-Archiv bietet in den Länderinformationen eine Chronik, die ziemlich aktuell gehalten wird. Darin findet man die offiziösen Agenturmeldungen der Mainstream-Medien, konzentriert und sachlich zusammengefaßt. Man kann sie durchsuchen und sich beispielsweise nur die Meldungen für bestimmte Länder, bestimmte Themen oder für einen Zeitraum ausgeben lassen, bis zur Gegenwart. Das Ergebnis kann man über die Liste am rechten Seitenrand weiter filtern nach Datum, Ländern und Thema. Eine Alternative zu den „Online-Ausgaben“ der Zeitungen und zu den reinen Presse-Archiven.

Remote Access

Klaus Graf berichtet über Möglichkeiten des Remote Access zu Datenbanken und E-Books bei wissenschaftlichen und öffentlichen Bibliotheken. Interessant auch sein Hinweis auf Angebote, die man als Förderer amerikanischer Alumni-Vereine nutzen kann. Solche Angaben sind schwer zu finden, man muß sie bei den jeweiligen Bibliotheken recherchieren, was recht aufwendig ist. DBIS und EZB weisen nur die Verfügbarkeit von Datenbanken in den Campus-Netzen der wissenschaftlichen Bibliotheken nach, ohne Angaben zum Remote Access von zuhause. Und für die öffentlichen Bibliotheken fehlt eine zentrale Auskunft gleich ganz. Sie sind ja auch nur vereinzelt an virtuelle Kataloge angeschlossen. Viel zu wenig bekannt sind jedenfalls die Nationallizenzen für Personen mit einem Wohnsitz in Deutschland.

Ein Blick auf die Lage in Rhein-Main: Unsere Stadtbibliothek in Neu-Isenburg hat schnell gehandelt: Seit Anfang März steht der wiederauferstandene Brockhaus zur Verfügung. Daneben der Kindler über Munzinger. Bei der Stadtbücherei Frankfurt läuft der Brockhaus weiter über Munzinger (da hat wohl die Kündigung nicht geklappt, darf man annehmen); daneben gibts dort auch den Duden. Die Stadtbibliothek Darmstadt bietet KLG, KLfG und PressReader über Munzinger an; außerdem Genios, letzteres aber nur noch mit einer kleinen Auswahl an deutschsprachiger Presse; die Fachzeitschriften wurden vor einem halben Jahr schon fallengelassen.

E-Book und Book-Book IV

Sozusagen im Vorprogramm der Leipziger Buchmesse hat sich Birgit Zimmermann für die Nachrichtenagentur DPA mit dem Abklingen des E-Book-Hypes beschäftigt (via VÖBBLOG).

Zur Erinnerung: Der Hype-Zyklus nach Gartner beschreibt den Verlauf der öffentlichen Aufmerksamkeit für ein neues, innovatives Produkt: Die Kurve beginnt bei den early adopters, steigt dann steil an, bis sie den Gipfel der überzogenen Erwartungen erreicht hat, fällt bis auf ein absolutes Minimum und steigt dann, wenn die late adopters, also der Massenmarkt, endlich aufspringen, auf ein realistisches Niveau, auf dem sich die Nutzung des Guts stabilisiert. Entweder ist es bis dahin akzeptiert worden, oder es verschwindet wieder vom Markt, weil bis dahin allgemein bekannt geworden ist, daß es keinen zusätzlichen Nutzen gegenüber den ursprünglich geweckten Erwartungen bietet.

So ist es auch mit den E-Books gekommen. Der Börsenverein beziffert die Umsätze mit den Buch-Substituten im Zeitraum 2010 bis heute zwischen 0,5 und 4,5 Prozent vom Gesamtmarkt, nimmt davon aber Fach- und Schulbücher sowie Selfpublisher und Abo-Modelle aus. Wenn man diese einbezieht, gelangen die Verlage auf „niedrig zweistellige“ Umsatzanteile – im Vergleich zu einem Viertel in den USA. Als Hauptgrund für diesen Unterschied wird vor allem die Buchpreisbindung genannt, die auch weiterhin für ein dichtes Netz an Buchhandlungen in Deutschland sorge. Außerdem die schöne Ausstattung der Bücher hierzulande.

Das ist eine interessante Wasserstandsmeldung, denn sie deckt sich nicht mit meinem Eindruck als S-Bahn-Fahrer, wo in den letzten Jahren die E-Book-Reader und die Tablets, auf denen unterwegs sehr oft E-Books gelesen werden, zugenommen haben. Die gebrauchten Tablets, übrigens, denn wer möchte schon ein Gerät, das so teuer wie ein billiger Laptop ist, im öffentlichen Nahverkehr, abends gar, offen in der Hand halten, wenn er unterwegs ist. Und der billige Reader taugt nicht lang, wie man hört. Das E-Book – das wäre ein weiteres Monitum an dem Bericht – ist nicht nur zur Urlaubszeit in der Breite angekommen, sondern ganz offensichtlich ganzjährig. Nutzung und Absatz sind eben zwei Paar Schuhe.

„Das imaginäre Museum“ im MMK Frankfurt am Main

Während die türkische Zeitung Zaman vom staatlichen Zensor fortgeführt wird, denkt man bei ResearchBuzz darüber nach, Second-Level-Archive, etwa über das Internet Archive, aufzubauen. Wobei das Internet Archive selbstverständlich rechtswidrig verfährt, weil es sich um das Urheberrecht an den Inhalten, die es automatisiert einsammelt, speichert und dann zeitlich unbefristet zum Abruf bereithält, überhaupt nicht schert (via digithek, via Archivalia).

Gleichwohl ist die Frage zu stellen, wie staatlich oder sonst unerwünschte Kritik gegen ein solches Vorgehen und gegen das Verschwinden aus der Öffentlichkeit verteidigt und erhalten werden könnte. Das Frankfurter Museum für Moderne Kunst spielt ein ähnliches Szenario in einer Ausstellung durch, die am 24. März 2016 eröffnet wird: Das imaginäre Museum spinnt Ray Bradburys Fahrenheit 451 weiter – nicht, wie dort, die Literatur, sondern, hier, die Kunst ist von der Auslöschung bedroht. Angelehnt an das Musée imaginaire von André Malraux, sollen sich die Besucher die ausgestellten Kunstwerke einprägen, um sie auch nach ihrem Verschwinden lebendig zu erhalten. Zum Schluß der Schau soll es Gelegenheit geben, die Ausstellungsräume noch einmal leer zu begehen, um diesen Effekt wirklich zu erfahren.

Passend dazu ist, daß das CMS der Museums-Website leider so dilettantisch konfiguriert wurde, daß es keine Permalinks auf die dortigen Seiten gibt. Deshalb kann man die Vorinformation über die Ausstellung schon heute nicht verlinken, so daß ich auf die Presseinfo ausweiche.

„Das imaginäre Museum. Werke aus dem Centre Pompidou, der Tate und dem MMK“ im Museum für Moderne Kunst, MMK2, Frankfurt am Main, 24. März bis 4. September 2016.

Juris: RSS-Feeds zu Kommentaren nicht mehr öffentlich lesbar

Ziemlich unbemerkt hat der Datenbankanbieter Juris die RSS-Feeds für die Juris-Kommentare umgestellt. Es gibt sie noch, sie weisen auch immer noch die letzten Änderungen in den Kommentaren nach, was da geändert worden ist, können aber seit Anfang März 2016 nur noch zahlende Kunden erfahren. Bisher waren die Änderungen im Volltext einen Tag lang öffentlich lesbar. Das scheint Juris nun doch zuviel des Guten gewesen zu sein.

Das Unternehmen Juris, das einst mit Steuergeldern aufgebaut und groß geworden war, wird damit immer mehr auf Profit getrimmt und begibt sich ohne Not einem kleinen, aber lesenswerten Dienstes an der Allgemeinheit. Tat keinem weh, wußte auch kaum jemand, daß es das überhaupt gab, war aber doch nützlich für Interessierte. Einzig der Aggregator für die laufenden Nachrichten bleibt damit noch ein Angebot im offenen Web, und das sind ja schon Meldungen, die aus den diversen Presseverteilern zusammengesammelt werden – kein Mehrwert gegenüber meinem Feedreader.

Interessant auch die weitere Entwicklung bei den Diensten der Verwaltung. Während das Bundesjustizministerium mit Gesetze im Internet, Verwaltungsvorschriften im Internet und seit kurzem auch Rechtsprechung im Internet weiterhin ganz auf Juris setzt, ist die Hessische Landesregierung mit Hessenrecht und der Landesrechtsprechungsdatenbank LaReDa zu Wolters-Kluwer gewechselt.

Kurioses am Rande: Die Oberfläche von Rechtsprechung im Internet ist nicht responsive. Auf einem normalen 13-Zoll-Bildschirm ragt die Schrift aus der linken Navigationsleiste in den mittigen Mengentext hinein. Das Referat VII 1, Kompetenzzentrum Rechtsinformationssystem des Bundes; Grundsatzfragen; Verfahrensentwicklung; Qualitätsmanagement, teilte mir dazu am 1. Februar 2016 mit: „Den von Ihnen unterbreiteten Vorschlag zum Internetangebot www.Rechtsprechung-im-Internet.de haben wir mit Interesse zur Kenntnis genommen. Sofern bei künftigen Anpassungen des Internetangebots die Möglichkeit besteht, diesen Vorschlag umzusetzen, werden wir ihn aufgreifen.“
Das Unternehmen Juris, das einst mit Steuergeldern aufgebaut und groß geworden war, wird damit immer mehr auf Profit getrimmt und begibt sich ohne Not einem kleinen, aber lesenswerten Dienstes an der Allgemeinheit. Tat keinem weh, wußte auch kaum jemand, daß es das überhaupt gab, war aber doch nützlich für Interessierte. Einzig der Aggregator für die laufenden Nachrichten bleibt damit noch ein Angebot im offenen Web, und das sind ja schon Meldungen, die aus den diversen Presseverteilern zusammengesammelt werden – kein Mehrwert gegenüber meinem Feedreader.

Interessant auch die weitere Entwicklung bei den Diensten der Verwaltung. Während das Bundesjustizministerium mit Gesetze im Internet, Verwaltungsvorschriften im Internet und seit kurzem auch Rechtsprechung im Internet weiterhin ganz auf Juris setzt, ist die Hessische Landesregierung mit Hessenrecht und der Landesrechtsprechungsdatenbank LaReDa zu Wolters-Kluwer gewechselt.

Kurioses am Rande: Die Oberfläche von Rechtsprechung im Internet ist nicht responsive. Auf einem normalen 13-Zoll-Bildschirm ragt die Schrift aus der linken Navigationsleiste in den mittigen Mengentext hinein. Das Referat VII 1, Kompetenzzentrum Rechtsinformationssystem des Bundes; Grundsatzfragen; Verfahrensentwicklung; Qualitätsmanagement, teilte mir dazu am 1. Februar 2016 mit: „Den von Ihnen unterbreiteten Vorschlag zum Internetangebot www.Rechtsprechung-im-Internet.de haben wir mit Interesse zur Kenntnis genommen. Sofern bei künftigen Anpassungen des Internetangebots die Möglichkeit besteht, diesen Vorschlag umzusetzen, werden wir ihn aufgreifen.“

Update am 5. April 2016: Die in den RSS-Feeds verlinkten Inhalte sind nunmehr wieder wie zuvor kurzfristig frei lesbar. Es ist zu hoffen, daß es dabei möglichst lange bleiben wird.

Das Vertrauen zu Google

Das Ausmaß der Manipulation, die von den Suchmaschinen ausgeht, zeigt eine Studie, die die amerikanische PR-Firma Edelman gerade veröffentlich hat.

Quartz zufolge glauben die Teilnehmer der Studie einer Nachrichten-Schlagzeile in Google News mehr als derselben Schlagzeile auf einer Nachrichten-Website. Diese Schere habe sich 2013 geöffnet. Unter 33000 Teilnehmern an der Untersuchung aus 28 Ländern hätten 63 Prozent erklärt, sie „vertrauten Suchmaschinen“. Das wird nur noch getoppt von Nachrichten, die man von Freunden erhält (78 Prozent). Wissenschaftler halten dagegen nur 65 Prozent für vertrauenswürdig. Am Ende stehen Journalisten mit 44 Prozent – also Journalisten, deren Beiträge die Leute nicht bei Google News lesen.

Die Unterschiede in den Vertrauensniveaus bei der Mediennutzung werden in der Studie in einem Zusammenhang mit dem Einkommen und den Zukunftserwartungen der Nutzer gesehen. Sie seien ein Zeichen zunehmender Ungleichheit in der Gesellschaft. Die Unterschiede bei der Wahrnehmung der Medien zeige eine sich vergrößernde Kluft zwischen der „informierten Öffentlichkeit“ und der allgemeinen Bevölkerung, die sich seit dem Beginn der Finanzkrise im Jahr 2007 kaum verändert habe. Diese Kluft sei am größten in den USA, in Frankreich und in Indien. Die größte Einkommensungleichheit – jeweils zweistellig – gebe es in den USA, in Frankreich und in Brasilien. Unter diesen Umständen vertraue man am ehesten „einer Person wie man selbst“.

Der Beitrag problematisiert das Ergebnis nicht, sondern meint, dies sei ein Zeichen für das „Marketing-Können“ von Google, das den amerikanischen Suchmaschinen-Markt zu 64 Prozent bediene. Er läßt auch viele weitere Punkte unerwähnt.

Der Text bei Quartz läßt leider auch offen, ob man der Studie selbst trauen kann, über die dort berichtet wird. Sie hat mich bisher nur über Online-Medien erreicht, und „online only“ vertrauen dort nur knapp die Hälfte der Befragten, 53 Prozent (via Newsletter von socialmediawatchblog.org).

MetaGer obsiegt im Eilverfahren

Die gemeinnützige Metasuchmaschine MetaGer hat, wie der Betreiber SUMA e.V. mitteilt, beim Landgericht Hannover einen „Ettappensieg“ erzielt.

Der Verein war Ende 2015 von einer Rechtsanwältin in Anspruch genommen worden. Die Klägerin hatte im Eilverfahren verlangt, alle URLs aus MetaGer zu löschen, die ihrem Namen ähnlich sind. Sie stützte sich dabei auf das sogenannte „Recht auf Vergessenwerden“, das der Europäische Gerichtshof am 13. Mai 2014 in der Rechtssache C–131/12 – Google Spain SL, Google Inc. ./. Agencia Española de Protección de Datos verkündet hatte.

Das Landgericht Hannover lehnte den Erlaß einer einstweiligen Verfügung mangels Eilbedürftigkeit ab. Das Gericht hat sich in der Entscheidung aber nicht zum Verfügungsanspruch geäußert. Das Klageverfahren in der Hauptsache dürfte nach alledem noch anhängig sein.

Unklar bleibt, wie das Recht auf Vergessenwerden mit dem Anliegen der Klägerin in Verbindung zu bringen wäre.

Wenn die Antragstellerin bzw. Klägerin die Löschung von Seiten aus dem Suchindex begehrt, die ihrem Namen nur ähnlich sind, so unterscheidet sich ihr Begehren von dem Verfahren, das dem Urteil des EuGH aus dem Jahre 2014 zugrunde lag. Der Europäische Gerichtshof hatte über Suchtreffer entschieden, die von dem damaligen Kläger handelten. Das Recht auf Vergessenwerden umfaßt nicht eine bloße Namensähnlichkeit.

Weiterhin fehlt es an der Bestimmtheit der Begehr, denn es wird die Löschung einer Vielzahl von Suchtreffern verlangt, ohne diese konkret zu benennen oder einzugrenzen. Soweit der SUMA e.V. über das Verfahren berichtet hat, ist nicht ersichtlich, was einen „ähnlichen“ Suchtreffer auszeichnen sollte.

Dabei ist auch zu bedenken, daß es gerade ein Merkmal moderner Suchmaschinen ist, „ähnlich“ lautende Suchbegriffe einschließlich Tippfehlern tatsächlich vorliegenden Treffern gegenüberzustellen. Solche Vorschläge sind auch Grundlage für die Suchfunktion moderner Bibliothekskataloge (Discovery-Systeme). Auch Wikipedia erprobt derzeit solche Features als Beta-Funktion; eine Erweiterung der Suche ist gerade angekündigt worden. Je größer der Suchraum und je „intelligenter“ der Suchalgorithmus, desto komfortabler und desto leistungsfähiger ist die Suchfunktion. Das Ansinnen der Klägerin würde daher den Einsatz innovativer Suchtechnik unmöglich machen, ohne daß auch nur im Ansatz ersichtlich wäre, wie und wodurch dabei ihre Rechte insoweit berührt sein sollten.

Nachdenken über Literaturverwaltungen

Zwei aktuelle Diskussionen zum Thema Literaturverwaltung:

(1) In der c't 1/2016, S. 158–161 empfahlen Peter Schüler und Herbert Braun BibTeX als Datenbankformat für Microsoft-Word-Nutzer. (sic!) Neben dem Import von Daten aus verschiedenen Online-Datenbanken (vgl. meinen Beitrag in der DTK 4/2006) sowie JabRef als BibTeX-Editor wurde das Makro BibTeX4Word empfohlen, um die Daten in der Textverarbeitung zu benutzen. Die engagierten Kommentare auf der Projektseite sprechen für sich: Es hat sich etwas getan in Sachen Literaturverwaltung. Der Platzhirsch Citavi hat mit Campuslizenzen den Markt erobern können, weil die Plattformunabhängigkeit von Anwendungen an deutschen Hochschulen keine Rolle spielt. So gab man vor ein paar Jahren sang- und klanglos die Pläne auf, eine Version für den Mac bereitzustellen. Die nahtlose Integration in Winword war wichtiger. Wer außer seiner Textverarbeitung keine andere Software zum Schreiben kennengelernt hat und Citavi geschenkt bekommt, ist in der Regel für andere Lösungen nicht mehr zu begeistern.

(2) Das zeigt auch der Erfahrungsaustausch zwischen zwei den Bibliothekaren auf infobib.de: Zotero ist bei den meisten Benutzern außen vor. Auch der Einwand von Klaus Graf, nur Cloudlösungen, die gemeinsam genutzt werden können, seien „zukunftsfähig“, geht fehl, denn nirgends ist man als Autor bekanntlich einsamer als im Studium. Es gibt nur eine Steigerung dazu: Die Promotion, in ihrer juristischen Spielart. Nicht erwähnt wird dort BibSonomy, das ebenfalls vorzüglich mit LaTeX umgehen kann. Ich verwende den Dienst seit vielen Jahren und möchte ihn nicht mehr missen. Aber auch hier punktet die Cloud in der Regel nicht, sie wirft für die meisten Benutzer mehr Fragen auf als daß sie die Neugier weckt. Für Citavi spricht vor allem die Usability. Und wem die bei Word schon nicht gefallen hat, der wird sie bei Citavi nicht vermissen und lieber eine vernünftige Lösung auf der Grundlage von BibTeX und LaTeX wählen.

Natürlich habe ich auch Erfahrungen zu dem Thema beizusteuern: In einem LaTeX-Kurs, den ich im Dezember hielt, waren insbesondere die Mathematikstudenten an Literaturverwaltungen überhaupt nicht interessiert. „Die fünf Quellen zu meiner Arbeit kann ich auch noch händisch aufzählen.“ Literatur in einer Literaturverwaltung sammeln, Notizen hinzufügen, ein vollständig digitaler Workflow? Nein, eher nicht. Bei Psychologen und Sozialwissenschaftlern und den Juristenkollegen sah es anders aus. Sie freuten sich über Biblatex und Biber.