albatros | texte

Mit Open Access gegen die VG-Wort-Verlags-Ausschüttung?

Nachdem die Diskussion um den Anteil, den die Verlage an wissenschaftlichen Publikationen haben, wieder einmal ins Rollen gekommen ist, auch meine 2ct dazu:

Der Anteil, den die Verlage an meinen Veröffentlichungen hatten, war genau null. Insoweit decken sich mein Erfahrungen mit dem, was auch aus anderen Fächern als Jura schon hinreichend beschrieben worden ist. Es gab und gibt nur einen Grund, bei einem Fachverlag zu veröffentlichen: Die Sichtbarkeit der Arbeit im Bibliothekskatalog und die Beachtung durch das Schrifttum und durch die Rechtsprechung. Bundessozialgericht und Bundesverfassungsgericht hätten meine Diss nicht zitiert, wenn sie bei Books on Demand erschienen wäre. Natürlich wäre es dieselbe Arbeit gewesen. Derselbe Text. Aber so sind sie halt, die großen Leute, um es mit Saint-Exupéry zu sagen.

Das einzige, was sich in der Rechtswissenschaft seitdem verändert hat, ist, daß Urteile mittlerweile zunehmend aus proprietären Datenbanken heraus zitiert werden, statt aus Zeitschriften oder amtlichen Entscheidungssammlungen. Um das zu ermöglichen, wurden sie mit amtlichen Randnummern versehen. Und solange die Rechtswissenschaft so funktioniert, kann man eigentlich niemand dazu raten, in dem Fach auf Open Access zu setzen.

Der Wandel wird nicht durch die Autoren kommen, er müßte notwendigerweise von der anderen Seite ausgehen, um den Autoren ein Signal zu setzen. Und warum sollte das so sein? Gerichte und Schrifttum haben dazu keinen Anlaß. Ein Verdienst der Verlage ist das gewiß nicht. Und erst recht kein Grund, ihnen einen Obulus aus den Einnahmen der VG Wort zuzuschachern, wie es die Bundesregierung nun wieder tun will.

Die Diskussion krankt daran, daß sie alle Verlage über einen Kamm schert. Belletristik und Sachbücher, die aufwendig zu lektorieren sind, sind eben ein anderes Geschäft als Wissenschaft, wo überhaupt nichts lektoriert wird. Hier werden wissenschaftliche Texte 1:1 übernommen, der Verlag hat daran überhaupt keinen Anteil. Er sorgt – siehe oben – ausschließlich für die Beachtung des Textes in der Öffentlichkeit des jeweiligen Fachs.

Nachdenken über Sci Hub

Auf der Mailingliste Inetbib ist am Wochenende ein Beitrag über Sci Hub aus Archivalia kontrovers diskutiert worden. Klaus Graf hatte darin der derzeitigen Stand zum Verhältnis von Fernleihe und Open Access zusammengefaßt und dabei auch Portale einbezogen, die weitergehen, als nur Open-Access-Papiere im Rahmen der jeweiligen Lizenz weiterzuverteilen. Repositorien gibt es viele. Sci Hub bietet, wenn ich es richtig verstanden habe, so gut wie alles an, was im Format PDF daherkommt und nicht bei drei auf den Bäumen ist, ohne sich dabei um das Urheberrecht der Autoren und die davon abgeleiteten Verwertungsrechte von Verlagen zu kümmern.

Die Fernleihe, die von den Verlegern immer wieder gern gegen die Zeitschriftenkrise angeführt wird, sei, so Klaus Graf in seinem Beitrag, zumindest in ihrer nordamerikanischen Spielart ILL, nicht attraktiv genug und könne das Unvermögen der chronisch unterfinanzierten Bibliotheken, die Informationsflut zu den Lesern zu bringen, langfristig nicht ausgleichen. Zudem würde sie hierzulande subventioniert – das seien Kosten, die man genaugenommen mit einbeziehen müsse, wenn man ausrechne, wieviel Open Access den Steuerzahler letztlich koste. Wenn alle Wissenschaft Open Access wäre, entfielen auch diese Kosten, und allen wäre gedient. Bis es aber soweit sei, so könnte man es auf den Punkt bringen, müsse man wohl mit grauen Portalen wie Sci Hub leben. Und: Mit Sci Hub ist es wie mit dem Leben: Genießen wir es, solange es geht.

So dauerte es dann auch nicht lange, bis ein Listenteilnehmer den Vorwurf erhob, das sei im Grunde genommen eine Aufforderung, massenhaft Rechtsbruch zu begehen. Er genieße an seinem Leben, dass er aufrecht gehen kann und sich nicht wie ein Dieb wegschleichen müsse. Dagegen erhob sich substantiierter Widerspruch, zumal der damit angegriffene Blogpost mehrfach die Unrechtmäßigkeit der diversen Schattenbibliotheken betont.

Man kann die Diskussion als eine Fallstudie lesen, sowohl auf die Lage der Literaturversorgung als auch auf die Entwicklung des Netzes.

Die vorgenannten Kommentare liefen auf einer Mailingliste ein, der größten bibliothekarischen Liste im deutschsprachigen Raum zwar, aber auf einer Liste, die doch sehr viel enger daherkommt als die Öffentlichkeit, die die Archivalia finden – das Blog ist darüberhinaus für viele lesenswert, auch abseits der Bibliotheksszene. Es gab Widerspruch, aber nicht im Web 2.0, also in den Blogkommentaren, sondern in dem alten Medium der Mailingliste, in deren Archiv man das also nachlesen kann. Und zwar, weil der Blogpost von seinem Autor auch dort angekündigt worden war. Darin wird die fortwährende Fragmentierung der Datennetze deutlich. Zwar hatte Geert Lovink schon 2008, auf dem Höhepunkt des Blog-Booms, in seinem „Berliner“ Buch Zero Comments das Ausbleiben der Kommentare bemerkt. Sie sind aber auch nicht an einen neuen Ort „umgezogen“. Diskutiert wird in Diskutiermedien, und das sind weiterhin Mailinglisten. Jede Nachricht wird an die Teilnehmer persönlich versandt und zugestellt. Twitter spielte bei der Verbreitung des Posts eine gewisse Rolle, so gelangte der Beitrag auf Rivva; dort werden bisher aber nur drei Blogs erwähnt, die das Thema aufgegriffen haben – auch bei ihnen wurde bisher nicht kommentiert.

Man kann diese Diskussionsmüdigkeit im Web 2.0 mit mehreren Trends in Beziehung bringen: mit dem Ekel vor dem Netz im Zuge der Snowden-Affäre, aber auch mit dem allgemeinen Rückzug aus dem Netz infolge der Shitstorms, der Online-Kampagnen und der sonstigen nervtötenden Begleiterscheinungen. Die Blütezeiten des Netzes sind vorbei. Das Pendel schwingt in die andere Richtung, und die Gruppen der Intensivnutzer und der Zurückhaltenden scheiden sich immer deutlicher.

Zum anderen greift Archivalia aber auch einen sehr wesentlichen Trend auf, den man aufmerksam beobachten sollte. Denn Portale wie Sci Hub, von einer Studentin gegründet, und sonstige schwarze Kanäle verweisen auf die Einstellung der Menschen zum Recht.

Wenn es heißt, Sci Hub sei unrechtmäßig, so ist das wahrscheinlich richtig. Aber diese Wertung trifft auf eine Generation, der die Quellen, aus denen sie schöpft, egal geworden sind – und zwar gerade auch im Angesicht der allgemeinen Überwachung. Es wäre aus technischer Sicht überhaupt kein Problem, sie zu stellen, das hat man bei der Verfolgung der Software- und Musik-„Piraterie“ gesehen. Aber vielleicht wird es dazu bei der Literaturversorgung gar nicht kommen, denn die Verlage rudern ja schon lange zurück, etwa indem das „harte DRM“ bei E-Books zunehmend fallengelassen und durch bloße Wasserzeichen ersetzt wird. Den Rest besorgte bei der Musik der Übergang von Download zu Streaming. Dazu wird es auch hier immer mehr kommen. Gerade deswegen muten ja der PDF- und EPUB-Download bei der Onleihe und der Versuch des Marketings der Süddeutschen Zeitung so retro an, im Zuge ihrer Panama-Papers-Kampagne Abonnenten für ihr E-Paper zu gewinnen. Der direkte Zugriff auf Daten aus dem Web und die Flatrate sind die Zukunft, und zwar nicht die Flatrate für eine Zeitung oder Zeitschrift, sondern für so etwas wie Sci Hub, wo man alles aus einer Quelle bekommt. So wie man ja auch bei Google irgendwie alles finden kann. So nehmen die meisten Menschen eben das Internet wahr: Alles aus einer Hand. Verteilte Lösungen schwinden, zentralisierte wachsen. Ein Paradoxon im fragmentierten Netz mit seinen fragmentierten Öffentlichkeiten. Am Ende finden sie sich alle an einen Knoten im Netz wieder. Im Bibliothekswesen überschneidet sich das mit der Erzählung von der Bibliothek von Babel, die am Ende die ganze Welt ist. Und wenn die Verlage das nicht von sich aus einsehen und sich für die Vermarktung zusammentun, werden die Benutzer das eben ganz pragmatisch auf andere Weise herbeiführen.

Am Ende wurde die Pirate Bay kommerzialisiert und aus dem Reich der Schattenwirtschaft ins helle Licht geführt – bevor sie schließlich aus dem allgemeinen Bewußtsein verschwand. Heute kennt sie keiner mehr. So wird es auch mit Sci Hub und Co. kommen. Bloß die Fernleihe, die wird es ganz sicherlich auch neben der normalen Ausleihe und dem Verkauf von Texten weiterhin geben, und das würde ich doch auch hoffen.

Denn eine Welt mit 100-prozentigem Open Access ist wahrscheinlich nicht erreichbar. Und das liegt einfach daran, daß es mehr Prestige mit sich bringt, bei einem externen Verlag zu publizieren als auf dem OA-Server der universitätseigenen Unibibliothek. Nur der Dritte kann die Gewähr dafür bieten, daß der Autor und sein Text ausgewählt worden sind, dort zu erscheinen. Auch wenn das Lektorat mittlerweile vielfach ausfällt: Do-it-yourself und Selfpublishing werden nicht für alle Zwecke und auch nicht für alle Fächer eine gangbare Lösung sein. Bei den Juristen wird jedenfalls weiter ganz viel gedruckt. Es ist kein Zufall, daß sich die Konstanzer Juristen gerade gegen eine Verpflichtung zur Zweitveröffentlichung ihrer Texte gewandt haben. Und auch dieser Bedarf will weiterhin über Bibliotheken verteilt sein. Nur sie können sowohl eine Infrastruktur für proprietäre als auch für offene Medien organisieren und betreiben. Mit der Fernleihe auch ortsübergreifend.

Ob das eine billiger als das andere sein wird, ist am Ende übrigens geschenkt, denn beides wird nebeneinander bestehen. Das Verlagsprodukt wird man ebensowenig verdrängen können wie den Open Access. Die Autoren wie die Benutzer haben sich darauf eingestellt.

Remote Access: Die Stadtbibliothek Darmstadt baut ab

Die Stadtbibliothek Darmstadt bietet KLG, KLfG und PressReader über Munzinger an; außerdem Genios, letzteres aber nur noch mit einer kleinen Auswahl an deutschsprachiger Presse; die Fachzeitschriften wurden vor einem halben Jahr schon fallengelassen, schrieb ich vor kurzem. Und stelle nun fest, daß die Süddeutsche Zeitung ziemlich leise aus dem Darmstädter Genios gestrichen worden ist. Dafür gibt es nun sehr viel Provinzpresse, also etwa die Osterländer Volkszeitung. Nichts gegen die Osterländer Volkszeitung, aber die Entwicklung ist doch enttäuschend. Es verbleiben für meine Interessen: Zeit, Spiegel, Frankfurter Rundschau, taz, NZZ und Der Standard. Nicht gerade wenig, aber es fing mal attraktiver an. Mit fehlt weiterhin die FAZ. Zumal der PressReader via Munzinger doch ziemlich umständlich zu bedienen ist, bei mir nur in Safari und Google Chrome funktioniert und offenbar auch keine Volltextsuche über alle Texte anbietet. Ebenso wie die E-Papers aus der Onleihe. Man muß sie einzeln herunterladen und kann nicht gezielt alle Beiträge zu einem bestimmten Thema ansehen. Sehr nachteilige Entwicklung für die Benutzer.

Neues von den Suchmaschinen

Zum 20. Geburtstag der Metasuchmaschine MetaGer hat Wolfgang Sander-Beuermann einen Blick auf die Geschichte der Suchmaschinen zusammengetragen, den man in dem dazugehörigen Wikipedia-Artikel nicht findet:

  • 1993 Am MIT in den USA, wird der erste Webcrawler entwickelt: "World Wide Web Wanderer"; in Stanford startet Suchmaschine "Excite"; eingestellt vor vielen Jahren
  • 1994 "Yahoo" startet in Sunnyvale Kalifornien: zuerst als Verzeichnisdienst
  • 1994 "WebCrawler" startet an der Univ. of Washington mit Volltext-Indexierung; eingestellt vor vielen Jahren
  • 1994 "Lycos" startet an der Carnegie Mellon University; eingestellt vor vielen Jahren
  • 1995 "Altavista", Kalifornien: die erste Suchmaschine, die versucht, das gesamte WWW zu erfassen; eingestellt 2013
  • 1996 An der Uni Hannover geht "MetaGer" ans Netz
  • 1996 Als erste Deutsche Suchmaschine mit eigenem Index startet "Eule"; eingestellt vor vielen Jahren
  • 1997 An der TU Berlin startet "Fireball"; eingestellt ca. 2009
  • 1998 "Google" geht ans Netz, Stanford, Kalifornien
  • 2000: in Deutschland: "Aladin", "Dino", "Crawler", "Kolibri" ... eingestellt vor vielen Jahren
  • 2003 "Seekport", Deutschland; eingestellt ca. 2009

Also: Herzlichen Glückwunsch, MetaGer! Die Metasuchmaschine ist gerade völlig neu programmiert worden, und die Oberfläche hat auch ein Facelifting erhalten. In der Hilfe findet man auch einige Tips für die Arbeit mit MetaGer. Beispielsweise kann man durch einen Klick auf das kleine schwarze Dreieck neben einem Suchergebnis eine neue Suche starten und dabei die jeweilige Domain ausschließen oder die Suche auf diese beschränken. MetaGer speichert keine personenbezogenen Daten über die Benutzer und bietet auch einen TOR-Hidden-Service an. Einen Rückblick speziell auf die Geschichte von MetaGer findet man ebenfalls im Blog von SUMA-EV, dem gemeinnützigen Betreiber.

Währenddessen wurde die Metasuchmaschine Ixquick eingestellt. Der niederländische Betreiber spricht zwar vom „Zusammenlegen“ mit dem Portal Startpage. Es läuft aber auf eine Einstellung von Ixquick hinaus, denn Startpage bleibt bestehen und Ixquick liefert seitdem nur noch Startpage-Ergebnisse. Startpage ist ein anonymisierendes Interface zur Google-Suche. Mit anderen Worten: Wer Google über Startpage abfragt, erhält die Ergebnisse, die Google für die Filterbubble der Startpage-Benutzer bereithält.

Ich bevorzuge MetaGer. Oder DuckDuckGo.

Munzinger-Archiv: Chronik

Das Munzinger-Archiv bietet in den Länderinformationen eine Chronik, die ziemlich aktuell gehalten wird. Darin findet man die offiziösen Agenturmeldungen der Mainstream-Medien, konzentriert und sachlich zusammengefaßt. Man kann sie durchsuchen und sich beispielsweise nur die Meldungen für bestimmte Länder, bestimmte Themen oder für einen Zeitraum ausgeben lassen, bis zur Gegenwart. Das Ergebnis kann man über die Liste am rechten Seitenrand weiter filtern nach Datum, Ländern und Thema. Eine Alternative zu den „Online-Ausgaben“ der Zeitungen und zu den reinen Presse-Archiven.

Remote Access

Klaus Graf berichtet über Möglichkeiten des Remote Access zu Datenbanken und E-Books bei wissenschaftlichen und öffentlichen Bibliotheken. Interessant auch sein Hinweis auf Angebote, die man als Förderer amerikanischer Alumni-Vereine nutzen kann. Solche Angaben sind schwer zu finden, man muß sie bei den jeweiligen Bibliotheken recherchieren, was recht aufwendig ist. DBIS und EZB weisen nur die Verfügbarkeit von Datenbanken in den Campus-Netzen der wissenschaftlichen Bibliotheken nach, ohne Angaben zum Remote Access von zuhause. Und für die öffentlichen Bibliotheken fehlt eine zentrale Auskunft gleich ganz. Sie sind ja auch nur vereinzelt an virtuelle Kataloge angeschlossen. Viel zu wenig bekannt sind jedenfalls die Nationallizenzen für Personen mit einem Wohnsitz in Deutschland.

Ein Blick auf die Lage in Rhein-Main: Unsere Stadtbibliothek in Neu-Isenburg hat schnell gehandelt: Seit Anfang März steht der wiederauferstandene Brockhaus zur Verfügung. Daneben der Kindler über Munzinger. Bei der Stadtbücherei Frankfurt läuft der Brockhaus weiter über Munzinger (da hat wohl die Kündigung nicht geklappt, darf man annehmen); daneben gibts dort auch den Duden. Die Stadtbibliothek Darmstadt bietet KLG, KLfG und PressReader über Munzinger an; außerdem Genios, letzteres aber nur noch mit einer kleinen Auswahl an deutschsprachiger Presse; die Fachzeitschriften wurden vor einem halben Jahr schon fallengelassen.

E-Book und Book-Book IV

Sozusagen im Vorprogramm der Leipziger Buchmesse hat sich Birgit Zimmermann für die Nachrichtenagentur DPA mit dem Abklingen des E-Book-Hypes beschäftigt (via VÖBBLOG).

Zur Erinnerung: Der Hype-Zyklus nach Gartner beschreibt den Verlauf der öffentlichen Aufmerksamkeit für ein neues, innovatives Produkt: Die Kurve beginnt bei den early adopters, steigt dann steil an, bis sie den Gipfel der überzogenen Erwartungen erreicht hat, fällt bis auf ein absolutes Minimum und steigt dann, wenn die late adopters, also der Massenmarkt, endlich aufspringen, auf ein realistisches Niveau, auf dem sich die Nutzung des Guts stabilisiert. Entweder ist es bis dahin akzeptiert worden, oder es verschwindet wieder vom Markt, weil bis dahin allgemein bekannt geworden ist, daß es keinen zusätzlichen Nutzen gegenüber den ursprünglich geweckten Erwartungen bietet.

So ist es auch mit den E-Books gekommen. Der Börsenverein beziffert die Umsätze mit den Buch-Substituten im Zeitraum 2010 bis heute zwischen 0,5 und 4,5 Prozent vom Gesamtmarkt, nimmt davon aber Fach- und Schulbücher sowie Selfpublisher und Abo-Modelle aus. Wenn man diese einbezieht, gelangen die Verlage auf „niedrig zweistellige“ Umsatzanteile – im Vergleich zu einem Viertel in den USA. Als Hauptgrund für diesen Unterschied wird vor allem die Buchpreisbindung genannt, die auch weiterhin für ein dichtes Netz an Buchhandlungen in Deutschland sorge. Außerdem die schöne Ausstattung der Bücher hierzulande.

Das ist eine interessante Wasserstandsmeldung, denn sie deckt sich nicht mit meinem Eindruck als S-Bahn-Fahrer, wo in den letzten Jahren die E-Book-Reader und die Tablets, auf denen unterwegs sehr oft E-Books gelesen werden, zugenommen haben. Die gebrauchten Tablets, übrigens, denn wer möchte schon ein Gerät, das so teuer wie ein billiger Laptop ist, im öffentlichen Nahverkehr, abends gar, offen in der Hand halten, wenn er unterwegs ist. Und der billige Reader taugt nicht lang, wie man hört. Das E-Book – das wäre ein weiteres Monitum an dem Bericht – ist nicht nur zur Urlaubszeit in der Breite angekommen, sondern ganz offensichtlich ganzjährig. Nutzung und Absatz sind eben zwei Paar Schuhe.

„Das imaginäre Museum“ im MMK Frankfurt am Main

Während die türkische Zeitung Zaman vom staatlichen Zensor fortgeführt wird, denkt man bei ResearchBuzz darüber nach, Second-Level-Archive, etwa über das Internet Archive, aufzubauen. Wobei das Internet Archive selbstverständlich rechtswidrig verfährt, weil es sich um das Urheberrecht an den Inhalten, die es automatisiert einsammelt, speichert und dann zeitlich unbefristet zum Abruf bereithält, überhaupt nicht schert (via digithek, via Archivalia).

Gleichwohl ist die Frage zu stellen, wie staatlich oder sonst unerwünschte Kritik gegen ein solches Vorgehen und gegen das Verschwinden aus der Öffentlichkeit verteidigt und erhalten werden könnte. Das Frankfurter Museum für Moderne Kunst spielt ein ähnliches Szenario in einer Ausstellung durch, die am 24. März 2016 eröffnet wird: Das imaginäre Museum spinnt Ray Bradburys Fahrenheit 451 weiter – nicht, wie dort, die Literatur, sondern, hier, die Kunst ist von der Auslöschung bedroht. Angelehnt an das Musée imaginaire von André Malraux, sollen sich die Besucher die ausgestellten Kunstwerke einprägen, um sie auch nach ihrem Verschwinden lebendig zu erhalten. Zum Schluß der Schau soll es Gelegenheit geben, die Ausstellungsräume noch einmal leer zu begehen, um diesen Effekt wirklich zu erfahren.

Passend dazu ist, daß das CMS der Museums-Website leider so dilettantisch konfiguriert wurde, daß es keine Permalinks auf die dortigen Seiten gibt. Deshalb kann man die Vorinformation über die Ausstellung schon heute nicht verlinken, so daß ich auf die Presseinfo ausweiche.

„Das imaginäre Museum. Werke aus dem Centre Pompidou, der Tate und dem MMK“ im Museum für Moderne Kunst, MMK2, Frankfurt am Main, 24. März bis 4. September 2016.

Sie sind nicht angemeldet