Jaka przyszłość czeka biblioteki naukowe i w jaki sposób możemy się przygotować na jej przyjście? Tych pytań nie można uznać za „akademickie” – takie, którymi bez konsekwencji dla ogółu obywateli zajmują się profesorowie – i odsunąć, ponieważ dotykają one sedna tego, czego każdy codziennie potrzebuje: informacji oraz pomocy w przedzieraniu się przez informacje do istotnej wiedzy.

Kiedy usiłuję przewidzieć przyszłość, spoglądam w przeszłość. Oto mamy na przykład Rok 2440, futurystyczną powieść wydaną w 1771 roku przez Louisa-Sébastiena Merciera. Mercier zapada w niej w sen i budzi się w Paryżu siedemset lat po swoich narodzinach. Znajduje się w społeczeństwie oczyszczonym z wszelkiego zła ancien regime’u. W nastrojowym rozdziale tomu pierwszego odwiedza bibliotekę narodową, oczekując, że zobaczy tysiące tomów ułożonych w dumnym szyku jak w królewskiej bibliotece Ludwika XV. Ku swemu zdziwieniu znajduje jednak tylko skromny pokój z czterema małymi regałami. Co się stało z ogromną liczbą publikacji, które nagromadziły się od XVIII wieku, już wtedy niemożliwą do opanowania? − zapytuje. Bibliotekarz odpowiada, że zostały spalone: 50 tysięcy słowników, 100 tysięcy tomików poetyckich, 800 tysięcy kodeksów prawniczych, 1,6 miliona przewodników i miliard powieści. Komisja złożona ze światłych uczonych przeczytała je, wyrugowała fałsze i sprowadziła wszystko do esencjonalnej postaci: kilku podstawowych prawd i zasad moralnych, które z łatwością mieszczą się na czterech regałach.

Mercier był wojowniczym obrońcą oświecenia i naprawdę wierzył, że słowo drukowane może stanowić motor postępu. Nie popierał palenia książek. Jego wizja wyrażała jednak dosyć silne już w XVIII wieku, a obecnie będące obsesją, poczucie przeciążenia ilością informacji oraz bezradność w obliczu potrzeby odnalezienia właściwego materiału w stogu ulotnych druków. Rozwiązaniem tego podwójnego problemu mogłaby być biblioteka bez książek. Zamiast nielicznych regałów z powieści Merciera zawierałaby ona wyłącznie terminale komputerowe dające użytkownikom dostęp do gigantycznych baz danych, a czytelnicy znajdowaliby to, czego potrzebują, za pomocą wyszukiwarek o najnowszych, doprowadzonych do doskonałości algorytmach.

Brzmi jak fantazja? Coś takiego już powstaje, chociaż nie nazywa się biblioteką. To Google Book Search. Digitalizując zbiory wielu bibliotek naukowych, Google tworzy bazę danych składającą się z milionów książek − tylu milionów, że wkrótce będzie większa od wszystkiego, co można sobie wyobrazić (poza fikcją Jorge Luisa Borgesa).

Tym, co odróżnia bibliotekę Google’a od innych, nie jest sama digitalizacja, ponieważ z nią mamy do czynienia wszędzie, ale raczej skala skanowania i jego cel. Google to przedsięwzięcie komercyjne nastawione na zarabianie pieniędzy. Biblioteki natomiast istnieją po to, żeby zaopatrywać czytelników w książki − książki i inne materiały, niektóre zdigitalizowane. Leżąca u podstaw całego projektu komercyjna misja Google’a ujawniła się w pełni 29 października 2008 roku, kiedy firma ogłosiła, że doszła do porozumienia z grupą autorów i wydawców, którzy wytoczyli jej pozew w związku z podejrzeniem złamania prawa autorskiego. W wyniku ugody powstał złożony mechanizm dzielenia zysku pochodzącego ze sprzedaży dostępu do bazy danych Google’a. Z punktu widzenia bibliotek naukowych najważniejszym zapisem dokumentu jest ten, który mówi o subskrypcji instytucjonalnej. Wnosząc roczną opłatę na konto Google’a, biblioteki uzyskają dla swoich czytelników dostęp do wszystkich informacji zawartych w książkach zeskanowanych przez firmę oprócz tych objętych prawami autorskimi, których właściciele nie zdecydowali się udostępnić publikacji za pośrednictwem tego systemu.

Ta okazja wydała się wątpliwa niektórym z dyrektorów bibliotek. Najpierw nieodpłatnie dostarczyliśmy Google’owi książki, a teraz jesteśmy proszeni o wykupienie dostępu do ich cyfrowej postaci razem z innymi bibliotekami. Co ważniejsze, byliśmy zaniepokojeni faktem, że Google tworzył monopol nowego rodzaju – potencjalnie większy od tych, które istniały do tej pory − monopol na dostęp do informacji.

Ludzie z Google’a uznają to słowo na „m” za określenie nie na miejscu. By uszanować ich wrażliwość, można zatem mówić o hegemonicznym, niepodważalnym finansowo i technologicznie oraz niezniszczalnym z prawnego punktu widzenia przedsięwzięciu, które może zniszczyć wszelką konkurencję. W normalnym języku Google Book Search to po prostu monopol. A jest nim z trzech powodów. Po pierwsze: odkąd Microsoft opuścił pole bitwy, nie ma już konkurenta, który dysponowałby wystarczającą technologiczną i finansową mocą, aby stawić czoła Google’owi. Po drugie, ze względu na zbiorowy charakter pozwu ugoda obejmuje wszystkich autorów i wydawców należących do grupy posiadaczy praw. Dlatego też rywal Google’a musiałby wypracować umowę z każdym z nich i podpisać niezliczoną liczbę porozumień opiewających na kwoty rzędu od 30 do 100 tysięcy dolarów. (Jednocześnie ugoda sprawiałaby, że Google i powodzi byliby rzeczywistymi właścicielami książek, do których prawa autorskie nie zostały zgłoszone − jest to złożone zagadnienie i obejmuje miliony prac, nie tylko tzw. książki osierocone). Po trzecie wreszcie, ugoda ta zawiera klauzulę największego uprzywilejowania, która ma zapobiegać otrzymaniu przez dowolnego konkurenta Google’a lepszych warunków niż ta korporacja.

Monopole niekoniecznie są złe. W wypadku usług telefonicznych i podróży koleją jedna firma może dostarczać usługi lepszej jakości niż zbieranina małych Bellów czy miniatur New Jersey Transit. Google może dostarczyć swoją bibliotekę wielu czytelnikom bibliotek publicznych i małych college’ów w całym kraju, a pewnego dnia być może na całym świecie. Czy chcemy jednak, aby jedna korporacja miała wyłączną kontrolę nad taką ilością informacji? Biblioteki już teraz są zaniepokojone możliwością przekazywania władzom danych ich czytelników na mocy patriot Act. Google mógłby dowiedzieć się o nas więcej niż CIA, FBI i IRS razem wzięte – co czytamy, co kupujemy, kogo odwiedzamy, ile metrów kwadratowych ma nasza sypialnia, jakiego rodzaju wiadomości wymieniamy z naszymi korespondentami, a także − jeśli tylko wystarczająco dopracowałby swoje algorytmy − co jesteśmy skłonni pomyśleć, stając przed podjęciem konkretnej decyzji.

Nie chodzi bynajmniej o to, że jest coś diabelskiego w ambicjach Google’a czy też nieszczerego w haśle firmy − „Nie czyń zła” (Do no evil). Wzrost potęgi Google’a będzie wynikiem wyłącznie powodzenia planu biznesowego. Jak w wypadku każdego biznesu, jego najważniejszym celem jest zapewnienie zysku udziałowcom, nie zaś troska o dobro publiczne. Może się wydawać, że opinia publiczna nie musi się obawiać zmonopolizowania dostępu do informacji, ponieważ można je znaleźć wszędzie. Toniemy przecież w powodzi informacji. Rozważmy jednak władzę wpisaną w pełnioną przez Google’a funkcję portiera: każdy, kto zarządza portalami wiodącymi do cyfrowych danych, może się zachowywać jak poborca żądający opłaty za wjazd na informacyjną autostradę. W wypadku książek cyfrowe kopie znajdujące się w bazie będą należały do Google’a i to Google będzie dyktować dowolną stawkę za uzyskanie dostępu do nich. Będzie tym samym właścicielem szerokiego odcinka drogi.

Ugoda zawiera mało precyzyjne wytyczne dotyczące sposobu ustalania cen, a nie zawiera zapisu zabezpieczającego przed ich windowaniem. Google będzie musiał porozumieć się w sprawie wysokości opłat z Book Rights Registry, który zajmie się roszczeniami związanymi z prawami autorskimi oraz wypłacaniem należności. Rejestr ten będzie prowadzony przez autorów i wydawców, w których interesie leży podnoszenie cen. Stroną, której ugoda najbardziej dotyczy, jest społeczeństwo, ale to właśnie ono zostało pozbawione prawa głosu. Biblioteki, szkoły, uniwersytety, zwykli obywatele, czytelnicy książek − żaden z tych podmiotów nie należy do grupy właścicieli praw autorskich i wszyscy oni są wykluczeni z obrad, które zadecydują o dalszych losach porozumienia.

Jeśli sędzia skłoni się ku postępowaniu standardowemu przy pozwach zbiorowych, może ograniczyć swoją rolę do sprawdzenia, czy ugoda sprawiedliwie ujmuje interesy spierających się stron. Jeśli przyjmie szerszą perspektywę, może odmówić uznania ugody i poprosić strony o wypracowanie ulepszonej wersji. Poprawki mogłyby objąć: (1) regularny nadzór nad cenami przez pewnego rodzaju instancję publiczną; (2) włączenie przedstawicieli bibliotek i czytelników do rejestru; (3) wprowadzenie zapisu umożliwiającego digitalizację dzieł, do których nikt nie zgłosił roszczeń przez potencjalnych konkurentów Google’a; (4) wymóg, aby Google uzyskał orzeczenie Departamentu Sprawiedliwości przeciwdziałające powstawaniu trustów, które zapobiegłoby zdobyciu przez firmę monopolu, oraz (5) określenie sposobu ochrony prywatności użytkowników przed wszystkowidzącym elektronicznym okiem Google’a.

Można sobie nawet wyobrazić jeszcze szczęśliwsze zakończenie, a mianowicie prawo, dzięki któremu wszystkie dane Google’a stałyby się publicznie dostępne. Każdy obywatel mógłby z nich korzystać, każda firma używać. Należałoby napisać od nowa prawo autorskie, wypłacić rekompensaty właścicielom praw i zwrócić Google’owi koszty związane z inwestycją w skanowanie. Korporacja zachowałaby w tajemnicy swoje algorytmy i kontynuowała działalność w zakresie dostarczania użytkownikom narzędzi wyszukiwania, jednak jej bank danych stałby się własnością publiczną. W ten sposób uzyskalibyśmy amerykańską narodową bibliotekę cyfrową.

Marzenie to jest równie niemożliwe jak utopia Merciera. By sprowadzić dyskusję na bardziej realistyczny poziom, najlepiej byłoby założyć, że któraś z wersji Google Book Search przetrwa jako przedsięwzięcie prywatne. Jaką funkcję w nowym cyfrowym środowisku będą wówczas pełniły biblioteki naukowe? Są niezwykle zróżnicowane: Biblioteka Kongresu stanowi kategorię sama dla siebie; biblioteki uniwersytetów stanowych (niektóre posiadające zdumiewająco bogate zbiory); szereg instytucji pozarządowych, takich jak The Morgan Library & Museum w Nowym Jorku, Newberry w Chicago czy Huntington Library w Los Angeles, oraz biblioteki prywatnych uniwersytetów rozproszone po całym kraju. Różnica między amerykańskim i europejskim systemem bibliotek polega na różnorodności tego pierwszego, zwłaszcza w sektorze prywatnym. Nawet New York Public Library jest instytucją prywatną, pomimo swojej nazwy oraz państwowego wsparcia dla wielu obszarów jej działalności. W różnorodności jest siła, a zdrowie − w niezależności od rządowego nadzoru. Względem niektórych prywatnych bibliotek można jednak zgłaszać zastrzeżenia z jednego powodu, a mianowicie ich ekskluzywnego charakteru.

Największe biblioteki należą do najbardziej elitarnych uniwersytetów, takich jak Harvard, Yale, Princeton czy Stanford. Chociaż przyjmują badaczy spoza tych uczelni, na co dzień pozostają zamknięte dla ogółu. Przedstawiciele opinii publicznej mogą protestować, że biblioteki te odwracają się plecami do obywateli i zachowują swoje bogactwa dla wąskiego grona uprzywilejowanych.

Często zastanawiałem się nad tym, kiedy cieszyłem się przywilejem bycia doktorantem w Oksfordzie. W owych czasach tamtejsze college’e były odcięte od świata za pomocą wysokich murów zwieńczonych kolcami i posypanych tłuczonym szkłem. Bramy mojego własnego college’u, St. John’s, były zamykane o godzinie 22. Jeśli przebywało się o tej porze na zewnątrz, można było zadzwonić do drzwi i zapłacić karę albo próbować wspiąć się po murze, co nie było pociągającą wizją, o ile nie otrzymało się porad od któregoś z kolegów znających tajemne przejście pozwalające ominąć latarnię i wspiąć się po niskim dachu, lukę w szeregu kolców lub inną szczelinę w umocnieniach, którą dziekan pozostawił niestrzeżoną zgodnie z niepisaną umową pozwalającą na to, aby chłopcy pozostali chłopcami. (Jeśli nie liczyć kilku żeńskich instytucji, oksfordzkie college’e były wówczas przeznaczone wyłącznie dla mężczyzn).

Bariery oddzielające ludzi z zewnątrz w połączeniu z sekretną wiedzą o sposobach ich przekraczania wzmacniały ogólne poczucie ekskluzywizmu. Jeśli architektura nie wystarczała do zrozumienia tego przesłania, można było o tym przeczytać w powieści Juda nieznany (Jude the Obscure) Thomasa Hardy’ego, w której znajdujemy opis podejmowanych przez tytułowego bohatera prób przeniknięcia przez nieprzystępne mury do oksfordzkiego świata nauki. Nie wracałem do tej powieści od lat, jednak na ile pamiętam ją z dyskusji toczonych w St. John’s, bohaterowi nigdy nie udało się nawiązać kontaktu z życiem płynącym wewnątrz college’ów, a jeden z jego synów wypełnił klątwę rzuconą na outsidera, zabijając inne dzieci i wieszając się wewnątrz „Lamb and Flag”, pubu znajdującego się tuż obok miejsca, w którym zwykłem się wspinać po murze.

Neogeorgiańska architektura kampusu Uniwersytetu Harvarda z trudem pasuje do takiego melodramatu, ale ludziom z zewnątrz może się wydawać nieprzystępna. Biblioteka stwarza jednak uczelni sposób na otwarcie się dla ogółu − nie fizyczne, bo liczba czytelników by to skutecznie uniemożliwiła, ale cyfrowe, poprzez dzielenie się jej bogactwem za pośrednictwem internetu. Otwartość jest główną zasadą, której będziemy przestrzegać w celu dostosowania biblioteki do warunków XXI wieku. Przepraszam za zaściankowość poniższych uwag, jednak w nadziei, że mogą być one przydatne dla innych, chciałbym pokrótce przedstawić podjęte przez nas środki.

***

W wyniku poparcia idei otwartego dostępu przez kilka wydziałów Uniwersytetu Harvarda, biblioteka uniwersytecka powołała biuro Office for Scholarly Communication (OSC), które administruje repozytorium służącym do przechowywania i nieodpłatnego udostępniania w sieci wszystkich artykułów naukowych napisanych na wydziałach biorących udział w przedsięwzięciu (oprócz autorów, którzy poprosili o wyłączenie ich z tego programu). OSC ma również w planach digitalizację i udostępnienie w tym samym repozytorium rozpraw, o ile ich autorzy nie skorzystają z analogicznego zapisu zamykającego ich prace w „ciemnym magazynie” na określony czas. Podczas gdy specjalizacja przyczyniła się do odcięcia nauki od świata zewnętrznego, OSC będzie gromadzić również szeroko rozumianą literaturę naukową − wykłady specjalne, materiały pokonferencyjne, notatki laboratoryjne, zbiory danych, raporty z postępu prac badawczych, dzięki czemu życie umysłowe uniwersytetu stanie się dostępne dla każdego, kto zechce się z nim zapoznać. Rzecz jasna jest wiele problemów, które najpierw należy rozwiązać: prawa autorskie, kontrola jakości, kompatybilność systemów służących do przeszukiwania i przechowywania danych oraz pozyskanie środków na budowę i utrzymanie cyfrowej infrastruktury. Jednak na Harvardzie, podobnie jak na wielu innych uniwersytetach, biblioteka została strategicznie usytuowana w centrum właśnie po to, aby służyła jako ośrodek nerwowy zbierający i rozpowszechniający wiedzę.

Harwardzka biblioteka rozszerza tę funkcję za pośrednictwem Open Collections Program. Dzięki wsparciu uzyskanemu od Hewlett Foundation i Arcadia Foundation zdigitalizowano książki, druki ulotne, rękopisy, druki i fotografie rozproszone po dziesiątkach bibliotek należących do harwardzkiego systemu, związane z określonymi tematami, takimi jak: „Praca kobiet w latach 1800−1930”, „Imigracja do Stanów Zjednoczonych w okresie 1789−1930”, „Zaraza. Historyczne wizje chorób i epidemii”, „Ekspedycje i odkrycia. Mecenat naukowy i odkrycia w epoce nowoczesnej”, „Dziedzictwo islamu”. Zespoły składające się z profesorów, bibliotekarzy, kuratorów muzealnych i techników wybierają, katalogują, digitalizują i nieodpłatnie udostępniają materiały na stronach internetowych. Realizacja każdego projektu zajmuje około osiemnastu miesięcy, a rezultatem jest udostępnienie – zarówno studentom, jak i doświadczonym badaczom – ogromnej liczby dokumentów. Cały materiał został przełożony na 72 języki i przeglądały go setki tysięcy użytkowników z całego świata.

Otwarcie na świat zewnętrzny jest odpowiedzialnością spoczywającą na Harvardzie, a to z tego względu, że nasza biblioteka uniwersytecka posiada bardzo dużo niedostępnych nigdzie indziej materiałów. Archiwa sięgające fundacji college’u w roku 1636 zawierają wiele informacji na temat początków amerykańskiego systemu edukacyjnego i samej Ameryki. Rozproszone w systemie bibliotecznym zbiory specjalne mają również znaczenie dla innych krajów. W przynależącej do Harvardu Yenching Library znajduje się 200 unikatowych egzemplarzy chińskich dzieł. One również zostaną zeskanowane wraz z 51 542 rzadkimi tomami w ramach projektu opartego na idei otwartego dostępu realizowanego we współpracy z Chińską Biblioteką Narodową w latach 2010−2016. Biblioteka harwardzka ma również nadzieję zeskanować zbiory ukraińskie − największą tego rodzaju kolekcję na świecie, o ogromnym znaczeniu dla Ukraińców, którzy stracili znaczną część swojego dziedzictwa literackiego na skutek tragedii dotykających ich państwo w XX wieku. Harwardzkie zbiory zoologiczne, botaniczne i medyczne są również digitalizowane i udostępniane za darmo w serwisach internetowych, takich jak Biodiversity Heritage Library, oraz czasopismach należących do Public Library of Science. Przeprowadzana na taką skalę digitalizacja wymaga nawiązania współpracy z licznymi instytucjami. Wiele bibliotek naukowych posiada zbiory specjalne, które są nieopracowane i nieznane poza wąskim gronem specjalistów. Tylko poprzez upowszechnianie ich w ramach wspólnego działania opartego na zasadach otwartego dostępu możemy zrealizować nasze zobowiązania względem świata naukowego.

Musimy wziąć na siebie jeszcze jedno zadanie, a mianowicie gromadzenie i zachowanie materiałów utworzonych od razu jako elektroniczne („cyfrowych od urodzenia”, born digital). W całym internecie namnożyło się mnóstwo stron. Powstały w bezładny sposób w związku z indywidualnymi inicjatywami, zwykle są odporne na działanie wyszukiwarek oraz niekompatybilne pod względem zastosowanej w nich struktury metadanych, a ponadto ulotne i łatwo giną w cyberprzestrzeni. Stworzyliśmy w związku z tym Web Archive Collection Service (WAX), którego celem jest gromadzenie i zachowanie tego rodzaju materiałów, a trzy projekty pilotażowe pokazały, że możliwe jest przeprowadzanie tego rodzaju przedsięwzięć na dużą skalę: Edwin O. Reischauer Institute systematycznie zbierał polityczne dyskusje prowadzone na ponad stu japońskich stronach internetowych i materiały te przechowuje w cyfrowej bazie „Constitutional Revision in Japan”. The Arthur and Elizabeth Schlezinger Library stworzyła podobną kolekcję zatytułowaną „Capturing Women’s Voices”, w której gromadzi wpisy z dosyć trudno dostępnych blogów kobiet. Wreszcie Archiwum Uniwersytetu Harvarda uruchomiło program mający na celu zachowanie zapisów dotyczących codziennych spraw prowadzonych za pośrednictwem ogromnej liczby stron internetowych, które wyrosły na samym Harvardzie. Rozpoczęliśmy również eksperymenty związane z archiwizacją milionów wiadomości wymienianych na uniwersytecie za pośrednictwem poczty elektronicznej.

Problem e-maili naturalnie istnieje wszędzie i wiąże się z tak złożonym zbiorem zagadnień – zarówno prawnych, jak i technologicznych – że może się okazać nierozwiązywalny. Ponieważ za pośrednictwem sieci WWW jest obecnie przeprowadzana ogromna liczba spraw, tracimy dokumentację komunikacji. Amerykański Komitet Zbiorów Rządowych (Committee on the Records of Government) wyolbrzymił to zagrożenie, ogłaszając w roku 1985, że „Stany Zjednoczone stają w obliczu utraty swojej pamięci”, a głośna „utrata” spisu ludności z roku 1960 jest w rzeczywistości mitem. Dzięki wyrafinowanej i kosztownej technologii U.S. Census Bureau odzyskało większość danych, które w roku 1976 wydawały się utracone z powodu zestarzenia się sprzętu. Wiele instytucji rządowych używało jednak e-maili już w połowie lat 90. i znaczna część tej korespondencji zaginęła − nie całość z sześciu milionów maili powstających rocznie w Białym Domu za rządów Billa Clintona, ale najprawdopodobniej więcej wiadomości wysłanych w trakcie kadencji George’a W. Busha w latach 2001−2005 i jeszcze więcej wiadomości dokumentujących działania podejmowane na niższych szczeblach administracji państwowej. Poruszamy się jedynie na obrzeżach problemu i nie znaleźliśmy do tej pory rozwiązania. Harvard utrzymuje w ramach swojej biblioteki duży dział informatyczny, a technologie w nim wypracowane utorowały drogę dla tymczasowych rozwiązań w ramach programu znanego jako Library Digital Initiative. Niemniej problem pozostaje otwarty i nabrzmiewa wraz z trudnościami w pozyskiwaniu środków, tworzeniu planów biznesowych i wypracowywaniu strategii.

Ograniczenia finansowe zmuszają nas do przemyślenia dawnych sposobów działania i szukania wsparcia u potencjalnych sprzymierzeńców stojących w obliczu podobnych problemów. Naturalny sojusz mógłby powiązać biblioteki uniwersyteckie z uczelnianymi wydawnictwami. Rzadko mają one z sobą do czynienia, chociaż często sąsiadują na tym samym kampusie, a istnieją ze względu na ten sam cel: rozpowszechnianie wiedzy. Być może nasz problem polega na zbyt wąskim rozumieniu publikacji, na tym, że wiążemy to pojęcie z zawodowcami, którzy produkują czasopisma i książki. Publikowanie oznacza „uczynienie czegoś publicznie dostępnym”; jest to pospolita czynność, którą w szeroki sposób ujmowano, począwszy od XIV stulecia. Jak podaje Oxford English Dictionary, czasownik to publish oznaczał „uczynić coś powszechnie dostępnym do przyjęcia lub użycia”.

Definicja ta osobliwie przypomina sposób, w jaki sformułowana została misja Google’a: „by organizować światowe zasoby informacji i uczynić je powszechnie dostępnymi i przydatnymi”. Czy powinniśmy myśleć o Google’u jako o wydawcy? Biblioteki naukowe z całą pewnością pasują do takiej szerokiej definicji. „Udostępniają” wszelkiego rodzaju informacje w postaci artykułów umieszczonych w repozytoriach, zeskanowanych rozpraw doktorskich, elektronicznych zbiorów danych, stron internetowych, zapisów wideo z wykładów i konferencji, filmów, czy też − by pozostać przy temacie − książek. Niektóre biblioteki akademickie − MIT, Stanford, Pennsylvania State − wchłonęły uczelniane wydawnictwa. Na Harvardzie nie mamy tego rodzaju planów − Harvard University Press (HUP) ma się świetnie pomimo trudnych czasów. Jednakowoż współpracujemy z HUP, badając możliwości publikowania online. Jedna z nich to zamieszczanie w sieci monografii na zasadach otwartego dostępu − są darmowe, a czytelnicy mogą zamówić druk na żądanie. HUP ma też doświadczenie w recenzowaniu (peer review) i projektowaniu publikacji cyfrowych, które nie mieszczą się w konwencjonalnych kategoriach „monografii” czy „artykułu naukowego”, takich jak chociażby adnotowane edycje zbiorów dokumentów, obrady konferencyjne czy bazy danych.

Większość autorów tworzy dzisiaj teksty w postaci elektronicznej, a wydawcy mają listy publikacji dostępnych w cyfrowych repozytoriach. Świat, w którym książki są „cyfrowe od urodzenia”, a czytelnicy są „cyfrowymi tubylcami”, to świat, w którym biblioteki naukowe nie będą już dłużej musiały przechowywać ogromnych ilości bieżącej literatury w postaci drukowanej. Druk na żądanie oraz ulepszone czytniki będą wystarczające do zaspokojenia najpilniejszych potrzeb. Z pewnością taki świat jest nadal dosyć odległy i nie możemy ograniczyć zakupu drukowanych monografii, dopóki nie rozwiążemy szeregu problemów, z przechowywaniem cyfrowych tekstów na czele.

Kiedy, jeśli w ogóle, ta przyszłość stanie się faktem, biblioteki naukowe skupią się na tym, co zawsze było ich mocną stroną − na zbiorach specjalnych. Kolekcje te mogą w przyszłości obejmować materiały takiego rodzaju, jakiego nie jesteśmy jeszcze w stanie sobie wyobrazić. Będą jednak bogatsze niż kiedykolwiek dotąd w stare książki i rękopisy. Biblioteki będą wreszcie w stanie dzielić się z resztą świata gromadzonymi przez stulecia zbiorami. Google zeskanuje niemal wszystko, co znajduje się w standardowych zbiorach, ale nie przeniknie w głąb gabinetów zbiorów rzadkich oraz do archiwów, czyli do miejsc, w których dokonują się najważniejsze odkrycia. Digitalizując zbiory specjalne i upowszechniając je na zasadach otwartego dostępu, biblioteki naukowe zrealizują główny element ich misji.

Być może jednak moja słabość do książek wypacza wizję przyszłości, jaką roztaczam. Niezależnie od stopnia zaawansowania technologii, nie jestem w stanie sobie wyobrazić, aby cyfrowy obraz starej książki mógł nam dać coś porównywalnego z ekscytacją, jaka towarzyszy obcowaniu z oryginałem. Kiedy byłem pierwszoroczniakiem w Harvardzie w roku 1957, odkryłem, że studenci mają prawo wstępu do Houghton Library, harwardzkiej biblioteki przechowującej stare druki i rękopisy. Zebrałem się na odwagę, wszedłem do środka i zapytałem, czy mają, tak jak mi mówiono, tom Esejow Ralpha Waldo Emersona, należący niegdyś do Hermana Melville’a. Książka pojawiła się na moim biurku w ciągu paru minut. A ponieważ Melville miał w zwyczaju sporządzać obszerne notatki na marginesach, zacząłem jego oczami czytać Emersona − a przynajmniej próbowałem to zrobić.

Jedna notatka na marginesie szczególnie utkwiła mi w pamięci. Była związana z doświadczeniem Melville’a z opłynięcia przylądka Horn, najtrudniejszej trasy morskiej. W owym czasie myślałem, że świat jako taki jest dosyć trudny, skłonny więc byłem zgodzić się z tonem kostycznej notatki towarzyszącej fragmentowi o sztormowej pogodzie. Emerson rozwodził się nad duszą świata i przemijającą naturą cierpienia, które – jak mógłby poświadczyć każdy żeglarz – mija, tak jak burza. Melville zastanawiał się, czy Emerson miał jakiekolwiek pojęcie na temat grozy, wobec której stawali marynarze ze statków wielorybniczych okrążających przylądek Horn. Odebrałem to jako lekcję, że filozofia Emersona ma również swoje naiwne oblicze w stylu Polyanny.

Pół wieku później w Harvardzie wspomnienie tej lektury nieoczekiwanie odżyło, a wraz z nim pojawiło się pytanie: czy dobrze to wtedy zrozumiałem? Zignorowałem wszystkie spotkania zapisane w kalendarzu i pognałem raz jeszcze do gmachu Houghton Library.

Okazja do tego, aby eksperymentować z uczuciem deja vu, nie zdarza się zbyt często. Oto rezultat − fragment na stronie 216 szkicu pt. Prudence w tomie Essays: by R.W. Emerson (Boston, 1847), w którym Melville postawił na zewnętrznym marginesie za pomocą ołówka wielki znak X: „Zgroza sztormu jest w zasadzie ograniczona do mesy i kajuty. Poganiacz, żeglarz, miotany przez cały dzień, regeneruje się równie szybko w ulewie, jak w czerwcowym słońcu”. U dołu strony Melville zapisał kolejny X i zanotował: „Czymże jest to dla człowieka, który przetrzymał Horn jako zwykły marynarz”. Uwaga na marginesie była nawet ostrzejsza od tego, co zapamiętałem, a uczucie trzymania we własnych rękach tomu Emersona, który należał do Melville’a, małej książki w taniej płóciennej oprawie, było jeszcze bardziej poruszające. Takie doświadczenie jest możliwe wyłącznie w czytelniach zbiorów rzadkich. Cyfrowy obraz strony 216 szkicu Emersona byłby jednak wystarczający dla każdego, kto chciałby czytać Emersona poprzez Melville’a. W gruncie rzeczy cyfryzacja umożliwia dostrzeganie rzeczy, które są niezauważalne dla nieuzbrojonego oka, o czym przekonali się badacze uważnie oglądający cyfrowe wersje tekstów takich jak najstarszy zachowany rękopis eposu Beowulf.

W obecnej sytuacji potrzeba rzecz jasna czegoś więcej niż przeprowadzana wyrywkowo digitalizacja zbiorów specjalnych. Jeżeli biblioteki naukowe mają w przyszłości rozkwitać, muszą się trzymać razem. W XX wieku prosperowały skupione na własnej korzyści − niezależnie od siebie i od działań podejmowanych przez państwo. Jednak w obecnym stuleciu stają wobec niemożliwego do wykonania zadania rozwoju na dwóch frontach − analogowym i cyfrowym. Ich budżety przeznaczone na zakupy nie są w stanie udźwignąć tego ciężaru. Dlatego muszą tworzyć koalicje i godzić się na inwestowanie w określone tematy, przy jednoczesnym pozostawianiu innych zagadnień swoim sojusznikom. Muszą stworzyć wspólne zamiejscowe magazyny, doskonały system wypożyczalni międzybibliotecznej, wymieniać dokumenty drogą elektroniczną, przygotować dające się wymieniać metadane, dokonać integracji katalogów i skoordynować proces digitalizacji zbiorów.

Eksperymenty tego rodzaju były już podejmowane i kończyły się fiaskiem − wiem o tym. Ale trzeba spróbować jeszcze raz. Metodą prób i błędów musimy zmierzać krok po kroku ku stworzeniu amerykańskiej, a następnie międzynarodowej biblioteki cyfrowej. Google udowodnił nam, że jest to wykonalne, oraz pokazał jakie niebezpieczeństwo wiąże się z opacznym rozumieniem tej idei, czyli z uznaniem wyższości prywatnego zysku zdobywanego kosztem dobra publicznego.

Zmiany technologiczne w krajobrazie informacyjnym zachodzą zbyt gwałtownie, aby przewidzieć, jak będzie on wyglądał za dziesięć lat. Jednak teraz jest dobry czas, aby działać, jeżeli zachodzące procesy mają przynieść korzyść wszystkim. Potrzebujemy aktywności państwa, by zapobiec monopolowi, i interakcji między bibliotekami, która pozwoli wypromować wspólny program. Digitalizacja i demokratyzacja − nie jest to prosta formuła, ale jedyna, która zadziała, jeśli faktycznie chcemy zrealizować ideał republiki uczonych, niegdyś beznadziejnie utopijny.

TŁUMACZENIE Z ANGIELSKIEGO: MICHAŁ CHOPTIANY


Powyższy tekst został wygłoszony 17 października 2009 roku podczas Targów Książki we Frankfurcie jako wykład pt. The Future of Libraries. Przekład za: R. Darnton, The Future of Libraries, w: The Case for Books: Past, Present, and Future, New York: PublicAffairs, 2009, s. 43–58. Redakcja dziękuje prof. Darntonowi za zgodę na przygotowanie polskiego przekładu.

Od tłumacza:

Od czasu, kiedy Robert Darnton wygłosił publikowany wyżej wykład na targach książki we Frankfurcie, minęło pięć lat. Taki okres w dziedzinie cyfrowej to cała epoka i warto w tym miejscu zwrócić uwagę na fakt, że chociaż wszystkie rozpoznania i tezy Darntona pozostają aktualne, żyjemy obecnie w rzeczywistości, która rysuje się nieco inaczej niż w roku 2009.

1. Pozew zbiorowy organizacji zrzeszających autorów i wydawców skierowany przeciwko firmie Google znalazł nieoczekiwany finał w listopadzie 2013 roku. Sędzia federalnego sądu apelacyjnego w Nowym Jorku Denny Chin uchylił pozew złożony przez Association of American Publishers, uznając, że działalność korporacji z kalifornijskiego Mountain View przyniosła ludzkości, w tym społeczności akademickiej, więcej pożytku niż szkód. Możliwość przeglądania setek tysięcy tomów, uzyskania informacji o ich istnieniu, przedłużenie i nadanie nowej formy życia starym książkom okazało się w jego ocenie ważniejsze niż roszczenia wynikające z tytułu prawa autorskiego oraz prawa do wypracowywania zysków przez wydawców. Werdykt sędziego China brzmi o tyle osobliwie, że wydaje się powtarzać w dużej mierze te same hasła, za pomocą których Google próbował przekonać świat o zasadności projektu Google Books. Nadal zatem można korzystać ze „snippet view”1, nadal jednak część dorobku intelektualnego ludzkości jest niedostępna: albo dlatego, że korporacja nie podpisała porozumienia z autorem lub wydawcą, albo dlatego, że nieokreślony jest status prawny danego dzieła, lub też wreszcie dlatego, że z jakichś względów korporacja nie uznała digitalizacji danego tytułu za zasadną. Dyskusyjna pozostaje również jakość skanów dostarczanych przez korporację w zatrważających, masowych ilościach, a do legendy przechodzą zniekształcone skany przypominające anamorfozy bądź zawierające dłonie pracowników Google’a. Otwarte zatem pozostaje pytanie, czy monopol, jaki udało się wypracować amerykańskiej firmie, musi się koniecznie wiązać z tak niską jakością plików przez nią dostarczanych.

2. Postulowana przez Roberta Darntona idea wielkiej narodowej biblioteki cyfrowej została urzeczywistniona. W 2010 roku do istnienia powołana została Digital Public Library of America (DPLA, Amerykańska Cyfrowa Biblioteka Publiczna). DPLA jest powiązana z Berkman Center for Internet & Society Uniwersytetu Harvarda, a jej cyfrowe zasoby zostały oficjalnie udostępnione w kwietniu 2013 roku. Choć DPLA spotyka się z krytyką ze strony różnych ekspertów od digitalizacji, jest niewątpliwie ważnym graczem na cyfrowej mapie strategicznej. Jej odpowiednikiem ze Starego Kontynentu jest starsza o dwa lata Europeana, która służy jako platforma zrzeszająca europejskie biblioteki cyfrowe. Znamienne jest jednak to, że treści dostępne w Europeanie nie zawsze zostały wygenerowane przez oddziały digitalizacji zbiorów, tylko przez Google Books – tak jest chociażby w wypadku skanów zbiorów biblioteki Uniwersytetu w Gandawie. Powstał szereg narodowych bibliotek cyfrowych, wśród których jedną z pierwszych była francuska Gallica (http://gallica.bnf. fr), powstają również cyfrowe repozytoria działające na serwerach bibliotek uniwersyteckich i regionalnych, które udostępniają czasami precyzyjnie sprofilowane zbiory. W Polsce najważniejszymi ośrodkami cyfrowymi są Federacja Bibliotek Cyfrowych oraz Cyfrowa Biblioteka Narodowa POLONA. FBC zrzesza cyfrowe biblioteki wojewódzkie oraz kilkadziesiąt cyfrowych bibliotek miejskich, uczelnianych i instytucjonalnych, a przez jeden wspólny portal (http://fbc.pionier.net. pl) pozwala na przeszukiwanie ich zasobów w jednym miejscu (choć interfejs FBC bywa mocno zawodny i wydaje się już po prostu przestarzały). Z kolei POLONA jest przedsięwzięciem afiliowanym przy Bibliotece Narodowej i w pierwszej kolejności nastawiona jest na udostępnianie zasobów narodowej książnicy. Również i tutaj można wskazać pewne niedoskonałości interfejsu, jednak prace nad nim cały czas trwają.

3. Warto wreszcie dodać, że cyfryzacja objęła również tak szczególne zbiory jak prywatne biblioteki i objęła m.in. księgozbiór Hermana Melville’a. Nie musimy zatem wędrować jak prof. Darnton do Houghton Library, aby zobaczyć, jak autor Moby Dicka kreślił nie tylko po tomie Szkiców Emersona, ale także po szeregu innych książek – wystarczy wejść na stronę http://melvillesmarginalia.org, aby oddać się przyjemności takiej podwójnej lektury. Czy jednak może ona zastąpić dotyk starego papieru, możliwość zobaczenia z bliska uderzeń ołówka lub pióra pozostawionych na kartce – tego pewnie nie uda się nigdy rozstrzygnąć i jest to klasyczna sytuacja typu „coś za coś” (dostępność kosztem oryginału). Kino miało zabić teatr, telewizja miała zabić radio, internet zdaniem jednych wykańcza, a zdaniem innych – całkowicie rewolucjonizuje starsze media. Czy wygra z papierem?