OAI9: Tieteellistä julkaisemista juhannusviikolla

Jyrki Ilva
Kansalliskirjasto

Tämän artikkelin pysyvä osoite on: http://urn.fi/URN:NBN:fi-fe2015092113665

 

Konferenssimatkalle Geneveen

Yhdeksäs CERN Workshop on Innovations in Scholarly Communication eli OAI9 järjestettiin Genevessä 17.-19. kesäkuuta 2015. Konferenssi on viime aikoina järjestetty joka toinen vuosi; myös sen koko on pysynyt suurin piirtein samalla tasolla, vähän yli 200 osallistujassa.

Vaikka kyseessä on perinteikäs ja arvostettu tapahtuma, olin itse paikalla vasta ensimmäistä kertaa. Viimeinen konferenssipäivä osui tosin tällä kertaa suomalaisesta näkökulmasta juhannusaatoksi, mutta en antanut tämän häiritä itseäni. Paluumatkalla Helsinkiin laskeuduttaessa saattoi ainakin hyvällä menestyksellä bongata lentokoneen ikkunasta eteläisen Uudenmaan juhannuskokkoja.

OAI-konferenssit on aina järjestetty CERN:in kotimaisemissa Genevessä, jossa sielläkään en ollut aiemmin käynyt. Geneve on idyllinen, suurin piirtein Tampereen kokoinen sveitsiläiskaupunki, joka sijaitsee Geneve-järven rannalla, aivan Ranskan rajalla. Konferenssipaikkana oli tällä kertaa pääosin Geneven yliopiston Campus Biotech, iso lasiseinäinen rakennuskompleksi lähestulkoon Yhdistyneiden kansakuntien naapurissa.

geneve2campus_biotech

OAI-konferenssin erityispiirteitä

Olin ollut juuri edeltävällä viikolla USA:ssa Open Repositories 2015 -konferenssissa, joten oli mielenkiintoista vertailla konferenssien eroja ja yhtäläisyyksiä. Molemmat ovat tunnelmaltaan suhteellisen rentoja tapahtumia, ja paikalla oli jopa muutamia sellaisia ihmisiä, jotka olin tavannut viikkoa aiemmin Indianapolisissa. Toisaalta OR keskittyy julkaisuarkisto-ohjelmistoihin ja niihin liittyvään käytännön toimintaan, kun taas OAI:ssa fokus on jossain määrin yleisempi ja enemmän poliittisella tasolla. Erona on myös se, että OAI:n ohjelma suunnitellaan sessio kerrallaan ja puhujiksi kutsutaan pääosin korkean profiilin ihmisiä, kun taas OR:ssä esitykset valitaan suurimmaksi osaksi avoimen Call for Proposals -haun ja vertaisarviointimenettelyn kautta.

Vaikka OAI:n esitykset ovat kutsuttuja, posterit valitaan sinnekin avoimen haun kautta. Tällä kertaa mukana oli kolmisen kymmentä posteria, joiden taso oli varsin korkea – kuulemma ehdotuksia oli tullut aiempia kertoja enemmän. Minulla oli konferenssissa Tieteellisten seurain valtuuskunnan Johanna Liljan kanssa yhteinen posteri, jonka aiheena oli alkamassa oleva OKM:n rahoittama Kotimaiset lehdet avoimiksi ja vaikuttamaan -hanke (ks. Tietolinja 1/2015). Posterit olivat esillä ilman sen suurempia seremonioita konferenssipaikan käytävällä, jossa oli postereille varatun pidennetyn kahvitauon aikana aikamoinen vilske. Meidänkin posterillamme riitti aivan kohtuullisesti uteliaita kyselijöitä, vaikka tarjolla oli varmaan kansainvälisestä näkökulmasta katsottuna filmaattisempiakin aiheita. Vaikutti kuitenkin siltä, että samantapaisia kansallisen julkaisemisen rahoitusmalleja koskevia kysymyksiä pohditaan myös monessa muussa maassa.

posters

Memento – aikaportin läpi verkon menneisyyteen

Konferenssin ohjelmaan kuului myös työpajoja. Yritin tällä kertaa tehdä valinnat oman mukavuusalueeni ulkopuolelta, joten päädyin aluksi tutumpien aiheiden sijasta kuuntelemaan Herbert van de Sompelin (Los Alamos National Laboratory) sessiota Mementosta (ks. van de Sompelin esitys SlideSharessa).

Tällä hetkellä verkkoresursseista on yleensä saatavilla vain tuorein versio, eli niiden vanhemmat olomuodot jäävät näkymättömiin, ellei niitä käy erikseen etsimässä esim. Internet Archiven kautta. Tällöinkin on lähinnä tuurista kiinni, onko esim. verkkosivun jokin tietty versio saatu haravoitua talteen, ja joka tapauksessa vanhoja sivuja voi etsiä vain yksittäisten arkistojen tasolla. Joillakin sivuilla (esim. useimmat wikit) toki säilytetään jo nyt sivujen täydellistä versiohistoriaa. Pääosin verkko on kuitenkin rakennettu sen oletuksen varaan, että verkkosivuista on kerrallaan olemassa vain yksi versio.

Mementon ideana on lisätä verkkoympäristöön aikaulottuvuus siten, että myös verkkosivujen vanhat versiot ovat löydettävissä ja linkitettävissä toisiinsa van de Sompelin ideoiman teknisen protokollan avulla. Perusideana on toteuttaa linkitys HTTP-protokollaa laajentamalla siten että saman resurssin eri versioiden yhdistäminen ja löytäminen on mahdollista tehdä automaattiseksi: termi ”memento” viittaa verkkoresurssin aiempaan versioon, joista voidaan ”aikaportin” (TimeGate) kautta etsiä eri arkistoista ajallisesti sopivin. Kaikki tiettyyn resurssiin liittyvät mementot saa listatuksi ”aikakartan” (TimeMap) avulla.

Van de Sompelin käyttämä terminologia kuulostaa kieltämättä science fiction -henkiseltä, ja Mementoon liittyvät tekniset ratkaisut – joita työpajassa käsiteltiin vain lyhyesti – edellyttävät melko syvällistä verkkoteknologioiden ymmärrystä. Mutta jos haluamme, että nykyisyyskeskeiselle verkkomaailmalle kehittyy vähitellen myös hallittavissa oleva historiallinen ulottuvuus, tällaisten kunnianhimoisten ratkaisujen implementoiminen myös käytännössä olisi enemmän kuin toivottavaa.

Julkaisemisen tekniikkaa…

Van de Sompelin vetämän työpajan lisäksi uusiin teknologisiin ratkaisuihin pohjautuvia ideoita käsiteltiin myös konferenssin ensimmäisissä yhteisissä sessioissa keskiviikkona 17.6.. Keynote-puheenvuoron esittänyt kvanttifyysikko ja avoin tiede -aktivisti Michael Nielsen (ks. http://michaelnielsen.org/) pohti puheenvuorossaan ”Beyond Open Access” vaihtoehtoja nykyisille tieteellisen julkaisemisen formaateille.

Vaikka perinteisten tieteellisten artikkelien saaminen vapaasti verkkoon on sinällään suuri saavutus, tämä ei Nielsenin mukaan tuo meitä vielä kovin lähelle verkkoympäristön koko potentiaalin hyödyntämistä. Sen sijaan että olemme siirtäneet paperiaikakauden julkaisuformaatit digitaaliseen muotoon ja verkkoon meidän pitäisi miettiä millaisia uusia julkaisuformaatteja ja tieteellisen julkaisemisen malleja olisi mahdollista kehittää.

Nielsen käytti esityksessään esimerkkinä iPython notebookia, joka mahdollistaa esim. taloustieteellisen esseen ja elävän, editoitavan Python-koodin yhdistämisen toisiinsa. Tämä mahdollistaa sen, että lukijat voivat itsekin testata artikkelin hypoteeseja syöttämällä sille erilaista dataa tai muuttamalla ohjelman koodia.

Keskiviikon muut tekniikkapainotteiset esitykset esittelivät pääasiassa linkitettyyn dataan pohjautuvia uusia tieteellisen julkaisemisen malleja. Tobias Kuhnin (ETH Zürich) esitys ”A Decentralized Network for Publishing Linked Data : Nanopublications, Trusty URIs, and Science Bots” käsitteli nanojulkaisuja, joiden Kuhn esitti ennen pitkää korvaavan perinteiset ja jo vanhanaikaisiksi muuttuneet narratiiviset artikkelit tieteellisen julkaisemisen keskeisenä formaattina.

Nanojulkaisu on pienin mahdollinen julkaistavissa olevan tiedon yksikkö, joka pitää sisällään itse väitelauseen, sen provenienssin ja julkaisun bibliografiset tiedot. Nanojulkaisujen luotettavuuden takaamiseksi niihin tulisi viitata URL:eilla, jotka sisältävät julkaisun sisällön pohjalta moderneja kryptografisia metodeja hyödyntäen lasketun tarkistussumman, jolloin jokainen muokkaus muuttaisi julkaisun tarkistussummaa ja tekisi siitä uuden julkaisun. Tavoitteena on se, että nanojulkaisut olisivat koneluettavia ja niiden pohjalta olisi mahdollista generoida automaattisesti uutta tietoa. Kun infrastruktuuri saadaan toimimaan, uusia nanojulkaisuja voisivat ihmisten lisäksi tuottaa myös automaattiset tiedebotit.

kuhn2

Ruben Verborgh (University of Ghent) sukelsi saman session esityksessä ”Sustainable queryable access to Linked Data” vielä syvemmälle linkitetyn datan teknologioiden ja teknisten rajapintojen maailmaan. Martin Kleinin (UCLA) esityksen otsikko oli puolestaan ”Reference Rot and Link Decoration”, eli hän käsitteli verkkolinkkien pysyvyyteen liittyviä haasteita.

Klein oli (yhdessä mm. van de Sompelin kanssa) yksi kirjoittajista viime vuonna PLoS One -lehdessä julkaistussa artikkelissa, joka selvitti tieteellisissä artikkeleissa viittauksen kohteena olleiden artikkeleiden linkkien pysyvyyttä. Artikkelissa todettiin, että huomattava osa julkaisuihin linkitetyistä aineistoista oli muutaman vuoden jälkeen joko poistunut saatavilta tai muuttanut muotoaan. Kleinin ehdottama ratkaisu (”robust links”) oli se, että viittauksen kohteena olevat artikkelit tallennettaisiin viittaushetkellä snapshottina johonkin verkkoarkistoon (esim. Internet Archive tukee käyttäjien tekemää arkistointia). Tämän lisäksi päivämäärä olisi suositeltavaa tallentaa artikkeliviittaukseen koneluettavassa muodossa, ja viittauksen yhteyteen tulisi liittää resurssin alkuperäisen URL:n lisäksi myös linkki arkistoituun versioon.

Perjantain viimeinen sessio käsitteli isojen ja mutkikkaiden tutkimusaineistojen säilytystä ja hallintaa. Fokus oli jälleen melko paljon tekniikassa, ja esityksissä vilahteli tuon tuostakin erilaisia maallikon korvissa kryptisiä kirjainyhdistelmiä, joista kävi ainakin selväksi, että alue edellyttää monissa tapauksissa varsin syvällistä erityisosaamista.

Session kiinnostavin esitys tuli Itävallasta. Andreas Rauberin (Vienna University of Technology) esitys antoi realistisen ja jossain määrin lohduttoman kuvan laskennallisen tutkimuksen toistettavuuteen liittyvistä haasteista – jo pelkästään tiedostoformaattien, ohjelmistoversioiden ja tietokoneiden käyttöjärjestelmien erot voivat monissa tapauksissa muuttaa oleellisesti tutkimuksen tulosta. Rauberin ehdotus oli, että yksittäisten objektien sijasta pyrittäisiin saman tien dokumentoimaan ja säilyttämään koko prosessi. Hänen mukaansa esim. aineiston koostamisessa ja analyysissä käytetyt tietokantakyselyt ovat hyödyllistä metatietoa, jolla on pysyvää arvoa.

… ja politiikkaa

Ohjelmassa oli toki paljon muutakin kuin tekniikkaa. Vanhoista tutuista oli mukavaa tavata jälleen mm. OR2014:n keynote Erin McKiernan (Wilfrid Laurier University), jonka nuoren tutkijan näkökulmasta tehty esitys sai ajoittain jopa spontaaneiksi aplodeiksi yltynyttä vastakaikua. McKiernan piti välttämättömänä sitä, että avoimuuden toteutumista tuetaan uudistamalla tutkijoiden arviointijärjestelmiä. McKiernanin esityksen lisäksi keskiviikon viimeisessä raja-aitoja ja vaikuttavuutta käsitelleessä sessiossa esiteltiin Open Access Buttonia ja avointen aineistojen integroimista Wikimediaan.

Perjantaiaamun ensimmäinen sessio käsitteli tieteellisen julkaisemisen ja kustantamisen institutionaalista muutosta. Catriona McCallumin (PLoS) avauspuheenvuoro ”Putting the Academy at the Heart of Scholarly Publishing” oli laaja-alainen katsaus tieteellisen julkaisemisen muutokseen. Tieteellisestä kustantamisesta vastasivat alun perin pääosin yliopistokustantamot ja tieteelliset seurat, mutta viimeisen 50 vuoden aikana se on lisääntyneen tutkimusrahoituksen ja julkaisujen määrän kasvun myötä nopeasti kaupallistunut. McCallum toi hyvin esiin tieteellisen kustantamisen keskittymisen: viiden suurimman kustantajan osuus kaikista Web of Sciencessa listatuista julkaisuista nousi luonnontieteiden ja lääketieteiden alalla 90-luvun puolivälin 30%:sta vuoteen 2013 mennessä 53%:iin. Humanistis-yhteiskunnallisella alalla muutos on ollut vielä jyrkempi – samalla aikavälillä viiden suurimman kustantajan osuus on noussut 15%:sta 51%:iin (kannattaa tosin huomata, että WoS:in data kattaa näillä aloilla lähinnä vain keskeiset angloamerikkalaiset julkaisukanavat!).

McCallum korosti kuitenkin sitä, että tieteellisessä julkaisemisessa ei ole enää kyse pelkistä lehdistä ja kirjoista, vaan alkuperäinen tutkimus- ja julkaisusykli on muuttunut yhä monimuotoisemmaksi verkostoksi, jossa erilaiset julkaisujen levitykseen, löydettävyyteen, vaikuttavuuden mittaamiseen ja sosiaaliseen verkostoitumiseen tarkoitetut palvelut linkittyvät toisiinsa. Verkostojen tiivistyminen luo jatkuvasti uusia mahdollisuuksia sekä globaalille yhteistyölle että eri puolilla tapahtuvalle paikalliselle aktiivisuudelle, miltä kannalta esim. julkaisujen ja tutkimusaineistojen uudelleenkäytön mahdollistaminen on tärkeä kysymys. Itse asiassa McCallum piti koko perinteitä termiä ”julkaiseminen” nykytilanteen kannalta ongelmallisena – sen sijasta voisi puhua yleisemmin esim. ”kommunikaatiosta” tai keksiä ilmiölle jonkin kokonaan uuden, kuvaavamman nimen.

Rupert Gatti (Trinity College, Cambridge, ks. esitys) ja Victoria Tsoukala (National Hellenic Research Foundation, ks. esitys) lähestyivät aihepiiriä selkeämmin paikallisesta näkökulmasta. Millä keinoilla yliopistot ja yleisemmin tiedeyhteisö voisivat ottaa julkaisutoimintaa takaisin omaan hallintaansa? Kumpikin lähti liikkeelle humanistisen tutkimuksen näkökulmasta, ja kummassakin esityksessä nostettiin esiin sekä yliopistopainojen rooli open access -julkaisijoina että Open Journal Systems -ohjelmiston tarjoaminen tutkijoiden käyttöön, jotta nämä voivat perustaa uusia open access -julkaisukanavia. Toisaalta Tsoukala nosti esityksessään esiin myös paikallistason aktiivisuuteen sisältyvät haasteet: ilman kansainvälistä yhteistyötä infrastruktuurit jäävät irrallisiksi ja hajanaisiksi, kriittisen massan saavuttaminen on vaikeaa eikä julkaisukanavien ole helppoa saavuttaa perinteisiin kanaviin vertautuvaa uskottavuutta.

Suomessa tieteellisillä seuroilla on ollut perinteisesti vahva rooli tieteellisinä kustantajina. Tämä koskee sekä lehtien että kirjojen kustantamista. Yliopistotason kustannustoimintaan on sen sijaan satsattu isommin vain muutamassa yliopistossa, tyypillisesti osana kirjaston toimintaa. Niinpä ei olekaan yllättävää, että tieteellisille lehdille suunnattua Open Journal Systems -palvelua tarjoaa meillä keskitetysti Tieteellisten seurain valtuuskunta, eikä sitä ylläpidetä erikseen useissa yliopistossa, kuten esim. muissa pohjoismaissa. Toisaalta, vaikka suomalaisten yliopistojen kustantamia julkaisuja on saatavilla verkossa mm. julkaisuarkistojen kautta, vaikuttaa siltä, ettei tämän kustannustoiminnan roolista tai merkityksestä avoimen julkaisemisen kanavana ole Suomessa ainakaan vielä kehittynyt yhteistä kansallisen tason näkemystä.

CHORUS ja SHARE – rinnakkaiset tiedejulkaisujen avoimuuden infrastruktuurit

Olin etukäteen kiinnostunut torstaiaamun sessiosta, jossa esiteltiin alun perin USA:ssa syntyneitä kilpailevia tiedejulkaisujen avoimuutta tukevia CHORUS– ja SHARE-infrastruktuureja. Tavoitteena on ollut kehittää työkaluja etenkin avointa julkaisemista edellyttävien mandaattien hallinnointiin ja avointen julkaisujen löydettävyyden parantamiseen. CHORUS on suurten tieteellisten kustantajien perustama yhteenliittymä, joka esittää, että avointen aineistojen löydettävyyden pitäisi toteutua ensisijaisesti kustantajien tarjoaman infrastruktuurin kautta. SHARE taas edustaa tieteellisiä kirjastoja ja tutkimusorganisaatioita, ja sen esittämä toimintamalli perustuu ensisijaisesti näiden ylläpitämiin infrastruktuureihin.

chorus

Varsinaista vastakkainasettelua sessiossa ei kuitenkaan saatu aikaiseksi. Infrastruktuureja esitelleet herrasmiehet Howard Ratner (CHORUS, ks. esitys) ja Tyler Walters (Virginia Tech, SHARE, ks. esitys) olivat liikkeellä erittäin sopuisalla ja diplomaattisella asenteella, eli eturyhmien välisten jännitteiden havaitseminen jäi hyvää ja kaunista luvanneiden esitysten jälkeenkin lähinnä kuulijoiden oman tulkintakyvyn varaan. Ehkä esitysten ja niitä seuranneen keskustelun ilmentämä yhteistyöhalu on kuitenkin hyvä asia, sillä yleisen edun mukaista olisi varmasti saada rakenteilla olevat järjestelmät tavalla tai toisella yhteentoimiviksi ja toisiaan täydentäviksi.

Kustantajien tarjoama mallin vahvuutena on se, että se rakentuu olemassa olevan infrastruktuurin varaan, mukaan lukien DOI:n (CrossRef), FundRefin ja ORCID:in kaltaiset tunnistejärjestelmät ja Porticon ja LOCKSS:in kaltaiset kustantajien käyttämät pitkäaikaissäilytyspalvelut. CHORUS on jo rakentanut avoimen hakupalvelun, jonka kautta julkaisujen tietoja voi hakea rahoittajan nimen perusteella (haun rajaaminen pelkästään open access -julkaisuihin ei tosin vielä ole mahdollista). SHARE:n ideana taas on koota eri palveluiden sisältämien avointen aineistojen kuvailutiedot yhtenäiseksi datasetiksi. Vaikka tähän liittyy paljon mahdollisuuksia, tuloksena syntyviä palveluita on vielä toistaiseksi hankalampaa hahmottaa.

Kustantajien esittämässä mallissa ilmeisenä rajoituksena on joka tapauksessa se, että se jättää avointen julkaisujen välityksen kustantajien hallintaan, eli julkaisuja tuottavat ja niitä käyttävät organisaatiot olisivat edelleen riippuvaisia kustantajien tarjoamista palveluista. Kustantajien intresseihin kohdistuvat epäluulot ja kustantajien palveluista aiheutuvat kustannukset huomioiden tämä voi olla oleellinen kysymys. Kirjastojen tarjoamassa vaihtoehdossa suurimpana haasteena taas on olemassa olevien palveluiden ja koko kirjastokentän hajanaisuus, joka vaikeuttaa yhteisten paikalliset rajat ylittävien palveluiden resursointia, rakentamista ja markkinointia.

Vertaisarviointi uusiksi

Konferenssin esityksissä oli tällä kertaa myös suomalaisväriä. Janne Seppäsen (Peerage of Science) napakka esitys kuului itse asiassa konferenssin kohokohtiin. Olin kuullut Jyväskylän yliopiston tutkijoiden perustamasta Peerage of Science -palvelusta esittelyn jo aiemmin kotimaassa, mutta monille konferenssin osallistujista se oli ilmeisesti uusi tuttavuus. Palvelun ideoita pidettiin poikkeuksellisen tuoreina ja innostavina, ja se herätti paljon keskustelua ja kommentteja sekä itse sessiossa että konferenssin Twitter-feedissä.

Peerage of Sciencen perusideana on irrottaa julkaisujen vertaisarviointi julkaisukanavien yhteydestä omaan erilliseen palveluunsa. Valmiiksi vertaisarvioitua julkaisua voi sitten tarjota eri julkaisukanaville, jotka päättävät arvioiden perusteella hyväksyvätkö sen julkaistavaksi. Tieteellisiä artikkeleita tarjotaan usein julkaistavaksi useaan julkaisukanavaan ennen kuin ne lopulta hyväksytään, eli ne on tähänastisessa mallissa arvioitu usein moneen kertaan. Tältä osin Peerage of Sciencen malli vähentää siis ylimääräistä päällekkäistä työtä.

Artikkelien lisäksi Peerage of Science -palvelussa myös itse vertaisarviot arvostellaan, ja vähitellen myös arvioiden kirjoittajat pisteytetään, eli palvelu hyödyntää sosiaalisen median tarjoamia mahdollisuuksia. Vaikka esityksessä oletettiin, että julkaisut ilmestyvät lopulta lehdissä, saattaisi olla mielenkiintoista pohtia olisiko palvelu jollain tavalla kytkettävissä myös esim. julkaisuarkistojen yhteyteen. Jos julkaisut joka tapauksessa arvioidaan julkaisukanavasta riippumatta, sen antamalla ”laatuleimalla” ei ole – tai ei ainakaan pitäisi olla – entisen kaltaista merkitystä.

Seppänen totesi, että Peerage of Sciencea on toistaiseksi markkinoitu lähinnä sen perustajien sosiaalisten verkostojen kautta. Tässä suhteessa kasvun rajat ovat kuitenkin tulleet vastaan, ja markkinointiin tarvittaisiin merkittäviä lisäresursseja, joiden saaminen edellyttää sopivien bisnesenkelien löytämistä. Palvelulla on melko tiukat kriteerit sen suhteen, miten kokeneita tutkijoiden pitää olla päästäkseen mukaan, eli riittävän suuren kriittisen massan saavuttaminen on väistämättä haastavaa.

Ehkä oireellisesti Peerage of Sciencen perään esitelty jossain määrin samantyyppinen brittiläinen Publons-palvelu saattoi kehuskella huomattavasti suuremmilla käyttäjämäärillä. Tämä siitä huolimatta, ettei sen toimintaidea ole läheskään yhtä kiinnostava.

Kirjoittajamaksujen hallinnoinnin syövereissä

Toinen työpajavalintani oli Torsten Reimerin (Imperial College London) ja Frank Manistan (JISC) vetämä open access -lehtien kirjoittajamaksujen (Article/Author Processing Charge, APC) hallinnointiin keskittynyt sessio. Britannia on tällä alueella maailman johtava maa, Suomi taas on toistaiseksi sijoittunut lähemmäs kehitysmaakategoriaa. Britanniassa tapahtunutta kehitystä selittävät sekä kansallisen tason poliittiset linjaukset että infrastruktuurin ja tukipalveluiden kehittämiseksi tehty pitkäjänteinen työ. Eli meillä on paljon opittavaa. Suomenkin tilanne on kohenemassa, sillä FinELib on kesän aikana selvittänyt Avoin tiede ja tutkimus -hankkeesta saadulla rahoituksella kirjoittajamaksujen hallinnoinnin vaihtoehtoja.

reimer1

Reimer piti työpajan aluksi tiiviin esityksen Britannian tilanteesta ja Imperial Collegen kokemuksista. Imperial Collegella on kirjoittajamaksujen keskitettyyn hallintaan oma paikallisesti kehitetty ohjelmistonsa, jonka avulla prosesseja on pyritty virtaviivaistamaan ja nopeuttamaan. Reimerin mukaan tässä on onnistuttu varsin hyvin, vaikka maksujen hallinnoinnista toki aiheutuu edelleen runsaasti työtä etenkin hybridijulkaisukanavien kohdalla. Tilannetta on osaltaan helpottanut, että Research Councils UK:n open access -kustannuksiin antama tuki on vuodesta 2013 lähtien maksettu suoraan yliopistoille sen sijaan että se olisi kierrätetty aiempaan tapaan hankerahoitusten kautta. Tämä on yksinkertaistanut yliopistojen sisäisiä prosesseja.

Britannian open access -linjaukset poikkeavat monista muista maista siinä, että osa rahoittajista tukee rinnakkaistallentamisen ja open access -lehdissä julkaisemisen lisäksi myös julkaisemista hybridilehdissä. Hybridilehdet ovat tilausmaksullisia lehtiä, joiden yksittäisiä artikkeleita on mahdollista saada avoimeen käyttöön artikkelikohtaisilla maksuilla. Monet perinteisistä kaupallisista kustantajista (mm. Elsevier) ovat muuttaneet lehtiään hybridilehdiksi. Tällä hetkellä näyttää siltä, että hybridilehdet eivät ole muuttumassa varsinaisiksi open access -lehdiksi, eli niitä myydään edelleen myös osana maksullisia lehtipaketteja. Tämä on herättänyt epäluuloja sen suhteen, joutuvatko yliopistot maksamaan julkaisemisen kustannuksia kahteen kertaan.

reimer2

Tähänastiset kokemukset ovat osoittaneet, että siinä missä varsinaisten open access -lehtien osalta markkinat toimivat kohtuullisesti myös kirjoittajamaksujen suuruuden suhteen, hybridilehtien osalta näin ei ole. Open access -lehtien kirjoittajamaksut ovat keskimäärin 1300-1400 punnan suuruusluokkaa, kun taas hybridilehdillä keskiarvo asettuu lähemmäs 2000 puntaa. Hybridilehdissä julkaiseminen on siis huomattavasti open access -lehtiä kalliimpaa. Lisäksi kirjoittajamaksujen maksamiseen liittyvät hallinnolliset ongelmat ja muutkin epäselvyydet (alkaen siitä onko julkaisu todella saatavilla avoimesti ja oikealla lisenssillä) ovat ainakin toistaiseksi keskittyneet pääasiassa hybridijulkaisukanaviin.

Britannia on kuulunut edelläkävijöihin myös kirjoittajamaksuja koskevan datan keräämisessä ja julkaisemisessa. Wellcome Trust julkaisi oman vuosien 2012-2013 APC-datansa jo jokin aika sitten, ja sen pohjalta on tehty monenlaisia laskelmia (ks. esim. Ernesto Priego: ”Wellcome Trust APCs: Towards a New [Open Access] Serials Crisis?”) kirjoittajamaksujen suuruudesta ja niistä aiheutuvista kuluista. JISC pyrkii siihen, että kustantajilta olisi jatkossa mahdollista saada kattavasti dataa siitä, miten paljon kirjoittajamaksuja on maksettu ja miten ne jakautuvat toisaalta rahoittajien ja toisaalta organisaatioiden kesken. Tästä on apua myös kustantajien kanssa käytävissä sopimusneuvotteluissa.

Brittiläisessä keskustelussa tavoitteeksi on nostettu tieteellisen julkaisemisen kustannusten tarkasteleminen kokonaisuutena, siten että huomioon otetaan sekä open access -julkaisemisesta että aineistojen lisensioinnista aiheutuvat kustannukset. Tämänhetkistä tilannetta on kartoitettu mm. Stephen Pinfieldin, Jennifer Salterin ja Peter A. Bathin laajassa artikkelissa ”The ‘total cost of publication’ in a hybrid open-access environment: Institutional approaches to funding journal article-processing charges in combination with subscriptions”, joka on hyödyllistä luettavaa kaikille aihepiiristä kiinnostuneille.

Lopuksi

Seuraava OAI-konferenssi järjestetään näillä näkymin kahden vuoden päästä eli kesällä 2017. Tapahtumaa voi suositella kaikille avoimesta julkaisemisesta ja avoimen tieteen uusista tuulista kiinnostuneille.

geneve

 

Kirjoittajan yhteystiedot

Jyrki Ilva, tietojärjestelmäasiantuntija
Kansalliskirjasto / kirjastoverkkopalvelut
PL 26, 00014 HELSINGIN YLIOPISTO
sähköposti: jyrki.ilva [at] helsinki.fi