Kaksi vuosikymmentä kirjastoautomaatiota

Juha Hakala
Kansalliskirjasto

Tämän artikkelin pysyvä osoite on: http://urn.fi/URN:NBN:fi-fe20071285

 

Syvä on menneisyyden kaivo, sanoi jo aikanaan Thomas Mann. Kirjastojen tietotekniikassa ämpäri kolahtaa muistelijan onneksi pohjaan varsin pian, jo 1960-luvulla. Tammikuusta 1987 helmikuun loppuun 2007 kestänyt pestini Opetusministeriön Tieteellisten kirjastojen atk-yksikössä ja sittemmin Helsingin yliopiston kirjaston / Kansalliskirjaston tietokantapalveluissa kattaa kirjastoatk:n historiasta noin puolet.

Tietolinjan päätoimittaja lupasi ystävällisesti mahduttaa lehteensä kirjoitelman kirjastoautomaation menneisyydestä, nykyhetkestä ja tulevaisuudesta. Viimeinen Tietolinja-artikkelini tämä ei ole; nykyisestä asemapaikastani kansalliskirjaston hallintopalveluista vastaan edelleen esimerkiksi kirjaston hankkeista ja tietopalvelualan standardoinnista, joista molemmista riittää kerrottavaa. Mitään suurta yhteenvetoa tai tilinpäätöstä en yritäkään kirjoittaa. Artikkelin keskeinen teema on muutos, se miten laitteistojen ja ohjelmistojen muuttuminen vaikuttaa kirjastojen toimintamahdollisuuksiin ja palveluihin.

Kirjastojen automatisointia käsittelevässä artikkelissa on vaikea sivuuttaa elektronista julkaisemista. Alun perin tarkoitukseni oli kirjoittaa siitäkin, mutta teksti venähti liian pitkäksi. Tietolinjan kaltaisella e-lehdellä ei ole sivurajoitteita, mutta lukijoiden aika on kortilla. Unohtakaamme siis hetkeksi että elektroninen julkaiseminen on merkittävin yksittäinen muutostekijä, joka on mullistanut kirjastojen palveluvalikoiman ja sovellustarjonnan. Aloitetaan sen sijaan tietoyhteiskunnan kivijalasta, laitteista.

Palvelimet

Tietokoneet ovat useimpien tavallisten ihmisten mielestä tylsiä vehkeitä, välttämätön paha jota ilman emme enää tule toimeen. Silloin kun esimerkiksi kirjastojärjestelmän palvelin toimii hyvin – kuten viime vuosina on Linnea-verkossa ollut asian laita – kukaan ei kiinnitä laiteasioihin mitään huomiota, mutta jos tekniikka pettää ja järjestelmät eivät enää toimi, toimivan infrastruktuurin tärkeys konkretisoituu kivuliaalla tavalla. Tarvitaan paljon taustatyötä, jotta hiljaiselo jatkuisi.

Sitä mukaa kun riippuvaisuutemme tietoteknisistä järjestelmistä ja elektronista aineistoista lisääntyy, toimivan tietotekniikan merkitys kasvaa. 20 vuoden aikana järjestelmien luotettavuus on onneksi parantunut oleellisesti. Tämä koskee niin yksittäisiä palvelimia kuin verkkojakin; en muista koska esimerkiksi Helsingin yliopiston paikallisverkossa olisi ollut kirjastojärjestelmän käyttöä haitannut ongelma, mutta vielä 90-luvun puolella niiden kanssa jouduttiin aika ajoin painiskelemaan.

IT-lehdissä on kirjoitettu lähes kyllästykseen asti siitä, miten Mooren laki (http://en.wikipedia.org/wiki/Moore’s_law) on yhä voimissaan. Vähemmän on pohdittu sitä, mitä ”lain” (Moore itse ei kutsunut ennustettaan laiksi) havainnoima transistorien määrän ja tietokoneiden laskentatehon kasvu on käytännössä merkinnyt. Uuden kotikoneeni teho on kymmenkertainen verrattuna viiden vuoden takaiseen laitteeseen, mutta mitä hyötyä siitä on? Sekö, että uudella koneella voin käyttää uusia ohjelmia, joissa on entistä enemmän piirteitä, joita en koskaan tarvitse tai opi käyttämään? Tekstien kirjoittaminen ja taulukoiden laadinta onnistuivat jo 10 vuoden takaisella PC:llä, ja onnistuisivat edelleen ilman ohjelmistojen osin keinotekoista turvottamista, joka ei voine pitkään jatkua.

Palvelinkoneissa teknisestä kehityksestä on ollut enemmän iloa. Dementia voi jo vaivata, mutta uskoisin olevani ainoa henkilö, joka on ollut mukana kansallisen kirjastoverkon kaikkien yhteisten palvelimien hankinnassa, VTLS-Lindan HP3000 992 -koneesta 90-luvun alkupuolella nykyiseen viiteen CSC:llä olevaan Sun-palvelimeen, ja edelleen ne todennäköisesti kuluvan vuoden syksyllä korvaavaan kirjastokonsortioiden yhteiseen laitteeseen. Vuosien mittaan rautakaupassa asioinnista on tullut kerta kerralta helpompaa.

HP3000 992:sta ostettaessa yliopistokirjastojen yhteinen palvelin olisi ollut mahdoton ajatus jo sen vuoksi, ettei riittävän isoa konetta ollut tarjolla – vaikka tietokantojen käyttö oli tuolloin vähäistä nykypäivään verrattuna. Ja vaikka HP:llä olisi ollut tarjota tarpeeksi suuri kone, sen hankintaan ei olisi ollut varaa, koska Linnea1:n sinänsä mittavat laiterahat (noin puolet projektin kokonaiskustannuksista eli 50 miljoonasta markasta) oli valtaosin käytetty kirjastojen omiin palvelimiin.

15 vuotta sitten laitteisiin paloi rutkasti rahaa. Kun HP300 992 -palvelimeen tarvittiin 90-luvun puolivälin tienoissa käytön kasvun myötä lisää muistia, ostimme suurimman mahdollisen muistikortin (256 megatavua) tarjoushintaan miljoona markkaa. Tätä voi miettiä vaikkapa ostaessaan muutamalla kympillä digikameraansa uuden gigatavun muistikortin.

VTLS:stä Voyageriin siirryttäessä 2000-luvun alussa yliopistokirjastot luopuivat omista palvelimista ja hankkivat yhteisen koneen, jonka ylläpito ulkoistettiin Tieteen tietotekniikan keskukseen eli CSC:lle. Tämä ratkaisu, jota kansalliskirjaston ylikirjastonhoitaja Esko Häkli tuki määrätietoisesti, on osoittautunut järkeväksi. Sun E10000 eli tuttavallisemmin Sanni on toiminut luotettavasti, ja CSC:n tukipalveluihin on oltu tyytyväisiä. Niinpä CSC on saanut hoitaakseen myös ammattikorkeakoulukirjastojen yhteisen Armas-palvelimen, Nelli-portaalin palvelimen sekä Dorian palvelinympäristön.

Vuonna 2007 CSC:lle vuosien mittaan rakentunut kirjastojen laitteistoympäristö modernisoidaan perusteellisesti. Jo keväällä vanhat levyjärjestelmät korvataan uudella järeällä järjestelmällä. Ja jos kaikki sujuu suunnitelmien mukaan, syksyllä 2007 otetaan tuotantoon uusi palvelin, joka korvaa kaikki vanhat palvelimet. Tätä artikkelia kirjoitettaessa elettiin hankkeen kannalta jännittäviä hetkiä: tarjoukset on pyydetty 30.4 mennessä, eli ne saapuvat viikon sisällä.

Kirjastoille keskitetyn laitteistoympäristön modernisointi merkitsee muun muassa ylläpito- ja huoltomaksujen laskua. Asiakkaat ja henkilökunta tuskin näkevät muuta muutosta kuin vasteaikojen lyhentymisen. Periaatetasolla iso ero entiseen on se, että kirjastot eivät tästedes enää omista laitteitaan, vaan palvelu tilataan CSC:ltä avaimet käteen -pohjalta. Palvelimet oheislaitteineen vaihtuvat jatkossakin, mutta niin kauan kuin yhteistyömme toimii nykyisellä pohjalla, CSC vastaa siitä että keskitetty laitteistoympäristömme on moderni ja tehokas. Kirjastojen ei enää tarvitse huolehtia kansallisten sovellustensa palvelinympäristöistä, vaan voimme keskittyä sovelluksiin ja niillä tuotettaviin palveluihin.

Tietoteknisten palveluiden ulkoistaminen on taiten tehtävää hommaa. Kumppanin asiantuntevuus ja luotettavuus ovat, tietenkin kustannusten ohella, keskeisiä kriteereitä. Kirjastot eivät ole päätyneet yhteistyöhön CSC:n kanssa sattumalta, vaan vakaasti harkiten. Tulevaisuudessa tämä yhteistyö voi laajeta uusille aloille, kuten digitaalisen aineiston pitkäaikaissäilytyksen edellyttämän laitteistoympäristön rakentamiseen.

Tallennusvälineet

Kun Varastokirjastolle hankittiin VTLS-ohjelmistoa varten HP3000-palvelin oheislaitteineen 1980-luvun lopulla, HP oli juuri julkistanut uuden 640 megatavun kiintolevyn. Se oli edeltäjiinsä verrattuna nopea, luotettava ja edullinen: oppilaitoshinta oli vain 140.000 markkaa, nykyrahassa arviolta noin 50.000 euroa.

Hitachin piakkoin myyntiin tuleva teratavun kiintolevy maksaa USA:ssa noin 400 dollaria. 50.000 eurolla näitä levyjä voisi hankkia ehkä noin 200 kappaletta, paljousalennuksen huomioon ottaen. Vajaassa parissa kymmenessä vuodessa samalla rahalla hankittavissa oleva tallennuskapasiteetti on siis noussut reilusta puolesta gigatavusta 200.000 gigatavuun, eli noin 300.000-kertaiseksi. On lähes varmaa, että sama meno jatkuu vielä 10 vuotta, ja luultavasti paljon pidempäänkin.

Toisin kuin prosessoritehon muutos, tallennuskapasiteetin kasvu tuo muassaan laadullisia muutoksia. 1980-luvun lopulla kirjastojen palvelimille tallennettiin vain viitetietoja, ja nekin tallennettiin kirjastojärjestelmiin tilaa säästäen. Esimerkiksi Millenium-sovelluksessa 80-luvun perintö näkyy edelleen: tietokanta vie hyvin vähän tilaa.

80-luvulla ei juuri harrastettu digitaalisten aineistojen tallennusta kiintolevylle; tuon ajan hankkeissa tallennusväline oli yleensä nauha tai jonkinlainen levyke. Helsingin yliopiston kirjastolle yksi ensimmäisistä ellei ensimmäinen digitoinnin yhteishanke oli 90-luvun alkupuolella käynnistetty Muisti-projekti. Yksi sen teknisistä ja taloudellisista haasteista oli sellaisten PC-koneiden hankkiminen, joissa oli tarpeeksi keskusmuistia ja levyä tuon ajan mittapuulla isojen kuvien käsittelyä ja tallennusta varten.

Tätä kirjoitettaessa teratavujen tallennuskapasiteetin omaavat PC:t ovat arkipäivää; Norjan kansalliskirjastossa sellaisilla digitoidaan kymmeniä tuhansia kirjojen sivuja päivässä. Norjalaisten digitointivauhti (250.000 sivua viikossa, miljoona kuukaudessa) vaatii paljon tallennustilaa, mutta ainakin kirjastosektorilla suurimmat tilavaatimukset ovat verkkoarkistoilla. The Internet Archiven maailmanlaajuinen arkisto sisälsi alkuvuodesta 2007 yli 80 miljardia Web-tiedostoa, ja vie tilaa useita petatavuja. The Internet Archive on rakentanut verkkoarkistolleen massiivisen levyjärjestelmän, jonka räkkirivistöt (100 teratavua räkkiä kohden) ovat vaikuttava näky. Järjestelmän teknistä toteutusta kuvataan IA:n verkkosivuilla (http://www.archive.org/web/petabox.php). IA:n arkistosta on lohkaistu useille kansalliskirjastoille (Ranska, Australia) ”pieniä” kansallisia siivuja, joissa yleensä on ollut muutamia satoja miljoonia tiedostoja.

The Internet Archiven esimerkki puhuu sen puolesta, että Suomen kaltaisessa pienessä maassa verkkoaineisto voidaan haravoida varsin laajalti, eivätkä tallennuskustannukset karkaa käsistä, ainakaan niin kauan kuin tallennuskapasiteetti kehittyy ainakin samaa tahtia Webin tietosisältöjen kanssa. Tanskalaisten kollegojemme kokemuksesta tiedämme että kattava haravointi tulee kalliiksi, mutta se johtuu siitä, että ”haravakoneen ajajia” tarvitaan pienessäkin maassa monta; Tanskassa heitä on viisi.

Tallennustilan jatkuvasti halventuessa voidaan kysyä, mitä maksaisi kaiken julkaistun kulttuuriperinnön digitointi ja syntyneen digitaalisen aineiston (pysyvä) tallentaminen? Vielä 10 vuotta sitten tämmöisestä ei edes haaveiltu, mutta nyt yksi maa on jo ryhtynyt tuumasta toimeen.

Norjan kansalliskirjasto on arvioinut, että koko julkaistu kulttuuriperintö (ja siinä sivussa muutakin aineistoa kuten kirjaston kokoelmissa olevat käsikirjoitukset) voidaan digitoida vuoden 2018 loppuun mennessä. Lystin hinnaksi on laskettu 600 miljoonaa kruunua eli noin 60 miljoonaa euroa.

Henkilötyö ei Norjassa ole ongelma: tarvittavat henkilöresurssit, enimmillään noin 40 ihmistä, hoidetaan kirjaston sisäisin siirroin. Digitointiprosessit ja niihin liittyvät aineiston siirrot on hiottu hyvin tehokkaiksi silloin kun se on mahdollista. Jotkin kirjaston linjaukset kuulostavat hurjilta; mikrofilmauksesta aiotaan luopua kokonaan, ja siirtää henkilökunta digitointiin. Samantyyppisiä säästökaavailuja on myös Norjan kansallisarkistolla. Rauta kuitenkin maksaa: tilaa Norjan kulttuuriperinnölle tarvitaan kansalliskirjaston arvion mukaan ainakin 15 petatavua eli 15.000 teratavua. Tämä datamäärä tallennetaan kolmeen eri järjestelmään, kaksi kertaa nauhalle ja kerran levylle, tietoturvan parantamiseksi.

Vielä toistaiseksi petatavujen tallentaminen on kallista puuhaa, mutta kustannukset tulevat edelleen laskemaan arviolta 30 % vuodessa. Norjalaiset digitoivat eniten tilaa vievän aineiston kuten radio- ja TV-ohjelmat ja elokuvat viimeisenä, mutta hanke tulee silti maksamaan loppuvaiheessakin useita miljoonia euroja vuodessa.

Kirjastojen kannalta tallennustekniikoiden huima kehitys merkitsee sitä, että kun Suomessa 1980-luvulla pystyimme tallentamaan etupäässä vain viitetietoja, 2010-luvulla olisi teknisesti mahdollista digitoida, tallentaa ja asettaa tehokkaasti haettavaksi koko kansalliskokoelma. Työmäärä on valtava – norjalaiset arvioivat pelkästään puolen miljoonan norjalaisen kirjan digitointiin menevän noin 80 henkilötyövuotta – mutta tallennustekniikasta homma ei enää ole kiinni.

Mielenkiintoisinta norjalaisten ohjelmanjulistuksessa on se, että he aikovat säilyttää digitoimansa aineiston vähintään tuhat vuotta. Heidän mukaansa tämä on mahdollista jos sovelletaan yleisesti tunnettuja dokumenttiformaatteja kuten PDF:ää. Kukaan ei tietenkään halua digitoida kansallista kulttuuriperintöään useita kertoja, joten pitkäaikaissäilytyksen ongelma on katsottava ratkaistuksi silloin kun kattavaan digitointiin ryhdytään. Mutta miten realistinen norjalaisten pitkäaikaissäilytysnäkemys on, sen voivat lukijat ratkaista itse. Norja on joka tapauksessa täysin uudenlaisen kulttuuriperinnön säilyttämisratkaisun uranuurtaja, ja aika näyttää ryhtyvätkö muut kansalliskirjastot samaan urakkaan, ja jos ryhtyvät, niin milloin.

Ohjelmistot

Kirjastojen näkökulmasta katsoen kuluneille 20 vuodelle on ollut leimallista integroidun kirjastojärjestelmän nousu ja ainakin väliaikainen tuho – kirjastot joutuvat nykyään rakentamaan ohjelmistokokonaisuutensa monista enemmän tai vähemmän yhteensopivista paloista. Triangelin saumat siis irvistelevät, mutta kyllä sillä silti soittaa voi.

Vielä 70-luvun lopulla kirjastoille suunnattujen järjestelmien kaupallinen tarjonta oli vähäistä, niin Suomessa kuin kansainvälisestikin. Sovelluksia oli siellä täällä, mutta monet niistä olivat kotitekoisia. Satunnaisesti näitä virityksiä myytiin muillekin: esimerkiksi VTLS kehittyi sittemmin aivan muusta tunnetuksi tulleen Virginia Techin omaan käyttöön kehitetystä sovelluksesta.

Tieteellisten kirjastojen atk-yksikkö osti 1977 Library Software Package (LSP) -ohjelmistopaketin British Librarystä asevelihintaan sen jälkeen kun ruotsalaisen Libris-ohjelman käyttäminen todettiin liian kalliiksi. LSP:tä hyödynnettiin sittemmin lähes viisitoista vuotta perusrekistereiden ylläpitoon ja luetteloiden tuottamiseen; hyvin ansaitulle eläkkeelle se siirrettiin vasta VTLS:n käyttöönoton valmistuttua.

Oma työurani urkeni TKAY:ssä LSP:n parissa Liisa Stenin ja Arne Hedmanin kärsivällisessä ohjauksessa. En enää muista, kuka tuon ohjelmiston laati (manuaaleissa oli tekijöiden nimet), mutta hyvin se toimi. LSP oli kompakti: yksi ihminen pystyi hallitsemaan kaikki LSP:n toiminnot kattavasti ja hyvin. Tämä tietämys oli tosin vain harvojen käsissä, mutta toisin kuin British Library – joka veloitti asiakaskirjastoiltaan palveluksistaan varsin suolaisia hintoja – TKAY ei hyödyntänyt monopoliasemaansa rahallisesti, sillä se haki yhteistyötä eikä taloudellista voittoa.

Ensimmäiset integroidut kirjastojärjestelmät tulivat tarjolle 80-luvun puolivälin paikkeilla. Nämä ohjelmat eivät toiminnallisesti olleet kattavia, monista järjestelmistä puuttui pitkään hankinta- ja/tai saapumisvalvontamoduli. 90-luku ja varsinkin sen jälkipuoli jolloin Web oli ratkaissut käyttöliittymäongelmat, oli näiden sovellusten kulta-aikaa. Kauppa kävi, ja kirjastoilla ja ohjelmistotoimittajilla oli vahva yhteisymmärrys siitä, mitä ohjelmien tulee tehdä, ja millä tavoin. Tieteenfilosofian termein kirjastoatk:ssa vallitsi selkeä paradigma, jonka määrittelivät toisaalta olemassa olevat sovellukset, toisaalta kirjastojen RFP-vaatimuslistat, jotka olivat varsin identtisiä keskenään. Ne, jotka erosivat konsensuksesta ja halusivat jotakin poikkeavaa, joutuivat yleensä siitä kärsimään sekä taloudellisesti että toiminnallisesti, ellei ohjelmistotoimittaja tyrmännyt toivetta välittömästi, mikä olisi usein ollut rehellisin vaihtoehto.

10 vuodessa ohjelmistotilanne on muuttunut täydellisesti. VTLS:n asemesta meillä on nyt vanhaa VTLS:ää monipuolisempi Voyager, ja sen lisäksi portaalisovellus MetaLib, ERM-ohjelmisto Halti II, digitaalisen aineiston hallintaan tarkoitettu DSpace ja joukko pienempiä ohjelmistoja, joilla tuotetaan laaja kirjo IT-pohjaisia palveluita. Miten ihmeessä tämmöistä ohjelmistokokonaisuutta voidaan hallita? Ja voimmeko olla varmoja että meillä on nyt koossa kaikki uudessa, digitaalisessa toimintaympäristössä tarvittavat sovellukset ja keskeiset ominaisuudet?

VTLS:n ja sittemmin Voyagerin käytön vakiintuessa syntyi Suomessa hiljalleen myös nykyinen konsortiopohjainen yhteistyömalli, joka mielestäni on paras tae sovellusten tehokkaalle käytölle. Kirjastojen ei ollut pakko tuntea LSP:n sielunelämää, koska järjestelmän soveltaminen oli niin suoraviivaista ja sen vaikutukset kapea-alaisia. Integroitu kirjastojärjestelmä ja vastaavat sovellukset ovat eri asia, niin kustannuksiltaan kuin strategiselta merkitykseltään. Vaikka integroidun kirjastojärjestelmän tekninen infrastruktuuri ja perusmanagerointi olisi keskitetty sillä tavoin kuin Linnea2- ja Nelli-konsortioissa on tehty, kirjastojen on tunnettava näiden järjestelmien ominaisuudet saadakseen siitä kaiken irti. Toisaalta toiminta samassa verkossa edellyttää yhteisiä pelisääntöjä, joita ei voida sanella keskitetysti vaan ne on laadittava yhteistyönä.

Ohjelmistokonsortiomallin haaste on kokonaisuuden ohjaus; jos jokin toiminto tai palvelu on järkevimmin toteutettavissa useiden sovellusten yhteispelillä, miten varmistetaan se että konsortiot puhaltavat yhteen hiileen? Digitaalisen kirjaston ohjausjärjestelmä auttaa meitä kokonaisuuden hallinnassa, mutta onko se riittävän tehokas elin? Ja miten toimitaan jos tarvitsemme jotakin aivan uutta, joka ei itsestään selvästi lankea minkään konsortion tontille?

Digitaalisen aineiston pitkäaikaissäilytykseen soveltuva ohjelmisto on hyvä esimerkki työkalusta, joka vielä toistaiseksi on monella tapaa väliinputoaja. Näitä sovelluksia ei juuri kaupasta saa, mutta koska yksimielisyyttä tarvittavista ominaisuuksista ei ole, jotkut väittävät että esimerkiksi DSpace jo nykymuodossaan soveltuisi digitaaliseksi arkistoksi. Toisaalta meille ei ole selvää, miten digitaalisen aineiston pitkäaikaissäilytyksen työnjako hoituu toisaalta kirjastoissa, toisaalta kansallisella tasolla, missä eri organisaatioiden välisen yhteistyön soisi olevan tiivistä. Ja kolmanneksi, emme vielä tiedä mikä kirjastoalan sisäinen organisatorinen ratkaisu sopisi digitaaliselle arkistolle parhaiten.

Siinä missä laitteistojen kehitys on pelkistäen ollut vain tehon jatkuvaa ja helposti ennustettavaa kasvua, ohjelmistojen muutokset ovat olleet laadullisia, ja edellyttäneet kirjastoilta myös organisatorisia muutoksia. Olemme edenneet rutiinien automatisoinnista jo hyvän matkaa siihen suuntaan, missä tietotekniikka muuttaa toimintatapoja. Korkeakoulukirjastojen konsortiot ja yleisten kirjastojen kimpat ovat tästä hyviä organisaatiotason esimerkkejä. Toisaalta alallemme on syntynyt kokonaan uusia toimenkuvia. Joku voi kokea uhaksi sen, että riippuvaisuutemme tekniikasta on lisääntynyt. Mutta tätä ongelmaa lievittää se, että ohjelmistojen, tai ainakin integroidun kirjastojärjestelmän, syvällinen tuntemus on muuttunut harvojen asiantuntijoiden salatieteestä alamme kollektiiviseksi omaisuudeksi. Kun uutta kirjastojärjestelmää lähdetään aikanaan hankkimaan, kirjastoissa on kymmeniä asiantuntijoita, jotka voivat osallistua projektiin.

Kirjastoverkon koordinoinnin kannalta palveluiden nopea laajentuminen on ollut iso organisatorinen haaste. Kirjastoverkon ja opetusministeriön vahva tuki keskitettyjen palveluiden kehittämiselle näkyy siinä, että järjestelmien parissa työskentelevän henkilökunnan määrä on kolminkertaistunut sitten 80-luvun lopun. Opm:n hallinnonalan vuoden 2006 lopulla julkaistussa tietohallintostrategiassa kirjastojen yhteishankkeita on käytetty esimerkkinä koordinoinnin ja keskitettyjen hankkeiden onnistumisesta; ”syypää” menestykseen on myös ministeriö itse, koska se on rahoittanut kirjastojen yhteisiä atk-hankkeita.

Moneen muuhun maahan verrattuna Suomen kirjastojen tietotekninen infrastruktuuri on hyvä. Yhteisten standardien ja yhteismitallisten sovellusten ansiosta esimerkiksi kopioluettelointi ja virtuaalisten yhteisluetteloiden luominen on meillä helpompaa kuin monessa muussa maassa. Mutta lähitulevaisuus on nyt epävarmempi kuin 10 vuotta sitten, kirjastojen tietoteknisen tulevaisuusskenaarion laatimisen aikaan. Emme tiedä, jatkuuko integroidun kirjastojärjestelmän disintegraatio, vai kääntyykö kehitys takaisin integraation suuntaan.

Hajaannuksen puolesta puhuu ennen muuta se, että integroitujen kirjastojärjestelmien markkinat ovat saturoituneet: lähes kaikilla merkittävillä kirjastoilla on integroitu järjestelmä, maasta riippumatta. Järjestelmätoimittajat voivat hakea kasvua joko uusilla tuotteilla tai ostamalla kilpakumppaneitaan; näitä molempia on paljon jo tehtykin, ja varmaa on, että 10 vuoden kuluttua järjestelmätoimittajia on nykyistä vähemmän. Sovellusten määrästä on vaikea antaa uskottavaa ennustetta.

Integraation kannattajilla on tukenaan monia hyviä asiaperusteita. Ei ole mitään selkeää eikä hyväksyttävää teknistä perustetta sille, että joudumme käyttämään monia sovelluksia rinnan. Toimivan ohjelmistokokonaisuuden, ”triangelin” luonti useista paloista voi olla vaikeaa, varsinkin jos sovellustoimittajia on useita.

Järjestelmätoimittajille integraatio voisi olla houkutteleva vaihtoehto sen vuoksi, että se tarjoaa mahdollisuuden erota kilpailijoista. Perinteiset integroidut kirjastojärjestelmät ovat nykyisellään kovin samanlaisia ja mahdollisesti VTLS:n Virtuaa lukuun ottamatta jo vanhahtavia tuotteita: yhden esimerkin mainitakseni, yhdessäkään kirjastojärjestelmässä ei ole tehokasta hakukonetta. Harva asiakas on valmis latomaan paljon rahaa pöytään hankkiakseen uuden kirjastojärjestelmän, kun muita ja kenties tärkeämpiä rahareikiä on ohjelmistorintamallakin yllin kyllin.

Integroitujen kirjastojärjestelmien perusteellinen modernisointi on haasteellinen urakka. Kolmesta puuhaan ryhtyneestä yrityksestä (DRA & Taos, Sirsi/Dynix & Corinthian ja VTLS & Virtua) vain VTLS sai tuotteen myyntikuntoon, mutta sen hanke olikin vähiten kunnianhimoinen, eikä tavoitteena ollut kattavan sovelluksen luonti, vaan vain perinteinen kirjastojärjestelmä, joka on teknisesti moderni.

On mielenkiintoista nähdä, ryhtyvätkö jotkin järjestelmätoimittajat integroimaan ohjelmistotarjontaansa, ja jos tämmöisiä tapauksia löytyy, minkä teknisen ja markkinointiasun hankkeet saavat. Mutta olipa integraatiosta mitä mieltä tahansa muuten, toteutuessaan se voi vauhdittaa yritysten keskittymistä. Pienille järjestelmätoimittajille ei ole helppoa tarjota uudenlaista integroitua järjestelmää, joka sisältäisi ”kaiken”.

Puolueettomana tarkkailijana voisi iloita vilpittömästi siitä, että kirjastojen sovelluskenttä kuohuu. Firmojen sulautumiset ja toinen toistaan seuraavat ohjelmistojulkistukset tekevät tilanteesta mielenkiintoisemman kuin vuosiin, ja eläkeläisenä minulla varmasti olisi hauskaa tätä hulabaloota seuratessa, ellen keksisi mitään vielä mielenkiintoisempaa tekemistä. Kun tästä melskeestä pitäisi pystyä priorisoimaan tärkeimmät työkohteet ja valitsemaan niihin parhaat ja muiden kanssa yhteensopivat ohjelmistot, arvostaisi hieman hitaampaakin muutostahtia. Mutta kirjastot eivät voi jättäytyä muun yhteiskunnan jälkeen; kukin aikakausi tarvitsee ja toivottavasti myös saa itsensä näköisen kirjaston. Kirjastonhoitajina meidän sukupolvemme on saanut ratkaistavakseen digitaalisiin aineistoihin liittyvät ongelmat, samalla kun olemme ensimmäisinä päässeet hyötymään niiden kiistattomista eduista. Seuraajamme tulevat arvioimaan meitä ensisijaisesti sen mukaan, miten me tässä tehtävässä onnistumme.

 

Kirjoittajan yhteystiedot

Juha Hakala, kehittämisjohtaja
Kansalliskirjasto
PL 15, 00014 HELSINGIN YLIOPISTO
Email: juha.hakala (at) helsinki.fi