Del 5: Alminneliggjøringen av Internett (1993 til i dag)

I løpet av en tiårsperiode fra 1993 utviklet Internett seg til å bli en infrastruktur for tjenester og ressurser langt på vei tilgjengelig for hvem som helst, når som helst og hvor som helst. Parallelt utviklet Forskningsnettet seg til å bli en infrastruktur for tjenester og ressurser for norsk forskning og utdanning. 

Innledning

I 2009 ble en operasjon på St Olavs Hospital i Trondheim overført til en konferanse i Daejeon i Sør-Korea i sanntid og med en oppløsning som gjorde det mulig å se vevstrukturer som er usynlig for det blotte øye. Overføringen skjedde over en ‘optisk sti’ gjennom fibernettene til seks ulike forskningsnett som sammen med UNINETT (gjennom NORDUnet) deltar i et internasjonalt samarbeid om utvikling av fiberoptiske tjenester, – Global Lambda Integrated Facility (GLIF).

I dagens fibernett er 10 Gbps en vanlig overføringskapasitet. Teknologien som ble brukt i eksemplet foran, heter Wavelength Division Multiplexing (WDM) og deler opp bølgelengden til lyset i en optisk fiber i ‘optiske stier’ (kalt ‘lambda’-er) som hver har en overføringskapasitet på 10 Gbps. Tilgjengelig teknologi kan i skrivende stund (sommeren 2013) multiplekse opptil 160 slike, noe som gir en samlet kapasitet på 1600 Gbps (1,6 Tbps, terabit pr sekund, billioner bit pr sekund).

Dette gir kapasiteter i en størrelsesorden som er nær ubegripelig for de aller fleste av oss. Teknologien brukes da også til å overføre data fra eksperimentene med partikkelakselleratoren Large Hadron Collider (LHC) ved det europeiske forskningssenteret CERN. Der sysles det med like ubegripelige fenomener knyttet til universitets opprinnelse og naturens innerste hemmeligheter. Her genereres det data i slike mengder at lysstiens kapasitet må benyttes for å distribuere dem til de tusener av forskere, inkludert forskere ved våre universiteter, som skal prøve å finne en mening i dem. Sommeren 2012 førte dette til at vi fikk ‘se’ det såkalte Higgs-bosonet, noe som la en lenge etterlengtet brikke på plass i verdensbildet til kosmologer, partikkelfysikere, kvantemekanikere, astrofysikere og andre som prøver å finne svar på de grunnleggende spørsmålene om livet, universet og evigheten.

Rimelig eksotisk, men denne teknologien er nærmere oss enn vi aner. Samme teknologi brukes i varierende grad i fibernettene som nettoperatørene har bygd ut og bygger ut for milliarder av kroner for å ta unna trafikken vi genererer i vår daglige, langt mindre eksotiske bruk av Internett. Ifølge de siste oversiktene bor 86% av befolkningen mindre enn en kilometer fra nærmeste fiberknutepunkt, 65% kan enkelt få fiber hjem og en økende andel (nærmere 380.000 i 2012) av landets godt og vel 1,7 millioner bredbåndsabonnenter benytter seg av dette tilbudet. Riktignok får vi foreløpig ikke hver vår 10 Gbps lysende sti ut i verden. Inntil videre må de fleste av oss nøye seg med noen titalls Mbps hjem, men det gir allikevel kapasitet nok til at vi nokså uhindret kan fortsette både vår nyttige og vår tøysete bruk av Internett.

Det er akkurat dette de siste par tiårene for det meste har handlet om, – kapasitet. En sterkt økende kapasitet i nett og utstyr har tilrettelagt og fremmet den utviklingen av teknologi, tjenester, anvendelser og brukeropplevelser som vi i dag kjenner som allmennhetens og offentlig og privat sektors bruk av Internett. I løpet av disse tjue årene har Internett gått fra å være for noen få til å bli tilgjengelig for alle hvorsomhelst og nårsomhelst, og med smarttelefonenes inntog har vi Internett med oss i lomma eller håndveska hele tiden. Og vi har fått ‘Internett av ting’ der applikasjoner innhenter, utveksler, bearbeider, formidler og lagrer informasjon om ting basert på merking av tingene ved hjelp av RFID-brikker, QR-koder, strekkoder eller på andre måter.

I denne perioden gikk Forskningsnettet og Internett hver sin vei. Internett utviklet seg til det nett av tjenester for alle som vi kjenner i dag. Her tok andre aktører førersetet. Forskningsnettet forble en naturlig del av Internett og Internett fortsatte å være viktig for Forskningsnettet, samtidig som virksomheten ble mer rettet mot infrastruktur, tjenester og ressurser for forskning og (høyere) utdanning.

UNINETTs misjon i et nøtteskall

Eksemplet fra 2009 oppsummerer på mange måter UNINETTs ambisjon for Forskningsnettet i et nøtteskall, – Forskningsnettet skal være teknologisk i forkant, basert på internasjonalt samarbeid og ha nytteverdi i form av brukbare og anvendbare ressurser, tjenester og kapasiteter for hele landets forskning og utdanning. Langt fra alle trenger ressurser på nivå med lysende stier verden rundt, men alle trenger tilgang til gode fellesressurser og -tjenester med kapasitet og egenskaper tilpasset de ulike virksomhetenes formål, gjenstandsområde, metodikk, arbeids- og samarbeidsformer.

I dag er omtrent 180 institusjoner innen forskning og utdanning tilknyttet Forskningsnettet og alle er tilknyttet med Gbps-forbindelser. Det dekker hele landet, går langs hele kysten fra Kirkenes i nord til Halden i sør og strekker seg til både Longyearbyen og Ny-Ålesund. Tilknytningene i stamnettet har to veier fram, noe som gir en svært høy grad av feiltoleranse, tilgjengelighet og stabilitet.


Figur 5-1: Finnmarksringen er det siste store utbyggingsprosjektene i UNINETT-regi. Tilsammen 210 km fiber knytter fylket sammen og til det regionale senteret i Tromsø.

Finnmarksringen


Etableringen av UNINETT AS

Utbyggingen av Forskningsnettet var kjerneoppgaven det daværende Kultur- og vitenskapsdepartementet ga UNINETT da UNINETT ble etablert som departementseid aksjeselskap fra 1. januar 1993:

UNINETT A/S har som formål og oppgave å:

  • Utvikle et landsdekkende elektronisk datanett for forskning og utdanning med tjenester på linje med det beste som finnes i det internasjonale akademiske miljø
  • Påskynde bruk av åpne internasjonale standarder innen datakommunikasjon
  • Sørge for samtrafikk med aktuelle nasjonale og internasjonale nettoperatører
  • Stimulere til nødvendig forsknings- og utviklingsaktivitet innen UNINETTs virksomhetsområde

UNINETT medlemmer er norske universitet, høgskoler, forskningsinstitusjoner, videregående skoler, grunnskoler, offentlige bibliotek, museum og andre ikke-kommersielle institusjoner med tilknytning til forskning og utdanning.

I det nye selskapet ble Petter Kongshaug tilsatt som administrerende direktør og har hatt denne stillingen til i dag. Bjørn Henrichsen fotsatte som styreleder og hadde dette vervet fram til 2009. Da overtok assisterende universitetsdirektør ved Universitetet i Tromsø Britt Elin Stenveg dette vervet.

UNINETT var på det tidspunktet en beskjeden organisasjon med fem ansatte, et budsjett på fem millioner kroner og i overkant av 200 medlemmer. Stamnettet i Forskningsnettet ble året etter oppgradert til 512 Kbps (1/20.000-del av kapasiteten i dagens stamnett) og utenlandsforbindelsen til 2 Mbps (1/5000-del av dagens).

Det har med andre ord tuslet mange bit gjennom nettene siden den gang. UNINETT AS har i mellomtiden vokst til en stor organisasjon med nesten 100 ansatte og med over 200 millioner kroner i årsomsetning. Mesteparten av denne veksten kom i årene etter år 2000. I disse årene har organisasjonen fått utvidet ansvarsområde og har i dag ansvar for en rekke oppgaver og tjenester i tillegg til utbygging og drift av Forskningsnettet. Dette er tjenester, systemer og ressurser som er vel så viktig, om ikke viktigere for mange flere, enn muligheten til å overføre data på lysende stier halve jorda rundt. Dette bredde- eller fellesaspektet har også vært et varemerke for UNINETT hele tiden, å være til for og levere til hele fellesskapet i sektoren.

Etableringen av generelt Internett i Norge

Fram til UNINETT ble etablert som aksjeselskap i 1993, var UNINETT i praksis den norske delen av Internett. På det tidspunktet var det to medlemsgrupper i UNINETT. Primærmedlemmene var utdannings- og forskningsinstitusjoner og andre institusjoner som falt inn under departementets avgrensing av UH-sektoren. I perioden 1987-92 var det departementet som betalte disse institusjonenes tilknytning til UNINETT. I tillegg kom andre organisasjoner og foretak som benyttet ordningen med sekundærmedlemsskap til å skaffe seg tilknytning til Internett. Disse fikk de samme tjenestene som primærmedlemmene, men måtte betale en medlemsavgift som tilsvarte antatt kostpris for tilknytningen. Blant de omtrent tretti sekundærmedlemmene UNINETT hadde i 1992 var en rekke av de største norske bedriftene og organisasjonene. For de fleste av dem var dette deres første kontakt med Internett.

Utenfor UNINETT var det vesentlige endringer på gang. De første aksessleverandørene (eller ISP-ene, ‘Internet Service Provider’, leverandører av Internett-tjenester) ble etablert i 1991-2. Disse solgte tilgang til Internett til privat og offentlig sektor og allmennheten. I følge sterke indisier klagde en av de nyetablerte ISP-ene (TelePost) til departementet over at ordningen med sekundærmedlemsskap undergravde markedet for dem. Etter anmodning fra departementet startet UNINETT med å avvikle sekundærmedlemskapet. Da en forsiktig anmodning bare hjalp sånn passelig, vedtok UNINETTs styre å heve tjenesteavgiften til 200.000 kr i året. I brevet til sekundærmedlemmene 29. mars 1993 ble dette begrunnet med:

I takt med at det nå etableres kommersielle nettoperatører i markedet har UNINETTs styre nå funnet det hensiktsmessig å legge forholdene til rette for at UNINETT skal rendyrke sin profil som en akademisk nettoperatør og ikke gå til det skritt å bli en generell konkurrent på det åpne telekommunikasjonsmarkedet.

Sekundærmedlemmene fikk tilbud om å si opp medlemskapet med øyeblikkelig virkning. Før sommerferien var tilbakelagt det året, var sekundærmedlemmene borte og ordningen avviklet.

Med dette var løpet lagt. Internett var på vei ut til allmennheten og til privat og offentlig sektor, mens UNINETT fortsatte utbyggingen av Forskningsnettet, samtidig som organisasjonen ivaretok rollen som leverandør av Internett-tjenester til sektoren. Gjennom nesten hele 90-tallet var UNINETT den klart største tjenesteleverandøren og forskning og utdanning sto for mer enn halvparten av Internettrafikken.

Samtidig var vi i ferd med å bli en del av et større fellesskap. Til dette fellesskapet bidro UNINETT og sektoren med to kritiske funksjoner:

  • I 1987 overtok UNINETT rollen som navneautoritet med ansvar for administrasjon av domenenavn i .no-domenet. I 1995 ble dette organisert som UNINETT Navneautoritet og fra 1996 som den selvfinansierende tjenesten Norid. Etter noen år som del av datterselskapet UNINETT Trofast AS, ble UNINETT Norid AS etablert som datterselskap i 2003 og forvalter fortsatt .no-domenet
  • I 1993 etablerte USIT ved Universitetet i Oslo Norwegian Internet eXchange (NIX) som samtrafikkpunkt for norske Internett-tjenesteleverandører. UNINETT var sammen med Telepost og EUnet de første ISP-ene som brukte NIX. Etter den tid har USIT drevet NIX og i dag er nesten 60 tjenesteleverandører tilknyttet og det er etablert regionale IX-er i Tromsø, Trondheim, Bergen og Stavanger

Både Norid og NIX ivaretok og ivaretar fortsatt funksjoner av grunnleggende betydning for utviklingen av Internett. For å sikre likebehandling av aktørene både var og fortsatt er det ønskelig og nødvendig at disse funksjonene forvaltes og drives av en nøytral tredjepart. UNINETT og USIT sto klar da dette kom på dagsorden og har løst oppgavene til de flestes tilfredshet i årene etterpå.

NIX – Norwegian Internet Exchange

Det norske samtrafikkpunktet ble etablert ved USIT, Universitetet i Oslo i 1993 og formidlet samtrafikk mellom UNINETT, TelePost og EUnet. I de neste årene fulgte de andre nett- og tjenesteleverandørene (Oslonett, Schibstednett, PowerTech, etc) og større organisasjoner, institusjoner og foretak (Statens Datasentral, Posten, IBM, NRK med flere). I 2005 passerte antall NIX-kunder 50, i dag er tallet i overkant av 60.

De første kundene fikk en 10 Mbps-forbindelse til NIX-en. Fra omtrent 1998 var 100 Mbps det normale, mens Gbps-forbindelser ble tilgjengelig etter årtusenskiftet, – 1 Gbps i 2001 og 10 Gbps i 2005. I 2000 ble NIX2 etablert for å gi tilbud til operatører som ønsket redundans i samtrafikken. For tiden er det et 20-talls operatører som benytter seg av denne muligheten.

I 2000 var NIX-trafikken størst i arbeidstiden med en trafikktopp på 300-350 Mbps på en vanlig dag, mens helgetrafikken var lav. I 2012 er trafikkmønsteret snudd helt om, – den største trafikken nå er på kveldstid med trafikktopper opptil 45 Gbps på en vanlig dag og like stor trafikk i helga som på hverdager.

Tilbud om samtrafikk for IPv6 ble etablert i 2003. Omtrent to tredjedeler av NIX-kundene benytter seg av dette og har både IPv4- og IPv6-tilknytning til samtrafikkpunktet.

I alle årene fra 1993 og fram til i dag er det Kjetil Otter Olsen og hans medarbeidere i USITs nettgruppe som har stått for administrasjon, utbygging, vedlikehold og drift av NIX. I praksis har det ikke vært nedetid av betydning på samtrafikktjenesten i dette tidsrommet.

Tredje og fjerde generasjon av Forskningsnettet

En ny dagsorden var satt for UNINETT og øverst på denne sto videreutvikling av infrastruktur, tjenester og ressurser i Forskningsnettet.

På begynnelsen av 1990-tallet var det åpenbart at andre generasjon av Forskningsnettet – multiprotokollnettet – nærmet seg slutten. I 1993 hadde Internett etablert absolutt hegemoni i UNINETT med 30.000 maskiner og over 100.000 brukere. For de tre andre ‘nettene’ var antallet maskiner og brukere langt lavere og på sterk tilbakegang. I 1994 ble UNINETT DECnet og UNINETT EARN avviklet. UNINETT OSInett forsvant året etter og de siste restene av X.25 forsvant i 1. januar 1998 (X.500-katalogen ble riktignok ikke erstattet av LDAP før 1. januar 2001). Dette falt sammen med avviklingen av det europeiske Forskningsnettet EuropaNet og åpningen av TEN-34 (‘Trans Europe Network at 34 Mbps’). Med dette forsvant de siste restene av OSI-nett også fra de europeiske forskningsnettene.

Fra midten av 90-tallet var Internettprotokollene eneste bæretjeneste for ressursene og tjenestene og tredje generasjon av Forskningsnettet i Norge var en realitet. I denne fasen var Forskningsnettet et ‘rent Internett’, det rutet kun IP-trafikk. Med denne generasjonen kom også overgangen til Mbps-kapasitet over leide telelinjer. Stamnettet fikk relativt raskt 10 Mbps-forbindelser og et stadig flere endeinstitusjoner fikk 2 Mbps-forbindelser. NORDUnet-forbindelsen var på 34 Mbps og NORDUnets forbindelser til USA og Europa på henholdsvis 34 og 22 Mbps.

Rundt årtusenskiftet startet så byggingen av fjerde generasjon av Forskningsnettet, etter hvert omtalt som ‘Giganett’, med Gbps-kapasiteter i en landsomfattende fiberinfrastruktur.

To parallelle fortellinger, ett vendepunkt

Fra 1993 fulgte Forskningsnettet og generelt Internett ulike utviklingsløp nasjonalt og internasjonalt. Koplingen mellom de to varierte, men for begge var årene før og etter år 2000 et vendepunkt på mange vis. Fram til år 2000 var en vesentlig del av arbeidet i både Forskningsnettet og generelt Internett rettet mot å bygge ut kapasiteten i infrastrukturen. Trafikken mer enn fordoblet seg årlig i denne perioden og spiste raskt opp oppgraderingene av båndbredde. På slutten av 90-årene skjedde det en vesentlig utbygging av fiberforbindelser nasjonalt og internasjonalt, og med dette kom Gbps-kapasitet i nettene. I kombinasjon med lavere årlig trafikkvekst etter år 2000 medførte dette at kapasiteten i infrastrukturen ikke lenger var en like krevende utfordring.

For generelt Internett var introduksjonen av bredbånd i kombinasjon med trådløse nettløsninger og høyhastighets mobilnett i årene etter årtusenskiftet avgjørende for utviklingen. Like viktig ble smarttelefonene som begynte å komme på markedet på det tidspunktet. Sammen endret de vår hverdag, vi fikk Internett med oss overalt alltid. Med børskrakket i mars 2000 ble ‘dot.com’-bonanzaen på slutten av 90-tallet avløst av en mer edruelig kommersiell virksomhet på Internett.

For Forskningsnettet markerte årtusenskiftet avslutningen på et tiår med sterkt engasjement i utbygging av infrastruktur og tjenester for høgskolene og starten på byggingen av en fiberoptisk infrastruktur som etter hvert ble til dagens landsomfattende Giganett. Samtidig startet forskningsnettene med å rette oppmerksomheten mot hva denne infrastrukturen skulle være bærer av. Sentralt i dette sto forskningens og utdanningens behov for tjenester og ressurser og hvordan brukerne enklest og mest effektivt kunne få tilgang til og bruke disse. Ut av dette kom mellomvareløsninger, ressurser for vitenskapelig databehandling, multimedieanvendelser, administrative fellestjenester med mer.

Introduksjonen av bredbånd var også et vendepunkt i den offentlige IT-politikken. Markedsdrevet bredbåndsutbygging ble nå den ene store IT-politiske saken, mens planer om bruk av IT til å effektivisere og forbedre (og rasjonalisere) offentlige tjenester avløste 90-tallets sektorplaner og lett vidløftige planer for ‘den informasjonsteknologiske infrastrukturen’ og ‘informasjonsmotorveien’.

Utviklingen av generelt Internett

Etableringen av Internett som et globalt, allment tilgjengelig tjenestenett skjedde raskt. I 1990 var omtrent 25 land koplet til NSFNET og antall noder hadde passert 100.000, i 1997 var de fleste land i verden tilknyttet og antall noder hadde passert 10 millioner. Etter dette ble tallene for store til at de ga særlig mening for de fleste av oss. Det var tre vesentlige forhold som muliggjorde og drev utviklingen framover:

  • Åpningen av Internett for allmennheten og kommersiell virksomhet i tospann med offentlige myndigheters ambisjoner om å tilrettelegge for ‘den elektroniske motorveien’ og ‘den informasjonsteknologiske infrastrukturen’
  • Den teknologiske utviklingen i tråd med Moores lov
  • World-Wide Web som Internetts ultimate ‘killer application’

Åpningen av Internett og ‘den elektroniske motorveien’

Mot slutten av 1980-årene fikk interessen for Internett og TCP/IP utenfor universitetene og forskningsinstituttene konkrete uttrykk. UUNET (Unix to Unix Network) startet med å levere tilgang til e-post, News, programvarearkiv med mer over UUCP fra 1987 og bygde Alternet med TCP/IP som ryggrad i 1989. Samtidig ble “The World” (world.std.com) etablert som første ISP med leveranse av Internett-tjenester til privat sektor og allmennhet og ble fulgt av andre ISP-er. Disse tjenesteleverandørene hadde behov for samtrafikk slik at kunder og tjenester kunne kommunisere med hverandre. Ikke minst ville de ha tilgang til NSFNETs linjer, tjenester og brukere.

Samtrafikken ble løst ved hjelp av samtrafikkpunkter, Internet eXchange Providers (IX, IXP), som NIX er den norske utgaven av. Disse sørget for at trafikken gled friksjonsfritt mellom brukere og maskiner på tvers av de ulike tjenesteleverandørenes nett. UUNET etablerte Commercial Internet eXchange (CIX) som første IX-en i 1991 sammen med to andre ISP-er. Internett begynte å strukturere seg.


Figur 5-2: Internetts arkitektur på midten av 1990-tallet. Brukerne er knyttet til tjenesteleverandørenes nett som så er er knyttet sammen på forskjellig måte i et hierarki som samlet utgjør Internett.

Internets arkitektur


Kopling til NSFNET kom i kjølvannet av offentlige myndigheters inntog. Det startet i USA med vedtakene av “High Performance Computing and Communications Act” i 1991 og “Scientific and Advanced Technology Act” i 1992. I løpet av kort tid ble vokabularet utvidet med begreper som ‘nasjonal informasjonsinfrastruktur’ og ‘informasjonsmotorvei’ og vi fikk en gjenoppliving av Marshall McLuhans ‘globale landsby’.

Visjonen var å samle offentlige og private nett i et nasjonalt nett som kunne transportere alle datatyper og elektroniske tjenester og gjøre dem tilgjengelig for offentlig og privat sektor og nasjonens borgere. Dette var en visjon som myndigheter i mange land, inkludert de nordiske, delte på midten av 90-tallet.

Datidens Internett, NSFNET, hadde brukere (som de telte i millioner), et landsomfattende linjenett og internasjonale forbindelser til en rekke land. NSFNET var samtidig offentlig finansiert og pålagt retningslinjer som eksplisitt forbød kommersiell virksomhet. Gjennom de nevnte politiske prosessene ble det etablert midlertidige ordninger som åpnet for tilknytning og samtrafikk med kommersielle aktører. Dette var en sterkt omdiskutert og kontroversiell ordning som overlevde til 1995. Da overlot NSFNET ansvaret for Internetts ryggrad til kommersielle nettoperatører. Dette la de siste brikkene på plass i arkitekturen for Internett slik vi kjenner den i dag.

I 1995 hadde alle de nordiske landene lagt planene for sine nasjonale informasjonsinfrastrukturer og informasjonsmotorveier. I Norge kom “Den IT-baserte infrastrukturen i Norge – Status og planer” i 1995 og “Den norske IT-veien – Bit for bit” i 1996. Gudmund Hernes oppsummerte dette slik i UNINyTT, UNINETTs nyhetsblad:

Vårt land er nå i ferd med å hektes på en informasjonsverden der kunnskap formidles via globale nett som blir den sentrale kilde til velferd og makt, til medbestemmelse, erkjennelse og opplevelse.

Kirke-, utdannings- og forskningsdepartementet med den samme Hernes i spissen ga samtidig ut en bred gjennomgang av visjonene og utfordringene i boka “Den digitale revolusjon”. Det var med andre ord på tide å gjøre noe.

Litteraturen vi leste
  • Kurt Vonnegut: Player Piano (1952)
  • William S Burroughs: Naked Lunch (1959)
  • Philip K Dick: Do Androids Dream of Electric Sheep? (1968)
  • Douglas Adams: The Hitchhiker's Guide to the Galaxy (1979), The Restaurant at the End of the Universe (1980), Life, the Universe and Everything (1982) og So Long, and Thanks for All the Fish (1984)
  • Vernor Vinge: True Names (1981)
  • William Gibson: Neuromancer (1984), Count Zero (1986) og Mona Lisa Overdrive (1988)
  • Neal Stephenson: Snow Crash (1992), Diamond Age (1993)

Moores lov og den teknologiske utviklingen

Moores lov utfoldet seg samtidig i all sin prakt. I tillegg til eksponentielt økende kapasitet på alle typer datamaskiner, lagringsmedier og nettkomponenter, er årene etter 2000 mest av alt preget av en bemerkelsesverdig utvikling av brukerutstyret. Mens stasjonære og etterhvert bærbare maskiner var enerådende på 90-tallet, fikk disse selskap av en rekke ulike typer brukerutstyr etter år 2000. Vi fikk Internett på smarttelefoner, spillkonsoller, MP3-spillere, GPS-navigatører, TV-apparater, nettbrett og mye annen elektronikk.

Vi opplevde samtidig en rask og omfattende utvikling på infrastruktursiden. Ulike bredbåndsteknologier brakte Internett med akseptabel kapasitet hjem og utviklingen av trådløse nett og høyhastighets mobilnett i årene etterpå, gjorde Internett praktisk talt allestedsnærværende.

Smarttelefonene toger inn

Smarttelefonene og deres ektefødte barn, nettbrettene, står for den vesentligste utviklingen av brukerutstyr, brukeratferd og brukeropplevelse på Internett etter år 2000.

På 90-tallet hadde vi mobiltelefoner til å ringe med og til å sende tekstmeldinger. Vi hadde PDA-er (‘Personal Digital Assistent’) til å administrere kontakter, avtaler, gjøremål og andre ting som holdt orden på hverdagen. Vi fikk kameraer som tok digitale bilder og vi fikk MP3-spillere for å spille musikk. Vi hadde med andre ord en ‘dings’ for hvert formål.

Det neste naturlige og logiske skrittet var å samle dette i ett og samme utstyr. Rundt 2000 lanserte datidens markedsledere på mobilmarkedet, Ericsson og Nokia, de første smarttelefonene. Dette var mobiltelefoner med PDA-funksjonalitet og de var utstyrt med tastatur og større skjerm. Av de mest suksessrike var Nokia Communicator som kom i en rekke utgaver utover på 2000-tallet.


Figur 5-3: Nokia Communicator 9210 lansert i november 2000 med Symbian som operativsystem.

Nokia Communicator 9210


I løpet av kort tid fikk disse telefonene fargeskjerm, skjermer med bedre oppløsning og trykkfølsomme skjermer. Så ble kamera, MP3-spiller og noe senere GPS bygd inn i dette utstyret. Og det tok av. I løpet av kort tid var salget av slike multifunksjonelle mobiltelefoner større enn samlet salg av standalone PDA-er, digitale kamera og MP3-spillere og ‘smarttelefon’ ble en del av vokabularet.

Samtidig fikk mobilnettet større kapasitet. Vi fikk EDGE, GPRS, HSDPA og 3G, og 4G står for døren. Dette åpnet for ny bruk og nye tjenester på mobiltelefonen. Med tilknytning til trådløst nett (WLAN) ble smarttelefonene fullverdige Internett-klienter med e-post, web og alt annet som hørte til.

I motsetning til de første mobiltelefonene og de andre dingsene var smarttelefonene datamaskiner med standardiserte operativsystem, programmeringsgrensenitt og brukeromgivelse. Symbian var det dominerende operativsystemet omtrent hele tiåret etter at de første smartelefonene ble introdusert. Det ble utviklet i et samarbeidsprosjekt mellom Psion som var en av PDA-pionérene og tre av de store på mobiltelefoner rundt årtusenskiftet, – Nokia, Erichsson og Motorola. Brukeromgivelsene ble også gjenstand for standardisering. På dette området ble det riktignok tre standarder, der Nokia satset på en (S60) og Ericsson, Motorola med flere en annen (UIQ), mens japanske Sony, Panasonic, Fujitsu, NEC med flere samlet seg om et tredje (MOAP). Sammen med Symbian utgjorde disse en utviklingsplattform for applikasjoner og smarttelefonene ble raskt utstyrt med alt fra kalender, kontakt- og gjøremålslister, tekstbehandler og regneark til spill og annen underholdning, – samt e-post, web og andre nettjenester.

Apple entrer arenaen, tett fulgt av Google

Apple lanserte iPod og iTunes i 2001 og erobret i løpet av kort tid markedet for bærbar musikk.

Etter et mislykket samarbeid med Motorola om en smarttelefon med iTunes, var selskapet klar for et nytt framstøt med lanseringen av iPhone med iOS som operativsystem i 2007. I løpet av kort tid erobret de også markedet for smarttelefoner. Samtidig hadde de løftet smarttelefonen opp på et nytt nivå når det gjaldt funksjonalitet og ikke minst når det gjaldt brukeropplevelse. Dette ble videreført i nettbrettet iPad i 2010. Over natta ble ‘App Store’ og ‘app-er’ et viktig innslag i dagligtalen.


Figur 5-4: Første iPhone lansert av Apple i 2007

Første iPhone


Google kom like etter med Android, et Linux-basert operativsystem for smarttelefoner. Høsten 2007 ble HTC Dream lansert som første Android-telefon. I løpet av 2010 hadde Android passert alle andre og var størst på operativsystem for smarttelefoner, samtidig som den største produsenten Android-baserte smarttelefinre, Samsung, alene solgte flere smarttelefoner enn Apple.

Ubegrenset kapasitet, tilnærmet

Utviklingen av smarttelefonene er en god illustrasjon på Moores lov som sier at stadig økende datakraft pakkes i stadig mindre komponenter. Denne miniatyriseringen har gitt smarttelefonene en behandlingskapasitet tilsvarende det en velvoksen datamaskin hadde for bare få år siden.

I den andre enden av skalaen finner vi høykapasitets databehandling (HPC – High Performance Computing) for vitenskapelige og andre formål. Der brukes antall flyttallsoperasjoner pr sekund (Flops) som mål på regneanleggenes ytelse. Abel, regneanlegget som ble installert ved Universitetet i Oslo våren 2012 hadde en teoretisk ytelse på 258 Teraflops (billioner – 1012 – flyttallsoperasjoner i sekundet). Med en målt ytelse på 172 Tflops holdt det til en plass blant de 100 første (nummer 96 for å være nøyaktig) på det årets juniliste over de raskeste regneanleggene i verden (‘Top 500 Supercomputing Sites’). På novemberlisten havnet den som nummer 134 (til sammenligning hadde nummer 96 på denne listen 252 Tflops, nesten en halv gang større ytelse enn Abel). Neste gang listen publiseres vil Abel neppe ha en plass blant de 300 raskeste dersom anlegget ikke bygges ut i mellomtiden.

Det samme er tilfelle dersom målet er antall instruksjoner pr sekund. IBM System/370 var den desidert mest solgte datamaskinen på 70-tallet. Den prosesserte en million instruksjoner i sekundet (MIPS), noe som etter hvert ble brukt som et annet mål på ytelse. Abel benytter Intels nye prosessorgenerasjon Intel Core i7 (‘Sandy Bridge’). Hastigheten på disse er i størrelsesorden 100.000 MIPS, noen versjoner litt mindre, andre en del mer. Abel ble ved installasjonen utstyrt med godt over tusen slike.


Figur 5-5: Fra installasjonen av Abel, den nye regneressursen ved Universitetet i Oslo med en fornøyd IT-direktør i forgrunnen.

Abel - regneanlegget ved Universitetet i Oslo


Resultatet er billigere datakraft, svært mye billigere. For 50 år siden var en ytelse på en Gflop (en milliard – 109 – flyttallsoperasjoner pr sekund) langt utenfor økonomisk rekkevidde. Den ville krevd kapasiteten til 17 millioner av datidens standardmaskin IBM 1620 og kostet et par-tre norske pensjonsfond (1,5 billioner dollar) i datidens pengeverdi. I 1984 kom Cray X-MP med en ytelse på en Gflop til en pris på 15 millioner dollar. På slutten av 90-tallet kom klynger bygd på standard maskinvare som senket prisen betydelig. I 1997 ga en slik installasjon denne ytelsen til 30.000 dollar og prisen falt videre til 1000 dollar i 2001 til 48 dollar i 2007 og mindre enn 2 dollar i 2011.

Tilsvarende eksponentiell utvikling har også vært regelen for andre deler av databehandlingen, – lagring, minne, skjermoppløsning, etc. Alt i alt en utvikling som i økende tempo har gitt oss billigere utstyr med økt ytelse og kapasitet og med ny funksjonalitet. Nå spiller ikke slike tall noen særlig rolle utover å fortelle om en rivende teknologisk utvikling. Kapasiteten er med andre ord på plass, om vi evner å sette de ulike bitene sammen og programmere den til gjøre nyttige ting for oss, avhenger av helt andre forhold.

Internett til alle tider alle steder

Sett med dagens øyne, var 90-tallet ei traurig tid for brukerne av Internett. Med unntak av dem som hadde god tilgang til Internett på jobben, var privatbrukere i hovedsak henvist til ulike typer oppringte forbindelser. Dette gjaldt også det store flertallet av små og mellomstore bedrifter. Dette var forbindelser med en kapasitet på noen titalls Kbps.

I tillegg til at dette var tregt, ustabilt og vanskelig å sette opp, kostet det penger, i begynnelsen mye penger. I første halvdel av 90-tallet kostet en times daglig Internett-bruk i størrelsesorden 25.000 kr i året (som utgjorde en høyst merkbar del av en gjennomsnittlig årsinntekt på den tiden). Og brukervennlig var det knapt. Etter 1995 brakte priskriger kostnadene ned på et langt rimeligere nivå, men det var fortsatt langt fra en kostnadsfri virksomhet. Televerkene ga oss riktignok ISDN, men det representerte ikke det store spranget. Det var litt mindre tregt, litt mindre ustabilt, men fortsatt dyrt, og fortsatt lite brukervennlig.

Allmenn tilgang til bredbånd over telefonlinjer og kabel-TV-nett etter år 2000 åpnet for et skred av brukere og tjenester. Det var først etter dette at Internett og Internett-bruken slik vi kjenner det i dag fikk sin utforming. Bredbånd var enklere å sette opp, raskere, stabilere og billigere, i alle fall sett på bakgrunn av erfaringene fra 90-tallet. Det gjorde det mulig å være ‘på nett’ hele tiden for noen få hunderlapper i måneden, – med alt det førte med seg. I løpet av de nærmeste årene kom trådløse nett hjemme og i offentlige rom og nye generasjoner mobilnett med kapasitet for dataoverføring. En vesentlig del av befolkningen i Norge har mulighet for å få optisk fiber hjem, noe som på litt sikt kan gi et ytterligere, vesentlig løft og medføre endringer i våre vaner for når vi er på nett og hva vi gjør der.

Den siste kilometeren hjem

På 90-tallet var kapasiteten på forbindelsen den siste kilometeren hjem den store hindringen for utbredelsen av Internett. Etter år 2000 har ulike bredbåndsteknologier langt på vei ryddet dette hinderet av veien. I stortingsmelding nr 49 (2002-2003) “Breiband for kunnskap og vekst” ble bredbånd definert slik:

Bredbånd er toveis kommunikasjonsnett som kan overføre ulike former for data som tekst, lyd, og levende bilder og som må kunne bære nye tjenester og tillate at mange bruker nettet samtidig.

Ser vi bort fra mobilt bredbånd som nå er på full fart inn, omfattet utbyggingen av bredbånd tre teknologier. Bredbånd over kabel-TV-nettet var for så vidt først ute. I 2000 hadde over tre fjerdedeler av landets første 20.000 bredbåndsabonnenter denne tilknytningen. I løpet av et par år var bredbånd over telefonnettet dominerende og har vært det fram til i dag. Fra omtrent 2005 begynte optisk fiber hjem å gjøre seg gjeldende.

Da antallet bredbåndsabonnenter passerte en halv million i 2004 og en million i 2006 dominerte bredbånd over telefonnettet med en markedsandel på mellom 80 og 90%. Etter det har optisk fiber hjem hatt den største veksten og i 2012 hadde nesten 380.000 av landets vel 1,7 millioner abonnenter denne tilknytningen. Bredbånd over kabel-TV-nettet har vokst jevnt og sikkert hele tiåret og hadde i 2012 over en halv million abonnenter, mens andelen bredbånd over telefonnettet har falt betydelig de siste 4-5 årene og utgjorde 740.000 i 2012.

Mobilt bredbånd er på vei inn. Både Telenor og Netcom har landsdekkende tredje generasjons mobilnett (såkalt 3G) med en båndbredde fra noen hundre Kbps til et par Mbps. I 2012 hadde nesten 1,4 millioner abonnenter slik tilknytning. Begge de nevnte mobiloperatørene er i gang med å bygge ut fjerde generasjons mobilnett (4G) med vesentlig større båndbredde.

En vesentlig trekk (defekt vil mange si) er det asymmetriske ved de aller fleste bredbåndsløsningene. Overføringskapasiteten er fem-ti ganger større nedstrøms til brukeren enn den er oppstrøms fra brukeren. Størst forskjell er det på bredbånd over kabel-TV-nettet, mens den er minst for optiske løsninger.

Minimumskravet til bredbånd har endret seg drastisk i denne perioden. Da bredbånd ble introdusert, var 640/128 Kbps regnet for å være godt nok for de fleste anvendelser. De siste årene har 8/1 Mbps vært standarden, mens 50/10 Mbps omtales i ulike sammenhenger som å være en standard om kun kort tid. I 2012 har nesten halvparten av bredbåndsabonentene mer enn 10Mbps nedstrøms og 12% har mer enn 30 Mbps.

Web entrer scenen

World-Wide Web ble den virkelige ‘killer application’ for generelt Internett etter av NCSA (National Center for Supercomputing Applications) i 1993 lanserte Mosaic som den første grafisk orienterte Web-leseren og nettsiden “What's New?” med oversikt over web-steder og web-tjenester.


Figur 5-6: Denne Web-siden ved Universitetet i Oslo senhøsten 1993 er et typisk eksempel på urutgaven av web med lett strukturert tekst, enkle illustrasjoner og lenker til andre nettsider.

Første Web-side ved Universitetet i Oslo


Teknologien Web bygde på ble utviklet av Tim Berners-Lee og hans medarbeidere ved det europeiske forskningssenteret i CERN på slutten av 80-tallet. I 1993 erklærte CERN at denne teknologien skulle være allment og fritt tilgjengelig uten restriksjoner. Da var det 200 kjente web-tjenere som sto for 1% av Internett-trafikken. Året etter var antallet kjente web-tjenere mangedoblet og Web hadde overtatt plassen som tjenesten med størst trafikk i Internett, – to år etter at de første web-sidene ble publisert. I 2000 passerte antallet nåbare web-sider en milliard. I 2011 ble det anslått at de store søketjenestene (Google, Yahoo, Bing) hadde indeksert 7,5 milliarder web-sider, mens antallet nåbare web-tjenere var passert 350 millioner. Og disse tallene vokser.

Etter kort tid var det åpenbart at NCSAs “What’s New?”-side ikke var tilstrekkelig til å holde seg oppdatert på det som skjedde av interessante ting på nettet. Vi fikk emnekataloger med “Jerry’s Guide to the World-Wide Web” som ble til Yahoo! og vi fikk roboter (såkalte ‘crawlere’) som trålet nettet og indekserte hver web-side de kom over i databaser som søketjenester som Alta Vista, Lycos og andre brukte til å svare på våre søk etter nye opplevelser.

I kjølvannet av Mosaic kom Netscape i 1994 med Mosaic-utvikler Marc Andreessen i spissen. Med Netscape Navigator var de omtrent alene på arenaen for nettlesere, – på midten av 90-tallet brukte 9 av 10 web-surfere denne nettleseren. Først etter at Microsoft innså hvor gigantisk feilgrep det var å lansere MSN (Microsoft Network) som en konkurrent til Internett i 1995, ble Netscape Navigators posisjon utfordret av Internet Explorer. Det startet den store ‘browser-krigen’ som på slutten av 90-tallet satte sitt stempel på nettsidene med advarsler om at “Denne siden vises best i Internet Explorer” og “Denne siden vises best i Netscape”. I denne krigen var våpenet nye elementer og funksjoner på nettsidene og begge parter sørget for at det kun var egen browser som støttet dem. Netscape introduserte JavaScript, mens Microsoft kom med Active X, begge deler for å utvikle dynamiske elementer på nettsidene.

Nettleserkrigen utspant seg på mange fronter og resulterte i Internet Explorers totale dominans de første årene etter 2000, mens Netscapes nettleser forsvant. Utover på 2000-tallet kom nye aktører (Mozilla Firefox, Google Chrome og Apple’s Safari, samtidig som Opera holdt stand) og reduserte Internet Explorer til å bli den største av noen få store.

Universitetet i Oslo var, sammen med Universitetet i Tromsø blant de aller første som tok Web i bruk i Norge. Et UNINETT-prosjekt utført ved Universitetet i Tromsø utviklet Web-kartet, – et Norgeskart der kjente Web-tjenere var lagt inn med klikkbare lenker. I desember 1993 lå det lenker til omtrent 50 nettsteder i dette kartet.


Figur 5-7: I 1993 lagde Universitetet i Tromsø et klikkbart kart over det norske Web-landskapet. UNINETT tok over arbeidet med dette i 1995. Da var antallet Web-tjenester allerede så stort, så kartet måtte begrenses til forsknings- og utdanningsinstitusjonenes nettsteder. Dette ble autogenerert og etter hvert delt opp i regionale kart, noe UNINETT har fortsatt med fram til i dag.

Web-kartet i 1999


Emnekatalogene og søkemotorene var de første tjenestene. Så kom e-handelsstedene med Amazon i spissen (1994), markedsplassene med Craigs List (1995), nettauksjonene med eBay (1995) og betalingstjenestene med PayPal (1998), samt webmail-tjenester som Hotmail (1996) og emnekatalogene Best of the Web (1994) og Open Directory Project (1998), for å nevne noen av de nettstedene som har fulgt oss siden den tid. Fra omkring år 2000 fulgte P2P-fildeling (‘peer-to-peer’), Web 2.0, semantisk web og sosiale nettverk. I rask rekkefølge kom tjenestene og omgivelsene som har lagt beslag på manges arbeids- og fritid fram til i dag:

  • 1998: Google, MSN.com
  • 1999: Napster, Messenger, Netflix
  • 2000: Blogger.com, Gnutella, Freenet
  • 2001: Wikipedia, BitTorrent, iTunes, KaZaa
  • 2002: Friendster, Last.fm
  • 2003: MySpace, LinkedIn, Skype, Second Life, del.icio.us, MediaWiki
  • 2004: Facebook, Flickr, World of Warcraft, Podcast, Blogster
  • 2005: YouTube, Windows Live, Google Earth
  • 2006: Twitter, WikiLeaks, Khan Academy, AboutUs, SlideShare
  • 2007: Kindle, Gmail, App Store
  • 2008: Spotify, Zoho
  • 2009: Google Docs, Bing, WIMP
  • 2010: Instagram
  • 2011: Google+

De som fortsatt er operative, brukes av millioner, for noens vedkommende hundrevis av millioner brukere daglig, og de rekrutterer daglig stadig nye brukere. Og da er det ikke tatt med nettsteder og tjenester beregnet på brukere tilhørende andre språksamfunn enn vårt, for eksempel det kinesiske.

Bøkene som ga oss innsikt og kunnskap

Vi leste bøker, mange bøker og leseropplevelsen av noen av dem henger ennå igjen:

  • Marshal McLuhan: Understanding Media (1964), The Medium is the Massage (1967)
  • Tracy Kidder: The Soul of a New Machine (1981)
  • Stephen Levy: Hackers. Heroes of the Computer Revolution (1984)
  • Douglas Comer: Internetworking with TCP/IP: Principles, Protocols, and Architecture (1988)
  • Evi Nemeth et al: UNIX System Administration Handbook (1988)
  • Don Libes, Sandy Ressler: Life with Unix: A Guide for Everyone (1989)
  • Andrew Tannenbaum: Computer Networks, 2nd Edition (1989)
  • John Quarterman: The Matrix; Computer Networks and Conferencing Systems (1990)
  • Samuel J Leffler, Marshall Kirk McKusick: The Design and Implementation of the 4.3 BSD Unix Operating System (1991)
  • Carl Malamud: Exploring the Internet (1992)
  • Ed Krol: The Whole Internet Users Guide and Catalog (1992)
  • Peter Salus: A Quarter Century of Unix (1994)
  • Nicolas Negroponte: Being Digital (1995)
  • Peter Salus: Casting the Net (1995)
  • Manuel Castells: The Information Age: Economy, Society, Culture (1996-98):
    • Vol 1: The Rise of the Network Society
    • Vol 2: The Power of Identity
    • Vol 3: End of the Millenium
  • Katie Hafner: Where Wizards Stay Up Late: The Origins Of The Internet (1998)
  • Tim Berners-Lee: Weaving the Web: The Original Design and Ultimate Destiny of the World-Wide Web by its Inventor (1999)
  • Lawrence Lessig: Code and other Laws of Cyberspace (1999)
  • Glyn Moody: Rebel Code: Linux and the Open Source Revolution (2000)
  • Janet Abbate: Inventing the Internet (2000)

Generelt Internett i Norge på 90-tallet

Utviklingen av generelt Internett i Norge kan også deles i to perioder med år 2000 som vendepunkt.

Internett i Norge på 90-tallet startet som sagt i det svært små og eksploderte i siste halvdel av ti-året da ‘alle’ skulle ha en e-postadresse og en web-adresse på visittkortet. Ifølge Statistisk sentralbyrå hadde mer enn 50% av husholdningene Internett hjem i 2001, mens 75% av virksomheter med flere enn ti ansatte hadde tilkopling til Internett.

Det var to grupper som hver på sin front drev utviklingen framover. Den gruppa som kom først på banen var aksessleverandørene (ISP-ene), – foretakene som solgte tilknytning til Internett til privatpersoner og til foretak i privat og offentlig sektor. Fra tidlig 90-tall etablerte disse seg med en eller flere tjenermaskiner og hyller med modemer. I dette var Oslonett pioneren og Televerket, senere Telenor den dominerende.

Den andre gruppa var innholds- og tjenesteleverandørene som utviklet og vedlikeholdt nettsteder, portaler, e-handelssteder og andre tjenester i nettet. Aksessleverandørene var også på dette markedet, også her var Oslonett en pioner. I tillegg ble en rekke nye foretak etablert med Internett og Web som sentralt innslag i forretningsplanen.

Sentralt blant de nye foretakene var de såkalte ‘web-byråene’. Noen av dem hadde sin opprinnelse i etablerte bransjer som reklame, aviser og andre medier, men de fleste ble startet mer eller mindre fra bar bakke, gjerne med kjøkkenbenken som utgangspunkt. En del av dem vokste raskt og ble representanter for det de fleste muligens husker best fra denne perioden, – det som i ettertid omtales som ‘dot.com’-bobla eller ‘Internet-bobla’ og som Robert Frostad og Magnus Thomassen portretterte ganske presist i boka de ga ut i 2001: “Dot-konk – Historien om det kommersielle Internett i Norge”.

Oslonett

I utviklingen av generelt Internett i Norge på 90-tallet utførte Oslonett og dets etterfølgere vesentlige deler av arbeidet. De var først i landet med å selge tilgang til Internett til privatbrukere og til foretak i privat og offentlig sektor. De var også først med å tilrettelegge mange av tjenestene og ressursene som ble utviklet. Og de var de som tidligst, tydeligst og mest konsekvent bygde sin virksomhet på teknologien og arbeidsformene i Internett.

Oslonett ble etablert på det som senere er omtalt som ‘pizzamøtet’ 12. desember 1991 av en gruppe på 16 personer med bakgrunn i IT-miljøene i Informatikkbygget i Gaustadbekkdalen i Oslo, – Institutt for informatikk, USIT og Norsk Regnesentral. Etter møtet kom det to til, slik at gruppa talte 18 deltakere. I invitasjonen til pizzamøtet skisserte initiativtakeren Kjell Øystein Arisland denne forretningsideen for Oslonett:

Oslonetts forretningsidé:

Det er et behov i næringslivet, skolevesenet og offentlig forvaltning, blandt små og mellomstore bedrifter og institusjoner for:

  • Rimelige postkassetjenester for elektronisk mail
  • Tjenester for spredning av informasjon via oppslagstavler og mindre databaser
  • Tilgang på public-domain programvare
  • Tilgang på lokale newsgrupper moderert av eksperter på DOS, UNIX, nettverk etc., med jevnlig oppdaterte F.A.Q.-lister
  • Rimelig tilgang på høyt kvalifiserte konsulenter på kort varsel uten å binde seg til langvarige engasjementer

Behovene for privatpersoner med PC er tilsvarende, med større vekt på private og personlige interesser. Så som hobbies og mer underholdningsbaserte behov.

Med betydelig Internett-kompetanse og ditto erfaring fra de nevnte miljøene etablerte Oslonett seg med en maskin og noen titalls modemer i lokalene til firmaet til en av initiativtakerne. Elektronisk post og USENET Networks News fikk de i første omgang fra NUUG, den norske UNIX-brukergruppa. Prosessindustriens landsforening (PIL) var på plass som den første kunden i 1992. Tilgang til tjenestene fikk de første brukerne via et egenutviklet program med navnet OnTerm (som ganske sikkert står for ‘Oslonett Terminal’). OnTerm var et rent tekstbasert grensesnitt og minnet mye om tjenestene på 80-tallets oppslagstavler.

Oslonett etablerte seg tidlig i frontlinja for Web og Web-tjenester i landet. De var blant de første som satte i drift web-tjenere med www.oslonett.no sommeren 1993. “Oslonett Markedsplassen” ble utviklet som en av de aller første norske Web-tjenestene (om ikke den første). Her kunne foretak, bedrifter, institusjoner og organisasjoner etablere en tilstedeværelse på nettet gjennom presentasjon av virksomheten, produktinformasjon, annonser etc. For ett av disse nettstedene, nettstedet for turoperatøren Arctic Adventures, ble Oslonett i 1994 nominert til prisen for beste kommersielle nettsted i Global Network Navigators ‘Best of the Web’-kåring. Det var mye prestisje knyttet til denne kåringa og nominasjonen ga Oslonett mye positiv omtale.

For Oslonett var 1994 et merkeår. I rask rekkefølge fulgte publisering i sanntid av resultatene fra OL på Lillehammer og fra folkeavstemningen om EU, tilretteleggingen av ComputerWorld Norge som nettavis, konferansenettsted for NettverksExpo 1995 med mer. Med disse tjenestene var Oslonett foran de aller fleste når det gjaldt løsninger for automatisert produksjon og publisering av innhold (noe som blant annet gjorde at ‘Kjetil André Aamodt’ ble til ‘Kjetil Second Aamodt’ i den automatiserte oversettelsen av OL-artiklene til engelsk).


Figur 5-8: Oslonett på Web anno 1993-4 vist i Mosaic.

Oslonett på Web i 1994


Ikke nok med dette, i beste sendetid lærte de det norske folk Internett i NRK-programserien ‘Rondo’ våren 1995. I sin Web-avdeling bygde de opp en betydelig virksomhet med kursing i Internett, Web, HTML og tilgrensende emner i samarbeid med firmaet Intervett. Samme år kom Kvasir som ble den mest populære emnekatalogen over norske web-sider, inspirert av Yahoos emnekatalog og ‘What’s Cool?’. Emnekatalogen ble raskt utstyrt med søkefunksjonalitet og er fortsatt blant de største norske søketjenestene.

Et betydelige stykke ferdig arbeid i løpet av svært kort tid.

Kundemassen vokste raskt disse årene og det ble tidlig klart at Oslonett trengte flere ressurser. Ved etableringen av selskapet bidro hver av deltakerne med 5.000 kr til aksjekapitalen, samtidig som de forpliktet seg til å arbeide gratis for selskapet en måned i året. Et abonnement kostet 500 kr i måneden. Dette ga ikke de økonomiske musklene som skulle til for å møte blant annet behovet for investeringer i økt linjekapasitet. I tillegg trengte de internasjonal forbindelse, noe som virkelig kostet på den tida. De trengte med andre ord en partner som hadde adskillig dypere lommer enn dem selv.

Denne partneren fant de etter hvert i TelePost Communications som Stortinget hadde vedtatt opprettet i 1991. Stortingets intensjon var å etablere TelePost som ‘hele Norges elektroniske postkontor’ og var et av de siste uttrykkene for ambisjonene om datakommunikasjon som en offentlig teletjeneste. Televerket og Postverket eide hver sin halvpart av selskapet. Selskapet var operativ med TelemaX.400 som elektronisk posttjeneste fra 1992. Dette var den eneste kommersielle OSI-tjenesten som ble realisert i Norge. TelemaX.400 hadde noen hundre foretak i privat og offentlig sektor som kunder og var mjølkekua som sørget for at TelePost, i motsetning til de fleste andre, kunne levere regnskap med overskudd alle år.

I 1993 inngikk Oslonett og TelePost Communications en konsulentavtale som berget Oslonett over en viktig kneik. Avtalen innebar at de to delte markedet mellom seg, Oslonett skulle ha markedet for privatpersoner, mens TelePost tok bedriftsmarkedet. Avtalen sikret Oslonett tilgang til linjekapasitet, inkludert bruk av TelePost sin internasjonale forbindelse og tilknytningen til samtrafikkpunktet NIX og Oslonett kunne inntil videre vokse i aksessmarkedet for privatkunder, et marked der de allerede var størst.

Exit Oslonett og TelePost

På midten av 90-tallet begynte forholdet mellom Oslonett og TelePost å skrante. Avtalen om deling av aksessmarkedet og betingelsene knyttet til dette, hemmet Oslonetts virksomhet. Det endte med at Oslonett sa opp avtalen og flyttet utenlandsforbindelsen sin til det svenske teleselskapet Telia som på den tiden hadde etablert virksomhet i Norge. Med dette var delingen av markedet opphevet og Oslonett begynte igjen å selge aksess til private og offentlige foretak.

Postverket var samtidig på vei ut av TelePost og Televerket ble eneeier. Televerket var i mellomtida gjort om fra statlig forvaltningsbedrift til statsaksjeselskap og hadde endret navnet til Telenor. I avviklingen av TelePost var Postverket mest opptatt av å få ‘post’ ut av navnet og det endte med at foretaket ble videreført som en del av Telenor under navnet Telenor Online.

Oslonett trengte fortsatt en partner med dype lommer og fant den et helt annet sted enn mange spådde. Mediebedriftene var i ferd med å komme på banen og Schibsted var av dem som la mest krefter i dette. Etter en kort forhandlingsrunde kjøpte de Oslonett og sammen etablerte de Schibsted Nett. Med Oslonetts i underkant av 10.000 kunder var de størst og dobbelt så stor som Telenor Online.

Hverken Telenor Online eller Schibsted Nett hadde Internett som glassklar strategi på dette tidspunkt. Begge ønsket i utgangspunktet å etablere en norsk variant av America Online (AOL) som var noe av det heteste på den tiden. AOL var en stor oppringt oppslagstavle med en rekke brukertjenester og med en stor brukermasse og ikke en del av Internett. På det tidspunktet mente da også Bill Gates at Internett var en døgnflue og lanserte Microsoft Network (MSN) som konkurrent og alternativ til både AOL og Internett. Hverken Telenor Online eller Schibsted Nett gikk i samme fella som Bill Gates og Microsoft. De skiftet strategi og i løpet av kort tid etablerte de hver sin Internett-portal og var klar til å erobre nye kunder:

  • Telenor Online: Scandinavia Online med Origo Index som emnekatalog og søketjeneste
  • Schibsted Nett: SN Horisont med Kvasir som emnekatalog og søketjeneste

Priskrig og kampen om markedsandeler

Høsten 1995 var det klart for første runde i kampen om markedsandelene. Underveis hadde to aktører meldt seg på. EUnet var allerede i 1993 etablert som en konkurrent til TelePost og var størst i bedriftsmarkedet. PowerTech Information Systems etablerte seg som tjenesteleverandør i privatmarkedet og konkurrent til Oslonett i 1994. Omtrent samtidig kom Riksnett på banen som aksessleverandør finansiert av A-pressen.

Priskrigen startet høsten 1995 med at Telenor Online senket månedsprisen fra 740 kr til 199 kr for ubegrenset bruk. Schibsted Nett og de andre fulgte etter. EUnet introduserte modem for 1 kr sammen med Internettabonnement. Da røyken la seg fram mot sommeren 1996 hadde Telenor Online vokst til 65.000 privatkunder og var størst, men med de mest misfornøyde kundene. De hadde ikke infrastrukturen på plass som kunne håndtere tusenvis av nye kunder i uka og opptattsignal fra modemet ble et like utskjelt som velkjent fenomen.

Priskrigen tæret på de finansielle musklene til Schibsted Nett som med sine vel 50.000 privatkunder var nest størst. Det samme gjaldt de andre aksessleverandørene som hadde langt færre kunder. Det var på tide med konsolidering og den kom på slutten av året da Telenor Online og Schibsted Nett inngikk en samarbeidsavtale:

  • Telenor Online overtok Schibsted Netts aksesskunder og ble dominerende blant aksessleverandørene med 75% av privatkundene og i underkant av 40% av bedriftskundene (der EUnet fortsatt holdt stand)
  • Scandinavia Online ble videreutviklet som Internett-portal i et felleseid selskap som ble etablert i 1997 under navnet SOL AS

I 1996 etablerte de svenske teleselskapene Telia og Tele2 seg som aksessleverandører, samtidig som noen av de mindre trakk seg tilbake. I 1997 var det dags for en ny priskrig som endte med at Telenor Onlines markedsandel sank til 60%, mens Tele2 etablerte seg som nest størst med omtrent en femtedel av markedet. I tillegg til disse kom Telia og EUnet og sammen hadde de det aller meste av privatkundene resten av tiåret.

Med dette roet aksessmarkedet seg noen år inntil tida rundt år 2000 da kraftselskaper, kabel-TV-selskaper og en rekke andre kom på banen sammen med teleselskapene som bredbåndsleverandører.

Dot.konk

I ettertid framstår siste halvdel av 90-tallet som noe nær galskapens år. Det var en periode der gründere av alle slag rådde grunnen sammen med investorer i alle klasser. Sammen førte de an i en aksellrerende runddans som fikk en bråstopp med børsfallet våren 2000 og som etterlot noen svært mye rikere og langt flere med vesentlig slankere lommebok og ditto bankkonto. I disse årene var det ikke lett å se bak støyen og oppdage det som ble skapt av varig verdi. ‘Dot.konk’ var det vi husket og det var med ganske lett hjerte mange av oss sa farvel til 1990-årene.

Dot.com-bobla

Bobla startet i USA på midten av 90-tallet med børsnoteringen som prissatte Netscape til tre milliarder dollar i 1995. Yahoo! fulgte etter i 1996 og børsen prissatte firmaet til 34 milliarder dollar. Og de ble fulgt av nye børsnoteringer, aksjeemisjoner og oppkjøp til eventyrlige priser.

Fenomenet ble omtalt som ‘pre-/postfix investing’. Tilsynelatende var det nok å sette en ‘e’ foran foretaksnavnet og/eller ‘.com’ etter, så strømmet investorene til og aksjekursen føk til himmels. Lave renter bidro til et gunstig klima der entreprenører og investorer kunne utfolde seg. Troen på framtidig vekst fikk amatører og profesjonelle investorer til å ignorere bunnlinja og satse både egne og andres penger.

I en økonomi der ‘bli stor fort’ og høyest mulig markedsandel var det viktigste kriteriet på suksess, kunne ikke vare. I mars 2000 bråstoppet det. NASDAQ-indeksen for teknologiaksjer hadde doblet seg på ett år og passerte 5000 før nedturen begynte. En måned senere hadde den falt nesten en tredjedel og nedturen fortsatte de neste par årene og var nede på 1200 før den begynte å ta seg opp igjen.

I tillegg til massive nedbemanninger, kom det i kjølvannet av nedturen noen spektakulære konkurser. Og det ramlet til dels meget store lik ut av skapene. Triksing med selskapsinformasjon, regnskaper og aksjekurser viste seg å ha utløst et nivå av kreativitet som var minst like høyt, om ikke høyere, enn kreativiteten i produkt- og tjenesteutviklingen. Ikke akkurat av de stolteste øyeblikkene i menneskehetens historie.

Pengene fløt i ganske strie strømmer, formuer ble skapt (og tapt) over natta og foretak vokste og forsvant i raskt tempo. Tilsynelatende var det nok å presentere en luftig virksomhetsidé med de rette ordene og en forretningsplan med vage produktbeskrivelser og planer om ekspansjon, gjerne internasjonalt. Ispedd en dæsj halvkjendisdrevet medieomtale var dette nok til at investorer av alle slag sto klar til å kaste penger etter deg.

Dette var ‘den nye økonomien’. Etter hvert ble det åpenbart at det ‘nye’ med denne økonomien var at den ikke stilte krav om at foretakene skulle tjene penger, i alle fall ikke i år og heller ikke neste år. Tilsynelatende var det ingen som stilte spørsmål ved bunnlinja til disse foretakene. Tvert imot kunne det se ut som om det å tape penger var et av de viktigste kriteriene for å lykkes i denne nye økonomien:

Selv om mange selskaper med nettet som forretningsidé fortsatt taper penger, er børsverdien i mange tilfeller astronomisk. Årsaken er ofte at informerte investorer tror på den (i.e. ‘Den nye økonomien’). Og framdeles er det de amerikanske investorene og aktørene som forstår de nye spillereglene best. (sitert i Frostad og Thomassen: “Dot-konk – Historien om det kommersielle Internett i Norge”)

Denne uttalelsen i 1999 fra en av de toneangivende aktørene i denne perioden, Bente Sollid, oppsummerer det meste. Det var aksjeverdien som var drivkraften, ikke bunnlinja. Året etter hadde imidlertid de ‘informerte investorene’ mistet troen og selskapenes børsverdi falt ‘astronomisk’, mens de som ble kjøpt ut (med kontanter i stedet for aksjeposter) av sine selskaper i tide, kunne trekke seg tilbake med en hyggelig saldo på kontoutskriften. De som satt igjen i selskapene hadde noen helt andre utfordringer.

Realiteten var at kun et fåtall av selskapene som ble etablert i denne perioden, kunne vise fram et årsregnskap med overskudd. Svært ofte var det nok å gange årsomsetningen med ti for å få tallet for årets underskudd. Eksemplene er flere på selskaper som i løpet av få år hadde akkumulert underskudd i ti- og hundremillionersklassen.

I denne stemningen av eufori, ble selskapsetableringer, emisjoner og (ikke minst) oppkjøp gjennomført til aksjekurser som priset selskapene til ti- og hundretalls millioner. Internett-portalen SOL (Scandinavia Online) og rekrutteringsselskapet Stepstone gikk på børs tidlig i 2000 og ble notert til aksjekurser som prissatte dem til henholdsvis seks og elleve milliarder kroner, – mer enn datidens største industrikonsern Kværner og Elkem. Dette kunne ikke vare. Til sammen var IT-selskapene på Oslo Børs priset til over 100 milliarder kroner før nedturen startet. Da støvet etter børsfallet våren 2000 hadde lagt seg, hadde de fleste selskapene mistet 80-99% av aksjeverdien, dersom de ikke hadde gått konkurs underveis. Et år etter børsnoteringen var for eksempel SOL prissatt til en tidel av verdien året før, 600 millioner kroner. Et tiår senere eksisterer kun en liten håndfull av de selskapene som var børsnotert da bobla sprakk i 2001 og ingen av dem er i nærheten av å ha samme aksjeverdi i dag som de hadde den gangen.

En av de få av betydning som klarte å holde seg i skinnet og som hadde fokus på riktig sted i denne perioden, var Opera Software. I perioden fra etableringen i 1995 og fram til emisjonen våren 2000 sa grunnleggerne Geir Ivarsøy og Jon Stephenson Tetzchner nei takk til alle som ønsket å kjøpe seg inn, tilbud som ville gitt dem gevinster på flere titalls millioner (i kontanter). Først i mars 2000 fant de det riktige tidspunktet for å gå på børs og de gjorde det til en kurs som verdsatte selskapet til 500 millioner kroner. Året etter gjennomførte de en ny emisjon som prissatte selskapet til 1,2 milliarder kroner. Mens de fleste opplevde en rasering av aksjeverdien, doblet altså Opera sin verdi.

Det vi fikk med oss inn i det nye årtusenet

Ingen savner i dag Global Money Games, CoShopper, Bid2Day, Opticom, Boxman, New Media Science, Digital Hverdag, Birdstep, Online Club, yaTack, GiBud, Mogul Media, Active ISP og de andre boblene. I ettertid er det lett å glemme at noen av dem kom seg noenlunde ned på beina etter nedturen i 2000 og er i dag virksomme selskaper på en betydelig mer solid plattform. Med ‘dot.konk’ som bakteppe er det også lett å glemme at det ble gjort mye arbeid av varig verdi i disse årene. Det ble utviklet gode tjenester og tekniske løsninger, samtidig som vesentlig kompetanse og kunnskap ble bygd opp. Ut av disse årene kom en rekke tjenester og ressurser som i tiåret etterpå ble videreutviklet til det vi kjenner av tjenester i Internett i dag:

  • Nettaviser og medietjenester:
    • Kommunal Rapport første blad på nett i 1993, fulgt av ComputerWorld Norge som første nettavis i 1994
    • Brønnøysunds Avis først på nett av dagsavisene i 1995, tett fulgt av Dagbladet, VG og Aftenposten
    • digi.no og Nettavisen første rene nettaviser i 1996, ITavisen fulgte i 1997
    • NRK Interaktiv i 1995
  • Nettbank og tilliggende tjenester:
    • BNBank med mottak og behandling av lånesøknader på nett fra 1995
    • Sparebanken Hedmark første nettbank i 1996, tett fulgt av Landsbanken og Kredittkassen, de andre fulgte etter i 1997, mens DnB Nor var den siste av de store med nettbank i 1999
    • Gjensidige først med forsikringstjenester på nett i 1996
    • Christiania Fonds første nettsted for aksjehandel i 1997
  • eHandelssteder, markeds- og annonseplasser av ymse salg:
    • Oslonett Markedsplassen i 1993
    • PowerSys med CD-butikk for Lars Kilevold i 1994
    • Datavarehuset med ehandel fra 1994
    • Akers Mic med CD-butikk på nett i 1995
    • Peppes Pizza i 1995
    • Bruns Libris bokhandel i Trondheim første norske nettbokhandel i 1995
    • Eiendomsnett i 1996
    • Finn.no i 1996
    • Plussreiser første reisebyrå på nett i 1998, tett fulgt av SOLs Reisefeber og etter hvert den norske avdelingen av Expedia
    • Jobshop etablert som et av de første nettstedene for jobbformidling, ble til rekrutteringsselskapet StepStone fra 1999
  • Informasjons- og søketjenester, portaler:
    • Oslonett med Kvasir emnekatalog i 1994 og med søketjeneste fra 1995
    • Scandinavia Online og SN Horisont i 1995, slått sammen til SOL i 1997 og utvidet virksomheten til Sverige og Danmark i 1998
    • Telenor Media med Gule Sider i 1995 og Origo Index i 1995
    • Opoint med tjeneste for overvåking av nyheter på nett i 1996
  • Internett-selskaper:
    • Opera Software er allerede nevnt
    • I tillegg, – Fast Search & Transfer med søketjenesten AllTheWeb.com. Fast ble etablert i 1997 og børsnotert i 2001. AllTheWeb.com ble solgt ut i 2003 og havnet etter hvert i Yahoo!, mens Microsoft kjøpte søkemotoren i 2008 for 6,6 milliarder kroner

Etter år 2000

Etter 2000 er varianter av disse tjenestene utviklet videre og i utstrakt bruk, samtidig som de har fått ny funksjonalitet og nye tjenester er introdusert. Bredbåndet brakte Internett hjem til oss, mens trådløse soner og mobilnett gjorde at Internett forfølger oss over alt. Ved siden av dette er det ehandelstjenester av alle mulige slag, samt sosiale medier og nettverk i alle avskygninger det som mest av alt har preget Internett etter år 2000. Mens Web på 90-tallet først og fremst var en formidler av informasjon, er web etter år 2000 i stor grad blitt en formidler av transaksjoner og personlige relasjoner. Hvilke sosiale, politiske, økonomiske og kulturelle endringer dette har fremmet og vært en drivkraft for, er det neppe noen som har overskuet eller har et klart bilde av.

Denne delen av fortellingen må imidlertid stoppe her. Det sier egentlig alt at vi leverer selvangivelsen og dusinvis av andre skjema, planlegger ferien, handler alt fra bøker til hus og gjør julehandelen, lever ut våre fobier og konspirasjoner, oppretter nye personlige relasjoner og reetablerer gamle og et utall andre ting ‘på nett’ som om det var det naturligste i verden.

Artiklene vi lærte av

Noen artikler og nettpublikasjoner var viktigere enn andre:

  • Vannevar Bush: As We May Think (1945)
  • Joseph Licklieder: Man-Computer Symbiosis (1960) og The Computer as a Communication Device (1968)
  • Douglas Engelbart: Augmenting Human Intellect: A Conceptual Framework (1962)
  • John Quarterman: Notable Computer Networks (1986)
  • Tim Berners-Lee, Robert Cailliau: World-Wide Web – A Proporsal for a Hyper Text Network (1990)
  • Brendan P Kehoe: Zen and the Art of the Internet (1992)
  • Electronic Frontier Foundation: Big Dummy’s Guide to the Internet (1994)
  • Tim Berners-Lee med flere: Semantic Web (Temanummer av Scientific American, 2001)
  • Eric Raymond: The Cathedral & the Bazaar: Musings on Linux and Open Source by an Accidental Revolutionary (2001)

Offentlig sektor og politiske myndigheter

“Nasjonal handlingsplan for informasjonsteknologi 1987-90” var første offentlige næringspolitiske plan for informasjonsteknologi. Planen kom midt i en periode preget av vesentlige omlegginger av nærings- og industripolitikken og var en av de siste offentlige planene der industrireising og -utvikling var et sentralt virkemiddel. 1990-tallet representerte den endelige avslutningen av etterkrigstidas tunge offentlige engasjement i såvel næringsutvikling som utbygging av infrastruktur. I stedet var det ‘liberalisering’ med ‘deregulering’ og ‘fristilling’ av sektorer med tung offentlig regulering og virksomhet som styrte både næringspolitikken og andre politikkområder.

Handlingsplanen ble skrevet i en periode der utvikling av en norsk dataindustri var høyt prioritert og der Norsk Data fortsatt var ledestjerne og en viktig premissetter for offentlig politikk på området. Planen omfattet tiltak innenfor en ramme på fem milliarder kroner hvorav en milliard var ‘friske’ penger, – en vesentlig satsing selv med dagens målestokk. Planen ble oppsummert som vellykket når det gjaldt å øke kapasiteten på høyere utdanning innen informatikk og tilgrensende fagområder og når det gjaldt økte bevilgninger til forskning. Det viktigste var imidlertid at sysselsettingseffekten av planen var mislykket. I løpet av planperioden grunnstøtte norsk dataindustris flaggskip Norsk Data og etter Norsk Data kom ingen. I kjølvannet av handlingsplanen kom katastrofeprosjektene i offentlig sektor med blant annet WINIX-satsingen i skoleverket og Rikstrygdeverkets TRESS90-prosjekt.

I kombinasjon med endringene i næringspolitikken kom disse erfaringene kom til å prege den offentlige IT-politikken på 90-tallet og bidro til et langt lavere ambisjonsnivå enn tilfellet var på 70- og 80-tallet. I første halvdel av 90-tallet var sektorplaner med moderate mål for bruk av IT innen helsesektoren, utdanningssektoren og andre sektorer det sentrale i den offentlige politikken.

Først med den forannevnte “informasjonsmotorveien” som flaggsak på midten av 90-tallet kom de ambisiøse målene på nytt på dagsorden, – primært som festtale og lite i form av målrettete tiltak og offentlig satsing. I siste halvdel av 90-årene ble det produsert et betydelig antall utredninger og planer. Den røde tråden gjennom alt dette var bruk av IT for å utvikle både offentlig og privat sektor. Helt på slutten av tiåret ble fokus rettet mot å tilrettelegge for borgernes egen IT-bruk gjennom slagord som ‘den digitale allemannsretten’.

Ett av de områdene der det ble produsert resultater, var tilgang til offentlig informasjon på nett med Elektronisk søkbare offentlige publikasjoner (ESOP) i 1992 og Offentlig dokumentasjon og informasjon i Norge (ODIN) i regi av Statens informasjonstjeneste, først som prøveprosjekt i 1995 og deretter som permanent tjeneste i 1998, samt Stortingets informasjonstjeneste fra 1996 og KIMEN i 1998 (for den som måtte huske den). ODIN ble videreført som regjeringa.no i 2007.

Markedsdrevet utvikling av informasjonssamfunnet

Grunnlaget for IT-politikken som ble utviklet på 90-tallet og som har vært enerådende etter 2000 var tilrettelegging for en markedsdrevet utvikling av informasjonssamfunnet. Et av de mest pregnante uttrykkene for denne politikken kom i 1994 i form av EU-kommisjonens “Europe and the Global Information Society”, også kalt ‘Bangemann-rapporten’, lagt fram av Martin Bangemann, EU-kommisjonær for industri, informasjons- og telekommunikasjonsteknologi:

This Report urges the European Union to put its faith in market mechanisms as the motive power to carry us into the Information Age. This means that actions must be taken at the European level and by Member States to strike down entrenched positions which put Europe at a competitive disadvantage:

  • It means fostering an entrepreneurial mentality to enable the emergence of new dynamic sectors of the economy
  • It means developing a common regulatory approach to bring forth a competitive, Europe-wide, market for information services
  • It does NOT mean more public money, financial assistance, subsidies, dirigisme, or protectionism

In addition to its specific recommendations, the Group proposes an Action Plan of concrete initiatives based on a partnership between the private and public sectors to carry Europe forward into the information society.

Bruk av markedsmekanismer avløste 1970- og -80-tallets store nasjonale og felleseuropeiske prosjekter for utvikling av høyteknologiske sektorer i Europa. En forløper for Bangemann-rapporten var EU-direktivet “ONP – Open Network Provisioning” fra 1990 som fastla strategien for å liberalisere telemarkedene gjennom å fristille og privatisere televerkene og konkurranseutsette teletjenestene. Dette direktivet satte dagsorden for den nasjonale politikken i de fleste land i Europa. og på slutten av tiåret var det europeiske telemarkedet snudd opp ned.

Markedsdrevet utvikling av infrastruktur og tjenester til tross, det var forsiktighet og tilbaketrekking som er hovedinntrykket av offentlige myndigheters IKT-politikk dette tiåret. Riktignok var det ambisjoner så det holdt i retorikken rundt informasjonsmotorveien, den norske IT-veien og den digitale allemannsretten og festtalene satt løst, ikke uventet løsest i Torbjørn Jaglands korte statsministerperiode i 1996-97. De praktiske resultatene viste imidlertid at Winix, TRESS90 og andre offentlige IT-prosjekter med langt fra vellykket utfall, hadde satte sine tydelige spor i det offentliges ambisjoner og handlinger.

Privatiseringen av Televerket

Telemonopolet var i økende grad et stridstema utover 1970- og 80-tallet. I 1987 ble rollen som tilsynsorgan skilt ut fra Televerket som Statens teleforvaltning, omdøpt til Post- og teletilsynet i 1997. Resten av Televerket ble delt i to, –  basisorganisasjonen fortsatte under navnet Televerket med ansvar for infrastruktur, mens TBK – Televerkets bedriftsintern kommunikasjon ble etablert som konkurranseorganisasjon.

I 1989 kom utredningen “En bedre organisert stat“ som la grunnlaget for omfattende endringer i organiseringen av statlig virksomhet. I hovedsak gikk endringene ut på økte fullmakter til forvaltningsorganene og en utvikling i retning av selvstendige statseide selskaper innenfor en rekke sektorer, inkludert nasjonale infrastrukturer som teletjenester, jernbane og elektrisitetsforsyning.

For Televerkets vedkommende startet det med fristilling fra regjeringens styringsrett i 1992, fortsatte med omgjøringen fra forvaltningsselskap til statsaksjeselskapet Telenor AS i 1995 og avsluttet med privatiseringen av selskapet ved børsnoteringen i 1998. De svenske teleselskapene Telia og Tele2 etablerte seg i mellomtida som konkurrenter til Telenor. Da var allerede NetCom etablert som privat teleoperatør i markedet for mobiltelefoni.

For øvrig var innføringen av en felles teletakst for hele landet i 1997 noe av det siste Telenor gjorde før foretaket ble privatisert. Med dette kostet det like mye å ringe bekjente på den andre kanten av landet som til naboen i gata. På sett og vis representerte dette sluttføringen av Televerkets oppdrag med å gi hele befolkningen samme tilgang til teletjenester.

Privatiseringen av Telenor var omstridt da den skjedde og er det framdeles. Spesielt det forhold at Telenor fikk beholde aksessnettet (‘koppernettet’) fram til husveggen. I praksis innebar dette også at Telenor beholdt monopol på en vesentlig del av telenettet og således ble satt i en gunstig konkurranseposisjon i bredbåndsmarkedet. Maksimalt utbytte av dette ble da naturlig nok en viktig del av Telenors strategi. Dette ga også foretaket en sterk innflytelse på telepolitikken og senere bredbåndspolitikken. Denne posisjonen ble neppe svekket av at departementsråd i Finansdepartementet og leder av utredningen “En bedre organisert stat“, Tormod Hermansen ble administrerende direktør i Televerket i 1992 og hadde denne posisjonen i ti år fram til 2002.

Telenors monopol

Et viktig argument for å privatisere Televerket, var å avvikle Televerkets monopol og legge til rette for konkurranse i telesektoren. Resultatet ble en ny monopolist, Telenor. I følge Post- og teletilsynets rapport om markedet for elektroniske kommunikasjonstjenester var Telenors markedsandeler i 2012:

  • Fasttelefon: 80%
  • Mobiltelefon: 50%
  • Mobildata: 57%
  • Bredbånd:
    • Over telefonnettet: 50%
    • Over kabel-TV-nettet: 50%
    • Over fibernett: 8%
  • TV-signaler: 47%
  • Annen elektronisk kommunikasjon: 59%

Offentlig IT-politikk etter år 2000

I 1999 tok daværende kommunal- og regionalminister Odd Roger Enoksen sine kollegaer samferdselsminister Dag Jostein Fjærevoll og nærings- og handelsminister Lars Sponheuim på senga da han lanserte ‘den digitale allemannsretten’:

Alle husstander og all offentlig og privat virksomhet skal ha tilgang til høyhastighetsnett til lik pris og i samme utbyggingstakt over hele landet.

Bondevik-regjeringen Enoksen var medlem av, ble avløst av Jens Stoltenbergs første regjering i 2000, og den nye næringsministeren Grethe Knutsen la fram denne regjeringens Handlingsplan for bredbåndskommunikasjon høsten 2000. Her ble den digitale allemannsretten lagt på is, samtidig som politikken abdiserte når det gjaldt å bygge ut infrastruktur:

Regjeringen ønsker en raskere og bredere geografisk utbygging av bredbåndsnett i regi av markedsaktørene. Konkurransen i markedet må styrkes. I tillegg bør det legges til rette for offentlig etterspørsel av bredbåndstjenester. Regjeringen ser det verken som riktig eller nødvendig at det offentlige selv bygger ut eller eier infrastrukturen. Unntak vil kunne gjelde av hensyn til forsvar og rikets sikkerhet.

Bredbåndspolitikken skal baseres på to typer tiltak:

  • Styrking av konkurransen i markedet
  • Styrking av offentlig etterspørsel etter bredbåndsnett og bredbåndstjenester

I tillegg vil en vurdere om det er behov for særskilte offentlige tiltak for områder eller grupper der det ikke er kommersielt grunnlag for utbygging. Regjeringens mål er at styrking av konkurransen og offentlig etterspørsel skal bidra til:

  • Gode markedstilbud om tilknytning til bredbåndsnett til alle grunn- og videregående skoler, folkebibliotek, sykehus og kommuneadministrasjoner innen utløpet av 2002
  • Gode markedstilbud om tilknytning til bredbåndsnett for alle norske husstander innen utløpet av 2004

Markedsaktørene skal således stå for utbygging og utvikling innenfor et forutsigbart og konkurranseorientert marked. Det offentlige skal ikke være en aktør som står bak grunninvesteringer i infrastrukturen. Det offentlige er derimot en tidlig og aktiv etterspørrer av produkter og tjenester. De særskilte tiltakene kommer eventuelt inn der tilbyderne i markedet ikke kommer opp med gode nok tilbud.

Regjeringen gikk inn med 350 millioner kroner i stimuleringstiltak, samtidig som første versjon av eNorge-planene ble lansert. Til sammenligning satte den svenske regjeringen i gang et fireårig utbyggingsprosjekt med en ramme på over åtte milliarder kroner.

eNorge-planene

Vesentlige deler av den offentlige IT-politikken etter år 2000 er knyttet til eNorge-planene. Med et halvt års mellomrom la Jens Stoltenbergs første regjering fram versjon 1.0, 2.0 og 3.0 av disse planene. Det overordnete målet var å effektivisere og forbedre offentlig sektor og forvaltningens kontakt med borgere og næringsliv:

  • Elektroniske tjenester skal være hovedregelen for offentlige tjenester til brukerne
  • Elektronisk saksbehandling skal være normen og akseptert på linje med papirbasert
  • Elektronisk handel skal være førstevalg ved offentlige anskaffelser

Planene var operativt orientert ved at de hver inneholdt noen titalls konkrete tiltak innenfor en rekke departementers ansvarsområder. Framdrift i arbeidet med tiltakene ble rapportert månedlig.

Kjell Bondeviks andre regjering fulgte opp med to nye planer, – “eNorge 2005” i 2002 og “eNorge 2009 – Det digitale spranget” i 2005. Disse var mer prinsipielt og overordnet innrettet enn den første runden med eNorge-planer.

I kjølvannet ble begrepsapparatet utvidet med ‘digital kompetanse’, ‘døgnåpen forvaltning’, ‘digitalt førstevalg’, ‘digital allmenning’ med flere. I 2000 kom portalen norge.no med organisert og samlet tilgang til offentlig informasjon. I 2003 kom Altinn som portal for innlevering av skjema til offentlige myndigheter og fra 2005 var det mulig å levere selvangivelse i elektronisk form i denne tjenesten. Andre tiltak var markedsplassen ehandel.no for offentlige anskaffelser, innbyggerportalen Min side og sikkerhetsportalen eID.

Siste skudd på denne stammen er den rød-grønne regjeringens “På nett med innbyggerne – Digital agenda Norge” lansert våren 2013, lansert våren 2013 i kjølvannet av Stortingsmelding 23 (2012-13) “Digital agenda Norge – IKT for vekst og verdiskaping”.

I “St. meld. 49 (2002-3) Breiband for kunnskap og vekst” ble prinsippene videreført av Kjell Magne Bondeviks andre regjering: “Marknadsaktørane skal stå for utbygginga av infrastrukturen for elektronisk kommunikasjon og val av teknologi”. Det blir riktignok tatt noen forbehold om at dette ikke automatisk vil sikre likt tilbud over hele landet og at det derfor kunne bli nødvendig med tiltak for mer aktiv tilrettelegging for konkurranse og offentlig etterspørsel.

Høykom ble etablert i 1999 som en tilskuddsordning der målet var å bidra til at offentlige virksomheter over hele landet etterspurte høyhastighets informasjons- og kommunikasjonsteknologi. Høykom ble organisert som et program under Norges forskningsråd (NFR) og var et viktig virkemiddel i den offentlige IT-politikken. I forbindelse med stortingsmeldingen “Breiband for kunnskap og vekst” ble Høykoms mål formulert i to punkter:

  • Bidra til fornyingen av offentlig sektor gjennom å stimulere til utvikling og bruk av bredbåndsbaserte tjenester for offentlig forvaltning og tjenesteyting
  • Stimulere en markedsbasert bredbåndsutbygging gjennom etterspørsel etter bredbånd og bredbåndsbaserte tjenester

Programmet ble avviklet i 2007 og hadde da bidratt med rundt 700 millioner kroner i tilskudd til prosjekter i kommuner og fylker. Medregnet egenandel ble det tilsammen brukt mer enn 1,5 milliard kroner i de nesten ti årene programmet gikk (men fortsatt var dette et godt stykke bak svenskene).

Den digitale allemannsretten forsvant fra radarskjermen noen år og dukket kun glimtvis opp, før den igjen kom på dagsorden med etableringen av den første ‘rød-grønne’ regjeringen i 2005. Den ble et tema i denne regjeringens stortingsmelding om “St.meld. 17 (2006-7) Eit informasjonssamfunn for alle” fra 2006. Selv om retorikken var noe annerledes, ble tidligere regjeringers prioriteringer i IT-politikk i hovedsak videreført i denne. Det er med andre ord konsensus på tvers av partier og partiblokker og ikke kontrovers som har preget den offentlige IT-politikken de siste tjue åra.

Forskningsnettet mot år 2000

På slutten av 1980-årene gikk forskningsnettene i Norden og forskningsnettsamarbeidet i Europa hver sin vei. Mens NORDUnet og de nordiske landenes forskningsnett anerkjente Internett og bygde multiprotokollnett, så fortsatte byggingen av et rent OSI-nett på europeisk nivå. Først med etableringen av European Multiprotocol Backbone Network (EMPB) i 1992 var de tilbake på det samme såoert. EMPB innebar at Internett ble akseptert også på europeisk nivå slik det i flere år hadde vært i NORDUnet og UNINETT. På alle fronter var det Internett-delen i disse multiprotokollnettene som vokste, mens de andre gikk tilbake.

I samarbeid med EUnet og det nederlandske forskningsnettet SURFNET bygde NORDUnet samtidig EBONE som fungerte som europeisk ryggrad i Internett i ti år fra 1992. Samtidig etablerte de Réseaux IP Européens Network Coordination Centre (RIPE NCC) som koordinator for Internett i Europa med oppgave blant annet å administrere IP-adresser og andre ressurser, et regionalt ansvar de har hatt i alle år etterpå.

I årene som fulgte ble multiprotokollnettene bygd ned. Ved årsskiftet 1997-8 rådde Internett grunnen i UNINETT og NORDUnet. Med lanseringen av TEN-34 (Trans Europe Network at 34 Mbps) året etter var dette tilfelle også i forskningsnettene på europeisk nivå.

Parallelt med dette ble koordineringen og samarbeidet på europeisk nivå styrket. I 1993 ble Delievery of Advanced Network Technology to Europe (DANTE) etablert i 1993 som driftssenter for ryggraden for europeiske forskningsnett. I regi av DANTE skjedde det en rask utbygging av det europeiske forskningsnettet med TEN-34 og TEN-155 før år 2000 og tre generasjoner GÉANT etter.

I 1994 samlet de europeiske forskningsnettorganisasjonene seg i Trans-European Research and Education Networking Association (Terena). Med DANTE, GÉANT og Terena var det ryddet betydelig opp på europeisk nivå og fellesskapet var gjenetablert.

“The Internet is full, go away!”

På 1990-tallet var det ett punkt som hele tida sto øverst på forskningsnettenes og nettoperatørenes dagsorden, – å bygge ut kapasitet for å holde tritt med den årlige doblingen av trafikken i Internett. Å sørge for dette ble en både arbeidsom og kostbar oppgave for nettoperatører og forskningsnett.

I 1992-3 var kapasiteten i stamnettene og de internasjonale linjene stort sett 512 Kbps (omtrent den samme som oppstrømskapasiteten på et dårlig bredbånd hjem i dag). I de nærmeste årene ble forbindelsene oppgradert til 2 og 4 Mbps (godt under nedstrømskapasiteten til dagens gjennomsnittlige bredbåndskunde). Det var i denne perioden vi gikk med t-skjorter med påskriften “The Internet is full, go away!”. Det var ei tid da mange mente at Internetts sammenbrudd var nært forestående. Av de mange tiltak som ble lansert for å redusere belastningen, var forbudene mot å lese e-post og ‘surfe på web’ i arbeidstida de minst virkningsfulle.

Etter 1995 begynte det å ta av. NORDUnet etablerte den første internasjonale 34 Mbps-forbindelsen i 1996 og året etter var dette båndbredden i stamnettene både i Norden og Europa og på den internasjonale forbindelsen som var den viktigste for alle, – USA-forbindelsen.

Fiber og Gbps-kapasiteter

I kjølvannet av frisleppet i telemarkedene på 90-tallet og ikke minst drevet av ‘dot.com’-bonanzaen, fulgte en periode med omfattende utbygging av fiberoptiske nett. Internasjonale og nasjonale teleoperatører, kraftselskaper, jernbaneselskaper og en rekke andre investerte milliarder på slutten av 90-tallet. Mil etter mil med fiber ble lagt ut og fiberinfrastrukturer regionalt, nasjonalt og internasjonalt ble satt opp for å konkurrere med de etablerte teleselskapene. På ett tidspunkt ble det listet opp over 20 selskaper som hadde ambisjoner om å konkurrere med Telenor om teletjenester i Norge. Så kom nedturen i mars 2000.

Kraftselskapene var i frontlinja i disse årene. I stort omfang ble det trukket fiber langs strømlinjene. Statnett og en del regionale kraftselskaper etablerte Enitel som konkurrent til Telenor. Uenigheter kraftselskapene imellom medførte at noen andre etablerte ElTele. I 1999 kjøpte Enitel det svenske teleselskapet Telias avdeling i Norge for 2 milliarder kroner og brakk ryggen på det. I 2001 sto de for en av de mer spektakulære konkursene i landet med krav i boet på bortimot 4 milliarder kroner, og i 2003 overtok Jernbaneverkets teleselskap, Banetele, infrastrukturen som Enitel hadde bygd opp.

ElTele besto av en samling regionalt forankrete datterselskaper. De største av dem ble i tur og orden kjøpt opp av andre, mens restene fortsatte og noen eksisterer fremdeles.

Fiberen løste langt på vei forskningsnettenes utfordring når det gjaldt kapasitet. Nedturen på børsen løste det andre – de høye kostnadene. I kjølvannet av konkursene og konsolideringen etter ‘dot.com’-krasjet var det plutselig overkapasitet med påfølgende billigsalg på linjer og kapasitet. Før dette var forskningsnettene tvunget til å kjøpe faste samband fra teleselskapene. I det nye markedet åpnet mulighetene seg for å kjøpe ren overføringskapasitet (såkalt ‘svart fiber’) og bygge egne fiberinfrastrukturer med Gbps-kapasitet for forskningsnettene.

I Norge startet UNINETT arbeidet med Giganettet. I NORDUnet ble topologien lagt om med etableringen av en gigabit fiberring mellom hovedstedene i de nordiske landene i 2000-1. På europeisk nivå startet arbeidet med GÉANT samtidig og i 2001 hadde flere europeiske forskningsnett Gbps-forbindelser. Det nye forskningsnettkartet ble ferdigtegnet i 2003 da NORDUnet avviklet sin USA-forbindelse og gikk over til å benytte GÉANTs internasjonale linjer. Med dette roet jaget etter kapasitet seg noe utover på 2000-tallet. Trafikkveksten gikk ned fra en dobling hvert år til en dobling hvert andre til tredje år, samtidig som Gbps-kapasiteter ga rom for betydelig trafikkvekst.

NORDUnet

NORDUnet var instrumentell for tilknytningen av Forskningsnettet og Internett i Norge til tilsvarende i de andre nordiske landene, Europa og USA på slutten av 80-tallet. Fram til 1992 var NORDUnet et fellesnordisk prosjekt finansiert av Nordisk Råd. I 1993 ble prosjektet gjort om til et aksjeselskap eid av utdannings- og forskningsdepartementene i de nordiske landene med hovedkontor i København.


Figur 5-9: NORDUnets 34 mbps-infratstruktur i 1997 med forbindelse til USA og det europeiske forskningsnettet TEN-34 og egne forbindelser til Russland, de baltiske landene, Polen og Ukraina.

NORDUnet 1997


Linjer og kapasitet

Forbindelser var det NORDUnet arbeidet med, – forbindelser mellom forskningsnettene i de nordiske landene, til forskningsnett i Europa, i USA og (etter hvert) i resten av verden. I denne virksomheten samarbeidet NORDUnet med både operative forskningsnett og mer eksperimentelt orienterte initiativer og prosjekter. Målet var hele veien å være i forkant ved levere god kapasitet med høy grad av stabilitet og tilgjengelighet og samtidig være i forkant med å bygge kompetanse, eksperimentere og pilotere nye tjenester og teknologier.

Trafikkveksten på 90-tallet krevde hyppig oppgradering av kapasiteten på eksisterende linjer og etablering av nye for å sikre et stabilt godt tjenestenivå. Det første tiåret baserte NORDUnet seg på kjøp av linjer fra den nettoperatøren som hadde kapasitet å selge. I forbindelse med oppgraderingen til 155 Mbps i 1998-9 ble alle linjene flyttet til én operatør, – Telia. Topologien i stamnettet ble endret i forbindelse med oppgraderingen til 2,5 Mbps i 2001. Stjerna med Stockholm i midten ble nå erstattet av en fiberring mellom Oslo, Stockholm og København med en avstikker til Helsinki, en topologi som fortsatt utgjør kjernen i NORDUnet.


Figur 5-10: NORDUnet etter topologiendringene i 2000-1 med fiberringen mellom de skandinaviske hovedstedene med forbindelse til Helsinki. Forbindelsene til USA gikk dels til nye forskningsnett i kjølvannet av Internet2 og dels til generelt Internett i USA via KPNQwest.

NORDUnet 2001


I stamnettet hadde NORDUnet to vesentlige utfordringer. Den ene var forbindelsen til Island som av naturlige årsaker lå et godt stykke etter resten kapasitetsmessig i lange perioder. I dag er islendingene også på Gbps-kapasitet som del av Icelink-samarbeidet mellom NORDUnet og det canadiske forskningsnettet CANARIE.

Den andre var forbindelsen til Finland som i mange år var eneste land utenom USA med større trafikk ut av enn inn i landet. Årsaken til dette var det finske forskningsnettets store og enkelt tilgjengelige samling av fritt nedlastbar programvare og informasjon (ftp.funet.fi). Fra 1991 bidro utviklingen av Linux til en vesentlig økning av denne trafikken.

Kriser

De stadige oppgraderingene for å holde tritt med trafikkøkningen på 90-tallet holdt på å knekke NORDUnet-samarbeidet. Kapasitet kostet mye penger på den tiden, noe som gjorde at oppgraderingen til 34 Mbps i 1996–97 doblet stamnettkostnadene. Samtidig avviklet NSF ordningen med subsidiering av internasjonale forbindelser og NORDUnet måtte bære disse kostnadene alene. USA-forbindelsen representerte den desidert største delen av linjekostnadene, og den var av kritisk betydning for samarbeidet.

Prognosene som ble lagt fram for NORDUnets styre viste at linjekostnadene ville passere 20 millioner EUR euro i 2000. Danmark mente dette ble for dyrt og startet arbeid med å utrede alternativer til NORDUnet. Både danskenes utredning og utredningen som ble utført på oppdrag fra de nordiske utdannings- og forskningsdepartementenes kontaktgruppe viste at NORDUnet var konkurransedyktig på pris og at en avvikling av samarbeidet ville ha svært negative konsekvenser. Redningen kom imidlertid annet steds fra. Fra 2000 begynte som sagt prisen på linjer å synke, og de sank betydelig. Dette var dels en konsekvens av Moores lov, men mest av alt en konsekvens av overetableringen av kapasitet i dot.com-årene. Prisfallet de neste tre–fire årene reddet samarbeidet, og i 2004 var linjekostnadene redusert til under det halve og godt under 10 millioner euro, samtidig som kapasiteten var 10–100 ganger større.

USA-forbindelsen var årsaken til den andre krisen som holdt på å knekke NORDUnet. Inntil år 2000 var USA-forbindelsen basert på egne linjer, men i 2001 inngikk NORDUnet avtale om USA-forbindelse med teleselskapet KPNQwest. Dette var et samarbeid mellom det nederlandske teleselskapet KPN og det amerikanske Qwest som hadde kjøpt EUnet i 1998. Med avtalen ble USA-forbindelsen oppgradert til 1,9 Gbps. Prisfallet på linjer skapte imidlertid problemer, og tidlig i 2002 var det klart at KPNQwest ville gå konkurs i løpet av kort tid. NORDUnet ville da stå uten USA-forbindelse. En kraftanstrengelse og en god porsjon flaks gjorde at NORDUnet hadde en ny forbindelse klar dagen før KPNQwest gikk konkurs. Etter det har NORDUnet forståelig nok alltid hatt minst to leverandører av kritiske linjer.


Figur 5-11: Dagens NORDUnet med med stamnett og internasjonale forbindelser til GÉANT og samtrafikkpunkter i Internett internasjonalt.

NORDUnet 2012


NORDUnet avviklet sin egen USA-forbindelse året etterpå. På det tidspunktet var GÉANT etablert som ryggrad for europeiske forskningsnett med forbindelser til forskningsnett i alle verdensdeler, og NORDUnet kunne gå denne veien ut i verden. I dag er NORDUnet en del av GÉANT med høykapasitetsforbindelser til forskningsnett over hele kloden, og er i tillegg knyttet til generelt Internett på samtrafikkpunkter i de nordiske landene, i flere europeiske land og i USA.

NORDUnet har kommet seg gjennom hele denne perioden uten vesentlige kapasitets- eller ytelsesproblemer på sine forbindelser og tjenester. NORDUnet var riktignok ikke helt alene om dette, men det var ikke mange andre nettoperatører som maktet det samme.


Figur 5-12: I 2004 avviklet NORDUnet egen USA-forbindelse. Fra dette tidspunktet gikk internasjonal trafikk i forskningsnettene via GÉANT som har forbindelser til forskningsnett i alle verdensdeler.


BALTnet og bygging av forskningsnett i de baltiske land

Parallelt med at utviklingen av NORDUnet skjøt fart, skjedde det store endringer i Europa med Berlinmurens fall høsten 1989 som det mest markante uttrykket for at en epoke var over og noe helt nytt var på gang. NORDUnet kjente sin besøkelsestid og engasjerte seg tungt i arbeidet med å bygge nett og internasjonale forbindelser først i de baltiske landene og etter hvert også Polen, Russland, Ukraina og andre tidligere Sovjet-republikker.

I 1991 ble den første utenlandsforbindelsen fra de baltiske landene satt opp som en satelittforbindelse mellom Vilnius, Litauen og UNINETT i Trondheim. I 1992 ble det etablert tre nye forbindelser, mellom Helsinki og Tallin, Estland, mellom Stockholm og Tallin og mellom Stockholm og Tartu, Estland.

Samtidig startet Mats Brunell ved SICS (Swedish Institute for Computer Science) arbeidet med BALTNET-prosjektet. Målet med prosjektet var å støtte utbyggingen av infrastruktur for forskningsnett i de baltiske landene. Prosjektet ble støttet økonomisk av Nordisk Råd fra 1993. Prosjektet ble flyttet til USIT, Universitetet i Oslo i 1994/95 og drevet videre av tidligere EDB-sjef Rolf Nordhagen. Prosjektet var tungt inne i arbeidet som i 1996 resulterte i etableringen av forskningsnett i de tre baltiske landene.

I 1996 hadde forskningsnettene i disse landene underskrevet avtaler med NORDUnet og linjer var etablert til LITNET i Litauen (512 Kbps), LATNET i Latvia (384 Kbps) og EENET i Estland (256 Kbps). Parallelt med dette hadde NORDUnet etablert et samarbeid med det polske forskningsnettet NASK og en linje mellom København og Warzawa ga NASK Internettilknytning allerede i 1991. NASK hadde forbindelse videre til det ukrainske forskningsnettet UARNet som også inngikk avtale med NORDUnet. I tillegg ble den første Russlandsforbindelsen etablert i 1995 da de to forskningsnettene RUSNet og RUNNet ble knyttet til NORDUnet.

På 1990-tallet spilte BALTnet-prosjektet, NORDUnet og andre aktører en vesentlig rolle i en viktig epoke i disse landenes historie gjennom å bygge kompetanse, organisere virksomheten, skaffe utstyr, bygge ut nett og infrastruktur med mer. De tette båndene som ble etablert mellom personer og organisasjoner på begge sider, består fortsatt. Representanter for disse nettene blir fortsatt blank i øya når de snakker om NORDUnets og spesielt Mats Brunells og Rolf Nordhagens innsats og arbeid i dette prosjektet.

I årene før og etter 2000 ble disse forbindelsene gradvis avviklet og erstattet av forbindelser til de europeiske forskningsnettene og disse landene er i dag fullverdige deler av forskningsnettsamarbeidet i Europa.

UNINETTs strategi og langtidsplan 1995-2000

UNINETT vokste sakte, men sikkert fra 5 ansatte i 1993 til omtrent 30 ansatte i 2000 og fra vel 200 medlemmer i 1993 til over 500 i 2000. Fra 1998 ble UNINETT AS organisert som et konsern med UNINETT FAS AS som første datterselskap med oppgave å ivareta drift og forvaltning av fellesadministrative systemer i sektoren. I 1994 utarbeidet UNINETT langtidsplan for 1995-2000. Denne ble videreført i 1998 som langtidsplan for 1999-2003 med samme visjon:

Behovet for nye elektroniske informasjonsnett har oppstått fordi det har skjedd en teknologisk utvikling med sammensmelting av data-, tele og medieteknologi som gjør at televerkene, nettverksoperatører, fjernsynsselskaper, datamaskinfabrikanter og informasjonsleverandører kan tilby tjenester på den samme elektroniske arena

Ut fra mandatet UNINETT fikk ved etableringen av aksjeselskapet, representerer langtidsplanene en betydelig utvidelse av deres oppgaver:

Oppgaver som skal opprettholdes og forsterkes:

  • UNINETT skal opprettholde sin sterke forankring til universitetene og forskningsmiljøene generelt og universitetenes IT-sentra spesielt
  • UNINETT skal tilby driftsstabile tjenester, men samtidig være førstehånds orientert om resultater av forskning og utvikling av nye tjenester
  • UNINETT skal virke som en pådriver for positivt samarbeid mellom tjenestenettoperatører i Norge
  • Nye oppgaver i langtidsplanperioden:
    • UNINETT skal tilby sikkerhetsfunksjoner i nettet slik at anvendelser med strenge krav til sikring og konfidensialitet kan nyttiggjøre seg dette
    • UNINETT bør sørge for koordinering av telefonitjenester slik at samordning kan skje og institusjonene oppnår best mulig funksjonalitet og effektiv utnyttelse av ressursene
    • UNINETT bør være aktivt med på å alminneliggjøre nett-tjenester for de brede samfunnslag, det vil si innta en pionerrolle ved for eksempel å tilrettelegge for at informasjon for alle, kan tilbys gjennom åpne datanett
    • UNINETT bør ha et engasjement i problemstillinger vedrørende tilgang til elektroniske informasjonssystemer (for eksempel rettighetsproblematikk og prising)

Begge langtidsplanene understreker nødvendigheten av et omfattende internasjonalt engasjement og samarbeid og av langsiktighet i utviklingsvirksomheten. I planen for 1999-2003 ble drift av distribuerte administrative systemer tatt inn som prioritert virksomhetsområde.

Multimedia og videokonferanse

I UNINETTs langtidsplan for 1995-2000 ble det skissert et framtidig scenario for institusjonene i sektoren der multimedia, interaktivitet og sanntidstjenester (inkludert videokonferanser) inngikk som et vesentlig innslag i studentenes, undervisernes og forskernes hverdag og i institusjonenes virksomhet innen utdanning og forskning.

På dette området var UNINETT i gang allerede. I 1993 ble UNINETT satt opp med Mbone (‘multicast backbone’), i første omgang riktignok kun mellom universitetene.

I Supernett-arbeidet var bruk av multimedia og videokonferanser et viktig område. Et spesielt fokus var fjernundervisning og elektronisk, distribuert klasserom der USIT og Universitetet i Oslo hadde en stor aktivitet. På 90-tallet var USITs Multimedielab UNINETTs støttesenter for denne typen aktiviteter.

Ved Høgskolen i Østfold tok de allerede i 1993 i bruk CU-SeeMe som var en lettvektsløsning for videokonferanse over Internett. Fra 1995 ble de tildelt rollen som UNINETTs støttesenter for PC-/Mac-baserte tjenester for sanntids multimedia. De hadde allerede et samarbeid med NRK om multicasting av NRK-kanalene på Internett og “NRK på nett” fra 1999. I tillegg etablerte de kanaler for NASA-TV, Global Schoolhouse med flere.

Høgskolen i Østfold har i alle årene siden hatt en sentral rolle på området og utredet blant annet åpne standarder på multimedieområdet for departementet i forbindelse med arbeidet med “Åpne standarder i offentlig virksomhet”.

UNINETTs arbeid med sanntids multimedia, videokonferanser og tilhørende tjenester og tekniske løsninger har vært omfattende i alle år og satte sitt sterke preg på både KOMPAKT- og GigaCampus-programmene.

Nett og infrastruktur på høgskolene

Etableringen av UNINETT som aksjeselskap skjedde i ei tid med store omlegginger av universitets- og høgskolesektoren. Forskningsnettet var allerede dratt ut til nesten 100 høgskoler i SAMSON-prosjektet, hvor det ble etablert forbindelse til hver høgskole og installert ruter og tjenermaskin som ga tilgang til tjenestene i UNINETT Internett.

Kartleggingen som ble gjort i forkant av prosjektet, avdekket at de færreste høgskolene hadde den IT-infrastruktur og det IT-utstyr som krevdes for å utnytte tjenestene og mulighetene tilknytningen til UNINETT ga. Evalueringen av SAMSON-prosjektet pekte også på dette, og det ble anbefalt en vesentlig opprustning og standardisering av høgskolenes lokalnett, utstyrspark og tjenester.

Så kom høgskolereformen. I 1993 vedtok Stortinget at de 98 regionale høgskolene skulle organiseres som 26 statlige høgskoler fra 1. august 1994. Reformen var primært et administrativt tiltak der målet var:

En effektiv organisering av høgskolene og godt samarbeid mellom studiestedene ved den enkelte høgskole og mellom høgskolene.

Reformen medførte ikke at antall studiesteder ble redusert, noe som betød at de 26 statlige høgskolene ville bestå av bortimot 120 studiesteder. For å nå målene med høgskolereformen var det åpenbart for departementet, lærestedene og UNINETT at det var nødvendig å ta enda kraftigere grep om høgskolenes IT-løsninger enn selv det SAMSON-evalueringen antydet.

KOMPAKT 1994-98

Oppdraget med å ruste opp intern infrastruktur på høgskolene og tilrettelegge den for gjennomføringen av høgskolereformen ble gitt til UNINETT. 1. januar 1994 startet KOMPAKT-prosjektet (UNINETT har alltid hatt en forkjærlighet for å velge akronym først og betydning etterpå, eller kanskje omvendt, lage noen kompliserte navn som kunne trekkes sammen til et slående akronym. Uansett, KOMPAKT står for ‘KOMunikasjonsProsjekt for Administrasjons-, Kunnskaps- og Telefoninett i høgskolesektoren’, intet mindre). Prosjektleder var Roald Torbergsen.

Første fase omfattet utredning og anbefaling av kommunikasjonsløsninger for data, telefoni og videokonferanser ved høgskolene og pilotering av anbefalingene på Høgskolen i Nord-Trøndelag og Høgskolen i Telemark. Samordning, standardisering, tydelig ansvars- og oppgavedeling og effektiv drift var retningsgivende for arbeidet.

I løpet av 1994 ble anbefalingene nedfelt og pilotene gjennomført ved de to høgskolene med vellykket utfall. I de følgende tre årene ble KOMPAKT fase II, III og IV gjennomført. I mellomtiden ble to statlige kunsthøgskoler og seks vitenskapelige høgskoler tatt inn, og prosjektet omfattet dermed 32 institusjoner med 130 studiesteder. Prosjektet ble gjennomført innenfor en kostnadsramme på totalt 52 millioner kroner. De konkrete resultatene av prosjektet var:

  • Lokalnett som bandt studiestedene ved institusjonen sammen med minimum 2 Mbps kapasitet og med en felles tilknytning til UNINETT med kapasitet på mellom 256 Kbps og 2 Mbps
  • Et felles internt telefonnett (under navnet ‘UNITEL’) for institusjonene med 104 sentraler og 60.000 telefonnummer, en egen 180-tjeneste og en trafikkavtale med Telenor
  • En Oracle databasemaskin ved hver institusjon for å kjøre administrativ databehandling
  • Rammeavtaler for nødvendig bruker- og kommunikasjonsprogramvare

Samtidig ble det innført et regime som sikret effektiv, sentral drift av løsningene innenfor omgivelser som skulle imøtekomme de kravene som ble satt til sikkerhet, stabilitet og tilgjengelighet. For den enkelte institusjon representerte dette et vesentlig løft av egen infrastruktur og utstyrspark, et løft som de neppe ville vært i stand til å gjennomføre på egen kjøl. Og det ble gjort på en måte som sparte den enkelte institusjon og sektoren som helhet for betydelige kostnader. Antakelig sparte programvareavtalene og UNITEL institusjonene for mer langt penger enn det KOMPAKT-prosjektet kostet.

SAMSON 2

Vel ferdig med KOMPAKT sto neste prosjekt på dagsorden. SAMSON-maskinene som ble installert på begynnelsen av tiåret var fortsatt høgskolenes tilknytning til UNINETT og Internett. De hadde tjent sin hensikt og var godt over teknisk levetid.

Utover normalt vedlikehold hadde maskinene underveis gjennomgått en runde med utskifting og oppgradering av programvare og tjenester, men det var ikke gjort noen vesentlige endringer i maskinvaren. Det ble nå høyst aktuelt da det viste seg at maskinen ikke var år 2000-kompatibel.

Arbeidet med å spesifisere den nye SAMSON-maskinen og fastlegge regimet rundt dem ble startet i 1998. UNINETT skulle kjøpe maskinen, installere operativsystem og serverprogramvare, samt sørge for overvåking og drift. Institusjonene måtte selv dekke kostnadene på 30.000 kr for maskinen denne gangen.

I løpet av 1999 ble det satt i drift en slik maskin ved alle høgskolene. I 2004-5 var det dags for en ny SAMSON-runde, SAMSON 3 med utskifting av maskinvare og ny portefølje av programvare, men med omtrent de samme oppgavene.

TROFAST og UNINETT FAS AS

I forbindelse med høgskolereformen i 1995 utviklet departementet en strategi for det de omtalte som ‘sektorovergripende administrative systemer’. Målet var at høgskolene så langt som mulig skulle kjøre de samme administrative systemene. Departementet så dette som en forutsetning for å få effektiv drift av slike systemer i sektoren, for å forenkle samarbeidet mellom institusjonene og for å få struktur på institusjonenes rapportering. I tillegg kom mål knyttet til intern effektivisering og forbedring av den administrative virksomheten ved høgskolene.

TROFAST-prosjektet

I tilknytning til KOMPAKT-prosjektet startet et pilotprosjekt med Agresso økonomisystem ved de to pilotinstitusjonene. I 1997 ble dette videreført som TROFAST-prosjektet (der TROFAST i trygg UNINETT-tradisjon er en sammentrekning av ‘TRygg Organisering av Felles Administrative SysTemer for høgskolene’). Oracle ble valgt som databasesystem og det ble satt i gang piloter for drift av tre administrative systemer på databasemaskinene som KOMPAKT-prosjektet installerte på høgskolene (og som etter hvert kun ble omtalt som ‘TROFAST-tjenere’):

  • Agresso økonomisystem
  • Felles Studentsystem (FS)
  • Modulink sak-/arkivsystem

I 1998 ble det inngått en rammeavtale mellom UNINETT og departementet om teknisk drift av TROFAST-tjenerne og UNINETT startet utrulling av løsningen. I løpet av 1999 var Agresso rullet ut til 29 av de 33 institusjonene (underveis var Det teologiske Menighetsfakultet inkludert), mens 8 institusjoner kjørte Felles studentsystem. Antallet Agresso- og FS-kunder økte til henholdsvis 30 og 9 det neste året, samtidig som Modulink sak-/arkivsystem ble rullet ut til 30 institusjoner.

Etableringen av UNINETT FAS AS

UNINETT FAS AS (FAS – Felles administrative systemer) ble organisert som et datterselskap av UNINETT AS fra 1. januar 1999 med sju ansatte og Alf Hansen som daglig leder.

Formålet med UNINETT FAS AS:

  • Utnytte den tekniske nett- og tjenesteinfrastrukturen som er bygd ut av UNINETT også til drift av administrative applikasjoner
  • Utvikle standardiserte driftsopplegg
  • Stimulere til utvikling og harmonisering av administrative rapporter
  • Teknisk drift av de felles administrative systemene, overvåking av utrustning og programvare, samt koordinering av avtaler om lisenser, vedlikehold og brukerstøtte med leverandører
  • Inngå hensiktsmessige programvareavtaler og tilby disse til universitet og høgskoler
  • Utføre Internett domenenavnregistrering for .no (Norge), .sj (Svalbard og Jan Mayen) og .bv (Bouvetøya)

TROFAST-prosjektet, Norid navneautoritet og programvareavtaler ble definert som UNINETT FAS sine virksomhetsområder.

I løpet av de nærmeste 2-3 årene gjennomgikk UNINETT FAS vesentlige endringer. Driftsmodellen for TROFAST viste seg å være utfordrende på grensen til det uoverstigelige. I 2000 utredet UNINETT FAS en alternativ driftsform med samling av driften i et sentralt driftsenter. Dette ble sendt på anbud året etter og endte med at USIT, Universitetet i Oslo ble valgt som driftsleverandør for TROFAST og har vært det siden.

I 2000 startet TROFAST også et prosjekt med tilrettelegging for elektronisk innrapportering av regnskap til Finansdepartementet og et prosjekt for anskaffelse av felles lønns- og personalsystem for høgskolesektoren. Senere fikk UNINETT FAS ansvar for Feide-prosjektet (Felles elektronisk identitet), mens Norid ble skilt ut og etablert som datterselskap av UNINETT AS fra 1. januar 2003.

Samtidig vokste aktivitetene i Norid sterkt og denne virksomheten ble skilt ut som eget datterselskap i 2003.

Norid – Norsk registreringstjeneste for Internett domenenavn

Televerkets forskningsinstitutt (TF) v/Pål Spilling ble tildelt navneautoritet for .no-domenet i 1983. De to første domenenavnene som ble registrert var tor.nta.no for TF og ifi.uio.no for Institutt for informatikk ved Universitetet i Oslo. UNINETT overtok ansvaret som navneautoritet i 1987 og var i tillegg navneautoritet for DECnet og EARN i Norge i alle år de eksisterte og for OSI (X.400) fram til 1992 da TelePost overtok den oppgaven.

Den eldste bevarte sonefila er fra 1989 og inneholdt 19 domenenavn. Antallet vokste sakte, men sikkert i årene som fulgte og passerte 1000 i 1995. På det tidspunktet var arbeidet såpass omfattende at det var nødvendig å utforme en navnepolitikk og etablere virksomheten som en egen tjeneste. Det skjedde i 1996, med etableringen av Norsk registreringstjeneste for Internett domenenavn (Norid) som en selvfinansierende virksomhet i UNINETT. Deretter vokste virksomheten raskt:

  • 1997: 10.000 domenenavn
  • 2001: 100.000 domenenavn
  • 2005: 250.000 domenenavn
  • 2010: 500.000 domenenavn

I navnepolitikken som ble utformet, ble det satt strenge krav til søkeren og søkerens binding til domenenavnet. Kravene ble løsnet noe opp i 1999 ved at hver søker kunne søke om flere domenenavn, og det ble åpnet for bruk av generelle ord og uttrykk i navnet. I mellomtiden var det opprettet både klageorgan og politikkråd for Norid.

Ved overgangen til ny navnepolitikk ble det i 2001 åpnet for konkurranse om nye domenenavn. Det kom inn 34.000 søknader om tilsammen 21.600 unike domenenavn (hvorav det var bare én søker til 18.000 navn). De meste populære var data.no (208 søkere), helse.no (197), reklame.no (192), web.no (158) og media.no (155). Bare to av dem er i bruk i skrivende stund. Året etter ble det etablert et eget navnetre for stedsnavn (kommuner, fylker med mer).

I 1999 ble Norid en del av UNINETTs datterselskap UNINETT FAS før det i 2003 ble skilt ut som eget datterselskap, – UNINETT Norid. Samtidig ble en ny forvaltningsmodell formalisert gjennom en forskrift utformet av Samferdselsdepartementet med Post- og teletilsynet som tilsynsmyndighet.

I 1999 ble ordningen med ‘registrarer’ etablert. Dette er foretak som registrerer og administrerer domenenavn for eieren. I 2006 var det mer enn 500 slike akkreditert av Norid og de hadde etablert sin egen interesseorganisasjon (‘Dot enno’).

I 2004 ble det åpnet for særnorske tegn i domenenavnet. I konkurransen om disse kom det inn 30.500 søknader om 5083 unike domenenavn (hvorav nesten 3400 hadde kun en søker). De mest populære var båt.no (897 søkere), øl.no (831), vær.no (558), været.no (535), jørgensen.no (450) og sørensen.no (442). I skrivende stund er ingen av disse domenenavnene i bruk.

En brukerundersøkelse som ble gjennomført i 2006 viste at 86% av norske virksomheter hadde domenenavn (93% i .no, mens 23% har .com-domene).

TROFAST spilte en viktig rolle for spesielt de mindre institusjonene når det gjelder å gi disse gode, billige administrative tjenester. I tillegg har TROFAST bidratt til å utvikle en ny organisering av drift og å videreutvikle av felles administrative systemer i samspill, organisert i et likeverdig samarbeid.

Informasjonsarbeidet

Informasjon og markedsføring var en del av mandatet UNINETT fikk da det ble etablert som drifts- og utviklingsorganisasjon for Forskningsnettet i 1987 og har vært en prioritert aktivitet i alle år fram til i dag. Fra slutten av 80-tallet ble mer og mer av denne virksomheten formidlet i elektronisk form, samtidig som disse kanalene ble etablert som brukertjenester. Knut Lambrigt Vik var i mange år ildsjelen som drev denne delen av UNINETTs virksomhet.

I informasjonsarbeidet ble alle kanaler brukt, – fra nyhetsbladet UNINyTT via den elektroniske informasajonstjenesten UNINETTINFO til USENET News, Gopher, WAIS, Veronica, anonym FTP, Archie og ALEX før det meste av dette arbeidet migrerte til Web i 1994-95.

I 1993 arrangerte UNINETT den første UNINETT-konferansen i Bø i Telemark. Dette ble et årlig arrangement som trakk 2-300 deltakere og bidro til å sette mange faglige og IT-politiske spørsmål på dagorden for deltakere og medlemsinstitusjoner.

  • 1993 – Høgskolen i Telemark, Bø: “IT – den tredje industrielle revolusjon, KUFs IT-strategi, IT på høgskolene”
  • 1994 – Høgskolen i Østfold, Sandvika: “Fra Norgesnett til Riksnett
  • 1996 – Høgskolen i Lillehammer: “Teknisk drift av nettjenester” der åpningsforedraget ble overført fra Amsterdam over Mbone (med bravur)
  • 1997 – Høgskolen i Troms, Tromsø: “Web som vindu mot verden”, om IT i utdanning og Telemonopolets oppløsning
  • 2000 – Høgskolen i Narvik: “Fiber overalt – Alt er fiber
  • 2002 – Høgskolen i Sogn og Fjordane, Sogndal: “…mot terror på nettet
  • 2003 – Høgskolen i Agder, Kristiansand: “Giganett – For hvem?
  • 2004 –, Høgskolen i Harstad: “Forskningsnett for digital kompetanse
  • 2006 – Høgskolen i Ålesund: “Med kurs for fremtiden”
  • 2007 – NTNU, Trondheim: “Trådløs, sømløs, grenseløs
  • 2009 – Høgskolen i Østfold, Halden: “Applikasjonsstøtte for forskning, utdanning og formidling”
  • 2010 – Universitetet i Stavanger: “Tjenester og samarbeid i en åpen arkitektur

I tillegg arrangerte UNINETT det 45. møte i Internet Engineering Task Force (IETF) i Oslo i 1999 samt NORDUnet-konferansene i 1991 i Bergen, i 1998 i Tromsø, i 2005 på Svalbard og i 2012 i Oslo.

I 2009 tok styret for UNINETT FAS initiativ til å arrangere en egen konferanse med eierskap og forvaltning av systemer som tema. Dette ble et årlig UNINETT-arrangement under tittelen “SUHS – Systemer i UH-sektoren”.

I samarbeid med USIT ble det på tidlig 1990-tall utviklet et tilbud om “Opplæring i UNINETT-tjenester via WWW – En interaktiv innføring”, samtidig som USITs bok Into the Great Wide Open – Innføring i kommunikasjonstjenester ble distribuert til medlemsinstitusjonene.

Nett og nettjenester

UNINETTINFO drev en betydelig aktivitet med informasjon om UNINETTs tjenester i første halvpart av 90-tallet. De vedlikeholdt ‘Nett og nettjenester’ som en tjenesteoversikt for brukerne. Den siste utgaven av denne før Web tok over i 1994-5 illustrerer godt tjenestetilbudet på det tidspunktet da UNINETT fortsatt var et multiprotokollnett. Tjenesteoversikten så slik ut:

  • Innledning
  • Transportnett
  • Tjenestenett
    • UNINETT Internett
    • UNINETT OSInett
    • UNINETT EARN
    • UNINETT DECnet
  • Adressering:
    • Internett
    • OSInett
    • EARN/BITNET
    • UUCP
    • DECnet
    • DATAPAK (X.25)
  • Nettjenester
    • Elektronisk meldingsoverføring
    • Filoverføring
    • Fjerninnlogging
    • News og distribusjonslister
  • Elektronisk Informasjonsformidling
    • Filtjener (arkivtjener)
    • Filoverføring
    • Informasjonsdatabaser
    • Informasjonssystemer
      • Gopher
      • WAIS
      • World-Wide Web
  • Programvaredistribusjon
  • Katalogtjeneste

Fellesadministrative systemer for sektoren

Et særtrekk ved norsk UH-sektor er arbeidet med fellesadministrative systemer og vesentlige deler av dette hadde sin opprinnelse på 90-tallet. Arbeidet med de ulike fellesløsningene ble på den ene siden drevet fram av departementet som ønsket standardisering og felles praksis på de ulike administrative områdene. På den andre siden var de egenutviklete systemene en dyd av nødvendighet, – tilfredsstillende kommersielle løsninger tilpasset norske forhold var ikke tilgjengelig. I forrige kapittel ble den første fellestjenesten av dette slag kort omtalt, BIBSYS. På 90-tallet fulgte flere systemer med omtrent samme utviklingsløp:

  • Det startet vanligvis som utvikling av systemstøtte for administrative oppgaver
  • Systemene ble så koplet til nettet i en eller annen form for å gjøre dem lettere tilgjengelig for brukerne og gi bedre mulighet for kommunikasjon og informasjonsdeling
  • Etter hvert som Internett og Web ble tilgjengelig ble det utviklet applikasjoner som knyttet sluttbrukere til systemene gjennom informasjonstjenester og selvbetjeningsløsninger
  • Systemene selv ble knyttet sammen for å redusere dobbeltarbeid og dele data

Gjennom dette ble det etablert systemer som automatiserte administrative prosesser, effektiviserte bruk, forkortet saksbehandlingstid og ga bedre styringsinformasjon. Enigheten om at fellesløsninger er ressurseffektivt og en god ting både for sektoren og for den enkelte institusjon er unison. Kostnadene ved dette er også langt lavere hos oss enn i land vi naturlig sammenligner oss med.

USIT, Universitetet i Oslo med Seksjon for fellesutviklete systemer (SUAF), i svært mange år ledet av Andora Sjøgren, har stått for det aller meste av utviklingen av disse systemene. Samordna opptak (SO) som i dag brukes til opptak til studier ved alle institusjoner innen høyere utdanning i Norge, kan tjene som et godt eksempel på de systemene som disse utviklet.

Samordna opptak (SO)

På slutten av 1980-tallet besto UH-sektoren av godt over 100 institusjoner som hver for seg drev med opptak av nye studenter. Søkerne sendte søknad til alle institusjonene de hadde på lista over studieønsker. Ved institusjonene ble søknadene behandlet etter lokalt utviklete skjemaer, rutiner, saksbehandling og tidsrammer. Ingen hadde oversikt over hvor mange søkere det var til høyere utdanning, hvor mange som sto i kø, som ikke fikk studieplass etc. I det hele tatt visste hverken institusjonene eller styresmaktene noe særlig om søkingen til høyere utdanning på den tiden.

Dette ble opplevd som spesielt problematisk i og med den sterke økningen i antallet studenter i høyere utdanning på slutten av 80-tallet. Det var åpenbart at noen vesentlige grep måtte tas. I 1990 ga departementet et utvalg ledet av professor Bjørn Pedersen, Universitetet i Oslo, i oppdrag å skaffe oversikt over søkingen til høyere utdanning og foreslå tiltak for en bedre opptaksprosess. Utvalget kom med tre, på den tiden radikale forslag til å forenkle og standardisere opptaket:

  • Ett søknadsskjema der søkeren oppgir studieønsker i prioritert rekkefølge
  • Én saksbehandling ved at søknaden behandles av lærestedet med søkerens høyest prioriterte studieønske
  • Ett tilbud om studieplass på det høyest prioriterte studieønsket søkeren når opp på

Forutsetningen for å realisere dette var et sentralisert opptak til høyere utdanning. Tidlig i 1991 tok departementet tak og etablerte SO-prosjektet, i første omgang for å utarbeide et system som kartla søkningen til høyere utdanning. Prosjektet ble organisert ved USIT, Universitetet i Oslo og leverte samme år rapporter på omfanget av søkingen og køene av søkere. Rapportene viser klart og tydelig nødvendigheten av å iverksette tiltak som pekte i retning av et felles opptakssystem for høyere utdanning

I 1992 ble prosjektet utvidet til å implementere anbefalingene fra Pedersen-utvalget og pilotere opptak til sjukepleier- og ingeniørutdanningen. Med dette var utviklingen i gang i retning av dagens opptakssystem der IT-systemer og Internett spiller en sentral rolle i forenklingen av regelverk og søknadsprosess, i utvikling av en forutsigbar, mest mulig automatisk og effektiv søknadsbehandling og fleksibilitet i forhold til kravene som over hundre studietilbud stiller:

  • Pilotfasen 1992–94 etablerte SO med ansvar for koordinering og felles tjenester og løsninger. Fra 1994 ble piloten utvidet til også å gjelde opptak til lærer-, vernepleier- og sosialarbeiderutdanningene
  • Fra 1995 ble nasjonalt samordnete opptak basert på Nasjonal opptaksmodell (NOM), gjennomført for alle statlige og private høgskoler
  • Ny lov for universiteter og høgskoler (1995) la grunnlaget for et felles regelverk for søknadsbehandling og opptak som også inkluderte universitetene, et arbeid som ble sluttført i 2000 med en felles rangeringsforskrift og saksbehandling for hverandre på tvers av universiteter og høgskoler
  • Fra 1995 scannet og OCR-leste SO alle søknader og la dem inn i en egen database. Med dette startet arbeidet med å bruke Web-teknologi til å forenkle saksbehandlingen.
  • Fra 1996 brukte SO web til å gjøre informasjon om søkerne tilgjengelig for saksbehandlerne på lærestedene og gi innsikt i framdrift og resultat av den sentrale behandlingen av søknadene. På et internt nettsted lå også all informasjon om lærested og studietilbud samt alle parametre som styrte opptak til det enkelte studietilbudet. Den inneholdt også et rapporteringsverktøy med tilgang til statistikk, rapporter og oversikter
  • I 1999 startet arbeidet med å samle elektroniske vitnemål i en nasjonal vitnemålsdatabase, en tjeneste SO overtok ansvaret for i 2003. I den anledning ble det etablert et regelverk for vitnemål fra videregående skole. Det ble implementert i en kontrollmotor sammen med opptakskrav til alle studietilbudene. Denne kontrollmotoren var ikke bare en støtte for utskriving av vitnemål, det var også et verktøy for å avklare hva slags kompetanse ulike tilbud i videregående skole ga. Den var også god støtte til den enkelte videregående skole i planleggingen av skoletilbudet og i veiledningen av elevene i valg av studieretning.
  • Fra 2000 kunne søknader om opptak og svar på søknader formidles via Internett på SOs Søkervev. Mens 16 % av søkerne leverte elektronisk søknad det første året, leverte 95 % slik søknad i 2006. Fra 2008 er dette eneste måten å levere søknad om opptak til høyere utdanning.

I 2003 ble SO som prosjekt avsluttet og etablert som eget tiltak med hjemmel i “Lov om universiteter og høgskoler” med Universitetet i Oslo som vertsinstitusjon. Samtidig fikk SO Rosing-prisen (IT-bransjens Oscar-statuett) for “forbilledlig bruk av IKT i forvaltningen”. I artikkelen “Samordna opptak: Norge samlet til ett utdanningsrike?” oppsummerer prosjektleder Einar Løvdal, USIT, Universitetet i Oslo gevinstene på denne måten:

  • Myndighetene har fått fullstendig oversikt over utdanningstilbudet, samt søknadsmasse og søkermønstre for hvert tilbud. De har fått et fleksibelt system der endringer i regelverk kan implementeres raskt og effektivt og et system som eliminerer dobbeltarbeid
  • Lærestedene har beholdt kontrollen og saksbehandlingen i forhold til eget opptak og oppnådd store effektiviseringsgevinster ved at de stort sett kun behandler egne primærsøkere, ved at de har fått verktøy som forenkler søknadsbehandlingen og ved at denne er avsluttet i god tid før semesterstart.
  • Søkerne har fått enkel tilgang til komplett oversikt over studietilbudene, en enklere søknadsprosess og tilgang til søknadsbehandlingen, samt betydelig raskere svar på søknadene

Systemet har gitt forenkling, effektivisering og forutsigbarhet, det har utviklet nye prosesser og etablert nye tjenester. Samtidig har slike systemer der saksbehandlingen er kodet inn i et informasjonssystem og i stor grad skjer automatisk, noen sideeffekter som Løvdal drøfter i samme artikkel og som det er vel verdt å reflektere over:

  • Systemets uangripelighet. Når søknaden er registrert og dokumentasjonen korrekt analysert, er konklusjonen gitt og kan alltid hjemles i en fortolkning av regelverket
  • Systemets ubønnhørlighet. Når regelverket er kodet ut fra en robust fortolkning, får systemet rett, konklusjonen er ubønnhørlig utfra systemets egen logikk og rasjonalitet
  • Systemets effektivitet. Med minst mulig manuell saksbehandling, færrest mulig kontakter mellom søker og saksbehandler, erstattes ansikt-til-ansikt-kommunikasjon systematisk med menneske-til-system-interaksjon
  • Systemets tilfeldighet. Systemets fokus på å eliminere tilfeldighet i det små, kan tilsløre tilfeldighetene i systemets premisser når det gjelder å treffe systemets overordnete intensjon

Vi får med andre ord systemer som potensielt setter brukere som av en eller annen grunn faller utenom gjeldende norm i ‘sjakk matt’. Uten å gå nærmere inn på drøftingene av dette, er det enkelt å slutte seg til Løvdals konklusjon:

Refleksjon over hva våre maskiner og systemer gjør med oss og våre medmenneskelige relasjoner er, etter min overbevisning, helt nødvendig for å ta vare på grunnleggende verdier i vårt samfunn, og er kanskje det viktigste grunnlaget for å avgjøre om et system er rasjonelt eller ikke.

Felles studentsystem (FS)

Et par år etter oppstarten av SO startet universitetene i Oslo, Bergen, Trondheim og Tromsø samt Norges landbrukshøgskole (i dag Universitetet for miljø- og biovitenskap) og Norges Handelshøyskole et felles prosjekt kalt Felles studentsystem (FS). Målet var å utvikle et system for studieadministrativ saksbehandling. De seks institusjonene tok dette systemet i bruk i 1996/97. Samtidig ble det satt i gang arbeid for å tilrettelegge systemet for høgskolenes behov. Det ble avsluttet i 1999, da de åtte største høgskolene tok systemet i bruk. FS ble avsluttet som prosjekt samme år, og etter det ble det organisert som et samarbeidstiltak der institusjonene som benyttet systemet, automatisk var medlemmer.

I 2009 bestemte departementet at alle statlige høgskoler skulle benytte FS. Sammen med en del private høgskoler innebar dette at antall FS-institusjoner passerte 50 i 2010. Fra 2012 brukes FS av alle institusjoner som benytter SO til opptak. Norsk høyere utdanning har med andre ord både ett felles opptakssystem og ett studieadministrativt system. Fra å støtte manuelle rutiner på studieområdet har FS utviklet seg til et system som har digitalisert og automatisert en rekke oppgaver og prosesser, samtidig som det holder orden på studietilbud, studenter og andre ting av betydning for institusjonenes utdanningstilbud. En av de mest sentrale tjenestene er StudentWeb, hvor studentene utfører all registrering av opplysninger knyttet til studiene, og får presentert alle opplysninger om egne studier.

FS leverer rapporter og data til en rekke lokale og nasjonale tjenester og systemer, og gir støtte til de fleste studieadministrative prosesser ved lærestedene.


Figur 5-13: FS – Felles studentsystem er i dag et system som automatiserer en rekke oppgaver knyttet til studieadministrasjon og interagerer med et stort antall systemer og tjenester. For så vidt illustrerer dette godt det komplekse systemlandskapet som eksisterer på våre læresteder. Her mangler lønns- og personalsystemet, men det lurer i bakkant som kilde til autoritativ personinformasjon for flere av systemene.

FS – Felles studentsystem


Frida og CRIStin

På begynnelsen av 2000-tallet var det ingen av institusjonene som hadde fullgod oversikt over egen forskningsvirksomhet. BIBSYS hadde et system (Forskdok) for å registrere forskningspublikasjoner som også NTNU benyttet. Universitetene i Oslo og Bergen hadde hvert sitt eget, egenutviklete system, mens Universitetet i Tromsø ikke hadde noe.

I 2003 gikk de fire universitetene sammen om et prosjekt for å lage et felles system for forskningsinformasjon. Prosjektet ble kalt Forskningsresultater, informasjon og dokumentasjon av vitenskapelige aktiviteter (Frida) og lagt til USIT, Universitetet i Oslo. Målet med Frida var å samle informasjon om forskningen ved institusjonene i et system, – informasjon om forskere, forskningsgrupper, forskningsaktiviteter og -prosjekter og forskningspublisering, samt danne grunnlag for rapportering til Database for høyere utdanning (DBH). En viktig drivkraft var også den nye finansieringsmodellen som departementet arbeidet med. I denne skulle forskningsresultater inngå i beregningsgrunnlaget for tildelingen av midler til institusjonene over statsbudsjettet.

I 2008 kom rapporten Norsk vitenskapindeks fra en arbeidsgruppe oppnevnt av Kunnskapsdepartementet. Der ble det anbefalt å etablere en felles database for vitenskapelig publisering i et nasjonalt system for forskningsinformasjon. Dette ble anbefalt bygd på Frida. I 2010 ble Frida tilrettelagt for dette, og i 2011 ble Current Research Information System in Norway (CRIStin) etablert som forskningsdokumentasjonssystem for universitets- og høgskolesektoren, instituttsektoren og helsesektoren. Mer enn 170 institusjoner registrerer i dag sin forskningsvirksomhet i dette systemet.

Om fellestjenestene og samarbeidstiltakene

Satsingen på fellesadministrative systemer har vært en suksess. På dette området er Norge svært langt framme, om ikke helt i front internasjonalt. Samtidig har dette skjedd med en lavere ressursramme enn tilsvarende virksomhet i land vi gjerne sammenligner oss med. En stor gevinst ligger i de selvbetjeningsløsningene som systemene leverer. Disse flytter mye arbeid fra saksbehandlere ved institusjonene til sluttbrukerne og sparer vesentlige administrative ressurser.

Virksomheten i SO, FS og CRIStin er organisert etter omtrent samme mal. SO og CRIStin er begge samarbeidstiltak organisert etter § 1.4.4 i lov om universiteter og høgskoler, med daglig ledelse og sekretariat lagt til Universitetet i Oslo, men der det faglige ansvaret er tillagt et eget styre. Samarbeidstiltakene kjøper drifts- og utviklingstjenester av USIT, Universitetet i Oslo. FS er organisert og fungerer etter omtrent samme modell, men det er en medlemsorganisasjon ledet av et styre og med et årsmøte som øverste organ. FS kjøper daglig ledelse og sekretariat fra USIT i tillegg til utviklingstjenester, mens driften av FS ved universitetet er overlatt institusjonene selv, og for høgskolene er den overlatt UNINETT FAS AS. I skrivende stund pågår det et arbeid for å organisere SO og FS i ett § 1.4.4-tiltak.

Lignende organisering er også gjennomført for andre samarbeidstiltak som MUSIT og BOT. MUSIT er universitetenes IT-organisasjon som utvikler fellestjenester og –løsninger for disse. BOT er et samarbeid mellom universitetene i Oslo, Bergen og Trondheim om drift av felles økonomisystem for disse institusjonene. I tillegg kommer rollen til foran omtalte UNINETT FAS når det gjelder administrative tjenester i høgskolesektoren.

Norge har en lang tradisjon med fellestjenester og fellesressurser for forskning og høyere utdanning, spesielt innenfor det administrative området, en tradisjon som har gitt resultater som ingen land vi gjerne sammenligner oss med, er i nærheten av.

Inn i et nytt tusenår

Årtusenskiftet markerer starten på en periode med sterk vekst i UNINETTs virksomhet. I løpet av det første tiåret etter 2000 ble virksomheten tredoblet, fra vel 30 ansatte i 1999 til over 90 i 2010, og omsetningen økte fra 75 millioner til over 200 millioner kroner. Denne veksten skyldtes veksten i IT i virksomheten ved institusjonene og derigjennom økt bruk av UNINETTs tjenester og at UNINETT ble tillagt nye oppgaver.


Figur 5-14: UNINETT konsernet i 2004 med fire datterselskaper og tre grupper i morselskapet.

UNINETTs organisasjon i 2004


UNINETT ble som sagt etablert som et konsern med ett datterselskap i 1999 – UNINETT FAS. Dette fikk nå nye og viktige oppgaver i tilknytning til institusjonenes og sektorens administrative IT-virksomhet, blant annet ved at de i flere år var ansvarlig for UNINETTs arbeid med tjenester for identitetsforvaltning, autentisering og autorisering i Feide-prosjektet. I omorganiseringen av UNINETT i 2012 ble UNINETT FAS fusjonert inn i morselskapet.

I 2003 ble UNINETTs ansvar utvidet til å omfatte utviklingen av et læringsnett for grunnutdanningen og videregående utdanning i Norge, – arkitektur, veiledning, opplæring, anbefalinger og ikke minst innføringen av Feide i fylkeskommuner og kommune. Denne virksomheten ble organisert i et eget datterselskap, – UNINETT ABC med Eva Mjøvik som daglig leder. Dette ble i 2010 fusjonert inn i Senter for IT i utdanningen, da departementet reorganiserte sine aktiviteter og organisatoriske tiltak innen IT i grunnskolen og videregående skole.

I 2004 hadde virksomheten i Norid navneautoritet vokst så mye at det var nødvendig å organisere den i et eget datterselskap, – UNINETT Norid med Hilde Thunem som daglig leder. Dette gjorde ansvar og oppgaver knyttet til administrasjon av .no-domenet og domenenavn tydelig, samtidig som organisasjonen ble bedre i stand til å håndtere den økende arbeidsmengden og regelverket knyttet til domeneregistreringen.

Da det nasjonale tungregnesamarbeidet NOTUR ble videreført som NOTUR II i 2004 for en tiårsperioden fram til 2014, fikk UNINETT ansvar for utbygging av ressurser for vitenskapelig databehandling i landet, inkludert utbygging av regneanlegg og lagringstjenester organisert i UNINETT Sigma med Jacko Koster som daglig leder.

Oppgavene knyttet til drift og utvikling av Forskningsnettet ble ivaretatt av tre grupper i morselskapet, – grupper for nett, testnett og tjenester. Denne organiseringen hadde UNINETT inntil omorganiseringen i 2012.

Fjerde generasjon av Forskningsnettet: Giganett og tjenester

Fiber overalt – alt er fiber” var tema for UNINETT-konferansen i Narvik i 2000, og et varsel om nye tider. Fram til slutten av 1990-tallet var omtrent alt av fysisk infrastruktur i Forskningsnettet bygd på linjer leid av Telenor og andre teleselskaper. Den tekniske og organisasjonsmessige utviklingen i telesektoren åpnet nå for muligheten til å kjøpe ren overføringskapasitet i form av svart fiber. Dette ville gi operatører som UNINETT kontroll med til tilkoplingsutstyret i endepunktene, noe som ville gi lavere kostnader og mulighet til selv å styre utbyggingen av kapasitet og linjer.

Dette ble dagsorden for arbeidet med fjerde generasjon av Forskningsnettet i Norge i årene etter årtusenskiftet. Det var også hovedsaken i UNINETTs forsøk på å påvirke retningen i utbyggingen av en infrastruktur for bredbånd da dette kom på dagsorden.

Markedsstyrt og etterspørselsdrevet utbygging vs UNINETTs telemodell

I 2000 la som sagt den første Stoltenberg-regjeringen fram sin “Handlingsplan for bredbåndskommunikasjon” der de abdiserte fra ansvaret for å bygge ut infrastruktur. Dette ble ikke lenger ansett som et offentlig ansvar, det var konkurransen i markedet som skulle sikre befolkningen og offentlig og privat virksomhet bredbåndstilknytning. Dette var hverken teknisk begrunnet og heller ikke begrunnet i noen analyse av bruksmønster og brukerbehov for framtidige bredbåndstjenester til innbyggerne og til offentlig og privat virksomhet.

Televerket fikk koppernettet hjem til hver av oss i gave ved privatiseringen på slutten av 90-tallet. Selv om de første bredbåndskundene fikk bredbånd over kabel-tv-nettet, gikk det ikke lang tid før bredbånd over telefonnettet var dominerende teknisk løsning. På kort sikt var dette den økonomisk og praktisk gunstigste løsningen siden telefonkabelen allerede lå der, og den lå der for langt flere enn tilfellet var for TV-kabelen.

Mange så dette som en blindgate som ikke kunne gi den kapasiteten som en framtidsrettet utvikling av tjenester og bruk ville kreve. De argumenterte for en annen retning i bredbåndsutbyggingen, – utbygging av en fiberoptisk infrastruktur som kunne tilrettelegge for langt mer framtidsrettet utvikling av tjenester og bruk. Dette ville krevd at det offentlige utviste et langt mer forpliktende engasjement i utbyggingen av infrastrukturen.

I tråd med dette lanserte UNINETT i 2001 forslag om “En ny telemodell”. Her tok de til orde for en samlet innsats for å bygge ut en fiberinfrastruktur for bredbåndstjenester i landet. Det mest radikale og nytenkende i denne modellen var forslaget om å gjøre føringsveier til en offentlig tjeneste på linje med vei, vann og kloakk. Graving av føringsveier, samt tilhørende rør og kummer utgjør omtrent 80% av kostnadene ved nettutbyggingen. UNINETT argumenterte med at det samfunnsmessig sett var lite lønnsomt å overlate gravingen til den enkelte nettoperatør. Kaoset av føringsveier og kabler var utbredt og plagsomt nok allerede.

I disse offentlig etablerte føringsveiene skulle alle kunne legge, leie eller kjøpe svart fiber. De andre elementene i modellen var lokal infrastruktur i institusjoner, foretak og organisasjoner, lokale samtrafikkpunkter og tjenestehoteller bundet sammen i regional og nasjonal infrastruktur. Dette ville også sikre en konkurransearena med like vilkår for alle når det gjaldt tjenester.


Figur 5-15: UNINETTs nye telemodell knyttet innbyggere, lokal forvaltning og lokalt næringsliv sammen i en fiberoptisk infrastruktur.

UNINETTs telemodell


Modellen ble tatt inn i arbeidet til Samferdselsdepartementets ‘grøfteutvalg’ som kom med sine anbefalinger i 2001 under tittelen “Den som ikke graver en grøft for andre, faller selv deri ...”. UNINETTs representant i utvalget, direktør Petter Kongshaug, tok dissens i utvalgets rapport fordi han mente at “utvalgets konklusjoner ikke går langt nok når det gjelder å se føringsveier og bruk av fiberteknologi i sammenheng”. Det springende punktet var:

Utbygging av føringsveier og fibernett må legge til rette for at det blir skapt at marked for omsetning av mørk fiber (eller bølgelengder) framfor mindre enkeltkapasiteter. UNINETT vil anbefale at universiteter, høgskoler og andre utdanningsinstitusjoner anskaffer mørk fiber, hvor de samme institusjonene selv kan bestemme termineringsutstyr. Med andre ord ønsker vi et ‘brukerkontrollert’ lokalt telenett hvor brukerne selv velger overføringskapasitet (og pris). (fra Petter Kongshaugs dissens)

UNINETT nådde ikke fram med sine synspunkter den gangen. I forbindelse med “St.meld. 17 (2006-7) Eit informasjonssamfunn for alle” oppsummerte UNINETT i 2006 at det ikke hadde skjedd utvikling på området. Grøftegravingen var fortsatt ukoordinert, og oversikten over føringsveiene lokalt var like sparsom. I 2010 kom det en utredning utført på oppdrag fra Fornyings-, administrasjons- og kirkedepartementet med tittelen “Vei, vann og bredbånd”. Hovedpoenget her var det samme som UNINETT hadde påpekt nesten ti år tidligere.

I 2001 fikk UNINETT allikevel fem millioner kroner fra Kunnskapsdepartementet til prosjektet “Fiberskolen” for å prøve ut modellen i utbygging av infrastruktur for skolesektoren i tre kommuner.

Nasjonalt læringsnett, fiberskolen og UNINETT ABC

Kirke- utdannings- og forskningsdepartementets “IKT i norsk utdanning: Plan 2000-3” satte nasjonalt læringsnett på dagsorden:

Det er behov for et samlet nasjonalt læringsnett som gir enhetlig tilgang til informasjon og læringsressurser og hvor ulike aktører kan finne sin plass og samarbeide.

I 2000-1 utredet Bjørn Ness, USIT nasjonalt læringsnett for departementet. Skissen til strategi og arkitektur for nasjonalt læringsnett bygde i stor grad på UNINETTs nye telemodell og fiberstrategi for Forskningsnettet. Departementet ga UNINETT i oppdrag å teste ut bærekraften i noen konkrete utbyggingsprosjekter.

Fiberskolen

I regi av UNINETTs Fiberskoleprosjekt ble det bygget ut fiberinfrastruktur i tre kommuner, – Alta, Molde og Tønsberg. I hver av kommunene omfattet denne infrastrukturen skolene, andre offentlige institusjoner og lokal forvaltning. Denne ble så koplet til nærmeste høgskole og derigjennom til UNINETT. I tillegg ble det arbeidet med intern infrastruktur i skolebyggene og utviklet driftsopplegg for nett og tjenester.

Prosjektet var vellykket og UNINETT ble i tida etterpå involvert i tilsvarende aktiviteter i Steinkjer, Åmot, Trondheim, Bergen, Sandefjord og Vestfold fylke. I tillegg ble det etablert et kompetansesenter for bredbåndstjenester i Alta.

UNINETT ABC

Etter fiberskole-prosjektet ble UNINETT gitt i oppdrag å arbeide videre med å bygge nasjonalt læringsnett. I 2003 ble dette organisert som UNINETTs datterselskap UNINETT ABC.

Et viktig premiss for fiberskolen og nasjonalt læringsnett var endret underveis. Satsingen på fiberinfrastruktur og kommunalt ansvar for lokal infrastruktur i UNINETTs telemodell var ikke kompatibel med den offentlige IT-politikkens prioritering av markedsdrevet bredbåndsutbygging. I praksis ble det Høykom Skole som kanaliserte behov for bredbåndstilknytning til skolene til utbyggerne, mens de andre delene av nasjonalt læringsnett ble UNINETT ABCs fokus.

UNINETT ABC startet med å konkretisere grunnlaget for nasjonalt læringsnett i prosjektet “Skoler og lokalmiljø i digital utvikling” (SOLID) i 2003. I dette prosjektet ble det utarbeidet anbefalinger og gjennomført piloter og satt i gang informasjons- og veiledningstiltak. Feide kom til å spille en sentral rolle for UNINETT ABC. I 2004-5 ble det gjennomført piloter for bruk av Feide i grunnskole og videregående skole, og i statsbudsjettet for 2006-07 ble Feide valgt som autentiseringsløsning for skoleverket:

Departemenet vil leggje til rette for ei identitetsforvaltning for utdanningssektoren som byggjer på Feide-prosjektet og den statlige PKI-løysinga eID. Saman med eID vil Feide dekkje kravet i sektoren til sikker autentisering, og løysinga stør opne standardar i sektoren. Feide vil bli implementert stegvis frå hausen 2006.

Etter flere piloter startet utrullingen av Feide til grunnskolen og videregående skole i 2007. I skrivende stund benytter videregående skole i 19 av 20 fylkeskommuner (og den siste er i gang med innføringen) med nesten 190.000 Feide-brukere. Tilsvarende er over 190 kommuner Feide-godkjent med nesten 360.000 brukere, mens nesten 100 kommuner med bortimot 190.000 brukere er i gang med innføringen. Når Feide er tatt i bruk i grunnskole og videregående skole i hele landet vil antall Feide-brukere her nærme seg 900.000.

En viktig bieffekt av innføringen av Feide var en meget stor (og nødvendig) opprydding i de administrative systemene i skoleverket. Feide krevde korrekt informasjon om personer og om skolenes virksomhet. Arbeidet med å standardisere personinformasjon i IT-systemer i skoleverket ble nedfelt som norsk standard i 2008, – “NS41790: Personrelatert informasjonsflyt i utdanning (PIFU)”.

Giganettet – kapasitetsmangel gir feil fokus

Den nye telemodellen hentet tankegodset fra den strategien UNINETT hadde lagt for Forskningsnettet ble presentert under tittelen “Fiber overalt – Alt er fiber. En viktig motivasjon var erfaringene fra 1990-årenes kontinuerlige arbeid med å bringe til veie forbindelser med tilstrekkelig kapasitet. I situasjoner med kapasitetsmangel vil fokus automatisk bli rettet mot tiltak for å gå rundt dette, noe som i sin konsekvens begrenser brukernes muligheter og institusjonenes virksomhet.

Rundt år 2000 ble det inngått avtaler om fiberforbindelser i Forskningsnettet med Telenor, Banetele og Enitel. Av de nesten 30 fiberforbindelsene i Forskningsnettet var det kun forbindelsen mellom Oslo og Trondheim som hadde Gbps-kapasitet. I tillegg til manglende Gbps-kapasitet på linjene, var det en annen vesentlig ting som manglet – ende-til-ende-kontrollen, som også var en vesentlig del av den foran omtalte telemodellen. UNINETT ønsket tilgang til svart fiber og ville ha kontroll med endeutstyret selv. Med dette på plass ville UNINETT og institusjonene selv kunne styre overføringskapasitet og kostnader for forbindelsene, og de ville ha mulighet til å tilby både dediserte punkt-til-punkt-forbindelser for krevende applikasjoner og ‘båndbredde ved behov’.

Dette ble virkeliggjort med avtalen UNINETT inngikk med BaneTele i 2003. BaneTele var Jernbaneverkets teleselskap. I 1985 startet Jernbaneverket med å erstatte koppernettet som lå langs jernbanesporene med optisk fiber, og i 1996 ble dette organisert som en divisjon i Jernbaneverket før det i 2001 ble statsaksjeselskap. I 2003 overtok BaneTele fibernettet som Enitel hadde bygd opp langs strømkabler i store deler av landet. Etter at staten solgte seg ut i to omganger i 2006 og 2009 ble BaneTele overtatt av Bredbåndsalliansen, som i sin tur eies av et halvt dusin regionale kraftselskaper, og det heter i dag Ventelo Networks.

BaneTele-avtalen hadde en tidsramme på 20 år og ga UNINETT tilgang til overføringskapasitet i BaneTeles fiberinfrastruktur. Med dette kunne UNINETT avvikle kostbare leide telesamband. I løpet av 2003 ble 55 fiberforbindelser etablert og i løpet av 2004 hadde alle UH-institusjonene Gbps-forbindelser. Det var da etablert et stamnett med 2,5 Gbps mellom de fire universitetsbyene og en 2,5 Gbps ‘kyststamvei’ rundt kysten fra Trondheim til Oslo.

I 2007 ble en ny milepæl passert da hybridfunksjonalitet ble implementert i stamnettet. I tillegg til å rute Internett, kunne det nå settes opp dediserte egne punkt-til-punkt-forbindelser for kapasitetskrevende oppgaver. Samtidig ble stamnettet oppgradert til 10 Gbps. I 2009 var nesten 84.000 maskiner tilknyttet Forskningsnettet.

Gjennomsnittskapasiteten på linjene var 2 Gbps, ti ganger kapasiteten i 2002. Trafikken i Forskningsnettet doblet seg hvert år på 90-tallet, etter 2000 roet det seg noe ned med en årlig vekst på rundt 30% (som fortsatt er krevende, selv om vekstpotensialet i Giganettet er betydelig). I 2006 ble det utformet nye retningslinjer for tilknytning til Forskningsnettet som egentlig bare formulerte etablert praksis.

Tilknytning til Forskningsnettet

Tilknytning til Forskningsnettet er tilgjengelig for organisasjoner hvor hovedformålet er knyttet til forskning eller utdanning. Alle norske universiteter og statlige høgskoler er tilknyttet.

  • Forskningsnettet omfatter:
    • Institusjoner innen høyere utdanning
    • Forskningsinstitusjoner
  • Andre typer institusjoner som kan tilknyttes:
    • Grunnskoler og videregående skoler
    • Organisasjoner med direkte tilknytning til forskning og utdanning (biblioteker, muséer, arkiver etc)
    • Organisasjoner som leverer ‘non-profit’-tjenester til forskning og utdanning
  • Organisasjoner og prosjekter som har bruk for forskningsnettfunksjonalitet og som samarbeider med eksisterende kunder. Dette omfatter også knoppskytingsbedrifter. Disse revurderes årlig

Enhver organisasjon med eget organisasjonsnummer skal ha eget kundeforhold. En organisasjon kan ha flere forskningsnettilknytninger. Kun unntaksvis kan flere organisasjoner dele tilknytning. Tilknytning har gjensidig oppsigelsestid på tre måneder.

Landet samles til ett feiltolerant Giganett

Parallelt med dette startet arbeidet med å bygge ut forbindelsen til Svalbard. I 2005 var sjøkabelen framme og Universitetssentret i Svalbard (UNIS) i Longyearbyen kunne knyttes til UNINETT med 1 Gbps-forbindelse. Samtidig ble det etablert en 155 Mbps forbindelse mellom Longyearbyen og forskningstasjonen i Ny-Ålesund. Det hele ble markert med en spektakulær NORDUnet-konferanse i Longyearbyen samme år. I 2010 ble forbindelsen mellom Longyearbyen og Svalbard oppgradert til 1 Mbps.

I 2008 startet så siste etappe i samlingen av landet, – etableringen av fiberringen i Finnmark. De første forbindelsene ble etablert i 2009 og ringen var fullt ut operativ med Gbps-kapasitet i 2011.

I disse årene ble det bygd opp reserveveier fram til de aller fleste institusjonene knyttet til Forskningsnettet. Et uheldig sammenfall av et ras på Saltfjellet og en togavsporing i Kiruna tok i 2007 begge Nord-Norge-forbindelsene. For å unngå at noe tilsvarende skulle skje igjen, ble det etter dette bygd to reserveveier mellom de viktigste knutepunktene i stamnettet.


Figur 5-16: De to nettene. Hybridnettet med optiske stier (ƛ-er) i forgrunnen med produksjonsnettet i grått i bakgrunnen.

UNINETT hybridnett 2008


Telefoni i Forskningsnettet

KOMPAKT-prosjektet hadde bygd ett felles, internt telefonnett for høgskolene. Dette nettet bygde på egne 2 Mbps linjer mellom institusjonene og ut til studiestedene, og med et tilknytningspunkt til Telenor ved USIT, Universitetet i Oslo. I 2000-1 startet utfasingen av dette linjenettet og telefontrafikken ble gradvis flyttet over på Forskningsnettets linjer.

I 2003 var det nytt anbud på telefonitjenester og denne gangen ble det inngått avtale ved Song Networks. Alle universitetene og statlige, kunstfaglige og vitenskapelige høgskoler, til sammen 38 institusjoner med over 75.000 telefonbrukere sluttet seg til avtalen. Avtalen hadde en årlig ramme på 25 millioner kroner og sparte institusjonene for et estimert beløp på 10 millioner kroner årlig bare i trafikkavgifter.

Forskningsnettene på 2000-tallet

Forskningsnettene nasjonalt og internasjonalt tok godt for seg av den billige fiberkapasiteten som ble tilgjengelig i kjølvannet at ‘dot.com’-nedturen, samtidig som de selv bygde ut egen kapasitet. Faren for kapasitetsmangel var om ikke eliminert, så i alle fall sterkt redusert. I denne perioden begynte forskningsnettene å spørre seg selv om forholdene var lagt til rette slik at utdanningen og forskningen kunne bruke denne kapasiteten.

Dette var et sentralt tema i UNINETTs analyser, prosjekter og planer i årene etter 2000, og det samme er tilfelle i to større analyser fra den europeiske forskningsnettorganisasjonen Terena: SERENATE – Study into the evolution of European Research and Education Networking (2002–03) og EARNEST – Innovation, Integration and Deployment: Challenges for European research and education networking (2006–07). SERENATE-studien pekte på noen vesentlige utfordringer for forskningsnettvirksomheten:

  1. Campusnettene ble identifisert som det svakeste leddet i kjeden. På dette området var det behov for et krafttak, spesielt ved de mindre institusjonene
  2. Brukeromgivelsene må utvikles med koordinerte tjenester og løsninger når det gjelder sikkerhet og tilgang, spesielt autentisering, autorisering og identitetsforvaltning
  3. Ressurskrevende applikasjoner og anvendelser kommer, applikasjoner og anvendelser som krever massive ressurser til overføring, lagring og behandling av data
  4. Forskningsnettene må komme nærmere brukerne og brukernes hverdag for å kunne utvikle og tilby tjenester og løsninger brukerne har behov for

EARNEST-studien gikk flere skritt videre og analyserte utviklingen på mange områder og innenfor de ulike vitenskapelige disiplinene. Begge studiene bidro til å sette dagsorden for både UNINETT og andre forskningsnett.

Fra IPv4 til IPv6

Allerede på slutten av 1980-tallet var det åpenbart for mange at veksten i Internett i ville føre til at adresserommet gikk tom for adresser i løpet av få år. En 32-bits adresse ga i teorien godt og vel fire milliarder IP-adresser, men struktureringen av adresserommet i klasser gjorde at antallet tilgjengelige adresser i praksis var langt lavere.

På første halvdel av 90-tallet opphevet introduksjonen av klasseløs adressering begrensningen knyttet til adresseklasser. Litt senere kom Network Address Translation (NAT) som skjulte mange enheter bak én IP-adresse.

Dette var tiltak som kun utsatte det uunngåelige. Arbeidet med den endelige løsningen, en redesign av IP startet på begynnelsen av 90-tallet og i 1996 ble de første spesifikasjonene av IPv6 publisert. Med 128 bits adresser var adresserommet så stort at det knapt er teoretiske muligheter for at det kan bli uttømt innen evigheten er over.

Til tross for at IPv6 rettet mange svakheter i IPv4 i tillegg til endringen av adresserommet, tok migreringen til IPv6 tid. NIX begynte å rute IPv6 i 1999 som en del av samarbeidet mellom europeiske IX-er i Euro6IX. I 2001-2 etablerte GÉANT et eget IPv6-nett – 6net – i samarbeid med NORDUnet og en rekke andre for å fremme overgangen til IPv6 i produksjonsnettene. Dette skjedde i samarbeid med Internet2 i USA.

I 2003-4 ble ruterne i stamnettet oppgradert slik at de kunne rute både IPv4- og IPv6-trafikk. I årene som fulgte kom campusnettene etter, men denne migrasjonen er fortsatt ikke ferdig.

I februar 2011 ble den siste blokken av IPv4-adresser delt ut og 8. juni 2011 var “World IPv6 Day” der alle de store nettstedene og tjenesteleverandørene deltok i markeringen av den endelige overgangen.

Selv om IPv6 løste mange problemer sett fra et drifts- og tjenestesynspunkt, er det ‘dingsene’ våre som virkelig har behov for den nye protokollen. Mobil- og smarttelefoner, nettbrett og alle andre dingser som skal på nett, bruker IPv6. Det samme gjør ‘Tingenes Internett’, alle tingene rundt oss som kommuniserer med hverandre over IP. Det vil nok gå mange år før siste IP4-pakke er rutet, men det går neppe like lang tid som det tok å gjøre IPv6 klar for allmenn bruk.

Campusnettet og GigaCampus

KOMPAKT-prosjektet gjorde en stor jobb med å rydde, standardisere og strukturere lokal infrastruktur ved høgskolene på midten av 1990-tallet. SINTEFs evaluering av Forskningsnettet i 2001 påpekte at dette langt fra var nok. Kapasiteten, tilgjengeligheten og stabiliteten i tjenestene og systemene lokalt var ikke god nok til at institusjonene kunne utnytte tjenestene og ressursene optimalt. Det stemte godt med konklusjonene i SERENATE-studien. I sin årsrapport for 2003 oppsummerte UNINETT anbefalingene i denne rapporten:

Åpen tilgang til optiske transmisjonsnett

Alle som er engasjert i forskning og utdanning bør reflektere over den raske overgangen til optiske nett. Hvis fiberinfrastruktur ikke er direkte tilgjengelig i et konkurranseutsatt, ikke-diskriminerende marked bør myndighetene ta skritt for å endre på situasjonen.

Dette bør overvåkes og følges opp på samme måten som da telemonopolet ble avviklet. Det bør være et politisk mål å tilrettelegge nettjenester med gigabitkapasitet til ‘alle’, og de nasjonale forskningsnettene bør settes i stand til å anskaffe egen optisk fiberinfrastruktur.

Nye og ressurskrevende applikasjoner

Miljøer som utvikler applikasjoner som krever svært stor regnekraft, lagringskapasitet og nettkapasitet bør samarbeide tett med forskningsnettorganisasjonen. Om nødvendig bør Forskningsnettet tilby eksperimentelle, optiske nett (lambda-nett) parallelt med sine ordinære produksjonstjenester. Nasjonale finansieringsinstitusjoner bør bidra til at samarbeid om slike applikasjoner kommer i gang.

Campusnettene det svake leddet

Campusnettene er blitt det svakeste leddet i kjeden mellom sluttbrukere som kommuniserer over forskningsnett. Myndigheter og universitetsadministrasjoner bør sørge for at disse institusjonene bygger ut sine campusnett i takt med den nasjonale forskningsnettutbyggingen. Universitetene bør vurdere å kjøpe sin egen fiberinfrastruktur på samme måten som forskningsnettene gjør framfor å leie tradisjonelle telesamband.

Sluttbrukerne trenger ende-til-ende-kvalitet

For å kunne gi brukerne ende-til-ende tjenestekvalitet, må det utarbeides standarder og verktøy som gjør det praktisk mulig å overvåke alle leddene i en kommunikasjonskjede. Dette stiller store krav til samarbeid på tvers av nasjonale og internasjonale institusjonsgrenser. Det bør settes i gang et større multinasjonalt prosjekt for å realisere enhetlig brukerautentisering i Europa. De som har ansvar for tjenester innen forskning og utdanning bør bidra til å gjøre mer kvalitetsinnhold tilgjengelig over nett.

GigaCampus inn på banen

Med dette var grunnlaget for neste skippertak lagt. I 2004–05 arbeidet ulike grupper med analyser og materiale til et prosjektforslag som med støtte fra Universitets- og høgskolerådet (UHR) ble lagt fram for departementet. I statsbudsjettet for 2006 ble programmet tildelt 27,6 millioner kroner, og GigaCampus 2006–09 var klar for verden.

Visjon og mål for GigaCampus

GigaCampus hadde fokus på kommunikasjonsinfrastruktur og en visjon om en “IKT-infrastruktur på campus i internasjonal toppklasse, som inviterer til innovasjon, samarbeid og effektiv forskning og utdanning”. Programmet hadde sju hovedmål:

  • Innen 2010 skal et bredt anlagt og omfattende kompetanseløft være gjennomført. Sektorens samarbeidsvilje og -evne skal stå sterkt. Kostnadseffektive drifts- og utviklingsmodeller skal fungere og et formålstjenlig innkjøpssamarbeid skal være på plass
  • Innen 2010 skal norsk UH-sektor ha et høykvalitets og feiltolerant datanett med gigabitkapasitet til de fleste arbeidsstasjoner. Særlige brukergrupper skal tilbys høyere kapasitet
  • Innen 2010 skal landets studenter, forskere og øvrige ansatte sømløst kunne bevege seg på campus med trådløs nettilgang for PC-er og håndholdte enheter
  • Innen 2010 skal IP-basert person-til-person-kommunikasjon være tilgjengeliggjort. Det skal være enkelt å etablere sanntids tale- og videosamtaler over nett
  • Innen 2010 skal UH-sektorens sikkerhetsarbeid være godt koordinert. Lokale sikkerhetsteam skal være etablert og felles rammeverk for sikkerhetspolicy tatt i bruk
  • Innen 2010 skal proaktiv drift ha et sterkere fokus. Felles standarder og anbefalinger skal være implementert og verktøy og løsninger skal være bredt anvendt i sektoren
  • Innen 2010 skal gode virkemidler fange opp og utbedre kvalitetsmessig forringelse av tjenester. Vi skal ha et særlig fokus på sanntidskrav

GigaCampus ble organisert som et program med et programstyre med UNINETT-direktør Petter Kongshaug som styreleder og programledelsen ble lagt til UNINETT med Vidar Faltinsen, UNINETT som programleder.

GigaCampus fikk bevilgninger på til sammen 45,8 millioner kroner og varte i fire år. Det startet i 2006 med en omfattende kartlegging av status for campusnettet ved de ulike institusjonene, og med utgangspunkt i denne ble aktiviteter prioritert innenfor sju satsingsområder.

UNINETT Fagstyrke og UNINETT Fagspesifikasjoner

En av de første tingene som ble organisert, var UNINETT fagstyrke. Dette var et faglig samarbeid organisert i arbeidsgrupper rundt tema som fysisk infrastruktur, nettarkitektur, sikkerhet med mer.

Til sammen sju slike arbeidsgrupper ble opprettet. Ut av arbeidet kom en serie på 22 anbefalinger (‘best practice’) under tittelen UNINETT Fagspesifikasjoner (UFS). Samlet sett beskriver disse vesentlige deler av en felles standard for IT-infrastrukturen på campus. Dette arbeidet ble omfattet med så stor interesse internasjonalt at UNINETT ble tildelt ledelsen av aktiviteten “Campus Best Practice” i GÉANT3-programmet som er et stort europeisk program for utvikling og utbygging av tjenester i europeiske forskningsnett finansiert av av forskningsnettene selv og EUs sjuende rammeprogram.


Figur 5-17: GigaCampus referansemodell med oversikt over alle aktivitetene i programmet og sammenhengen mellom dem.

GigaCampus referansemodell


Campusnett

Gjennom programmet ble det gitt investeringsstøtte med inntil 50% av kostnadene ved å bygge ut campusnett ved institusjonene. Til sammen ble det gjennomført 30 installasjonsprosjekter, noe som resulterte i en markert bedring av campusnettenes kapasitet. Dette inkluderte også trådløse nett ved institusjonene og nesten alle institusjonene hadde Eduroam i operativ drift ved programslutt. Egne verktøykasser for administrasjon og målepåler for overvåking av campusnettene ble installert ved de fleste institusjonene. Programmet spesifiserte i tillegg en SIP-arkitektur for varianter av tjenester for sanntidskommunikasjon, – telefoni, videokonferanser og tilgrensende tjenester.

Sikkerhet

GigaCampus prioriterte sikkerhet på alle nivåer. Retningslinjer for informasjonssikkerhet ble utarbeidet og det ble gitt assistanse til arbeidet med sikkerhetspolicy ved over tjue institusjoner. I tillegg er det gjennomført risiko- og sårbarhetsanalyser og startet opp arbeid med kontinuitets- og beredskapsplaner. Ved nesten alle institusjonene er det i regi av programmet organisert operative sikkerhetsgrupper, – IRT (Incident Response Team). For disse er det utarbeidet retningslinjer og gjennomført opplæring og faglige samlinger.

Rammeavtaler

I regi av programmet er det etablert et trettitalls rammeavtaler for anskaffelse av programvare og utstyr, inkludert AV-utstyr. I 2009 var samlet omsetning på disse rammeavtalene på om lag 450 millioner kroner.

Økonomien i løsningene og videre oppfølging

Capgemini ble gitt i oppdrag å regne på alternativkostnadene til GigaCampus-programmet, det vil si hva det ville kostet institusjonene å gjennomføre de samme tiltakene på egen hånd. Regnestykket viste en alternativkostand på mer enn 170 millioner kroner. De direkte bevilgningene til programmet var på nesten 46 millioner kroner. Selv medregnet lokale investeringer og personalkostnader var innsparingene på minst 100 millioner kroner. En spørreundersøkelse viste i tillegg at alle aktørgruppene ved institusjonene var godt fornøyd med resultatet av programmet.

Resultatene av GigaCampus ble oppsummert som så vellykket at UNINETTs styre vedtok at campusaktiviteter skulle inngå som en permanent del av UNINETTs virksomhet fra 2010. Sentrale aktiviteter som videreføres på permanent basis er arbeidet med innkjøpsavtaler, UNINETT fagstyrke og fagspesifikasjoner, drift og vedlikehold av campusnettverktøy, sikkerhet og SIP-infrastrukturen.

eCampus

I 2010 startet arbeidet med å videreføre dette i et nytt program, – eCampus Norge. Kunnskapsdepartementet bevilget totalt 30,5 millioner kroner til dette programmet for årene 2011-13. Hele programmet har en ramme på 70 millioner og skal vare ut 2016. Flere tjenester er allerede operative som en følge av programmet, og mer enn 40 institusjoner har tatt i bruk én eller flere eCampus-tjenester. Hvordan dette forløper blir allikevel tema for en annen historie ;-).

Feide – mellomvare og identitetsforvaltning

Etter hvert som Internett, og særlig Web, utviklet seg fra det opprinnelige medium for informasjon og kommunikasjon, til å bli en plattform for kommersiell virksomhet, transaksjoner og tjenester, ble det behov for forutsigbare og sikre omgivelser. Pålitelighet ble et viktig stikkord. De nye anvendelsene forutsatte at brukerne kunne stole på at tjenestene de oppsøkte virkelig var de riktige, mens tjenestene og tjenesteyterne måtte kunne stole på at brukerne virkelig var de de utga seg for å være. Enhver tjenesteeier hadde også behov for å kunne styre tilganger slik at brukerne fikk tilgang til de funksjonene og den informasjon de skulle ha tilgang til og ikke mer (eller mindre).

Den første tiden kalte vi denne funksjonen for ‘mellomvare’, – det som formidlet mellom brukeren og programvaren brukeren benyttet på den ene siden og maskinvaren med tjenestene og systemene på den andre. Etter hvert ble dette begrepet erstattet av ‘identitetsforvaltning’ der funksjoner for identifisering, autentisering og autorisering av brukere og tjenester inngikk.

Med et stadig økende antall tjenester som krevde identifiserbare brukere, ble det behov for “Single Sign-on” (SSO), der brukeren kunne benytte de samme kreditivene (eksempelvis brukernavn og passord) for å få tilgang til alle mulige tjenester, og disse skulle være tilgjengelig hvor som helst. For UH-sektoren var gevinstene åpenbare. Det ble enklere for studentene å ta fag ved flere institusjoner, og for forskerne tilrettela det for samarbeid på tvers og enkel tilgang til tjenester ved andre institusjoner. Tjeneste- og systemeierne ville likeledes bli avlastet for oppgaven å bygge og vedlikeholde hvert sitt system for identitetsforvaltning.


Figur 5-18: Tankegangen bak Feide i et nøtteskall, – ett brukernavn og ett passord overalt. Med Feide-navnet kan brukeren logge inn i tjenester ved egen institusjon, ved andre institusjoner, i fellestjenester og andre tjenester som stoler på Feide og som Feide stoler på.

FEIDE-tilgang


I siste halvdel av 90-tallet drev UNINETT en egen sertifiseringstjeneste (UNISA) med signering av virksomhetssertifikater som en første byggesten i etableringen av en slik infrastruktur. Rundt 2000 utredet Norsk Regnesentral etableringen av en PKI-infrastruktur for UNINETT. Lånekassen lanserte omtrent samtidig planer om å etablere en løsning for signering av lånepapirer og andre dokumenter ved hjelp av smartkort. Smartkort var da også ett av de sentrale elementene ved etableringen av Feide – Felles elektronisk identifikasjon, som ble navnet på det nye prosjektet. Dette smartkortet skulle være gyldig i alle datasystemer der brukeren skulle ha tilgang og sørge for sikker identifikasjon og autentisering. Ved blant annet Universitetet i Oslo ble det gjennomført piloter der smartkortet også ble brukt som småpengeløsning for betaling i kantina.

Smartkortet ble raskt lagt på hylla av økonomiske og praktiske årsaker og ble endelig begravet da Lånekassen gikk bort fra denne løsningen. I stedet ble oppmerksomheten rettet mot den store utfordringen og nøkkelen til bærekraftige løsninger, – identitetsforvaltningen og brukeradministrasjonen på lærestedene. En absolutt forutsetning for å kunne stole på en identifikasjon, er pålitelig registrering og forvaltning av informasjonen denne identifikasjonen bygger på. I kjølvannet av Feide-prosjektet ble det derfor ryddet kraftig i institusjonenes administrative systemer. Det studieadministrative systemet ble etablert som autoritativ kilde til informasjon om studentene ved lærestedet, mens lønns- og personalsystemet fikk samme rolle for tilsatte og andre med tilknytning til lærestedet.

Det meste av utviklingen og piloteringen av den nye tjenesten skjedde i 2002-3 og i 2004 var Feide operativ med 100.000 registrerte brukere. Prosjektet ble avsluttet samme år og ble en permanent organisasjon fra 2005. Feide fikk en framtredende plass i Nasjonalt læringsnett og UNINETT ABC og i statsbudsjettet for 2006 ble som nevnt Feide en del av identitetsforvaltningen i grunnskoler og videregående skoler. Når denne utrullingen er avsluttet, vil Feide ha mer enn en million registrerte brukere.


Figur 5-19: Et viktig resultat av Feide er opprydding i identitetsforvaltningen ved institusjonene. Det studieadministrative systemet og lønns- og personalsystemet ble autoritative kilder for personinformasjon. Denne informasjonen dannet så grunnlaget for å brukeradministrasjonen slik at tjenestene kunne stole på identifikasjonen og autentiseringen av brukeren.

FEIDE infrastruktur


Gjennom Feide ble det etablert felles retningslinjer, rutiner og praksis for pålitelig registrering og administrasjon av brukere og tjenester på tvers av institusjoner og organisasjoner. Tilsvarende arbeid sto på dagsorden i de andre nordiske landene og i 2001 ble samarbeidet mellom dem organisert i Greater Nordic Middleware Symposium (GNOMIS). Det overordnete målet var å knytte disse systemene sammen over landegrensene. I 2007 ble de første pilotene satt i gang og fra 2009 var føderasjonene koplet sammen i Kalmar2-unionen. På europeisk nivå organiserte GÉANT et tilsvarende arbeid under navnet eduGAIN. I tillegg til de nordiske landene er føderasjoner i ti land (inkludert Brasil og Canada) tilknyttet, mens et titall har startet arbeidet med å slutte seg til.

Gjennom Feide kan studenter og ansatte logge seg inn med sine Feide-kreditiver på tjenester de er autorisert for ved hvilken som helst institusjon i landet. Med Kalmar2 er rekkevidden utvidet til institusjoner i de nordiske landene, mens eduGAIN utvider rekkevidden til tilsluttete føderasjoner i andre land.

I 2007 implementerte Feide støtte for versjon 2 av SAML, – standarden for utveksling av autentiserings- og autoriseringsdata i slike systemer. For denne implementasjonen (‘simpleSAMLphp’) fikk Feide internasjonal anerkjennelse i form av Liberty Alliances IDDY-pris (“Identity Deployment of the Year”). Løsningen er også blitt testet for interoperabilitet og godkjent av det største internasjonale konsortiet innenfor identitetsforvaltning, Kantara Initiative.

Eduroam er en litt annen, men ikke mindre viktig tjeneste. Tjenesten ble lansert av Terena i 2003 og bygger på et samarbeid mellom føderasjoner tilsvarende Feide. Den dekker i dag mer en 5000 institusjoner i over 50 land over hele kloden, men med hovedvekten av tilsluttete institusjoner i Europa, Asia og Stillehavsområdet. Med Eduroam kan en bruker logge seg inn i nettet ved en Eduroam-institusjon hvor som helst i verden og få tilgang til tjenester ved egen institusjon.

Vitenskapelig databehandling

Vitenskapelig databehandling, eller ‘tungregning’ som det gjerne omtales som, har vært en drivkraft i utbyggingen av Forskningsnettet i Norge fra slutten av 80-tallet og fram til i dag. Før den tid foregikk tungregningen på stormaskiner ved den enkelte institusjon og ved dediserte anlegg som for eksempel Regneanlegget Blindern-Kjeller (RBK) som drev databehandling for forskere ved Universitetet i Oslo og Kjeller-instituttene og for Meteorologisk Institutt fra tidlig 70-tall til midten av 80-årene.

I 1986/-7 skjedde det en viktig endring på dette området. Da ble en Cray X-MP-maskin installert ved SINTEF i Trondheim. Dette anlegget hadde to oppgaver. Det skulle kjøre operativ værvarsling for Meteorologisk institutt (MI) og det skulle være felles regneressurs for norsk forskning. For å realisere dette måtte kapasiteten i nettet bygges ut slik at både forskere ved de andre universitetene og meteorologene kunne få tilgang til maskinen. Spesielt viktig var oppgraderingen av forbindelsen mellom Oslo og Trondheim. Stamnettet ble riktignok ikke oppgradert til mer enn 64 Kbps, men det var et første viktig steg og et signal om at båndbredde var av kritisk betydning for forskningen.

Rundt 1990 utarbeidet det nyopprettete Nasjonal tungregneutvalg (TRU) en strategi for framtidig utbygging på området. I rapporten “Behovet for tungregnekapasitet til forskning og industri i Norge i 1990-årene” anbefalte utvalget en desentralisert utbygging av regneressursene. Nye tekniske løsninger tilrettela for å bygge ut mer spesialiserte ressurser enn den tradisjonelle stormaskinen. I løpet av få år ble Cray-maskinen i Trondheim oppgradert og bygd ut for å ta de tunge jobbene. Ved Universitetet i Oslo ble det installert en IBM-klynge tilpasset en blanding av et stort antall (mindre) jobber, mens Universitetet i Bergen fikk en Intel Paragon-maskin som kunne drive parallellprosessering.

Spesialiserte ressurser forutsatte en høykapasitets infrastruktur som sikret god tilgang for alle aktuelle brukermiljøer. I samarbeid med Televerket etablerte UNINETT Supernett som infrastruktur for dette og andre kapasitetskrevende anvendelser i 1992. Supernett var et svært avansert nett i sin tid og med 32 Mbps-kapasitet var det av de første i sitt slag i verden (omtrent det samme som nedstrømskapasiteten i et over gjennomsnittlig bra bredbånd hjem i dag). Samordning av driftsmiljøene rundt regneressursene ble utredet i et Metasenter for norsk tungregning i 1996 og satt i operativ drift i 1998. Metasenteret har siden den gang forvaltet et felles driftsregime og sørget for uniform og mest mulig sømløs tilgang til ressursene.

Fra 2000 ble dette samarbeidet organisert i et konsortium under navnet Norsk tungregning (NOTUR), koordinert ved NTNU, Trondheim. Nå ble også Universitetet i Tromsø inkludert i den desentraliserte utbyggingen, og i regi av dette programmet ble det bygd ut nye regneressurser ved de fire universitetene, – HP Superdome (Magnum) i Oslo og Tromsø (Showstorm), SGI Origin i Trondheim (Njord) og en IBM-klynge i Bergen.

NOTUR II og UNINETT Sigma

I 2004 var det dags for en ny organisering av tungregnesamarbeidet. Samarbeidet ble videreført i NOTUR II-programmet for perioden 2005-14, men nå med UNINETT som koordinator og ansvarlig for både utbygging og drift av infrastruktur, ressurser og støttetjenester for vitenskapelig databehandling. I dette lå også forvaltning av midlene stilt til disposisjon av Norges forskningsråd. Denne virksomheten ble organisert som datterselskapet UNINETT Sigma.

Ved oppstarten av NOTUR II var det åpenbart at vitenskapelig databehandling var noe mer krevende enn regneressurser ved den enkelte institusjon. Organisering av ressursene i ‘Grid’-strukturer nasjonalt og internasjonalt var allerede satt på dagsorden. Med dette ble det lagt grunnlag for å utnytte ressurser på løst sammenkoplete heterogene ressurser til å løse ulike krevende oppgaver. I årene etterpå ble dette videreført både på nordisk (Nordic Data Grid Facility (NDGF)) og europeisk nivå (Partnership for Advanced Computing in Europe (PRACE)). En viktig bruk av dette de senere årene har vært distribusjon av data fra CERN-prosjektet Large Hadron Collider, der NDGF er et Tier 1-nett med knutepunktene ved universitetene i Oslo og Bergen som to av sju i Norden.

Lagringstjenester er et annet område som er viet stor oppmerksomhet i Forskningsnettet de siste årene. Arbeidet med NorStore startet i 2007 og de første lagringstjenestene var operative i 2008. Ved siden av rene lagringstjenester, gir NorStore tilgang til datasamlinger og tjenester for ulike fagområder. Fra 2013 vil en tjeneste for lagring og behandling av sensitive data være operativ, bygd på løsningen for Tjenester for sensitive data (TSD) ved Universitetet i Oslo. En tjeneste for arkivering av forskningsdata er også planlagt lansert i 2013.

Utviklingen den siste tiden viser to ting. Det første er at vitenskapelig databehandling dreier seg om noe langt mer enn beregninger, det omfatter alt fra innsamling via lagring, behandling og arkivering av forskningsdata til publisering og tilgjengeliggjøring av forskningen. For det andre omfatter det stadig nye fagområder og vitenskapelige disipliner.

UNINETTs strategi for 2009-14 og ny organisasjon

I 2008 startet UNINETT arbeidet med å utforme ny strategi, Dette arbeidet genererte i sin tur et arbeid med organisasjonsutvikling som endte med etableringen av en ny organisasjon for UNINETT fra 1. januar 2012. Bakteppet for strategiarbeidet var dels funnene i studien fra 2007 EARNEST – Innovation, Integration and Deployment: Challenges for European research and education networking i regi av Terena. Rapporten fra dette arbeidet anbefalte at de europeiske forskningsnettene endret fokus fra infrastruktur til brukere og anvendelser. Studien oppsummerte dette slik:

  • There is a cultural change in research networking, from providing connectivity to service provision
  • Provision of services by teams at local and national level should be intensified
  • Research and education networking organisations should implement best management practices
  • Collaboration between research and education networking organisations should be intensified
  • Closer links should be established with content providers and large user communities
  • Optical networking has arrived, but brings new technical challenges
  • Cost-sharing and charging must be fair and not a disincentive for innovation
  • Digital and geographical divides need to be addressed at the political level
  • User groups with different requirements need special attention

UNINETT var med i EARNEST-studien og konklusjonene falt på flere punkter sammen med igangsatt virksomhet og ambisjoner om en mer helhetlig tenking rundt IKT i sektoren.

Anbefalingene fra EARNEST oppsummert

I “UNINETT strategi 2009-2014” oppsummeres konsekvensene av anbefalingene fra EARNEST-studiene:

  • IKT-ressursene bør i større grad enn i dag brukes til direkte brukerstøtte innen forskning, undervisning og formidling. Nye driftsløsninger og mer samarbeid mellom institusjonene er nødvendig for at lokale IKT-ressurser skal kunne prioritere nye oppgaver
  • Det bør utvikles felles arkitektur og datamodeller for de administrative systemene slik at standardiseringen øker og flere fellesløsninger innføres. En samordning med ny offentlig IKT-arkitektur er nødvendig
  • Det må satses tyngre på åpne standarder og løsninger slik at avhengigheten av leverandører reduseres og monopolsituasjoner unngås
  • Det må avklares hvordan man skal strukturere og tilby tjenester og infrastruktur for den nye generasjonen av studenter og fagpersonale som trekker med seg privat utstyr og nye bruksmønstre inn på institusjonene. Hvordan skal disse tilbys gode og fleksible tjenester uten at det går på bekostning av tilgjengelighet og sikkerhet?
  • Når IKT rettes mer direkte mot institusjonenes primæroppgaver bør dette medføre en mer bevisst holdning hos institusjonenes ledelse til IKT som virkemiddel for å oppnå institusjonenes overordnede målsettinger

I UNINETTs nyestrategi tas det et grep for å skille mellom infrastruktur og aktivitetsområder. UNINETTs hovedleveranse er fortsatt Forskningsnettet med ressurser av forskjellig slag for forskning og utdanning og med løsninger for identitetsforvaltning (Feide). Aktivitetsområdene er målgruppeorienterte (administrasjon, forskning, undervisning, formidling) der UNINETTs viktigste bidrag skal være felles anbefalinger og standarder og å fremme utvikling og bruk av fellesløsninger, samt å bidra til at lokale IT-organisasjoner og lokalt IT-personell er i stand til å støtte primærvirksomheten ved institusjonene.


Figur 5-20: UNINETTs strategi

UNINETTs strategi


For å lykkes med omleggingen, er det nødvendig med et sterkere og tettere samarbeid med andre aktører og tjenesteleverandører. Etter modell fra GigaCampus-programmet skisserer strategien en organisering av virksomheten som aktivt involverer UH-sektorens kompetanse, som sikrer institusjonene innflytelse og som fremmer forankring i institusjonenes toppledelse.

Strategien er et første svar på de utfordringene som IT-virksomheten i sektoren står overfor i ei tid der IT er en innsatsfaktor i produksjonsprosessene ved institusjonene. IT skal ikke bare levere tjenester, verktøy og systemer til disse prosessene, IT skal være med på å utvikle disse prosessene og gi virksomheten nye evner.

UNINETTs nye organisasjon

UNINETT ble organisert som et konsern i 1998 og har i det store og hele beholdt denne organisasjonsstrukturen siden. Med den reorienteringen av virksomheten som strategien innebar, var det nødvendig å se nærmere på organisasjonen.

Den nye organisasjonen er fortsatt et aksjeselskap heleid av Kunnskapsdepartementet med et styre og en administrerende direktør. UNINETT Sigma og UNINETT Norid fortsetter som datterselskaper med egne styrer. Resten er nytt.


Figur 5-21: UNINETTs nye organisasjon fra 2011 med tre fagavdelinger og to avdelinger som leverer tjenester og ivaretar samordning og funksjoner felles for konsernet og sektoren. Mens UNINETT FAS er fusjonert inn i morselskapet, fortsetter UNINETT Sigma og UNINETT Norid som datterselskaper med egne styrer.

UNINETT organisasjon 2012


Ambisjonen for den nye organisasjonen er et UNINETT med tydelige roller og oppgaver:

  • Tydelige kontaktpunkter og leveransebeskrivelser
  • Bedre tilpasset større og mer kompliserte IKT-prosjekter på tvers av fagområder
  • Tydelig i rollene overfor UH-sektoren, tydelig når de er representant for sektoren og når de er leverandør til sektoren
  • Forvalter av felles IKT-arkitektur i sektoren
  • Forvalter av informasjonssikkerhet i sektoren

Sluttord

I dette kapittelet har utviklingen på lærestedene ikke vært viet egen omtale til tross for at det er her de største endringene har skjedd. I løpet av disse 20 årene har bruksmønster, IT-anvendelser, utstyrspark, tjenestetilbud og alle andre elementer i IT-virksomheten endret seg totalt. IT har gått fra å være et verktøy til å bli en innsatsfaktor i produksjonsprosessene på lærestedene. Så vel forsknings- og utdanningsaktiviteten som den administrative virksomheten er avhengig av IT. IT ikke bare leverer drift og tilrettelegging av tjenester og systemer, det bidrar også til å utvikle og forbedre arbeids- og virksomhetsprosesser og til å utvikle nye evner og utnytte muligheter til å løse nye oppgaver. Denne utviklingen fortjener sin egen historie, en historie som nok andre må fortelle.

Heller ikke all virksomhet i UNINETT har fått den plassen den fortjener. UNINETTs arbeid med IT-sikkerhet siden etableringen av UNINETT CERT i 1995 er knapt omtalt. Det samme gjelder organisasjonens arbeid med testing av nye løsninger og teknologier. Arbeidet på telefonisiden er også stemoderlig behandlet, her er det gjennomført arbeid som har spart sektoren og institusjonene for vesentlige kostnader. Det største hullet er kanskje den sporadiske omtalen som UNINETTs internasjonale engasjement er blitt til del. UNINETT har gjennom hele sin historie lagt stor vekt på internasjonalt samarbeid og påtatt seg tunge verv og oppgaver og utført viktige oppdrag i internasjonale organisasjoner og samarbeidsfora.

Det er liten tvil om at UNINETT og Forskningsnettet har vært og er en suksess. I denne fortellingen er det UNINETT sitt arbeid med Forskningsnettet som infrastruktur for norsk forskning og utdanning som har fått den bredeste omtalen. På dette området har UNINETT, sammen med sine samarbeidsparter på institusjonene, i NORDUNET og andre organisasjoner, vist seg som usedvanlig leveringsdyktig. I hele perioden siden arbeidet med Forskningsnettet tok av på midten av 1980-tallet, har vi opplevd et nivå av stabilitet, tilgjengelighet, kapasitet og kvalitet som få andre har vært forunt. Og som brukere er vi blitt bortskjemt, de gangene vi er ute i verden og må basere oss på andres infrastruktur, får vi demonstrert i praksis hvor godt dette arbeidet har vært og fortsatt er.

Det er heller ingen tvil om at UNINETT har løftet IT-virksomheten i sektoren. Gjennom store skippertak som SAMSON, KOMPAKT og GigaCampus er alle deler av UH-sektoren gitt en tilknytning, et tjenestetilbud og tekniske løsninger på et svært høyt nivå. Gjennom disse prosjektene har UNINETT vist en langs større evne til å ta skippertak enn de fleste andre. Og de har vist at slike investeringer lønner seg.

Erfaringene fra blant annet disse områdene har skapt forventninger som UNINETT umulig kan leve opp til på områder som organisasjonsmessig og på andre områder er mer komplisert, der mange parter med ulike interesser er involvert, og der den tekniske løsningen ikke er like åpenbar. Men også på disse områdene, blant annet identitetsforvaltning (Feide), administrative tjenester (TROFAST) og vitenskapelig databehandling (SIGMA), har UNINETT levert, selv om det her har vært litt lenger fra tanke til handling og resultat og resultatene ikke alltid har svart til de mest ambisiøse forventningene. Dette er utfordringer UNINETT vil møte etter hvert som organisasjonen beveger seg inn på områder som er tettere knyttet til primærprosessene ved institusjonene og i sektoren.

UNINETT og Forskningsnettet skal fortsette å levere på både de områdene som er omtalt, og de som ikke er omtalt. Like viktig er det at UNINETT fortsetter å være i forkant teknologisk og sørge for at det er kort vei fra utviklingen i laboratoriene og pilotene til operative tjenester og ressurser. Kontakt og samarbeid med forskningsmiljøene er etablert gjennom Senter for fremragende forskning (SFF) som UNINETT har sammen med to institutter ved NTNU – Centre for Quantifiable Quality of Service in Communications Systems (Q2S). Det ligger mye uutnyttet potensial i utvidet kontakt og samarbeid med forskningsmiljøer innen flere disipliner og ved flere institusjoner.

Å være i frontlinja handler ikke bare om å være tidlig ute med nye tjenester og løsninger, det handler også om å legge grunnlaget for framtidig utvikling og tilpassing av virksomheten på et område som er og vil være i sterk endring og det handler om å forbli en attraktiv samarbeidspartner og en arbeidsplass som tiltrekker den beste kompetansen. Og det skaper definitivt mer entusiasme å være i front enn å være en middelhavsfarer.

Publisert 6. juli 2014 14:56 - Sist endret 2. jan. 2023 11:14