Ansvarlig KI-bruk gir muligheter for forlagsbransjen

Arjun Chandra og Alfredo Clemente. Foto: Christian Lunde

DEBATT: Bokbransjen står ved et kritisk veivalg. Den kan fortsette som før og miste kontrollen over sitt innhold, eller ta en aktiv rolle som garantist for pålitelig kunnskap i en tid der generativ teknologi truer med å villede forbrukere.

Vi ønsker å gi vårt perspektiv på artikkelen «Kan forlagene lære av musikkbransjen?»– og presenterer våre tanker rundt hvordan denne utfordringen i bokbransjen kan løses.

Eiere av innhold mister kontrollen

Generativ kunstig intellingens (KI) står på skuldrene til enorme mengder menneskelig kunnskap. Denne kunnskapen har nå blitt sluppet løs i verden. Alle har tilgang til den. Kunnskapsprodusentene har bidratt til denne utviklingen, stort sett uvitende. De eier rettighetene til sine publikasjoner og solgte aldri disse rettighetene til KI-selskapene. Likevel ligger kunnskapen deres skjult i KI-modeller, og de vet ikke i hvilken grad. Ikke en gang KI-selskapene vet det.

Ikke en gang KI-selskapene vet

Hadde bokbransjen solgt disse rettighetene, ville risikoen være at man sprer biter og deler av kunnskap som potensielt inneholder feil, eller som er tatt ut av kontekst – og dermed framstår som unyansert eller, i verste fall, misledende. Den potensielle konsekvensen av dette er en stadig erodering av tilliten til informasjon – og hvorvidt man kan feste lit til kunnskapen man finner online. Vi har de siste årene sett en tiltagende spredning av feilaktig informasjon på sosiale og nettbaserte plattformer som undergraver sosial kapital – og i sin tur tilliten i samfunnet.

Misbruk av forlagenes innhold foregår allerede i dag, selv uten at man har solgt rettighetene til innholdet. Skapere og forlag er i ferd med å miste kontrollen over verkene sine. KI, eller rettere sagt KI-selskapene, sitter på kontrollen her – og løser innholdet på massene i et stort omfang.

Ikke overraskende er listen over søksmål mot disse selskapene økende

Forbrukere av innhold blir villedet

KI-systemer forventes å gi konkrete, sannferdige svar. Men disse systemene forstår ikke egentlig spørsmålene som brukere stiller, fordi de ikke har hele konteksten. De genererer svar ved å forutsi neste ord etter brukerspørsmål, basert på treningsdataene sine. Disse dataene er en stor samling av nettressurser og bøker. Disse kildene inkluderer også upålitelig informasjon og ukjente fordommer som til og med KI-selskapene selv ikke er klar over. Kildene er også utdaterte, siden KI-selskapene ikke kan stjele materiale som ikke er publisert ennå. Følgelig er disse systemene utsatt for «careless speech», hvor de produserer tilsynelatende overbevisende informasjon som ikke er basert på fakta. Disse systemene kan fremme påståtte faktaopplysninger basert på ikke-eksisterende bøker, gi feilaktige historiske beretninger eller villedende informasjon om dagens hendelser – alt med stor selvtillit.

Husk at denne KI-en allerede har nådd forbrukeren. Vi, forbrukerne, har blitt vant til at informasjon vurderes for relevans av algoritmer i det 21. århundre. I mange tilfeller serveres informasjonen vi konsumerer av algoritmer – ikke fordi den er nyttig eller pålitelig – men for engasjementets skyld. Det er på tide å innse at sammen har vi blitt stadig mer vant til – og avhengige av – maskinell kuratering, og nå avslører vi denne avhengigheten til KI.

Å behandle KI som et ufeilbarlig, selvstendig orakel er helt galt. Som en kontrast til dette kan KI være betydelig mer effektiv når den får spesifikke, nøyaktige data forhåndsvurdert av eksperter. Oxford Internet Institute kjørte kontrollerte eksperimenter som validerte denne tilnærmingen til å bruke KI. Når KI-systemer fikk sann informasjon fra autoritative kilder, produserte de nøyaktige resultater. Denne prosessen krever et menneskelig element som kan vurdere kvaliteten og påliteligheten til informasjonen som er gitt til KI-systemer. Med ekspertveiledning blir KI et mer pålitelig verktøy. Legg merke til viktigheten av menneskelig ekspertvurdering, med andre ord menneskelig kuratering.

En illustrasjon

La oss som eksempel undersøke adopsjonen av KI i høyere utdanningssektor. I løpet av året 2024 viser en nylig undersøkelse at 81 prosent av studenter i høyere utdanning i Norge bruker generativ KI i studiene sine. Dette tallet var 61 prosent i 2023. Et stort flertall av disse (75 prosent) bruker ChatGPT. Studier har vist at studenter har betydelige vanskeligheter med å vurdere kvaliteten av informasjonen på nettet. Å bruke KI ukritisk som et ufeilbarlig orakel i slike sammenhenger vil derfor være til skade.

Professorer og lærere er kapable til å vurdere kvaliteten på informasjonen. De kuraterer allerede undervisningsmateriale. En fornuftig ting å gjøre ville være å gi dem muligheten til å tilpasse et KI-system til undervisningsinnhold, slik at studenter får pålitelig tilgang til kvalitetsinformasjon i stedet. En annen fornuftig ting ville være at forfattere og forlag får den anerkjennelsen og henvisningen de fortjener når materialet deres brukes i KI-drevne sammenhenger. Vi tror kuratering og kreditering av dette materiellet – og studentenes KI-assisterte benyttelse av dette innholdet kan foregå på en og samme plattform.

Ansvarlig bruk av KI

La oss oppsummere kjernen av problemet med KI. Eiere av innhold mister kontrollen. Tilliten til informasjon forringes. Forbrukere av innhold blir villedet.

KI, i denne formen, er tydelig splittende.

Tilliten til informasjon er avgjørende for at samfunnet fungerer, og det begynner med at folk tar seg tid til å skape og kuratere autentisk innhold. Kunnskap pleide å vandre fra mennesker til mennesker. Det vandrer i stadig økende grad fra engasjerende KI-produkter til mennesker. Dessverre skaper dette grobunn for feilene som er nevnt over. Dette er også et valg, og det finnes en annen måte – en måte som er rettferdig og respektfull overfor det mennesket som KI forsøker å etterligne. 

Vi mener bestemt at forlagsbransjen har en nøkkelrolle å spille i denne KI-æraen, og det samme gjelder dem som har kunnskap å dele. Rollen for forlagene er å skape tillit i samfunnet, og sørge for å forbli de kulturvoktere de alltid har vært.

Fra et forretningsperspektiv er det høyere utdanningssegmentet bare ett av mange eksempler på at forlag i en nær framtid vil kunne lisensiere sitt innhold for KI-drevet tilgang, kuratert inn i læreplaner av professorer, brukt av studenter for deres kursarbeid. Det finnes mange flere eksempler på verdi som kan skapes i skjæringspunktet mellom forlagsbransje, kunnskapsformidlere og forbrukere. Innhold skaper verdi på tvers av forskjellige kontekster, og bringer mening til folk på forskjellige måter. La folk engasjere seg med innhold på nye og spennende måter via tjenester som sørger for ansvarlig bruk av KI – bruk som øker tillit til informasjon rundt oss og sikrer menneskene bak kildene anerkjennes og godtgjøres slik de bør – på en rettferdig måte. Vi tror at samarbeid med forlag, innholdsskapere, forfattere og utdannere vil muliggjøre dette. Vi tror konsekvensen blir en framvekst av autentiske menneskelige ideer, økt tillit og kollektiv fremgang i KI-æraen vi allerede er midt oppi.

La oss sammen sørge for at rollen KI spiller framover blir å koble mennesker på en ansvarlig måte. La oss sammen skape en verden der KI styrker samfunnet vårt med etterrettelig kunnskap man kan feste tillit til.

ARJUN CHANDRA, CEO BRUA IO AS, PHD, KI-FORSKER OG TEKNOLOG
ALFREDO CLEMENTE, CTO BRUA IO AS, KI-FORSKER OG TEKNOLOG