Tilbake til aktuelt

KI og personvern - Tendencast episode 5

Når det gjelder KI og personvern er det mye å si, og mye å lure på. Terje og Harald snakker løst og fast om dette i den nye episoden.

Personvern er ofte en av de største bekymringene når det gjelder bruk av KI. Terje og Harald påpeker at KI-modeller blir stadig bedre og integreres dypere i mange arbeidsprosesser. Dette gjør det spesielt viktig å ha kontroll over hvilke data som anvendes, ha oversikt over hvilke data modellene er trent på og hvorvidt modellene behandler personopplysninger i form av innsamling, bearbeiding, lagring og deling.

Et eksempel som diskuteres i podkasten, er den kinesiske språkmodellen DeepSeek, som har vakt bekymring på grunn av Kinas regler om myndighetstilgang til data. Dette har ført til at flere aktører, inkludert det norske forsvaret, har forbudt bruken av tjenesten.

En annen viktig diskusjon i episoden er hvordan ulike regioner håndterer regulering av KI. Mens EU har strenge regler for personvern gjennom GDPR og AI Act, har USA en mer liberal tilnærming, noe som kan føre til forskjeller i hvordan KI utvikles og brukes. Dette illustreres ved Elon Musks relansering av Grok 3, en KI-modell som prioriterer ytringsfrihet over personvern.

Underveis i podkasten er Terje og Harald også innom den virale videoen til Andrei Bart fra 2010, der Bart forutså hvordan det ville være å bestille en pizza i fremtiden (i 2015) etter dystre utsikter om å registrere, dele og koble alle typer personopplysninger mellom det offentlige og private kommersielle aktører. Bart blir nektet å bestille den pizzaen han egentlig ville ha, ettersom pizzarestauranten hadde tilgang til hans helsedata, kjøpshistorikk og restriksjoner gitt fra hans pensjonsfond bl.a.

Terje nevner også igjen et medlem av den utvidede kongefamilien, i tillegg til dommen mot Laila Anita Bertheussen, der retten la stor vekt på tekniske bevis og ikke minst elektroniske spor, blant annet registrert på smartklokken. Harald avslører at han innimellom gir opp og trykker aksept på cookies pop-up for å spare tid, og dermed kan risikere problemer ved fremtidige pizzabestillinger.

Terje og Harald understreker viktigheten av ansvarlig bruk av KI når det tas i bruk hos bedrifter og andre aktører, som blant annet innebærer å sikre at all behandling av personopplysninger er lovlig og gjennomsiktig. De diskuterer også utfordringer knyttet til innsyn, retting og sletting av data, spesielt når det gjelder store språkmodeller som kan ha lært seg informasjon som ikke enkelt kan slettes ettersom opplysningene i læringen "splittet opp" og settes sammen basert på sannsynlighetsalgoritmer og nevrale nettverk.

Ellers nevnes Datatilsynets sandkasseprosjekter, deriblant implementeringen av Microsoft Co-pilot hos NTNU, og hvilke funn NTNU sammen med Datatilsynet kom frem til. Dette kan man også lese mer om på Datatilsynets sider her.

Det nevnes også at Datatilsynet var aktive, sammen med søstertilsyn i andre land, for å få stanset Metas varslede trening på innhold på Facebook og Instagram basert på behandlingsgrunnlaget «berettiget interesse», som foreløpig har endt med at Meta har satt dette på pause. Dette er blant annet omtalt her hos Kode24.

Episoden avsluttes med en gjennomgang av grunnleggende personvernprinsipper, som bedrifter må følge når de tar i bruk KI. Dette inkluderer å ha et lovlig behandlingsgrunnlag, minimere datainnsamling, sikre åpenhet og transparens, og sørge for at all behandling av data er relevant og ikke-diskriminerende. Terje og Harald påpeker også på viktigheten av å gjennomføre personvernkonsekvensvurderinger (DPIA) før man tar i bruk ny teknologi.

Episoden kan du høre på flere steder, deriblant hos Spotify ved å trykke her.

Bilde episode 5