Chatroboter har eksistert i mange år, men introduksjonen av avanserte språkmodeller, som ChatGPT og Google Bard, har revitalisert chatbot-industrien.
Millioner av individer benytter nå kunstig intelligens-chatroboter globalt, men det finnes viktige personvernrisikoer og bekymringer som bør vurderes før man tar i bruk disse verktøyene.
1. Datainnsamling
De fleste bruker ikke chatroboter bare for en rask hilsen. Moderne chatroboter er utviklet for å håndtere og svare på komplekse spørsmål og henvendelser, hvor brukere ofte inkluderer betydelig informasjon i sine meldinger. Selv et enkelt spørsmål kan innebære data du ikke ønsker skal deles utover selve samtalen.
Ifølge OpenAIs hjelpeseksjon, kan du slette dine ChatGPT-samtalelogger når som helst, og disse loggene fjernes permanent fra OpenAIs systemer etter 30 dager. Det er imidlertid verdt å merke seg at selskapet vil beholde og gjennomgå visse chatlogger dersom de er flagget for skadelig eller uegnet innhold.
En annen mye brukt kunstig intelligens-chatrobot, Claude, overvåker også dine tidligere interaksjoner. Anthropics støttesenter påpeker at Claude sporer «dine meldinger og resultater i produktet for å gi deg en kontinuerlig produktopplevelse over tid i samsvar med dine innstillinger.» Selv om du kan slette samtaler med Claude for å få den til å glemme samtalens innhold, betyr ikke dette at Anthropic umiddelbart sletter dine logger fra sine systemer.
Dette reiser naturligvis spørsmålet: Blir mine data lagret, og i så fall, hvordan? Benytter ChatGPT eller andre chatroboter mine data?
Men bekymringene stopper ikke der.
Hvordan lærer ChatGPT?
For å kunne gi informasjon, trenes avanserte språkmodeller med enorme datamengder. Ifølge Science Focus, ble ChatGPT-4 alene trent med 300 milliarder ord med informasjon. Denne informasjonen kommer ikke kun fra noen få oppslagsverk, men chatbot-utviklere benytter massiv informasjon fra internett for å trene modellene sine. Dette kan omfatte data fra bøker, filmer, artikler, Wikipedia-innlegg, blogginnlegg, kommentarer og til og med anmeldelsessider.
Det er viktig å huske at avhengig av en chatbot-utviklers personvernpolitikk, kan det hende at noen av disse nevnte kildene ikke benyttes i opplæringen.
Mange har kritisert ChatGPT og hevdet at den representerer et personvernmareritt, og at ChatGPT ikke kan stoles på. Hvorfor er dette tilfellet?
Det er her ting blir litt uklare. Hvis du direkte spør ChatGPT-3.5 om den har tilgang til produktanmeldelser eller kommentarer i artikler, vil den gi et kategorisk negativt svar. Som du kan se i skjermbildet nedenfor, oppgir GPT-3.5 at den ikke fikk tilgang til brukernes kommentarer i artikler eller produktanmeldelser i sin trening.
Den ble i stedet trent ved hjelp av «et variert utvalg av tekst fra internett, inkludert nettsider, bøker, artikler og annet offentlig tilgjengelig skriftlig materiale frem til september 2021.»
Men er tilfellet det samme for GPT-4?
Da vi spurte GPT-4, ble vi informert om at «OpenAI ikke brukte spesifikke brukeranmeldelser, personlige data eller kommentarer i artikler» i chatrobotens treningsperiode. I tillegg forklarte GPT-4 at svarene er generert fra «mønstre i dataene [den] ble trent på, som primært består av bøker, artikler og annen tekst fra internett.»
Ved nærmere undersøkelse, hevdet GPT-4 at visst innhold fra sosiale medier kan være inkludert i treningsdataene, men skaperne vil alltid forbli anonyme. GPT-4 presiserte at «Selv om innhold fra plattformer som Reddit var en del av treningsdataene, har [den] ikke tilgang til spesifikke kommentarer, innlegg eller data som kan knyttes tilbake til en individuell bruker.»
Et annet viktig punkt i GPT-4s svar er som følger: «OpenAI har ikke eksplisitt listet hver datakilde som er brukt.» Selvfølgelig ville det være vanskelig for OpenAI å liste opp kilder verdt 300 milliarder ord, men dette åpner for spekulasjon.
En artikkel i Ars Technica hevdet at ChatGPT samler inn «personlig informasjon innhentet uten samtykke.» I samme artikkel ble konseptet med kontekstuell integritet nevnt, som refererer til det å bare bruke noens informasjon i den konteksten den opprinnelig ble gitt. Hvis ChatGPT bryter denne kontekstuelle integriteten, kan folks data være i fare.
Et annet problem her er OpenAIs overholdelse av den generelle personvernforordningen (GDPR). Dette er en forskrift håndhevet av EU for å beskytte innbyggernes data. Flere europeiske land, inkludert Italia og Polen, har startet undersøkelser av ChatGPT på grunn av bekymringer rundt GDPR-overholdelse. I en kort periode ble ChatGPT til og med forbudt i Italia på grunn av personvernproblemer.
OpenAI har tidligere truet med å trekke seg ut av EU på grunn av planlagte AI-reguleringer, men denne trusselen er senere trukket tilbake.
Selv om ChatGPT er den mest populære AI-chatroboten i dag, starter og slutter ikke personvernproblemer med denne leverandøren. Hvis du bruker en upålitelig chatrobot med en mangelfull personvernpolitikk, kan samtalene dine misbrukes eller svært sensitiv informasjon kan bli brukt i treningsdataene.
2. Datatyveri
Som ethvert online verktøy eller plattform er chatroboter sårbare for cyberkriminalitet. Selv om en chatrobot gjør alt for å beskytte brukere og deres data, er det alltid en risiko for at en erfaren hacker kan trenge inn i de interne systemene.
Hvis en gitt chatbot-tjeneste lagrer din sensitive informasjon, for eksempel betalingsinformasjon for et premium-abonnement, kontaktdetaljer eller lignende, kan denne informasjonen bli stjålet og misbrukt i et datainnbrudd.
Dette gjelder spesielt hvis du bruker en mindre sikker chatrobot hvor utviklerne ikke har investert i tilstrekkelig sikkerhetsbeskyttelse. Ikke bare kan selskapets interne systemer bli hacket, men din egen konto kan også bli kompromittert hvis den mangler varsler om innlogging eller et ekstra lag med autentisering.
Nå som AI-chatroboter er så populære, har kriminelle også begynt å utnytte denne industrien for svindel. Falske ChatGPT-nettsider og plugins har vært et stort problem siden OpenAIs chatrobot ble populær mot slutten av 2022, med folk som blir lurt til å gi bort personlig informasjon i troen på at det er en legitim tjeneste.
I mars 2023 rapporterte MUO om et falskt ChatGPT Chrome-tillegg som stjal Facebook-innloggingsinformasjon. Tillegget utnyttet en sikkerhetsbakdør i Facebook for å hacke profiler med høy synlighet og stjele brukernes informasjonskapsler. Dette er bare ett eksempel på mange falske ChatGPT-tjenester som er utviklet for å lure intetanende ofre.
3. Infeksjon av skadelig programvare
Hvis du uvitende benytter en upålitelig chatrobot, kan du oppdage at chatroboten gir deg lenker til ondsinnede nettsteder. Kanskje chatroboten har gjort deg oppmerksom på en fristende konkurranse, eller gitt en kilde for en av sine påstander. Hvis operatørene av tjenesten har ulovlige hensikter, kan hele formålet med plattformen være å spre skadelig programvare og svindel via ondsinnede lenker.
Alternativt kan hackere kompromittere en legitim chatbot-tjeneste og bruke den til å spre skadelig programvare. Hvis denne chatroboten er populær, kan tusenvis eller til og med millioner av brukere bli utsatt for slik skadelig programvare. Falske ChatGPT-apper har til og med dukket opp i Apple App Store, så det er viktig å være forsiktig.
Som en tommelfingerregel bør du aldri klikke på en lenke som en chatrobot gir deg uten først å ha kontrollert den via en lenkesjekker. Dette kan virke kjedelig, men det er alltid bedre å være sikker på at nettstedet du blir sendt til ikke har et ondsinnet design.
I tillegg bør du aldri installere chatbot-plugins eller utvidelser uten å først sjekke at de er legitime. Gjør litt undersøkelser rundt appen for å se om den har fått gode anmeldelser og gjør også et søk på apputvikleren for å se om du finner noe tvilsomt.
Chatroboter er ikke immune mot personvernproblemer
Som de fleste nettbaserte verktøy i dag, har chatroboter gjentatte ganger blitt kritisert for deres mulige sikkerhets- og personvernmangler. Enten det er en chatbot-leverandør som tar snarveier når det gjelder brukersikkerhet eller den stadig tilstedeværende risikoen for cyberangrep og svindel, er det avgjørende at du er klar over hva chatbot-tjenesten samler inn om deg, og om den har iverksatt tilstrekkelige sikkerhetstiltak.