ChatGPT-jailbreaks: Hvor ble de av? 7 grunner

Hvorfor ser vi ikke lenger like mange ChatGPT «Jailbreaks»?

Da ChatGPT ble lansert, var mange brukere opptatt av å teste grensene og utfordre systemet. Disse forsøkene, kjent som «jailbreaking», gikk ut på å lure AI-en til å overskride sine programmerte begrensninger. Dette førte til både interessante og noen ganger overraskende resultater.

Siden den gang har OpenAI strammet inn kontrollen og gjort jailbreaking vanskeligere. Det ser også ut som at interessen for jailbreaks generelt har avtatt, noe som får mange brukere til å spørre seg om de fortsatt er relevante.

Hva har skjedd med alle ChatGPT-jailbreakene?

1. Brukernes ferdigheter i å formulere spørsmål har blitt bedre

Før ChatGPT ble lansert, var samtale med AI en spesialisert ferdighet, forbeholdt forskningsmiljøer. Tidlige brukere manglet ofte erfaring med å formulere effektive spørsmål. Dette førte til at mange benyttet seg av jailbreaks – en lettvint måte å få chatboten til å gjøre det de ønsket, med minimal innsats og få ferdigheter.

I dag er situasjonen annerledes. Det å formulere gode spørsmål er i ferd med å bli en vanlig ferdighet. Gjennom erfaring fra gjentatt bruk og tilgang til veiledninger, har mange brukere finpusset sine evner til å kommunisere med AI-en. I stedet for å lete etter snarveier som jailbreaks, har mange blitt flinkere til å bruke ulike spørsmålsstrategier for å oppnå det de tidligere ville trengt jailbreaks for.

2. Fremveksten av usensurerte chatroboter

Mens store teknologiselskaper strammer inn innholdsmodereringen på vanlige AI-chatbots som ChatGPT, satser mindre, profittorienterte oppstartsbedrifter på færre restriksjoner. De tilbyr usensurerte AI-chatbots som kan gjøre nesten hva som helst. Med litt research kan du finne et utall av slike plattformer.

Uansett om du ønsker å skrive krim, mørk humor eller skadevare, er det usensurerte chatbots som er villige til å gjøre det. Disse alternativene gjør det mindre nødvendig å bruke tid og krefter på å jailbreake ChatGPT. Selv om de kanskje ikke er like avanserte som ChatGPT, kan de håndtere et bredt spekter av oppgaver. FlowGPT og Unhinged AI er populære eksempler.

3. Jailbreaking har blitt vanskeligere

I begynnelsen var det lett å jailbreake ChatGPT ved å kopiere og lime inn meldinger fra nettet. Man kunne endre chatboten fullstendig med noen få linjer med instrukser. Enkle kommandoer kunne gjøre ChatGPT om til en skurk som lærte å lage bomber, eller en bot som brukte alle former for banning. Dette førte til beryktede jailbreaks som DAN (Do Anything Now), som lot chatboten gjøre alt den ble bedt om. Disse enkle triksene fungerte overraskende bra den gang.

De tidlige, ville dagene er imidlertid over. Disse enkle spørsmålene fungerer ikke lenger. Jailbreaking krever nå mer avanserte teknikker for å omgå OpenAIs sikkerhetstiltak. Dette har ført til at mange brukere har mistet interessen, siden det krever mye innsats og kunnskap for å få chatboten til å gjøre noe den egentlig ikke skal. De enkle triksene fra ChatGPTs tidlige dager fungerer ikke lenger.

4. Nyhetens interesse har falmet

En viktig grunn til at mange prøvde å jailbreake ChatGPT i starten, var spenningen ved å gjøre det. Som en ny teknologi var det underholdende å få ChatGPT til å oppføre seg «dårlig». Selv om det finnes mange praktiske anvendelser for jailbreaks, dreide mye seg om å skape en «wow»-faktor. Men denne spenningen har gradvis avtatt, og med den har interessen for å jailbreake ChatGPT.

5. Jailbreaks blir raskt fikset

Når et vellykket jailbreak oppdages, blir det ofte delt i miljøet. Men når utnyttelsen blir kjent, blir OpenAI oppmerksom og fikser sårbarheten. Dette betyr at jailbreakene slutter å virke raskt, ofte før andre får prøvd dem. Denne delingen fører dermed til at jailbreaks raskt blir ugyldiggjort.

Dilemmaet for de som utvikler jailbreaks er om de skal holde dem hemmelige eller dele dem. Folk velger oftere å holde dem hemmelige, for å unngå at de blir fikset.

6. Usensurerte, lokale alternativer

Fremveksten av store språkmodeller som kan kjøres lokalt på egen datamaskin har også redusert interessen for å jailbreake ChatGPT. Lokale LLM-er er ikke fullstendig uten sensur, men mange er mindre sensurerte og kan enkelt tilpasses. Valget står mellom å drive et endeløst katt-og-mus-spill for å lure chatboten, eller å bruke en lokal LLM som kan tilpasses etter behov.

Det finnes mange kraftige, usensurerte LLM-er som kan kjøres lokalt. Noen eksempler er Llama 7B (usensurert), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B og GPT-4-X-Alpaca.

7. Profesjonelle jailbreakere selger nå sin ekspertise

Noen profesjonelle utvikler jailbreaks for salg. De lager spesifikke jailbreaks og selger dem på markedsplasser som PromptBase. Prisen varierer fra et par dollar til over $15, avhengig av kompleksiteten. Dette gjør at folk som ønsker å jailbreake ChatGPT heller kjøper ferdige løsninger, istedenfor å utvikle dem selv.

Kan kampen mot jailbreaks slå tilbake?

Jailbreaks er ikke helt borte, de har bare blitt mer skjulte. OpenAI tjener penger på ChatGPT, og har derfor et sterkt incitament til å begrense misbruk som kan skade forretningsmodellen deres. Dette kan være grunnen til deres aggressive innsats mot jailbreaks.

Samtidig møter OpenAIs sensur kritikk fra brukere. Noen legitime bruksområder for AI-chatbots er ikke lenger mulig på grunn av den strenge sensuren. Mens økt sikkerhet beskytter mot misbruk, kan overdrevne restriksjoner føre til at brukerne vender seg mot mindre sensurerte alternativer.