Hvorfor du ikke bør stole på ChatGPT med konfidensiell informasjon

Hvorfor du ikke bør stole på ChatGPT med konfidensiell informasjon
Lesere som deg er med på å støtte MUO. Når du foretar et kjøp ved å bruke lenker på nettstedet vårt, kan vi tjene en tilknyttet provisjon. Les mer.

ChatGPT er blitt et stort sikkerhets- og personvernproblem fordi for mange av oss deler vår private informasjon på det fraværende. ChatGPT logger hver samtale du har med den, inkludert eventuelle personlige data du deler. Likevel ville du ikke vite dette med mindre du har gravd gjennom OpenAIs personvernpolicy, vilkår for bruk og FAQ-side for å sette det sammen.





MAKEUSE AV DAGENS VIDEO RULL FOR Å FORTSETTE MED INNHOLD

Det er farlig nok å lekke din egen informasjon, men gitt at store selskaper bruker ChatGPT til å behandle informasjon hver dag, kan dette være starten på en datalekkasjekatastrofe.





Samsung lekket konfidensiell informasjon via ChatGPT

I følge Gizmodo , lekket Samsungs ansatte ved en feiltakelse konfidensiell informasjon via ChatGPT ved tre separate anledninger i løpet av 20 dager. Dette er bare ett eksempel på hvor enkelt det er for bedrifter å kompromittere privat informasjon.





ChatGPT er offentlig under ild for sine personvernproblemer, så det er en betydelig forglemmelse at Samsung lar dette skje. Noen land har til og med forbudt ChatGPT for å beskytte innbyggerne til det forbedrer personvernet, så du skulle tro at selskaper ville være mer forsiktige med hvordan de ansatte bruker det.

Heldigvis ser det ut til at Samsungs kunder er trygge – i det minste foreløpig. De brutte dataene gjelder kun intern forretningspraksis, noe proprietær kode de feilsøkte og referater fra et teammøte, alt sendt inn av ansatte. Det ville imidlertid vært like enkelt for de ansatte å lekke forbrukernes personopplysninger, og det er bare et spørsmål om tid før vi ser et annet selskap gjøre akkurat det. Hvis dette skjer, kan vi forvente å se en massiv økning i phishing-svindel og identitetstyveri.



varsler instagram når du tar skjermbilde av en dm

Det er et annet lag med risiko her også. Hvis ansatte bruker ChatGPT til å lete etter feil slik de gjorde med Samsung-lekkasjen, vil koden de skriver inn i chatteboksen også lagres på OpenAIs servere. Dette kan føre til brudd som har en massiv innvirkning på selskaper som feilsøker uutgitte produkter og programmer. Vi kan til og med ende opp med å se informasjon som ikke-utgitte forretningsplaner, fremtidige utgivelser og prototyper lekket, noe som resulterer i store inntektstap.

Hvordan oppstår ChatGPT-datalekkasjer?

  ChatGPT-logo på mørkegrønn bakgrunn

ChatGPTs personvernerklæring gjør det klart at den registrerer samtalene dine og deler loggene med andre selskaper og deres AI-trenere. Når noen (for eksempel en Samsung-ansatt) skriver inn konfidensiell informasjon i dialogboksen, blir den registrert og lagret på ChatGPTs servere.





Det er høyst usannsynlig at de ansatte har gjort dette med vilje, men det er det skumle. De fleste datainnbrudd er forårsaket av menneskelige feil . Ofte er dette fordi selskapet ikke har klart å utdanne sine ansatte om personvernrisikoen ved å bruke verktøy som AI.

For eksempel, hvis de limer inn en stor kontaktliste i chatten og ber AI om å isolere kundenes telefonnumre fra dataene, har ChatGPT disse navnene og telefonnumrene i registrene. Din private informasjon er prisgitt selskaper du ikke delte den med, som kanskje ikke beskytter den godt nok til å holde deg trygg. Det er et par ting du kan gjøre for å hold deg trygg etter et datainnbrudd , men virksomheter bør være ansvarlige for å forhindre lekkasjer.





Moral of the Story: Ikke fortell ChatGPT dine hemmeligheter

Du kan trygt bruke ChatGPT til hundrevis av forskjellige oppgaver, men organisering av konfidensiell informasjon er ikke en av dem. Du må være forsiktig så du ikke skriver noe personlig i chatteboksen, inkludert navn, adresse, e-post og telefonnummer. Det er lett å gjøre denne feilen, så du bør være forsiktig med å sjekke instruksjonene dine for å sikre at ingenting har kommet inn ved et uhell.

hvordan fikser jeg feilkode 0xc000000e i Windows 10

Samsung-lekkasjen viser oss hvor reell risikoen for en ChatGPT-relatert datalekkasje er. Dessverre vil vi se flere av denne typen feil, kanskje med langt større konsekvenser, ettersom AI blir en kjernedel av de fleste virksomheters prosesser.