Hva du trenger å vite om Apples barnesikring

Hva du trenger å vite om Apples barnesikring

Apple har nylig kunngjort nye barnesikringer som kommer i høst med introduksjonen av iOS 15, iPadOS 15 og macOS Monterey.





Vi vil se nærmere på disse utvidede barnesikkerhetsfunksjonene og teknologien bak dem nedenfor.





Materiell skanning av seksuelle overgrep mot barn

Den mest bemerkelsesverdige endringen er at Apple vil begynne å bruke ny teknologi for å oppdage bilder som viser bilder av overgrep mot barn som er lagret i iCloud -bilder.





Disse bildene er kjent som Child Sexual Abuse Material, eller CSAM, og Apple vil rapportere forekomster av dem til National Center for Missing and Exploited Children. NCMEC er et rapporteringssenter for CSAM og jobber med politimyndigheter.

Apples CSAM -skanning vil være begrenset til USA ved lansering.



hvordan du legger til filtre på zoom

Apple sier at systemet bruker kryptografi og er designet med tanke på personvern. Bilder skannes på enheten før de lastes opp til iCloud-bilder.

Ifølge Apple er det ikke nødvendig å bekymre seg for at Apple -ansatte ser de faktiske bildene dine. I stedet gir NCMEC Apple hasher av CSAM -bilder. En hash tar et bilde og returnerer en lang, unik streng med bokstaver og tall.





Apple tar disse hasjene og forvandler dataene til et uleselig sett med hasher som er lagret sikkert på en enhet.

Relatert: Hvordan iOS 15 beskytter iPhone -personvernet ditt bedre enn noen gang





Før bildet synkroniseres med iCloud Photos, kontrolleres det mot CSAM -bildene. Med en spesiell kryptografisk teknologi - privat sett -kryss - avgjør systemet om det er en treff uten å avsløre et resultat.

Hvis det er et treff, oppretter en enhet en kryptografisk sikkerhetskupong som koder kampen sammen med flere krypterte data om bildet. Denne kupongen lastes opp til iCloud -bilder med bildet.

Med mindre en iCloud Photos -konto krysser en bestemt terskel for CSAM -innhold, sikrer systemet at sikkerhetskupongene ikke kan leses av Apple. Det er takket være en kryptografisk teknologi som kalles hemmelig deling.

Ifølge Apple gir den ukjente terskelen en høy grad av nøyaktighet og sikrer mindre enn en i én billion bilsjanse for feil flagging av en konto.

Når terskelen overskrides, vil teknologien tillate Apple å tolke bilagene og matchende CSAM -bilder. Apple vil deretter gjennomgå hver rapport manuelt for å bekrefte en kamp. Hvis det blir bekreftet, vil Apple deaktivere en brukers konto og deretter sende en rapport til NCMEC.

Det vil bli en klageprosess for gjenopprettelse hvis en bruker føler at kontoen ved en feiltakelse er flagget av teknologien.

Hvis du har bekymringer om personvernet med det nye systemet, har Apple bekreftet at ingen bilder blir skannet med kryptografiteknologien hvis du deaktiverer iCloud -bilder. Du kan gjøre det ved å gå til Innstillinger> [Ditt navn]> iCloud> Bilder .

Det er noen ulemper når du slår av iCloud -bilder. Alle bildene og videoene blir lagret på enheten din. Det kan forårsake problemer hvis du har mange bilder og videoer og en eldre iPhone med begrenset lagringsplass.

Bilder og videoer som er tatt på enheten vil heller ikke være tilgjengelige på andre Apple -enheter som bruker iCloud -kontoen.

I slekt: Slik får du tilgang til iCloud -bilder

Apple forklarer mer om teknologien som brukes i CSAM -deteksjonen i en hvitbok PDF . Du kan også lese en Vanlige spørsmål fra Apple med tilleggsinformasjon om systemet.

I vanlige spørsmål bemerker Apple at CSAM -deteksjonssystemet ikke kan brukes til å oppdage noe annet enn CSAM. Selskapet sier også at besittelse av CSAM -bildene i USA og mange andre land er en forbrytelse og at Apple er forpliktet til å informere myndighetene.

Selskapet sier også at det vil nekte myndighetskrav om å legge til et ikke-CSAM-bilde på hash-listen. Det forklarer også hvorfor ikke-CSAM-bilder ikke kunne legges til systemet av en tredjepart.

På grunn av menneskelig gjennomgang og det faktum at hasjene som brukes er fra kjente og eksisterende CSAM -bilder, sier Apple at systemet var designet for å være nøyaktig og unngå at problemer med andre bilder eller uskyldige brukere ble rapportert til NCMEC.

finn en romantisk roman etter beskrivelse

Ytterligere kommunikasjonssikkerhetsprotokoll i meldinger

En annen ny funksjon vil bli lagt til sikkerhetsprotokoller i Meldinger -appen. Dette tilbyr verktøy som vil advare barn og deres foreldre når de sender eller mottar meldinger med seksuelt eksplisitte bilder.

Når en av disse meldingene er mottatt, vil bildet bli uskarpt og barnet vil også bli advart. De kan se nyttige ressurser og blir fortalt at det er greit hvis de ikke ser bildet.

Funksjonen vil bare være for kontoer som er opprettet som familier i iCloud. Foreldre eller foresatte må melde seg på for å aktivere kommunikasjonssikkerhetsfunksjonen. De kan også velge å bli varslet når et barn på 12 år eller yngre sender eller mottar et seksuelt eksplisitt bilde.

For barn i alderen 13 til 17 år blir ikke foreldre varslet. Men barnet vil bli advart og spurt om det vil se eller dele et seksuelt eksplisitt bilde.

Relatert: Hvordan iOS 15 bruker intelligens for å gjøre iPhone smartere enn noensinne

Meldinger bruker maskinlæring på enheten for å avgjøre om et vedlegg eller bilde er seksuelt eksplisitt. Apple vil ikke motta tilgang til meldingene eller bildeinnholdet.

Funksjonen vil fungere for både vanlige SMS- og iMessage -meldinger og er ikke koblet til CSAM -skanningsfunksjonen vi beskrev ovenfor.

Til slutt vil Apple utvide veiledningen for både Siri og søkefunksjoner for å hjelpe barn og foreldre med å være trygge på nettet og motta hjelp i utrygge situasjoner. Apple pekte på et eksempel der brukere som spør Siri hvordan de kan rapportere CSAM eller utnyttelse av barn vil få ressurser for hvordan de sender en rapport til myndigheter.

Oppdateringer kommer til Siri og Søk etter når noen utfører søk knyttet til CSAM. En intervensjon vil forklare brukerne at interessen for temaet er skadelig og problematisk. De vil også vise ressurser og partnere for å hjelpe til med å få hjelp med problemet.

Flere endringer kommer med Apples siste programvare

De tre nye funksjonene fra Apple er utviklet i samarbeid med sikkerhetseksperter og er designet for å holde barna trygge på nettet. Selv om funksjonene kan forårsake bekymring i noen personvernfokuserte kretser, har Apple kommet frem om teknologien og hvordan den vil balansere personvernproblemer med barnevern.

Dele Dele kvitring E -post 15 skjulte funksjoner i iOS 15 og iPadOS 15 som Apple ikke nevnte på WWDC

Du har allerede hørt om de store endringene i iOS 15, men her er alle de skjulte endringene Apple utelatt fra WWDC.

Les neste
Relaterte temaer
  • IPhone
  • Mac
  • eple
  • Personvern for smarttelefoner
  • Foreldre og teknologi
Om forfatteren Brent Dirks(193 artikler publisert)

Brent er født og oppvokst i det solfylte vestlige Texas, og uteksaminert fra Texas Tech University med en BA i journalistikk. Han har skrevet om teknologi i mer enn 5 år og liker alt Apple, tilbehør og sikkerhet.

Mer fra Brent Dirks

Abonner på vårt nyhetsbrev

Bli med i vårt nyhetsbrev for tekniske tips, anmeldelser, gratis ebøker og eksklusive tilbud!

Klikk her for å abonnere