Përgjigje dhe pyetje për sistemin tjetër të mbrojtjes së fëmijëve në Apple

Ikona e fotove për macOS

Apple njoftoi tre veçori të reja që synojnë mbrojtjen e fëmijëve në pajisjet e saj. Ideja në vetvete është fantastike. Megjithatë, ka nga ata që kanë shfrytëzuar rastin për të vënë gishtin në plagë. Ai pyet veten nëse ajo që Apple dëshiron të bëjë nuk është më shumë një mbikëqyrje e fshehtë që heq privatësinë e Mac, iPad ose iPhone në sfond. Për ta bërë këtë, ata që janë përgjegjës për këtë funksionalitet të ri kanë dalë nga rruga e tyre duke shpjeguar se si funksionon.

Erik Neuenschwander shpjegon se si funksionon sistemi i tij për të rritur mbrojtjen e fëmijëve

CSAM

Ne po flasim për funksionalitetin e ri që do të hyjë në fuqi në SHBA në vjeshtë dhe qëllimi i të cilit është të mbrojtjen e fëmijëve kundër abuzimit seksualMe Ai fokusohet në aplikacionin e fotografive, iMessage, Siri dhe kërkimin. Pra prek të gjitha pajisjet Apple në të cilat ndërhyjnë këto aplikacione. Prandaj ne po flasim për Mac, të cilët megjithëse nuk është pajisja par excellence për të bërë fotografi, është për t'i ruajtur dhe klasifikuar ato, përveç sinkronizimit ekzistues përmes iCloud. Përdorimi i iMessage, Siri por veçanërisht komanda e kërkimit.

Sistemi i zbulimit i quajtur CSAM funksionon kryesisht në iCloud Photos. Një sistem zbulimi i quajtur NeuralHash identifikon dhe krahasohet me ID -të e Qendrës Kombëtare për Fëmijët e Zhdukur dhe të Shfrytëzuar për të zbuluar abuzimin seksual dhe përmbajtje të ngjashme në bibliotekat e fotografive iCloud, por edhe sigurinë e komunikimit në iMessage.

Një prind mund ta aktivizojë këtë veçori në pajisjen e tyre për fëmijët nën 13 vjeç. Do të alarmohet kur zbulon se një imazh që ata do të shohin është i qartë. Do të ndikojë gjithashtu në Siri dhe sistemin e kërkimit, kur një përdorues përpiqet të kërkojë terma të lidhur përmes Siri dhe komandës së kërkimit.

Neuenschwander shpjegon pse Apple njoftoi funksionin e Sigurisë së Komunikimit në iMessage së bashku me funksionin e Zbulimit CSAM në Fotografitë iCloud:

Sado e rëndësishme të jetë identifikimi i koleksioneve të njohura CSAM ku ato ruhen në shërbimin e fotografive iCloud të Apple, është gjithashtu e rëndësishme të përpiqeni të ecni përpara në atë situatë tashmë të tmerrshme. Shtë gjithashtu e rëndësishme të bëni gjëra për të ndërhyrë më herët kur njerëzit fillojnë të hyjnë në këtë zonë shqetësuese dhe të dëmshme. Nëse tashmë ka njerëz që përpiqen t'i çojnë fëmijët në situata ku mund të ndodhë abuzimi. Siguria e mesazheve dhe ndërhyrjet tona në Siri dhe kërkimi në të vërtetë ndikojnë në ato pjesë të procesit. Pra, ne me të vërtetë po përpiqemi të prishim ciklet që çojnë në CSAM që përfundimisht mund të zbulohen nga sistemi ynë.

"Privatësia do të jetë e paprekur për të gjithë ata që nuk marrin pjesë në aktivitete ilegale"

Fraza e veshtire. Neuenschwander kështu ka përcaktuar dhe mbrojtur pozicionin e Apple kundër atyre që akuzojnë kompaninë për hapjen e një dere të pasme për të spiunuar përdoruesit e saj. Ekzekutivi i sigurisë mbron se siguria do të ekzistojë dhe privatësia do të ruhet për ata që nuk komentojnë paligjshmëritë. Shumë mirë nëse nuk kishte faj Por kush më thotë se sistemi nuk është i papërsosur?

¿Apple duhet të besohet nëse një qeveri përpiqet të ndërhyjë në këtë sistem të ri?

Neuenschwander përgjigjet duke thënë se në parim po lançohet vetëm për llogaritë iCloud në SHBA, kështu që ligjet vendore nuk i ofrojnë këto lloj aftësish qeverisë federale. Tani për tani, vetëm banorët e Shteteve të Bashkuara do t'i nënshtrohen këtij shqyrtimi. Por ai nuk përgjigjet dhe nuk e bën të qartë se çfarë do të ndodhë në të ardhmen kur të lansohet në vende të tjera. Edhe pse kjo do të marrë kohë, pasi do të varet nga ligjet e secilit prej tyre. Sjellja e përshkruar në kodet penale të secilit vend ndryshon në atë që është krim, kështu që algoritmi Apple duhet të përshtatet me secilën situatë ligjore dhe kjo nuk duhet të jetë aspak e lehtë.

Gjëja më e rëndësishme në këtë çështje është sa vijon: iCloud është çelësi. Nëse përdoruesit nuk po përdorin iCloud Photos, NeuralHash nuk do të funksionojë dhe nuk do të krijojë asnjë kërkesë. Zbulimi CSAM është një hash nervor që krahasohet me një bazë të dhënash të hasheve të njohura CSAM që janë pjesë e imazhit të sistemit operativ. Asgjë nuk do të funksionojë nëse Fotografitë iCloud nuk po përdoren.

E diskutueshme pa dyshim. Një qëllim i mirë, por me disa boshllëqe Mendoni se privatësia është në pyetje? Ia vlen?


Bëhu i pari që komenton

Lini komentin tuaj

Adresa juaj e emailit nuk do të publikohet. Fusha e kërkuar janë shënuar me *

*

*

  1. Përgjegjës për të dhënat: Miguel Ángel Gatón
  2. Qëllimi i të dhënave: Kontrolloni SPAM, menaxhimin e komenteve.
  3. Legjitimimi: Pëlqimi juaj
  4. Komunikimi i të dhënave: Të dhënat nuk do t'u komunikohen palëve të treta përveç me detyrim ligjor.
  5. Ruajtja e të dhënave: Baza e të dhënave e organizuar nga Occentus Networks (BE)
  6. Të drejtat: Në çdo kohë mund të kufizoni, rikuperoni dhe fshini informacionin tuaj.