Nagpapatuloy ang kontrobersya tungkol sa sistema ng pagtuklas ng pornograpiya ng bata ng Apple

Mga larawan ng MacBook Air

Mula nang ipahayag ng Apple ang pagtuklas ng materyal na pang-aabuso sa sekswal na bata para sa iOS, iPadOS at macOS Mas maaga sa buwang ito, maraming debate. Hindi lamang sa mga eksperto sa seguridad, ngunit kahit sa mga empleyado mismo ng Apple na humiling sa Apple na huwag ipatupad ito.

Ang huling sumali sa kakulangan sa ginhawa sa pagpapatupad ng sistemang ito ay higit pa sa 90 mga pangkat ng karapatang sibil. Nagsulat sila ng isang bukas na liham sa Apple, na hinihiling na mag-backtrack sa mga plano nitong CSAM (Child Sexual Abuse Material). Ang dahilan na pinabanggit nila ay ang sistemang ito ay maaaring samantalahin para sa iba pang mga layunin.

Ano ang CSAM?

CSAM

Ang CSAM, isinalin bilang Materyal na Sekswal na Pang-aabuso, ay isang katalogo ng mga litrato na may nilalaman ng pornograpiya ng bata, kilala, handa at na-update pana-panahon ng iba't ibang mga asosasyon at na ang nilalaman ay kinokontrol ng National Center for Missing and Exploited Children (NCMEC).

Ang bawat isa sa mga litrato na nakaimbak sa database na ito ay may natatanging digital signature, isang digital signature na ihahambing ito sa mga larawan ng mga larawan na nakaimbak sa mga account ng gumagamit ng iCloud. Kung may napansin na laban, mai-block ang pag-access sa account ng gumagamit at aabisuhan ang mga awtoridad.

Ang Google, Dropbox at Microsoft ay gumagamit ng sistemang ito ng pagsubaybay sa imahe para sa mga account ng gumagamit nang matagal na, ngunit ang Apple ay lumayo sa isang hakbang at ay lumikha ng isang bagong sistema na tinatawag na NeuralHash, isang system na pinag-aaralan ang naka-encrypt na ulap ng gumagamit, sa teorya, na hinahanap ang mga ganitong uri ng mga imahe at kahit na ang Apple mismo ay walang access.

Galit mula sa mga samahan ng mga karapatang sibil

Entre ilan sa mga pumirma sa liham na ito nariyan ang American Civil Liberties Union, ang Canadian Civil Liberties Association, ang samahang Australia na Digital Rights Watch, ang British organisasyong Liberty, Privacy International ...

Nagsisimula ang liham sa pamamagitan ng pag-highlight ng mga kakayahan ng NeuralHash, na sinasabi na:

Habang ang mga kakayahan ay inilaan upang maprotektahan ang mga bata at mabawasan ang pagkalat ng Child Sexual Abuse Material (CSAM), nag-aalala kami na ginagamit ito upang i-censor ang protektadong ekspresyon, banta ang privacy at kaligtasan ng mga tao sa buong mundo, at magkaroon ng mapanganib na mga kahihinatnan para sa maraming mga bata .

Kapag ang kakayahang ito ay isama sa mga produkto ng Apple, ang kumpanya at ang mga kakumpitensya ay haharapin ang napakalaking presyon - at potensyal na mga kinakailangang legal - mula sa mga pamahalaan sa buong mundo upang mag-scan ng mga larawan para sa hindi lamang sa CSAM, kundi pati na rin ng iba pang mga imaheng isinasaalang-alang ng gobyerno na kaduda-dudang.

Ang mga imaheng iyon ay maaaring maging pang-aabuso sa karapatang pantao, mga protesta sa politika, mga imahe na may label na mga kumpanya bilang 'terorista' o marahas na nilalaman ng ekstremista, o kahit na hindi nakakagulat na mga imahe ng mga pulitiko mismo na pipilitin ang kumpanya na i-scan ang mga ito.

Ang 90 na samahang ito ay inaangkin na ang paghahanap para sa mga litrato maaaring mapalawak sa mga imaheng nakaimbak sa aparato, hindi lamang ang mga nakaimbak sa iCloud, kaya maaaring nilikha ng Apple ang batayan para sa censorship, surveillance at pag-uusig sa buong mundo.

Hindi na sinasabi na kapag hinihimok ng isang gobyerno ang Apple na magbigay ng access sa nilalaman ng mga gumagamit nito, tulad ng China o Russia, Si Apple ay yumuko at sumunod sa kanyang mga hinihiling. Sino ang nagsisiguro sa atin na hindi susundin ng Apple ang parehong patakaran na ito sa ibang mga bansa?

Ang sulat ay nagpapatuloy na isinasaad na ang sistemang ito ay magbibigay sa mga bata sa peligro:

Ipinapalagay ng sistemang binuo ng Apple na ang "magulang" at "anak" na mga account na kasangkot ay talagang kabilang sa isang may sapat na gulang na magulang ng isang bata, at ang mga indibidwal na ito ay mayroong malusog na relasyon.

Hindi ito palaging ang kaso; ang isang mapang-abusong nasa hustong gulang ay maaaring maging tagapag-ayos ng account, at ang mga kahihinatnan ng pag-abiso sa mga magulang ay maaaring magbanta sa kaligtasan at kagalingan ng bata. LGBTQ + kabataan sa mga account ng pamilya na may hindi pakikiramay na mga magulang ay lalo na nasa peligro

Nagtapos ang liham sa pamamagitan ng pagsasabi na sa kabila ng pagsisikap ni Apple na bawasan ang pang-aabuso sa bata, ang kumpanya dapat manatiling matatag sa patakaran sa privacy na itinayo niya sa mga nagdaang taon.

Sinusuportahan namin ang mga pagsisikap na protektahan ang mga bata at mahigpit na tutulan ang paglaganap ng CSAM. Ngunit ang mga pagbabago na inihayag ng Apple ay naglalagay sa panganib sa mga bata at iba pang mga gumagamit, kapwa ngayon at sa hinaharap. Hinihimok namin ang Apple na talikuran ang mga pagbabagong iyon at muling kumpirmahin ang pangako ng kumpanya na protektahan ang mga gumagamit nito gamit ang end-to-end na pag-encrypt. Hinihimok din namin ang Apple na kumunsulta nang mas regular sa mga pangkat ng lipunan at mga mahihirap na pamayanan na maaaring hindi apektado ayon sa pagbabago ng mga produkto at serbisyo nito.

Mga mensahe

App ng mga mensahe

Ipakikilala ng Apple ang bagong tampok na ito sa paglabas ng macOS Monterey, iOS 15, at iPadOS 15, isang pagpapaandar na sinamahan ng isang sistema na makakakita ng pagpapalaganap ng materyal na sekswal ng bata sa pamamagitan ng aplikasyon ng Mga Mensahe at aabisuhan ang magulang o tagapag-alaga kung ang menor de edad ay nakatanggap ng mga imaheng inuri bilang implicit sa sekswal.

Ang mga imaheng ito ay lilitaw sa una malabo at sa pamamagitan ng isang mensahe, ipapaliwanag sa menor de edad (kung sila ay 12 taong gulang o mas bata) na ang imahe ay hindi angkop para sa kanila. Kung magpasya kang tingnan ito, makakatanggap ang mga magulang ng isang notification kasama ang imahe. Sa puntong ito, mas maipapayo na ang mga magulang ang nagbigay ng pasiya para sa menor de edad na magkaroon ng access sa imahe.

Mga natanggap na imahe sa pamamagitan ng application ng Mga Mensahe, mai-scan sa aparato at ang impormasyong iyon ay hindi lalabas doon. Ni ang mga awtoridad o ang Apple ay walang kaalaman sa kaganapan.

Siri

Siri

Sumali din si Siri sa paglaban sa pornograpiya ng bata. Sa paglabas ng iOS 15, iPadOS 15, at macOS Monterrey, kung ang isang gumagamit ay naghahanap para sa ganitong uri ng nilalaman, makakatanggap ka ng isang abiso na ipaalam sa iyo na nagsasagawa ka ng isang paghahanap para sa materyal na itinuring na labag sa batas at ipapaalam nito sa iyo kung saan ka makakahanap ng tulong at mga paraan upang maiulat ang nasabing nilalaman.

Ang prosesong ito, tulad ng pagtatasa ng mga imaheng natanggap sa pamamagitan ng application ng Mga Mensahe, ay isasagawa sa loob ng aparato, nang walang kaalaman ng Apple o ng mga awtoridad.


Bumili ng domain
Interesado ka sa:
Ang mga sikreto sa matagumpay na paglulunsad ng iyong website

Iwanan ang iyong puna

Ang iyong email address ay hindi nai-publish. Mga kinakailangang patlang ay minarkahan ng *

*

*

  1. Responsable para sa data: Miguel Ángel Gatón
  2. Layunin ng data: Kontrolin ang SPAM, pamamahala ng komento.
  3. Legitimation: Ang iyong pahintulot
  4. Komunikasyon ng data: Ang data ay hindi maiparating sa mga third party maliban sa ligal na obligasyon.
  5. Imbakan ng data: Ang database na naka-host ng Occentus Networks (EU)
  6. Mga Karapatan: Sa anumang oras maaari mong limitahan, mabawi at tanggalin ang iyong impormasyon.