蘋果的兒童保護計劃,似乎幾乎沒人喜歡

CS

蘋果單方面決定提出一個保護兒童的系統(CSAM)。 如何? 通過自動檢查上傳到 iCloud 的照片。 這樣就可以知道是否有不合適的圖像並且會傷害這些嬰兒。 這個消息幾乎沒有人喜歡。 它代表對用戶隱私的侵犯。 但可以說,目的是否證明手段是正當的? 甚至 EFF 也不希望蘋果的這個想法得以實施。

包括 EFF 在內的許多協會都不希望蘋果在 CSAM 上的這種想法繼續下去

蘋果的目標是讓人們感受到 通過技術安全和授權。 “我們希望幫助保護兒童免受使用通信工具招募和剝削他們的掠奪者的侵害,並限制兒童性虐待材料 (CSAM) 的傳播。 這就是 Apple 在三個方面引入新的兒童安全功能的原因: 

  1. 市長 家長控制
  2. 通過機器學習 訊息應用. 警告機密內容
  3. Apple 從以下網址獲取有關 CSAM 集合的信息 iCloud照片 您將與當局分享。

這是發生最大問題的地方。 蘋果應該成為離線和在線隱私的典範。 然而,有了這些新方法,很明顯,對於這家美國公司來說,目的確實證明了手段是合理的。 為了保護兒童,侵犯了用戶隱私。 我不知道這是個好主意還是壞主意。 但似乎有一個值得稱讚的結局, 這對蘋果來說正在成為一種折磨。

目前主動停止,因為本來是應該晚點實施的,但最根本的問題是,有很多公司、組織和個人在哭。 在這裡我們可能會想,如果“我們沒有什麼可隱瞞的,我們不應該害怕這種技術,因為他們永遠找不到任何東西”。 但令人恐懼的是,他感到困惑並發現了一些他沒有的東西。 機器很好,但並非萬無一失。 我們也回到通常的問題。 最終證明手段是正當的?。

宣布反對 Apple 的這一舉措的組織之一是 電子前沿基金會(EFF). 它已要求蘋果完全放棄其兒童安全項目。 該組織表示,蘋果的舉動暫時擱置是“幸運的”。 但他稱這些計劃,包括掃描用戶圖片中是否存在虐待兒童材料 (CSAM),“降低了所有 iCloud 照片用戶的隱私”。 EFF 針對 Apple 原始廣告的請願書現在包含超過 25.000 個簽名。 另一個由 Fight for the Future 和 OpenMedia 等組織發起,包含 50.000 多個。

許多人已簽署反對這一倡議。 與蘋果的設備銷量相比,這可能不是一個重要的數字,但考慮到它的地位和方法,這已經足夠了。 一些專家警告說,如果蘋果屈服於政府不可避免的壓力,該功能可能會在以後擴展以尋找其他材料。

EFF 很高興 Apple 現在正在傾聽客戶、研究人員、公民自由組織、人權活動家、LGBTQ 人士、青年代表和其他團體對其手機掃描工具帶來的危險的擔憂。 但該公司必須不僅僅只是傾聽,而且必須放棄在其加密中完全設置後門的計劃。 蘋果一個月前宣布的旨在幫助保護兒童的功能將創建一個很容易重定向到加強監視和審查的基礎設施。 這些措施將對隱私和安全造成巨大威脅 蘋果用戶,為專制政府提供一個新的大規模監視系統來監視公民。

我們將繼續關注 這場爭奪隱私與安全的鬥爭。 兩個基本價值觀和權利面對面。


購買域名
你對。。。感興趣:
成功啟動網站的秘訣

發表您的評論

您的電子郵件地址將不會被發表。 必填字段標有 *

*

*

  1. 負責數據:MiguelÁngelGatón
  2. 數據用途:控制垃圾郵件,註釋管理。
  3. 合法性:您的同意
  4. 數據通訊:除非有法律義務,否則不會將數據傳達給第三方。
  5. 數據存儲:Occentus Networks(EU)託管的數據庫
  6. 權利:您可以隨時限制,恢復和刪除您的信息。