Apple'ın çocuk pornografisi tespit sistemiyle ilgili tartışmalar sürüyor

MacBook Air fotoğrafları

Apple duyurduğu andan itibaren iOS, iPadOS ve macOS için çocuklara yönelik cinsel istismar materyallerinin tespiti Bu ayın başında geniş bir tartışma yaşandı. Yalnızca güvenlik uzmanları arasında değil, Apple'ın bunu uygulamamasını isteyen Apple çalışanları arasında bile.

Bu sistemin uygulanmasıyla ilgili huzursuzluğa en son katılanlar, birden fazla kişidir. 90 sivil haklar grubu. Apple'a açık bir mektup yazarak CSAM (Çocuklara Yönelik Cinsel İstismar Materyalleri) planlarını tersine çevirmesini istediler. Bahsettikleri sebep ise bu sistemin başka amaçlarla kullanılabileceğidir.

CSAM nedir?

CSAM

Çocukların Cinsel İstismarı Materyali olarak tercüme edilen CSAM, bir bilinen, hazırlanan ve güncellenen çocuk pornografisi içerikli fotoğraf kataloğu periyodik olarak farklı dernekler tarafından hazırlanan ve içeriği Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC) tarafından kontrol edilen yayınlardır.

Bu veritabanında saklanan fotoğrafların her birinin benzersiz bir dijital imzası vardır; bu dijital imza, kullanıcıların iCloud hesaplarında saklanan fotoğraf görselleriyle karşılaştırılacak. Eşleşme tespit edilmesi halinde kullanıcının hesabına erişim engellenecek ve yetkililere bilgi verilecektir.

Google, Dropbox ve Microsoft bir süredir kullanıcı hesaplarında bu görsel takip sistemini kullanıyor ancak Apple bir adım daha ileri giderek NeuralHash adında yeni bir sistem oluşturdu; bu sistem, teoride, bu tür görselleri arayan kullanıcının şifrelenmiş bulutunu analiz ediyor ve Apple'ın kendisinin bile erişemediği bir sistem.

Sivil haklar örgütleri arasında hoşnutsuzluk

Arasında Bu mektubu imzalayanlardan bazıları Amerikan Sivil Özgürlükler Birliği, Kanada Sivil Özgürlükler Derneği, Avustralya kuruluşu Digital Rights Watch, British Liberty, Privacy International...

Mektup, NeuralHash'in yeteneklerini vurgulayarak başlıyor ve şunu belirtiyor:

Bu yeteneklerin amacı çocukları korumak ve çocuklara yönelik cinsel istismar materyallerinin (CSAM) yayılmasını azaltmak olsa da, bunların korunan konuşmayı sansürlemek, dünyanın her yerindeki insanların mahremiyetini ve güvenliğini tehdit etmek için kullanılmasından ve dünya genelinde feci sonuçlara yol açmasından endişe ediyoruz. birçok çocuk.

Bu yetenek Apple ürünlerine yerleştirildiğinde, şirket ve rakipleri, dünyanın dört bir yanındaki hükümetlerden, yalnızca CSAM için değil, aynı zamanda hükümetin şüpheli gördüğü diğer görüntülerden de fotoğraf taraması yönünde muazzam bir baskıyla ve potansiyel olarak yasal taleplerle karşı karşıya kalacak.

Bu görüntüler insan hakları ihlalleri, siyasi protestolar, şirketlerin 'terörist' veya şiddet içeren aşırı içerik olarak etiketlediği görüntüler, hatta şirkete bunları taraması için baskı yapacak politikacıların kendilerinin kötüleyici görüntüleri olabilir.

Bu 90 kuruluş, fotoğraf aramanın cihazda depolanan resimlere kadar uzanabilirYalnızca iCloud'da depolananlar değil, Apple dünya çapında sansürün, gözetlemenin ve zulmün temelini oluşturmuş olabilir.

Bir hükümet Apple'ı Çin veya Rusya gibi kullanıcılarının içeriklerine erişim izni vermeye zorladığında, bunu söylemeye gerek yok. Apple başını eğip taleplerini yerine getiriyor. Apple'ın diğer ülkelerde aynı politikayı izlemeyeceğini bize kim garanti ediyor?

Mektupta, bu sistemin çocukları riske atacağı belirtiliyor:

Apple'ın geliştirdiği sistem, söz konusu "ebeveyn" ve "çocuk" hesaplarının aslında çocuğun ebeveyni olan bir yetişkine ait olduğunu ve bu kişilerin sağlıklı bir ilişkisi olduğunu varsayıyor.

Bu her zaman böyle değildir; Hesabı düzenleyen kişi istismarcı bir yetişkin olabilir ve ebeveyn bildiriminin sonuçları çocuğun güvenliğini ve refahını tehdit edebilir. Destekleyici olmayan ebeveynleri olan aile hesaplarındaki LGBTQ+ gençler özellikle risk altındadır

Mektup, Apple'ın çocuk istismarını azaltma çabalarına rağmen şirketin Gizlilik politikasına uymalısınız son yıllarda inşa edilmiş olandır.

Çocukları koruma çabalarını destekliyoruz ve CSAM'ın yayılmasına şiddetle karşı çıkıyoruz. Ancak Apple'ın duyurduğu değişiklikler çocukları ve diğer kullanıcıları hem şimdi hem de gelecekte riske atıyor. Apple'ı bu değişikliklerden vazgeçmeye ve şirketin kullanıcılarını uçtan uca şifrelemeyle koruma konusundaki kararlılığını yeniden teyit etmeye çağırıyoruz. Ayrıca Apple'ı, ürün ve hizmetlerinde yapılan değişikliklerden orantısız bir şekilde etkilenebilecek sivil toplum grupları ve hassas topluluklarla daha düzenli istişarelerde bulunmaya çağırıyoruz.

Mesajları

Mesajlar uygulaması

Apple bu yeni özelliği tanıtacak macOS Monterey, iOS 15 ve iPadOS 15'in piyasaya sürülmesiyleMesajlar uygulaması aracılığıyla çocuklara yönelik cinsel materyalin yayıldığını tespit edecek ve reşit olmayan kişinin cinsel açıdan örtülü olarak sınıflandırılmış görüntüler alması durumunda ebeveyni veya veliyi bilgilendirecek bir sistemin eşlik ettiği bir işlev.

Bu görüntüler başlangıçta bulanık gösterilecek ve mesaj yoluyla reşit olmayanlara (12 yaş ve altı ise) görüntünün kendilerine uygun olmadığı anlatılacaktır. Görüntülemeye karar verirseniz ebeveynlere görselle birlikte bir bildirim gönderilecektir. Bu anlamda daha uygun olacaktır. Reşit olmayan çocuğun görüntüye erişebilmesine onay veren ebeveynlerdi.

Mesajlar uygulaması aracılığıyla alınan görseller, cihazda analiz edilecek ve bu bilgi oradan gelmeyecek. Ne yetkililerin ne de Apple'ın olaydan haberi olmayacak.

Siri

Siri

Siri ayrıca çocuk pornografisine karşı mücadeleye de katıldı. iOS 15, iPadOS 15 ve macOS Monterrey'in piyasaya sürülmesiyle birlikte bir kullanıcı bu tür içerikleri ararsa, Yasa dışı sayılan materyalleri aradığınızı bildiren bir bildirim alacaksınız ve bu tür içerikleri bildirmenize olanak sağlayacak yardım ve araçları nereden bulabileceğiniz konusunda sizi bilgilendirecektir.

Bu işlem, Mesajlar uygulaması üzerinden alınan görüntülerin analizi gibi cihaz üzerinde dahili olarak gerçekleştirilecek, Apple'ın veya yetkililerin haberi olmadan.


Bir alan adı satın alın
İlgilendiğiniz konular:
Web sitenizi başarıyla başlatmanın sırları

Yorumunuzu bırakın

E-posta hesabınız yayınlanmayacak. Gerekli alanlar ile işaretlenmiştir *

*

*

  1. Verilerden sorumlu: Miguel Ángel Gatón
  2. Verilerin amacı: Kontrol SPAM, yorum yönetimi.
  3. Meşruiyet: Onayınız
  4. Verilerin iletilmesi: Veriler, yasal zorunluluk dışında üçüncü kişilere iletilmeyecektir.
  5. Veri depolama: Occentus Networks (AB) tarafından barındırılan veritabanı
  6. Haklar: Bilgilerinizi istediğiniz zaman sınırlayabilir, kurtarabilir ve silebilirsiniz.