Válaszok és kérdések az Apple következő gyermekvédelmi rendszeréhez

Fotók ikon a macOS számára

Az Apple három új funkciót jelentett be, amelyek a gyermekek védelmét célozzák készülékein. Maga az ötlet fantasztikus. Vannak azonban, akik megragadták az alkalmat, és ujjukat a sebre tették. Azon gondolkodik, vajon az Apple nem akarja -e inkább a rejtett felügyelet, amely a Mac magánéletét veszélyezteti, iPad vagy iPhone a háttérben. Ennek érdekében az új funkcióval megbízottak elutasították, hogyan magyarázzák el, hogyan működik.

Erik Neuenschwander elmagyarázza, hogyan működik a rendszere a gyermekvédelem emelése érdekében

CSAM

Arról az új funkcionalitásról beszélünk, amely ősszel lép életbe az Egyesült Államokban, és amelynek célja gyermekvédelem a szexuális bántalmazás ellen. A fotók alkalmazásra, az iMessage -re, a Siri -re és a keresésre összpontosít. Tehát minden Apple készüléket érint, amelyben ezek az alkalmazások beavatkoznak. Ezért a Mac -ekről beszélünk, amelyek ugyan nem a legjobb eszköz a fényképek készítéséhez, hanem azok mentése és osztályozása, a meglévő szinkronizálás mellett az iCloudon keresztül. Az iMessage, a Siri, de különösen a keresési parancs használata.

A CSAM nevű észlelési rendszer főleg az iCloud Fotókban működik. A NeuralHash nevű észlelési rendszer azonosítja és összehasonlítja a Nemzeti Központ az eltűnt és kizsákmányolt gyermekek azonosítóival, hogy észlelje a szexuális visszaéléseket és hasonló tartalmakat az iCloud fotókönyvtáraiban, de az iMessage kommunikációs biztonságát is.

A szülő 13 éven aluli gyermekek számára aktiválhatja ezt a funkciót eszközén. Riasztani fog, amikor azt észleli, hogy az általuk látni kívánt kép kifejezett. Ez hatással lesz a Sirire és a keresőrendszerre is, mint amikor a felhasználó a kapcsolódó kifejezéseket a Siri és a keresési parancs segítségével próbálja megkeresni.

A Neuenschwander elmagyarázza, miért jelentette be az Apple a kommunikációs biztonsági funkciót iMessage az iCloud Photos CSAM észlelési funkciójával együtt:

Bármennyire is fontos azonosítani az ismert CSAM -gyűjteményeket, ahol azokat az Apple iCloud fotószolgáltatásában tárolják, fontos az is, hogy megpróbáljunk előrelépni ebben a szörnyű helyzetben. Az is fontos, hogy korábban tegyenek lépéseket, amikor az emberek elkezdenek belépni erre a zavaró és káros területre. Ha már vannak olyan emberek, akik megpróbálják a gyermekeket olyan helyzetekbe vezetni, ahol bántalmazás fordulhat elő. Az üzenetek biztonsága, valamint a Siri -n és a kereséssel kapcsolatos beavatkozásaink valójában befolyásolják a folyamat ezeket a részeit. Tehát valóban megpróbáljuk megszakítani azokat a ciklusokat, amelyek CSAM -hoz vezetnek, és amelyeket rendszerünk végül felismerhet.

"A magánélet sértetlen lesz mindazok számára, akik nem vesznek részt illegális tevékenységekben"

Nehéz mondat. A Neuenschwander ezzel meghatározta és megvédte az Apple álláspontját azokkal szemben, akik azzal vádolják a vállalatot, hogy hátsó ajtót nyitott a felhasználók után. A biztonsági ügyvezető védi, hogy a biztonság fennáll, és a magánélet megmarad azok számára, akik nem kommentálják az illegális dolgokat. Nagyon jó, ha nem volt hiba De ki mondja nekem, hogy a rendszer nem tökéletlen?

¿Bízni kell az Apple -ben, ha egy kormány megpróbál beavatkozni ebbe az új rendszerbe?

A Neuenschwander azt válaszolja, hogy elvileg csak az iCloud -fiókokhoz indítják el az Egyesült Államokban, tehát a helyi törvények nem kínálnak ilyen típusú képességeket a szövetségi kormány számára. Egyelőre csak az Egyesült Államok lakói lesznek kitéve ennek az ellenőrzésnek. De nem válaszol, és nem teszi egyértelművé, hogy mi lesz a jövőben, amikor más országokban elindítják. Bár ez időbe telik, mivel mindegyikük törvényeitől függ. Az egyes országok büntető törvénykönyveiben leírt magatartás eltér attól, hogy mi a bűncselekmény, ezért az Apple algoritmusát minden jogi helyzethez hozzá kell igazítani, és ez egyáltalán nem lehet könnyű.

Ebben a kérdésben a legfontosabb a következő: Az iCloud a kulcs. Ha a felhasználók nem használják az iCloud Fotókat, a NeuralHash nem fog futni, és nem generál utasításokat. A CSAM -felfedezés egy neurális kivonat, amelyet az operációs rendszerkép részét képező ismert CSAM -kivonatok adatbázisával hasonlítanak össze. Semmi sem fog működni, ha nem használja az iCloud Fotókat.

Kétségtelenül ellentmondásos. Jó cél, de van néhány kiskapu Úgy gondolja, hogy a magánélet kérdéses? Érdemes?


Hagyja megjegyzését

E-mail címed nem kerül nyilvánosságra. Kötelező mezők vannak jelölve *

*

*

  1. Az adatokért felelős: Miguel Ángel Gatón
  2. Az adatok célja: A SPAM ellenőrzése, a megjegyzések kezelése.
  3. Legitimáció: Az Ön beleegyezése
  4. Az adatok közlése: Az adatokat csak jogi kötelezettség alapján továbbítjuk harmadik felekkel.
  5. Adattárolás: Az Occentus Networks (EU) által üzemeltetett adatbázis
  6. Jogok: Bármikor korlátozhatja, helyreállíthatja és törölheti adatait.