ആപ്പിളിലെ അടുത്ത ശിശു സംരക്ഷണ സംവിധാനത്തിനുള്ള ഉത്തരങ്ങളും ചോദ്യങ്ങളും

MacOS- നായുള്ള ഫോട്ടോകൾ ഐക്കൺ

ആപ്പിൾ അതിന്റെ ഉപകരണങ്ങളിൽ കുട്ടികളുടെ സംരക്ഷണം ലക്ഷ്യമിടുന്ന മൂന്ന് പുതിയ സവിശേഷതകൾ പ്രഖ്യാപിച്ചു. ആശയം തന്നെ അതിശയകരമാണ്. എന്നിരുന്നാലും, മുറിവിൽ വിരൽ വയ്ക്കാൻ അവസരം ഉപയോഗിച്ചവരുണ്ട്. ആപ്പിൾ ചെയ്യാൻ ആഗ്രഹിക്കുന്നത് ഒരു കാര്യമല്ലേ എന്ന് അയാൾ അത്ഭുതപ്പെടുന്നു മാക് സ്വകാര്യതയെ നിരാകരിക്കുന്ന രഹസ്യ നിരീക്ഷണം, പശ്ചാത്തലത്തിൽ ഐപാഡ് അല്ലെങ്കിൽ ഐഫോൺ. ഇത് ചെയ്യുന്നതിന്, ഈ പുതിയ പ്രവർത്തനത്തിന്റെ ചുമതലയുള്ളവർ ഇത് എങ്ങനെ പ്രവർത്തിക്കുന്നുവെന്ന് വിശദീകരിക്കുന്നതിൽ നിന്ന് വിട്ടുപോയി.

കുട്ടികളുടെ സംരക്ഷണം ഉയർത്താൻ തന്റെ സിസ്റ്റം എങ്ങനെ പ്രവർത്തിക്കുന്നുവെന്ന് എറിക് ന്യൂവെൻഷ്വാണ്ടർ വിശദീകരിക്കുന്നു

CSAM

വീഴ്ചയിൽ യുഎസിൽ പ്രാബല്യത്തിൽ വരുന്ന പുതിയ പ്രവർത്തനത്തെക്കുറിച്ചും ആരുടെ ഉദ്ദേശ്യത്തെക്കുറിച്ചും ഞങ്ങൾ സംസാരിക്കുന്നു ലൈംഗിക പീഡനത്തിനെതിരായ കുട്ടികളുടെ സംരക്ഷണം. ഇത് ഫോട്ടോ ആപ്ലിക്കേഷൻ, iMessage, Siri, തിരയൽ എന്നിവയിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കുന്നു. അതിനാൽ ഈ ആപ്ലിക്കേഷനുകൾ ഇടപെടുന്ന എല്ലാ ആപ്പിൾ ഉപകരണങ്ങളെയും ഇത് ബാധിക്കുന്നു. അതിനാൽ ഞങ്ങൾ മാക്സിനെക്കുറിച്ചാണ് സംസാരിക്കുന്നത്, ഫോട്ടോകൾ എടുക്കുന്നതിനുള്ള മികവ് ഉപകരണമല്ലെങ്കിലും, ഐക്ലൗഡിലൂടെ നിലവിലുള്ള സമന്വയത്തിന് പുറമേ, അവയെ സംരക്ഷിക്കാനും വർഗ്ഗീകരിക്കാനുമാണ്. IMessage, സിരി എന്നിവയുടെ ഉപയോഗം എന്നാൽ പ്രത്യേകിച്ച് തിരയൽ കമാൻഡ്.

CSAM എന്ന കണ്ടെത്തൽ സംവിധാനം ഇത് പ്രധാനമായും iCloud ഫോട്ടോകളിൽ പ്രവർത്തിക്കുന്നു. ഐക്ലൗഡ് ഫോട്ടോ ലൈബ്രറികളിലെ ലൈംഗിക ദുരുപയോഗവും സമാന ഉള്ളടക്കവും കണ്ടെത്തുന്നതിനും, iMessage- ൽ ആശയവിനിമയ സുരക്ഷയും കണ്ടെത്തുന്നതിനായി, നാഷണൽ സെന്റർ ഫോർ മിസ്സിംഗ് & എക്സ്പ്ലോയിറ്റഡ് ചിൽഡ്രൻ ഐഡികളുമായി ന്യൂറൽ ഹാഷ് എന്ന ഒരു കണ്ടെത്തൽ സംവിധാനം തിരിച്ചറിയുകയും താരതമ്യം ചെയ്യുകയും ചെയ്യുന്നു.

ഒരു രക്ഷിതാവിന് 13 വയസ്സിന് താഴെയുള്ള കുട്ടികൾക്കായി അവരുടെ ഉപകരണത്തിൽ ഈ സവിശേഷത സജീവമാക്കാം. അവർ കാണാൻ പോകുന്ന ഒരു ചിത്രം വ്യക്തമാണെന്ന് കണ്ടെത്തുമ്പോൾ അത് മുന്നറിയിപ്പ് നൽകും. ഒരു ഉപയോക്താവ് സിറിയും തിരയൽ കമാൻഡും വഴി അനുബന്ധ പദങ്ങൾ തിരയാൻ ശ്രമിക്കുന്നതുപോലെ, ഇത് സിരിയെയും തിരയൽ സംവിധാനത്തെയും ബാധിക്കും.

എന്തുകൊണ്ടാണ് ആപ്പിൾ കമ്മ്യൂണിക്കേഷൻ സെക്യൂരിറ്റി ഫീച്ചർ പ്രഖ്യാപിച്ചതെന്ന് ന്യൂവൻഷ്വാണ്ടർ വിശദീകരിക്കുന്നു ഇമെഷഗെ iCloud ഫോട്ടോകളിലെ CSAM കണ്ടെത്തൽ സവിശേഷതയ്‌ക്കൊപ്പം:

ആപ്പിളിന്റെ ഐക്ലൗഡ് ഫോട്ടോ സേവനത്തിൽ സൂക്ഷിച്ചിരിക്കുന്ന അറിയപ്പെടുന്ന സിഎസ്എഎം ശേഖരങ്ങൾ തിരിച്ചറിയുന്നത് എത്രത്തോളം പ്രധാനപ്പെട്ടതാണെങ്കിലും, ഇതിനകം തന്നെ ഭയാനകമായ സാഹചര്യത്തിൽ മുന്നോട്ട് പോകാൻ ശ്രമിക്കേണ്ടതും പ്രധാനമാണ്. ഈ പ്രശ്നകരവും ദോഷകരവുമായ മേഖലയിലേക്ക് ആളുകൾ പ്രവേശിക്കാൻ തുടങ്ങുമ്പോൾ നേരത്തേ ഇടപെടാനുള്ള കാര്യങ്ങൾ ചെയ്യേണ്ടതും പ്രധാനമാണ്. ദുരുപയോഗം സംഭവിക്കാവുന്ന സാഹചര്യങ്ങളിലേക്ക് കുട്ടികളെ നയിക്കാൻ ഇതിനകം ആളുകളുണ്ടെങ്കിൽ. സന്ദേശ സുരക്ഷയും സിരിയിലും തിരയലിലും ഞങ്ങളുടെ ഇടപെടലുകൾ യഥാർത്ഥത്തിൽ പ്രക്രിയയുടെ ആ ഭാഗങ്ങളെ ബാധിക്കുന്നു. അതിനാൽ CSAM- ലേക്ക് നയിക്കുന്ന ചക്രങ്ങളെ തടസ്സപ്പെടുത്താൻ ഞങ്ങൾ ശരിക്കും ശ്രമിക്കുന്നു, അത് ഞങ്ങളുടെ സിസ്റ്റം ആത്യന്തികമായി കണ്ടുപിടിക്കും.

"നിയമവിരുദ്ധമായ പ്രവർത്തനങ്ങളിൽ പങ്കെടുക്കാത്ത എല്ലാവർക്കും സ്വകാര്യത നിലനിൽക്കും"

ബുദ്ധിമുട്ടുള്ള വാചകം. ഉപയോക്താക്കളെ ചാരപ്പണി ചെയ്യുന്നതിനായി കമ്പനി ഒരു പിൻവാതിൽ തുറന്നതായി ആരോപിക്കുന്നവർക്കെതിരായ ആപ്പിളിന്റെ നിലപാടിനെ ന്യൂവൻഷ്വാണ്ടർ നിർവ്വചിക്കുകയും പ്രതിരോധിക്കുകയും ചെയ്തു. സുരക്ഷ നിലനിൽക്കുമെന്നും നിയമവിരുദ്ധതയെക്കുറിച്ച് അഭിപ്രായം പറയാത്തവർക്ക് സ്വകാര്യത നിലനിർത്തുമെന്നും സുരക്ഷാ എക്സിക്യൂട്ടീവ് വാദിക്കുന്നു. അതിൽ തെറ്റില്ലെങ്കിൽ വളരെ നല്ലത് എന്നാൽ സിസ്റ്റം അപൂർണ്ണമല്ലെന്ന് ആരാണ് എന്നോട് പറയുന്നത്?

¿ഒരു സർക്കാർ ഈ പുതിയ സംവിധാനത്തിൽ ഇടപെടാൻ ശ്രമിച്ചാൽ ആപ്പിളിനെ വിശ്വസിക്കണം?

തത്വത്തിൽ ഇത് യുഎസിലെ ഐക്ലൗഡ് അക്കൗണ്ടുകൾക്കായി മാത്രമാണ് ആരംഭിക്കുന്നതെന്ന് ന്യൂവൻഷ്വാണ്ടർ മറുപടി നൽകുന്നു, അതിനാൽ പ്രാദേശിക നിയമങ്ങൾ ഇത്തരത്തിലുള്ള കഴിവുകൾ ഫെഡറൽ സർക്കാരിന് വാഗ്ദാനം ചെയ്യുന്നില്ല. ഇപ്പോൾ, യുണൈറ്റഡ് സ്റ്റേറ്റ്സിലെ താമസക്കാർ മാത്രമേ ഈ പരിശോധനയ്ക്ക് വിധേയമാകൂ. എന്നാൽ മറ്റ് രാജ്യങ്ങളിൽ ഇത് അവതരിപ്പിക്കുമ്പോൾ ഭാവിയിൽ എന്ത് സംഭവിക്കുമെന്ന് അദ്ദേഹം ഉത്തരം നൽകുന്നില്ല. ഇതിന് സമയമെടുക്കുമെങ്കിലും, അത് ഓരോരുത്തരുടെയും നിയമങ്ങളെ ആശ്രയിച്ചിരിക്കും. ഓരോ രാജ്യത്തിന്റെയും ക്രിമിനൽ കോഡുകളിൽ വിവരിച്ചിരിക്കുന്ന പെരുമാറ്റം ഒരു കുറ്റകൃത്യത്തിൽ വ്യത്യാസപ്പെട്ടിരിക്കുന്നു, അതിനാൽ ആപ്പിൾ അൽഗോരിതം ഓരോ നിയമ സാഹചര്യത്തിനും അനുസൃതമായിരിക്കണം, അത് എളുപ്പമായിരിക്കരുത്.

ഈ വിഷയത്തിലെ ഏറ്റവും പ്രധാനപ്പെട്ട കാര്യം ഇനിപ്പറയുന്നവയാണ്: ഐക്ലൗഡ് ആണ് പ്രധാനം. ഉപയോക്താക്കൾ iCloud ഫോട്ടോകൾ ഉപയോഗിക്കുന്നില്ലെങ്കിൽ, NeuralHash പ്രവർത്തിക്കില്ല, കൂടാതെ ഒരു നിർദ്ദേശവും സൃഷ്ടിക്കില്ല. ഓപ്പറേറ്റിംഗ് സിസ്റ്റം ഇമേജിന്റെ ഭാഗമായ അറിയപ്പെടുന്ന CSAM ഹാഷുകളുടെ ഡാറ്റാബേസുമായി താരതമ്യപ്പെടുത്തുന്ന ഒരു ന്യൂറൽ ഹാഷ് ആണ് CSAM കണ്ടെത്തൽ. ഐക്ലൗഡ് ഫോട്ടോകൾ ഉപയോഗിക്കുന്നില്ലെങ്കിൽ ഒന്നും പ്രവർത്തിക്കില്ല.

സംശയമില്ലാതെ വിവാദങ്ങൾ. ഒരു നല്ല ഉദ്ദേശ്യം എന്നാൽ ചില വിടവുകളോടെ സ്വകാര്യത ചോദ്യം ചെയ്യപ്പെട്ടതാണെന്ന് നിങ്ങൾ കരുതുന്നുണ്ടോ? രൂപയുടെ?


ലേഖനത്തിന്റെ ഉള്ളടക്കം ഞങ്ങളുടെ തത്ത്വങ്ങൾ പാലിക്കുന്നു എഡിറ്റോറിയൽ എത്തിക്സ്. ഒരു പിശക് റിപ്പോർട്ടുചെയ്യാൻ ക്ലിക്കുചെയ്യുക ഇവിടെ.

അഭിപ്രായമിടുന്ന ആദ്യയാളാകൂ

നിങ്ങളുടെ അഭിപ്രായം ഇടുക

നിങ്ങളുടെ ഇമെയിൽ വിലാസം പ്രസിദ്ധീകരിച്ചു ചെയ്യില്ല.

*

*

  1. ഡാറ്റയുടെ ഉത്തരവാദിത്തം: മിഗുവൽ ഏഞ്ചൽ ഗാറ്റൻ
  2. ഡാറ്റയുടെ ഉദ്ദേശ്യം: സ്പാം നിയന്ത്രിക്കുക, അഭിപ്രായ മാനേജുമെന്റ്.
  3. നിയമസാധുത: നിങ്ങളുടെ സമ്മതം
  4. ഡാറ്റയുടെ ആശയവിനിമയം: നിയമപരമായ ബാധ്യതയല്ലാതെ ഡാറ്റ മൂന്നാം കക്ഷികളുമായി ആശയവിനിമയം നടത്തുകയില്ല.
  5. ഡാറ്റ സംഭരണം: ഒസെന്റസ് നെറ്റ്‌വർക്കുകൾ (ഇയു) ഹോസ്റ്റുചെയ്യുന്ന ഡാറ്റാബേസ്
  6. അവകാശങ്ങൾ: ഏത് സമയത്തും നിങ്ങളുടെ വിവരങ്ങൾ പരിമിതപ്പെടുത്താനും വീണ്ടെടുക്കാനും ഇല്ലാതാക്കാനും കഴിയും.