Apples barnevernplaner synes nesten ingen å like

CS

Apple besluttet ensidig å foreslå et system for å beskytte barn (CSAM). Hvordan? Gjennom en automatisk inspeksjon av bildene lastet opp til iCloud. På den måten er det kjent om det er et bilde på sin plass og som skader disse spedbarnene. Nyhetene har ikke likt nesten noen. Det er et brudd på brukerens personvern. Men det kan sies at målet rettferdiggjør midlene? Ikke engang EFF vil at denne Apple -ideen skal fortsette.

Mange foreninger, inkludert EFF, ønsker ikke at denne ideen om Apple på CSAM skal fortsette

Apples mål er å få folk til å føle trygge og styrket gjennom teknologi. "Vi ønsker å hjelpe til med å beskytte barn mot rovdyr som bruker kommunikasjonsverktøy for å rekruttere og utnytte dem, og begrense spredningen av materiale for seksuelt misbruk av barn (CSAM). Derfor introduserer Apple nye barnesikringsfunksjoner på tre områder: 

  1. Mayor foreldrekontroll
  2. Gjennom maskinlæring av Meldinger-appen. Advarsel om konfidensielt innhold
  3. Apple får informasjon om CSAM -samlinger på ICloud Photos som du vil dele med myndighetene.

Det er her de største problemene oppstår. Apple skal være paradigmet for personvern både offline og online. Men med disse nye metodene er det klart at målet for det amerikanske selskapet rettferdiggjør midlene. Brukernes personvern er invadert av hensyn til barnevernet. Jeg vet ikke om det er en god eller en dårlig idé. Men det som ser ut til å ha en prisverdig slutt, Det begynner å bli en prøvelse for Apple.

For øyeblikket stoppes initiativet, fordi det skal implementeres senere, men det mest underliggende problemet er at det er mange selskaper, organisasjoner og privatpersoner som gråter. Her kan vi tenke at hvis "vi ikke har noe å skjule, skal vi ikke frykte denne teknikken fordi de aldri vil finne noe." Men frykten som gir er at han blir forvirret og finner noe han ikke er. Maskinene er gode, men ikke idiotsikre. Og vi går også tilbake til det vanlige spørsmålet. Slutten rettferdiggjør midlene ?.

En av organisasjonene som erklærer seg imot dette initiativet fra Apple er Electronic Frontier Foundation (EFF). Det har bedt Apple om å slutte helt med sitt barnesikkerhetsprosjekt. Gruppen sier at det er "heldig" at Apples trekk er satt på vent for nå. Men han kaller planene, som inkluderer skanning av brukerbilder for barnemishandlingsmateriale (CSAM), "en nedgang i personvernet for alle iCloud Photos -brukere." EFF -begjæringen mot Apples originale annonse inneholder nå mer enn 25.000 50.000 signaturer. En annen, startet av grupper som Fight for the Future og OpenMedia, inneholder mer enn XNUMX XNUMX.

Mange er menneskene som har signert mot dette initiativet. Det er kanskje ikke et betydelig antall sammenlignet med Apples salg av enheter, men de er nok til å ta hensyn til posisjonen og tilnærmingen. Noen eksperter har advart om at funksjonen kan utvides til å finne annet materiale senere hvis Apple bøyer seg for det uunngåelige presset fra regjeringer.

EFF er glad for at Apple nå lytter til bekymringene til kunder, forskere, sivile frihetsorganisasjoner, menneskerettighetsaktivister, LHBTQ -personer, ungdomsrepresentanter og andre grupper, om farene som er forbundet med telefonens skanneverktøy. Men selskapet må gå utover bare å lytte, og forlate planene om å sette en bakdør på krypteringen helt. Funksjonene som Apple kunngjorde for en måned siden, som skulle hjelpe til med å beskytte barn, ville skape en infrastruktur som er for lett å omdirigere til økt overvåking og sensur. Tiltakene ville skape en enorm trussel mot personvern og sikkerhet av Apple -brukere, og tilbyr autoritære regjeringer et nytt masseovervåkingssystem for å spionere på borgere.

Vi vil følge med til denne kampen for personvern kontra sikkerhet. To grunnleggende verdier og rettigheter står ansikt til ansikt.


Kjøp et domene
Du er interessert i:
Hemmelighetene til vellykket lansering av nettstedet ditt

Legg igjen kommentaren

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

*

*

  1. Ansvarlig for dataene: Miguel Ángel Gatón
  2. Formålet med dataene: Kontroller SPAM, kommentaradministrasjon.
  3. Legitimering: Ditt samtykke
  4. Kommunikasjon av dataene: Dataene vil ikke bli kommunisert til tredjeparter bortsett fra ved juridisk forpliktelse.
  5. Datalagring: Database vert for Occentus Networks (EU)
  6. Rettigheter: Når som helst kan du begrense, gjenopprette og slette informasjonen din.