Apple, in arrivo un software contro la pedopornografia

Tra applausi e preoccupazioni, Apple ha annunciato l’arrivo di un nuovo software per iPhone, negli Stati Uniti, per scansionare i dispositivi alla ricerca di immagini pedopornografiche.

Lo strumento, chiamato “neuralMatch“, è progettato per riuscire a scansionare le immagini prima che vengano caricate dagli utenti su iCloud. Se in fase di scansione il software dovesse trovare una corrispondenza con quanto cercato, il secondo step sarebbe affidato non più da un’intelligenza artificiale, ma da una persona. Se la pornografia infantile, durante il secondo passaggio, dovesse essere confermata, l’account del soggetto verrebbe immediatamente disabilitato. Ma non solo. Perché sarebbe subito avvisato anche il National Center of Missing and Exploited Children.

Il tema della privacy

La notizia, che sta velocemente facendo il giro del mondo, è stata accolta dagli applausi dei gruppi di protezione infantile che lottano contro la pedopornografia. Esiste però, chiaramente, anche l’altra “faccia della medaglia”. Infatti, la notizia del nuovo software Apple ha sollevato diversi dubbi e preoccupazioni relativi alla privacy degli utenti. Alcuni ricercatori hanno sottolineato come il sistema, pensato a fin di bene, potrebbe essere utilizzato da altri Governi che cercano, impropriamente, di sorvegliare i loro cittadini.

Il New York Times ha riportato il parere di Matthew Green, ricercatore esperto di crittografia della Jonhs Hopkins University. Il sistema, secondo lo studioso, potrebbe essere utilizzato per incastrare persone innocenti. Questo potrebbe avvenire in un modo molto semplice: inviando immagini, apparentemente innocue, progettate per innescare le corrispondenze con quelle rintracciate e segnalata del software Apple.

Apple ha fatto si che le persone si fidassero dei suoi dispositivi. Ma ora stanno fondamentalmente capitolando alle peggiori richiesti possibili da parte di ogni Governo. Non vedo come faranno a dire di no da qui in avanti” ha spiegato Green.

Apple, in questo modo, si trova a dover bilanciare il suo operato tra la repressione del fenomeno della pedopornografia e il mantenimento del suo impegno in tema di privacy per i suoi utenti. “Questa è uno scioccante voltafaccia per tutti coloro che hanno fatto affidamento sulla leadership della società in materia di privacy e sicurezza“. A dirlo è la Electronic Frontier Foundation, organizzazione internazionale no profit impegnata nella tutela dei diritti digitali.

Il potenziale “salvavita” e la risposta di Apple su tema della privacy

Se da una parte il tema della privacy preoccupa i ricercatori, dall’altra il software annunciato da Apple potrebbe rappresentare un vero e proprio “salvavita” per tantissimi bambini. “La protezione estesta per i bambini è un camio di gioco. Con così tante persone che usano prodotti Apple, queste nuove misure di sicurezza hanno un potenziale salvavita per i bambini”. A dirlo al New York Times è John Clark, presidente e CEO del National Center of Missing and Exploited Children.

L’azienda di Cupertino, dal canto suo, ha fatto sapere che nessuna delle funzioni compromettere la privacy e la sicurezza dei suoi utenti. Oltre al software, secondo quanto emerso, l’azienda andrà ad implementare anche la sua app di messaggistica, rendendola capace di apprendere automaticamente quali siano le foto pericolose e offuscare materiali non appropriati sui telefoni dei più piccoli. Inoltre, i genitori potrebbe essere anche avvertiti del materiale sospetto presente sul telefono anche tramite degli SMS. Inoltre, il software interverrà anche nel momento in cui gli utenti cercheranno argomenti legati alla pedopornografia.

Per fare tutto ciò, i genitori dei soggetti fino a 13 anni dovranno iscrivere i loro figli. Gli over 13, però, potranno anche disiscriversi autonomamente dal servizio e, in questo modo, i genitori non riceveranno le notifiche in merito a materiale potenzialmente pericoloso.

Impostazioni privacy