A empresa de Tim Cook está sendo processada nos Estados Unidos por não ter identificado e excluído conteúdo de pornografia infantil no iCloud. As vítimas de abuso sexual cujas agressões sexuais foram transmitidas no serviço de armazenamento da Apple exigem pesadas indemnizações, que podem ir até 1,2 mil milhões de euros.
A Apple está sendo processada nos Estados Unidos por abuso infantil. A marca da maçã é acusada de não proteger vítimas menores de abuso sexual, nomeadamente agressão sexual e violação. A ação foi movida no sábado, 7 de dezembro, no Tribunal Distrital do Norte da Califórnia. O grupo de Tim Cook teria colocado no mercado um produto defeituoso (seu serviço de armazenamento iCloud) que prejudicaria uma categoria de clientes, crianças vítimas de abuso sexual, aprendemos na denúncia cujo New York Times ecoa.
Porque se a empresa de Cupertino criou um sistema de detecção de pornografia infantil que publicitava amplamente, nunca o implementou, lamentam os autores da denúncia. Estes últimos pedem, portanto, à Apple que mude de ideias e que compense um grupo potencial de 2.680 vítimas, segundo um dos advogados envolvidos neste caso, entrevistado pelos nossos colegas. Os danos podem ultrapassar US$ 1,2 bilhão, se o tribunal decidir a favor dos demandantes.
Este caso acrescenta uma pedra ao actual debate que se opõe à protecção da vida privada e à protecção dos menores. Desde o advento da Web, gigantes digitais como Google (YouTube), Apple ou Meta (Facebook, WhatsApp) não são responsáveis pelo conteúdo publicado ou armazenado pelos seus utilizadores.
A Apple prioriza a privacidade de seus usuários
Mas, durante vários anos, este princípio tem sido posto em causa por diferentes razões: a luta contra o terrorismo (especialmente no caso de mensagens encriptadas), o risco de manipulação através de algoritmos e padrões obscuros, e a luta contra a criminalidade infantil.
Se certas regiões adoptaram leis destinadas a responsabilizar estas plataformas em certos casos pelo conteúdo que distribuem, como na Europa com o DMA e talvez em breve o projecto de regulamento CSAR (ou “Controlo de chat” para os seus oponentes, ou seja, controlo de conversas em francês ), este não é o caso nos Estados Unidos. O país ainda não alterou fundamentalmente a sua legislação, mesmo que as linhas começaram a se mover na década de 2010.
Leia também: WhatsApp: suas conversas privadas serão espionadas pela Europa em breve?
Na época, foi criado um software para detectar fotos ilegais (como pornografia infantil), o “PhotoDNA”. Se esta ferramenta acabou por ser adoptada pela Google (YouTube) e pela Meta (Facebook, Instagram, WhatsApp), foi deixada de lado pela Apple que sempre defendeu a primazia da privacidade dos seus utilizadores. Foi somente após uma investigação New York Times de 2019, que mostrou que a Apple era a gigante digital que menos reportava conteúdo de pornografia infantil, que o grupo decidiu agir.
O risco de vigilância generalizada
Em 2020, a empresa de Cupertino está a trabalhar num sistema que lhe permite detectar imagens de pornografia infantil. Mas ela finalmente decidiu abandonar esta ferramenta, especialmente após o alerta dos especialistas em segurança cibernética.
Leia também: Apple explica o abandono de seu projeto de detecção de fotos de pornografia infantil
Estes últimos explicam, de facto, que tal sistema permitiria criar uma porta traseira nos iPhones, permitindo governos para acessá-lo. Perante este risco de vigilância generalizada, a empresa está a reduzir a marcha. Ela explica que é virtualmente impossível digitalizar fotos do iCloud sem “ colocar em risco a segurança e a privacidade de nossos usuários “.
Um argumento retomado na Europa por outras organizações que criticam o projecto de regulamento europeu CSAR. Este texto forçaria as redes e plataformas sociais a analisar todas as mensagens para detectar conteúdos de pornografia infantil: uma tecnologia liberticida que poderia significar o fim da liberdade de expressão online.
Leia também: Obrigar a detecção de conteúdo de pornografia infantil seria tão ineficaz quanto prejudicial, segundo especialistas
A Apple acredita que não é responsável pelo conteúdo armazenado no iCloud
Mas para uma das vítimas de abuso sexual que faz parte da ação legal dos EUA, a Apple simplesmente não respeitou ” sua promessa de proteger vítimas de agressão sexual » cujas imagens circulam no iCloud. Em vez de usar as ferramentas que a Apple criou para identificar, apagar e denunciar este tipo de imagens, permitiu que fossem distribuídas, argumenta ela.
Esta não é a primeira vez que a Apple é atacada por este assunto, mas desta vez, a reclamação pode ter um alcance e impacto significativos, explicam os nossos colegas. Porque se, durante anos, a Apple defendeu a defesa da privacidade dos seus utilizadores, a sua estratégia é cada vez mais criticada. Especialmente porque nos últimos meses, decisões judiciais recentes tornaram, do outro lado do Atlântico, plataformas responsáveis pelas publicações ou mensagens dos seus utilizadores em determinadas situações, explicam os nossos colegas.
Após o anúncio do processo, a Apple respondeu que não era responsável pelo conteúdo armazenado no iCloud por seus usuários. A empresa americana acredita que não pode ser objeto de uma ação de responsabilidade pelo produto, uma vez que o iCloud não seria um produto na acepção da lei americana. Para Fred Sainz, porta-voz da Apple, “ a pornografia infantil é abominável e estamos empenhados em combater a forma como os predadores a distribuem. Estamos inovando de forma urgente e ativa para combater esses crimes sem comprometer a segurança e a privacidade de todos os nossos usuários “.
O debate tão animado na Europa
Se o resultado desta acção judicial puder mudar a situação no país, o debate entre a privacidade e a protecção dos menores também está vivo na Europa. No Velho Continente, o projecto regulamentar europeu CSAM (por Material de abuso sexual infantil) planeja exigir que plataformas digitais, incluindo mensagens criptografadas, detectem e excluam conteúdo de pornografia infantil.
Leia também: Publicidade microdirecionada: para defender o seu projeto de regulamento sobre a proteção de menores (CSAR), a Comissão Europeia foi longe demais?
O suficiente para animar os especialistas em cibersegurança e as associações ou organizações que defendem a privacidade online, que também explicam que exigir tal deteção equivaleria a monitorizar todos os conteúdos trocados através de aplicações ou na Web. O que, segundo este último, poria fim à vida privada e ao sigilo da correspondência online.
Atualmente não há consenso sobre o texto: na sexta-feira, 6 de dezembro, os 27 países da União Europeia não conseguiram chegar a acordo sobre uma posição única. De acordo com Contexto esta segunda-feira, 9 de dezembro, a próxima reunião terá lugar em Bruxelas, no dia 12 de dezembro.
🔴 Para não perder nenhuma novidade da 01net, siga-nos no Google News e WhatsApp.