O Google atualizou, terça -feira, 4 de fevereiro, seus princípios que regem o desenvolvimento da inteligência artificial (IA), retirando sua promessa de manter as armas e sistemas de vigilância. Em sua postagem no blog listando seus compromissos, a empresa excluiu a seção mencionando o “Aplicativos de IA que o Google não pretende desenvolver”que incluía esses setores.
Os princípios antigos, sempre acessíveis em uma versão arquivada do ticket, estipularam que o Google não desenvolveria aplicativos de IA em várias áreas: “Armas ou outras tecnologias cujo principal objetivo (…) é machucar as pessoas “,, “Tecnologias que coletam ou usam informações para fins de monitoramento de padrões aceitos internacionalmente” E “Tecnologias cujo objetivo viola os princípios amplamente aceitos do direito internacional e dos direitos humanos”.
Agora, apenas a intenção de “Alinhar -se com os objetivos do usuário, a responsabilidade social e os princípios amplamente aceitos do direito internacional e dos direitos humanos”.
Um porta-voz do Google, contatado pela agência da França-Presse, recusou-se a comentar, simplesmente se referindo ao relatório intitulado AI responsávelpublicado terça-feira por James Manyika, vice-presidente da empresa, e Demis Hassabis, chefe da subsidiária do Google DeepMind. “Existe uma competição global pela liderança em IA em uma paisagem geopolítica cada vez mais complexaescreva os dois líderes. E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar uma IA que proteja as pessoas, promove o crescimento global e apoia a segurança nacional. »»
Um ponto de virada em relação aos compromissos de 2018
Os princípios iniciais do Google sobre os usos potenciais de suas tecnologias de inteligência artificial foram publicados em junho de 2018, depois que 3.100 funcionários da empresa pediram para encerrar a participação do grupo no projeto “Maven”, um programa de busca do Pentágono em drones militares. Mais recentemente, os contratos concluíram o Google para fornecer serviços em nuvem aos exércitos americanos e israelenses desencadearam protestos internos, seguidos por demissões.
A mudança de política feita na terça -feira ocorre quando Donald Trump cancelou, desde seu primeiro dia, um decreto tomado por seu antecessor, Joe Biden, supervisionando a segurança em termos de IA. As empresas do setor têm para menos obrigações: elas não precisam mais, por exemplo, para comunicar os resultados dos testes quando seus programas apresentarem “Um risco sério em termos de segurança nacional, segurança econômica nacional ou saúde pública”.
Desde a eleição americana, muitos chefes de tecnologia demonstraram seu apoio ao novo presidente e revisaram alguns de seus compromissos anteriores. Como a reversão do chefe da Meta, Mark Zuckerberg, em políticas de moderação.