Yoshua Bengio, pioneiro do aprendizado profundo, falou sobre seus temores quanto ao futuro da inteligência artificial. Reconhecido como um dos fundadores da IA, ele está preocupado com os abusos e com a concentração de poder nas mãos de poucos.
Cada vez mais especialistas em inteligência artificial temem possíveis abusos e apelam a um quadro regulamentar mais rigoroso. Isso inclui Yoshua Bengio, um dos fundadores da IA. Tal como Geoffrey Hinton, com quem recebeu o Prémio Turing em 2018 pelo seu trabalho em inteligência artificial, assinou um comunicado de imprensa nesse sentido em setembro.
Em entrevista com CNBCYoshua Bengio deu mais detalhes sobre seus medos, ligados em particular à inteligência artificial geral (AGI), uma versão da IA capaz de competir com os humanos e que poderá surgir nos próximos anos. “ A inteligência dá poder. Quem controlará esse poder? ele pergunta. Ter sistemas que sabem mais do que a maioria das pessoas pode ser perigoso nas mãos erradas e criar mais instabilidade geopolítica, por exemplo, ou terrorismo “.
Máquinas muito caras que levam a uma concentração de poder
As máquinas necessárias para treinar a IA são muito caras e apenas um número limitado de governos e organizações terá os meios para construí-las. Para ele, isso terá ramificações significativas. “ Haverá uma concentração de poder: poder económico, que pode ser prejudicial aos mercados; poder político, que pode ser prejudicial à democracia; e poder militar, que pode ser prejudicial à estabilidade geopolítica do nosso Planeta “. Ele acredita que se a humanidade tiver várias décadas pela frente, será possível encontrar um equilíbrio. Porém, se o IAG chegar em cinco anos, não estaremos preparados.
No curto prazo, ele se preocupa com a desinformação e a sua influência na política e nas opiniões. Em outubro, a OpenAI interrompeu nomeadamente mais de 20 operações de desinformação utilizando os seus modelos, nomeadamente o que gerou publicações falsas para redes sociaisredes sociaisantes das eleições nos Estados Unidos e no Ruanda. Em última análise, segundo ele, é urgente pensar num marco regulatório. Se as empresas que desenvolvem IA souberem que podem ser processadas, com uma penalização financeira significativa, trabalharão no interesse público. Caso contrário, eles perseguirão os seus próprios interesses.