A inovação foi lançada em 2021 por pesquisadores do Google Deep-Mind, das universidades de Sydney (Austrália) e Oxford (Reino Unido). Em artigo publicado em Naturezaeles explicam como usaram ferramentas de IA para resolver um problema no campo da teoria dos nós. “Este trabalho foi um verdadeiro avanço porque mostrou que era possível utilizar aprendizado de máquina em matemática fundamental “, lembra Radmila Sazdanovic, pesquisadora da Universidade Estadual da Carolina do Norte (Estados Unidos).
A teoria do nó é uma disciplina que estuda as formas de torcer uma corda. Uma das questões importantes, mas difíceis, é distinguir dois nós: quando você cola as duas pontas da corda, dois nós são diferentes se você não consegue passar de um ao outro sem cortar a corda. Para responder a este tipo de questões, os matemáticos criaram objetos, chamados invariantes de nós, que permitem distingui-los.
“Podemos vê-los como imagens de um nó de diferentes pontos de vista “, sugere Radmila Sazdanovic. Para facilitar os cálculos por vezes complexos dos invariantes e melhor compreendê-los, é interessante saber se existe uma fórmula para passar de um invariante a outro. É para responder a esta questão que em 2021, os investigadores treinaram um Modelo de IA em um banco de dados de mais de 2 milhões de nós com dois invariantes. A missão do computador era então adivinhar um invariante quando fornecido. o outro. O que ele conseguiu.
Se os pesquisadores parassem por aí, teriam a informação de que existe sim uma ligação que une os dois invariantes, o que permite à máquina adivinhar o outro, mas sem dizer mais nada. “A dificuldade é que essas ferramentas são caixas pretas: não sabemos realmente o que elas fazem “, sublinha Geordie Williamson, pesquisador da Universidade de Sydney que participou do estudo. Felizmente, é possível decodificar as escolhas do algoritmo usando uma técnica chamada análise de saliência.
“Imagine que temos uma caixa preta que reconhece imagens de um tigre: podemos ocultar sucessivamente todas as partes das fotos para identificar aquelas que contam para reconhecer o animal. “, ilustra. Com essa técnica, eles conseguiram encontrar uma fórmula ligando os invariantes. “O modelo realmente sugeriu ideias aos matemáticos “, acrescenta Kevin Buzzard, matemático do Imperial College London (Reino Unido). Apesar do sucesso, a adoção dessas ferramentas é tímida na comunidade matemática. “Os matemáticos são bastante conservadores “, ele admite.
No entanto, outros trabalhos surgiram posteriormente. Como pesquisadores do Imperial College London e da Universidade de Nottingham (Reino Unido), que buscaram decifrar uma complicada expressão matemática, chamada período quântico, que é comparável à impressão digital de um certo tipo de formas, as variedades Fano.
A vantagem do aprendizado de máquina é a capacidade de analisar grandes quantidades de dados. Não resolve o problema para o especialista, mas ajuda a compreender melhor os dados, sugere links, gera exemplos ou contra-exemplos, direciona um cálculo de forma astuta, etc.
Os matemáticos estão lá para compreender o feedback do algoritmo, deduzir conjecturas e prová-las. Tendo em mente que “o modelo pode cometer um erro a qualquer momento. Enquanto na matemática ele tem que estar certo o tempo todo “, sublinha Thomas Hubert, pesquisador do Google DeepMind.
Leia tambémPrincipais modelos linguísticos: três iniciativas francesas para mais ética e confiabilidade
O aprendizado por reforço evita erros
Mas podemos estar à beira de um advento completamente diferente: o dos modelos de IA que não cometem erros. E isso se deve ao aprendizado por reforço. Este método envolve fazer a máquina jogar um jogo, recompensando-a quando tiver sucesso. Foi ela quem permitiu que a DeepMind projetasse modelos como o AlphaGo, capazes de vencer os melhores jogadores de Go. Mas os problemas matemáticos também podem ser vistos como jogos.
“Faça uma conjectura: existem hipóteses e o objetivo é mostrar que isso é verdade. O jogo que a máquina fará é encontrar o caminho das hipóteses até o objetivo, explica Sergei Gukov, pesquisador do Instituto de Tecnologia da Califórnia (Estados Unidos). E uma das principais vantagens desta técnica é que quando o modelo resolve uma questão, temos a certeza de que não há erro. “Quando o algoritmo tem sucesso no jogo, o problema está resolvido. Há vários meses, algumas pessoas o utilizam em matemática.
É o caso da DeepMind, que no verão passado apresentou o AlphaProof, um modelo de aprendizagem por reforço baseado no assistente de prova Lean, software que verifica se uma demonstração está correta. A ideia deles é próxima do AlphaGo, mas aqui, em vez de gerar movimentos durante uma partida de Go até a vitória, o programa deles escreve linhas de demonstração até o QED. Essa ideia foi posta à prova em uma competição renomada: as Olimpíadas Internacionais de Matemática, competição aberta a alunos do final do ensino médio. As perguntas feitas exigem muita inteligência e reflexão. Antes da competição, o AlphaProof – assim como os alunos – praticou e ingeriu um grande número de problemas. No dia da competição, o modelo completou três dos seis problemas (embora alguns demorassem até três dias). “Fiquei impressionado. Antes da façanha deles, nunca teria pensado que a IA pudesse ter sucesso em um dos problemas! “, lembra Kevin Buzzard.
Outras equipes usaram a aprendizagem por reforço para resolver problemas de pesquisa abertos. Sergei Gukov e seus colegas testaram contra-exemplos à conjectura de Andrews-Curtis. Este é um problema que muitos acreditam ser falso e vem da teoria dos grupos, campo que estuda conjuntos de objetos com uma estrutura particular. Sem sequer precisar de um corpus de dados de treino, testaram a validade de supostos contra-exemplos a esta conjectura. E mostraram que nada disso invalida a questão. Por enquanto, a conjectura de Andrews-Curtis ainda é válida…
Leia tambémDartmouth, 1956: o nascimento da inteligência artificial
Que um dia chegue aos problemas do milênio
Com estes sucessos, surge a questão: onde está o limite do que a IA pode ou não fazer? “É difícil prever o futuro. Mas acho que estamos explorando mais o que a máquina pode resolver, e não o que ela não pode. “, questiona Geordie Williamson. Outros são mais otimistas: “Dizemos a nós mesmos que não há necessariamente limites para o que a máquina pode fazer “, admite Thomas Hubert. “Talvez se continuarmos neste caminho, um dia possamos chegar aos problemas do milénio. Mas ainda há muito trabalho a ser feito “, Sergei Gukov até projeta.
“Se a máquina ficar tão boa, terei dificuldade em justificar a continuação da pesquisa “, admite Kevin Buzzard. Talvez então caiba aos matemáticos encontrar conjecturas futuras interessantes. E também se aprofundar no raciocínio da máquina: a questão toda não é saber se a conjectura de Riemann é verdadeira ou não, mas sim entender por que isso acontece. Então, mesmo que a máquina envie uma demonstração com milhares de páginas, os matemáticos ainda terão que tentar entendê-la.
Aplicações além da matemática
O uso de ferramentas de IA em matemática não serve apenas para resolver problemas teóricos de longa data. “Assim que tivermos modelos capazes de fazer matemática, as aplicações comerciais seguirão “, anuncia Sergei Gukov, pesquisador do Instituto de Tecnologia da Califórnia (Estados Unidos). A previsão do tempo é um primeiro exemplo dessas aplicações, “porque as equações usadas são tão complexas que não podem ser resolvidas exatamente “, explica Radmila Sazdanovic, pesquisadora da North Carolina State University (Estados Unidos).
Então, a aprendizagem por reforço permite imaginar utilizações em áreas críticas como as finanças. Finalmente, e como um círculo virtuoso, o próprio campo da IA poderia beneficiar. Para criar modelos que possam resolver problemas matemáticos difíceis (como conjecturas abertas), os pesquisadores devem desenvolver novos algoritmos e arquiteturas de redes neurais. O objetivo é criar sistemas capazes de encontrar o longo caminho para a resposta, “e isso é o que é necessário para avançar o nível atual de IA para IA geral“, especifica Sergei Gukov.