A empresa americana Google, conhecida pela sua investigação em técnicas de inteligência artificial, também confirma que está na vanguarda do promissor setor da computação quântica. Na revista britânica Naturezano dia 9 de dezembro, uma de suas equipes demonstrou experimentalmente pela primeira vez que uma previsão teórica, feita há trinta anos e essencial neste campo, está correta. Os computadores quânticos prometem, ao realizar operações de forma diferente dos transistores dos microprocessadores, resolver problemas antes insolúveis ou acelerar certos cálculos. Isto pode tornar possível, por exemplo, quebrar códigos de criptografia, prever interações entre moléculas, acelerar pesquisas sobre materiais, medicamentos, etc.
Eles aproveitam as propriedades da matéria para manipular novos objetos, os qubits, capazes de assumir não os valores clássicos 0 ou 1 da computação clássica, mas de serem ao mesmo tempo 0 e 1. Isso resulta em uma espécie de paralelização de operações, garantindo maior eficiência. Mas fazer esses qubits é complicado. Feitos de grãos de luz, átomos carregados ou minicircuitos eletrônicos, como no Google, esses componentes são frágeis, perdendo suas propriedades intrigantes ao menor golpe de calor, leve tremor ou choque com radiação… Como qualquer microprocessador, eles cometem erros , o que deve ser corrigido. Em 1995, o matemático americano Peter Shor propôs um método para fazer isso, consistindo em cercar um qubit com vários outros qubits, que são interrogados discretamente para verificar se o qubit central foi perturbado. Esse tipo de redundância é análoga à dos protocolos de comunicação, que protegem as informações enviando três bits idênticos, que dificilmente serão modificados simultaneamente.
Esses chamados códigos de “superfície” prevêem que quanto mais qubits corretivos houver em torno do qubit de interesse, menor será a taxa de erro. Inteligente, exceto que se um qubit for frágil, nove, vinte e cinco ou quarenta e nove serão ainda mais frágeis. A menos que a qualidade intrínseca dos qubits ultrapasse um certo limite. Em 2023, o laboratório do Google estava próximo: aumentar o número de qubits de proteção não aumentou a taxa de erro.
Desta vez, os pesquisadores reduziram exponencialmente. Dobrar a proteção reduz pela metade a taxa de erro, caindo para cerca de um em mil. “O anúncio surpreendeu a comunidade em agosto, quando foi colocado online como uma “pré-impressão” [avant revue de l’article par les pairs]»lembra Anthony Leverrier, pesquisador do Instituto Nacional de Pesquisa em Ciências e Tecnologias Digitais (Inria). Mas o Google não se comunicou sobre o assunto na época.
Você ainda tem 51,93% deste artigo para ler. O restante é reservado aos assinantes.