• Microsoft anuncia mais um avanço na computação quântica e aproxima tecnologia do ‘mundo real’

  • Continua após o anúncio
  • Continua após o anúncio
  • 13/abr 07:01
    Por Guilherme Guerra / Estadão

    A computação quântica avançou mais um pouco rumo às aplicações práticas no mundo real. Considerada essencial para destravar formas mais rápidas e poderosas de processamento de cálculos em computadores, a tecnologia tem sido alvo das principais companhias do setor nos últimos anos, como IBM e Google. Desta vez, mais uma empresa anunciou sua contribuição para a área.

    No início de abril, a Microsoft revelou que desenvolveu um sistema de computação quântico com o menor número de erros já registrado até então. O sistema de virtualização de qubit (unidade de processamento quântica) da empresa, unido ao hardware da startup Quantinuum’s, permitiu rodar 14 mil experimentos quânticos sem um único erro, diz o anúncio.

    Qubit é a menor unidade de processamento das máquinas desse tipo, assim como o bit é a menor unidade de processamento de computadores clássicos. A diferença é que, na computação clássica, o bit expressa apenas dois estados: 0 ou 1. Já na computação quântica, o qubit pode expressar, simultaneamente, os infinitos estados entre 0 e 1, o que, em tese, garante a superioridade computacional dessa tecnologia.

    Para viabilizar esse tipo de computação, o principal desafio da área é contornar a alta instabilidade dos qubits, que causa erros e inviabiliza soluções de grandes problemas. Os processadores quânticos atuais apresentam taxas de erro entre 1 em 100 e 1 em 10 mil. O Google estima que, para ter uma máquina funcional, as taxas de erro precisariam ser entre 1 em 1 milhão e 1 em 1 bilhão.

    Uma maneira de solucionar esse problema é a criação de qubits lógicos, que consistem em diversos qubits físicos comprimidos em uma única unidade de processamento, o que permite dissolver os erros no sistema. Na nova unidade, cada qubit lógico equivale a mil qubits físicos. No entanto, para que uma máquina consiga processar operações completas, são necessários milhões de qubits físicos, algo inviável no momento.

    A Microsoft afirma que a estratégia da empresa é mesclar a virtualização dos qubits com os qubits físicos. Para a empresa, é importante que as máquinas demonstrem “resiliência a erros” e confiabilidade, para que possam ser utilizadas no mundo real por indústrias farmacêuticas. O feito da semana passada soluciona isso, diz a empresa.

    Com essa mescla de qubits físicos e virtuais, a gigante da tecnologia afirma que houve uma melhora de 800 vezes em relação às taxas de erros de qubits físicos apenas. Segundo a Microsoft, isso tira a empresa do “nível 1? de computação quântica fundamental para o “nível 2?, com computação quântica resiliente.

    “Esse é o primeiro sistema com quatro qubits lógicos que melhora a taxa de erro lógica em relação à física em uma ordem de magnitude tão grande”, diz a empresa. “Esse é um marco crucial em nosso caminho para a criação de um sistema de supercomputação híbrido que pode transformar a pesquisa e a inovação em muitos setores.”

    A expectativa da Microsoft é que um supercomputador híbrido com 100 qubits lógicos confiáveis possa ser utilizado para pesquisas científica. Já com intuito comercial, a máquina deve ser escalada para perto de mil qubits lógicos confiáveis.

    Corrida na computação quântica

    No final de 2023, a IBM anunciou um novo chip de 1.121 qubits funcionais, feito inédito na área da computação quântica. Em 2022, apresentou um chip de 433 qubits e, em 2021, de 127 qubits. Em 2020, a companhia afirmou que deve produzir um computador quântico funcional até o final desta década.

    Em 2019, o Google havia atingido a “supremacia quântica”: um dos computadores quânticos da empresa realizou uma operação matemática impossível de ser feita por uma máquina clássica (que opera em sistema numérico binário, de 0 e 1). Com a computação quântica, cujos bits quânticos (qubits) podem assumir estados entre 0 e 1 (chamado de superposição e que aumenta a quantidade de informação processada num computador), a máquina do Google foi capaz de solucionar em 3 minutos e 20 segundos uma operação matemática que demoraria 10 mil anos para ser solucionada na forma máquina tradicional.

    À época, a IBM contestou os resultados do Google, dizendo ter chegado a um modelo que solucionaria em dois dias e meio o problema em seu computador clássico Summit. A crítica principal é a de que o modelo usado pelo Google para estimar o cálculo de 10 mil anos para a solução do problema numa máquina clássica é exagerado.

    Últimas