Redação do Site Inovação Tecnológica - 22/03/2005
Um computador quântico em escala real poderá produzir resultados seguros mesmo se seus componentes individuais - os qubits - não funcionarem de forma muito melhor do que os primeiros protótipos de primeira-geração que os pesquisadores estão construindo hoje. Esta é a conclusão do cientista Emanuel Knill, do Laboratório NIST, dos Estados Unidos, que acaba de publicar seu trabalho na revista Nature.
Em teoria, um computador quântico assim poderia quebrar todos os códigos de criptografia atualmente utilizados. Além, é claro, de possibilidades menos assustadoras, como simular sistemas que são complexos demais para os computadores de hoje, como a previsão do tempo.
Uma questão chave para a confiabilidade dos computadores quânticos do futuro é a fragilidade dos estados quânticos. Os computadores de hoje utilizam milhões de transistores que são ligados e desligados para representar os valores 0 e 1. Os computadores quânticos utilizam átomos, por exemplo, como bits quânticos, ou qubits. Os qubits podem ter seu magnetismo ou outras de suas propriedades alteradas para representar 0, 1 ou mesmo os dois estados ao mesmo tempo. Mas esses estados são tão delicados que os valores dos qubits podem ser alterados por ruídos eletromagnéticos mínimos.
Para resolver esse problema, o Dr. Knill sugere a utilização de uma hierarquia de qubits em formato de pirâmide, construída de blocos básicos menores e mais simples do que se planejava até agora. O teletransporte de dados a intervalos pré-determinados poderá ser utilizado para se checar constantemente a precisão dos valores do qubits. O teletransporte de informações entre átomos foi demonstrado no ano passado; cientistas do mesmo laboratório NIST conseguiram transferir propriedades de um átomo para outro sem a utilização de uma conexão física, usando apenas um átomo intermediário.
"Tem havido um hiato tremendo entre a teoria e a experimentação prática na computação quântica," afirmou Knill. "É como se nós estivéssemos projetando os supercomputadores de hoje na era das válvulas, antes da invenção dos transistores. Esse trabalho reduz o hiato, mostrando que construir computadores quânticos pode ser mais fácil do que nós pensávamos. Entretanto, ainda será necessário muito trabalho para se construir um computador quântico útil."
O uso da arquitetura de Knill poderá levar à computação confiável mesmo se as operações lógicas individuais tiverem até 3 por cento de erros - isso é centenas de vezes mais do que os cientistas têm estabelecido como como uma margem de erro aceitável. E um nível que já foi atingido com qubits baseados em íons, ou átomos eletricamente carregados.
Mas o modelo proposto pelo cientista é baseado em cálculos e simulações. A nova arquitetura, que se baseia fundamentalmente em uma série de procedimentos simples de checagens constantes da precisão de blocos de qubits, precisa ainda ser validada por provas matemáticas ou ser testada em laboratório.
Para atingir probabilidades de erro relativamente baixas em longos cálculos, por exemplo, 36 qubits deverão ser processados em três níveis para que se alcance um par correto. Somente a camada superior, a mais precisa, será efetivamente utilizada no cálculo. Quanto maior o número de níveis, mais preciso será o cálculo.
Os métodos de detecção e correção de erros do Dr. Knill baseiam-se integralmente no teletransporte. Esse mecanismo permite aos cientistas medirem como os erros afetaram o valor de um qubit, ao mesmo tempo que transferem a informação armazenada para outros qubits ainda não perturbados por erros. As propriedades do qubit original poderão ser transportadas para outro qubit ao mesmo tempo em que o qubit original é medido.
A nova arquitetura permite um balanceamento entre as taxas de erro e os recursos de computação exigidos. Para tolerar taxas de 3 por cento em componentes individuais, serão necessárias grandes quantidades de equipamentos e tempo de processamento, devido, principalmente, ao "overhead" representado pela correção de erros. Mas se poderá operar com menos recursos se as taxas de erros dos componentes individuais puderem ser reduzidas.