No último dia 23 de Outubro de 2019, a Google anunciou, através de publicação na conceituadíssima revista Nature, que seus computadores atingiram a supremacia quântica, o que significa, sob certa perspectiva, que superaram de forma disruptiva o desempenho de “supercomputadores convencionais” (por mais estranho que essa junção de palavras possa parecer).

Vale a pena, caro(a) leitor(a), desmistificar alguns conceitos que estão representados neste feito, potencialmente de grande impacto, e trazer consequências práticas para reflexão.

Podemos dizer, de partida, que caso a supremacia quântica seja confirmada, entre outras coisas, conseguiremos manter a Lei de Moore em funcionamento – ou no mínimo “turbiná-la” ao extremo.

A Lei de Moore, conceito estabelecido em 1965 por Gordon Earl Moore, estabelece que o poder de processamento dos computadores (proporcionalmente ao número de transistores dos chips) dobraria a cada 18 meses.

A Lei de Moore nos computadores clássicos, mais dia menos dia, vai atingir um platô de desempenho. No limite, menos que um átomo para cada transistor não é possível, pois não é possível para um mesmo material cindir os seus átomos individuais. Em tese, poder pode, o problema é que aí o material deixa de ser o material original e passa a ser outro, o que ocorre em um reator nuclear, mas isto inviabilizaria a produção de chips do mesmo jeito.

Sendo assim, na pior das hipóteses, um dia teríamos um átomo para cada transistor. Dessa forma, a capacidade de utilizar cada vez menos material para produzir a unidade básica de eletrônica teria se esgotado e a Lei de Moore iria acabar.

Na prática muito antes disso, a Mecânica Quântica, com todo o seu “zoológico” de regras esquisitas, entrará em cena e tornará inúteis os nossos esforços em utilizar menos átomos para fabricar um transistor. Seria como se, a partir de um determinado tamanho, ou quantidade de átomos por transistor, eles começassem a “brincar de esconde-esconde” com as nossas técnicas de fabricação.

Vale lembrar que, na virada para o século XXI, a Intel conseguiu dar um bypass em outra barreira (ainda de física clássica) nos processos de fabricação, através da densidade térmica. Por regras da física, existe uma quantidade padrão de energia que precisa ser gasta para trocar 1 bit de posição. À medida em que mais e mais transistores são colocados dentro da mesma pastilha de silício, mais e mais informação em potencial é processada na mesma pastilha e, por consequência, no mesmo volume de material.

Esta energia é dissipada na forma de calor. E a dissipação ocorre não por volume mas por área, pois literalmente o calor precisa “sair” de dentro da pastilha. Como a geração de calor aumenta por volume (proporcional ao cubo da dimensão linear) e a capacidade de dissipação aumenta por área (proporcional ao quadrado da dimensão linear), ao inserir mais transistores no mesmo volume, aumentamos de forma mais que proporcional a quantidade de calor que temos de dissipar para uma mesma área disponível para tal. Em outras palavras aumentamos a densidade térmica da pastilha.

Sendo assim, a partir de um certo ponto, não adiantava mais aos fabricantes de chips simplesmente inserir mais transistores na mesma pastilha, pois se tentássemos utilizá-los “a todo vapor” a pastilha simplesmente iria derreter por incapacidade do material de dissipar o calor gerado dentro dela.

O bypass foi dado de duas formas: materiais com uma capacidade de condução do calor maior e divisão de tarefas entre as pastilhas (o chamado multicore). Isto deu sobrevida à Lei de Moore pelos últimos 15 a 20 anos.

Estamos agora chegando no ponto em que o desafio será não de física clássica mas de física quântica, como comentamos acima. E este não vai ter jeito, a não ser que consigamos uma forma de fabricar e usar os chips em outro mundo e uma forma de enviar os dados e trazer a informação processada deste outro mundo para o nosso… Em outras palavras, resumidamente no popular, “não vai rolar”.

A menos que… encontremos outra forma de processar as unidades básicas de informação. A forma que temos hoje é a forma dita “clássica” na qual o bit de informação ou se encontra em 0 ou se encontra em 1. Aliás, é por essa essencial razão que o chamamos de “bit” (binary digit, ou dígito binário).

A forma como muitos de nós “nascemos” no mundo da computação está intrinsecamente ligada à “concepção” da representação digital do mundo em 0s e 1s. Toda a Ciência da Computação, nascida da Matemática Aplicada, tem isso como seu alicerce fundamental.

De certa forma a Natureza dá com uma mão e tira com a outra.
Na forma clássica de olhar os bits, iremos encontrar a barreira do nano (a barreira das regras de mecânica quântica). Porém, estas mesmas regras nos falam que, no seu estado fundamental, as partículas têm dois estados 0 ou 1 possíveis de serem observados. Porém, “se não estivermos olhando” (esse conceito por si só merece muitos artigos futuros), as partículas estão simultaneamente no 0 e no 1. Este fenômeno é conhecido como sobreposição quântica de estados.

O que um computador quântico faz é colocar várias partículas para trabalhar em conjunto de forma que n partículas estarão em 2n (dois elevado à potência n) estados simultaneamente. Este outro fenômeno de colocar várias partículas para trabalhar em grupo se chama entrelaçamento quântico.

Sendo assim, um computador quântico faz uso dos fenômenos de sobreposição de estados e entrelaçamento quântico para encontrar uma outra forma de calcular resultados de operações matemáticas. Acaba a dicotomia 0 e 1.

Como o número de estados possíveis cresce em progressão geométrica (exponencial) ao número de partículas, rapidamente temos tantos estados possíveis simultâneos para nosso sistema estar que ele literalmente “escolhe” o resultado ao invés de calculá-lo.

A rigor, ele não “escolhe” o resultado que queremos, mas sim, calcula-o de forma mais eficaz por conta do processo de sobreposição e entrelaçamento, porém na prática você pode pensar que ele “escolhe” o resultado ao invés de calculá-lo.

Um professor de física ou matemática mais rigoroso vai dizer que estamos errados. De certa forma estamos, porém para fins de cálculo do tipo “caixa-preta”, o raciocínio é válido como uma “metáfora útil” (da mesma forma que ao montarmos um circuito elétrico utilizamos simplificações úteis das equações de Maxwell).

Enfim, se o processo de realizar os cálculos por sobreposição e entrelaçamento realmente for possível de ser posto em prática (existem alguns problemas de tecnologia a serem superados), teremos conseguido dar um novo bypass nas regras da natureza.

Assim, a lógica da indústria nos últimos sessenta anos se manterá, Moore continuará certo, e, pois, “não se preocupem, porque o ano que vem os computadores virão mais rápidos e mais baratos”.

O sinal de que conseguimos colocar a mecânica quântica para trabalhar para nós é a tal “supremacia quântica”. É o momento no qual um computador (ainda que no estilo protótipo) que utilize estes dois fenômenos (sobreposição e entrelaçamento) consiga fazer um cálculo em um tempo tal, que um computador clássico, nem com todo o poder de processamento e o tempo do mundo, conseguiria executar.

Se isso realmente acontecer, problemas clássicos da computação, teoremas ainda não resolvidos da Matemática, serão resolvidos em segundos ou minutos, e todo a concepção da segurança da informação através da criptografia terá que ser repensada completamente.

E as Geotecnologias?

Para nós, acostumados com a robustez de processamento e a complexidade de modelos de informação ligados às geotecnologias, turbinadas pelo aumento da quantidade, velocidade e precisão de imagens e dados geográficos (pela chegada dos drones/VANTs, Internet das Coisas, infraestrutura de smart cities, integração GIS e BIM, entre outros), muita coisa vai mudar. O processamento perderá a classificação de exaustivo e ganhará uma dimensão de evolução bem maior. Realidade aumentada, renderização 2D e 3D e análise espacial, normalmente concebidos em tempo de pós-processamento, passarão praticamente a ser processos síncronos. Processos ligados a inteligência artificial, computação gráfica, modelos de simulação e otimização farão parte dessa ultra-evolução disruptiva.

Isso que os cientistas do Google disseram ter atingido esta semana terá um grande impacto na humanidade digital.

Realidade ou Ficção? Nova Revolução Geoespacial? Quem viver verá!

*Gustavo Mirapalheta é professor de Data Science e Big Data da FGV EAESP

**Eduardo de Rezende Francisco é professor de Data Science, GeoAnalytics e Big Data da FGV EAESP e fundador do grupo de estudos GisBI

Imagem: Pixabay