SÃO FRANCISCO: Em uma tarde recente, Tudor Achim fez um quebra-cabeças para um bot de inteligência artificial chamado Aristóteles. A questão envolvia uma tabela 10 por 10 preenchida com cem números. Se você coletasse o menor número em cada linha e o maior número em cada coluna, perguntou ele, o maior dos números pequenos poderia ser maior que o menor dos números grandes? O bot respondeu corretamente “Não”. Mas isso não foi surpreendente. Os chatbots populares também podem dar a resposta certa. A diferença era que Aristóteles provou que a sua resposta estava certa. O bot gerou um programa de computador detalhado que verificou que “Não” era a resposta correta.
Chatbots incluindo ChatGPT e Gemini podem responder perguntas, escrever poesia, resumir artigos de notícias e gerar imagens. Mas também cometem erros que desafiam o bom senso. Às vezes, eles inventam coisas – um fenômeno chamado alucinação.
Achim, CEO e cofundador de uma startup do Vale do Silício chamada Harmonic, faz parte de um esforço crescente para construir um novo tipo de IA que nunca tenha alucinações. Hoje, essa tecnologia está focada em matemática. Mas muitos pesquisadores acreditam que podem estender as mesmas técnicas à programação de computadores e outras áreas. Como a matemática é uma disciplina rígida com formas formais de provar se uma resposta está certa ou errada, empresas como a Harmônico podem construir tecnologias de IA que verificam as suas próprias respostas e aprendem a produzir informações fiáveis.
Alguns pesquisadores acham que podem eventualmente construir um sistema de IA que seja melhor em matemática do que qualquer ser humano. Esse é o objetivo de Achim e de seu cofundador Vlad Tenev. A empresa Harmonic levantou US$ 75 milhões em financiamento da Sequoia Capital e de outros investidores. Outros acreditam que essas técnicas podem se estender ainda mais, levando a sistemas de IA que podem verificar verdades físicas e também matemáticas.
À medida que Aristóteles verifica as suas próprias respostas, torna-se uma forma de gerar enormes quantidades de dados confiáveis que podem ser usados para ensinar sistemas de IA. Os pesquisadores chamam isso de “dados sintéticos” – dados produzidos pela IA que podem ser usados para treinar a IA. Os pesquisadores acreditam que este conceito será uma parte vital do desenvolvimento da IA. Achim e Tenev acreditam que após anos de treinamento, Aristóteles será melhor em matemática do que qualquer ser humano. “Queremos que isso resolva problemas que nunca foram resolvidos”, diz Tenev.