Entrevista com o fundador da DeepMind: Arquitetura de AGI, estado atual do Agente e as próximas descobertas científicas na próxima década

Título original do vídeo: Demis Hassabis: Agentes, AGI & A Próxima Grande Descoberta Científica

Fonte original do vídeo: Y Combinator
Tradução original: Deep潮 TechFlow

Introdução do editor

CEO do DeepMind do Google, vencedor do Nobel de Química Demis Hassabis, participou do Y Combinator, falando sobre quais avanços-chave ainda são necessários para alcançar a AGI, dando conselhos aos empreendedores sobre como manter a liderança, e onde pode surgir a próxima grande descoberta científica.

A avaliação mais prática para empreendedores de deep tech é que, se você iniciar um projeto de deep tech com prazo de dez anos hoje, deve incluir a chegada da AGI no seu planejamento. Além disso, ele revelou que a Isomorphic Labs (empresa de farmacêutica de IA que se separou do DeepMind) terá novidades importantes em breve.

Citações essenciais

Rota e cronograma da AGI

·「As componentes tecnológicas existentes quase certamente farão parte da arquitetura final da AGI.」

·「Aprendizado contínuo, raciocínio de longo prazo, alguns aspectos da memória ainda não estão resolvidos; a AGI precisa de tudo isso resolvido.」

·「Se sua linha do tempo para a AGI for por volta de 2030, como a minha, e você começou um projeto de deep tech hoje, deve considerar que a AGI pode surgir no meio do caminho.」

Memória e janela de contexto

·「A janela de contexto é aproximadamente equivalente à memória de trabalho. A memória de trabalho humana tem em média sete dígitos, enquanto nós temos janelas de contexto de milhões ou até dezenas de milhões de tokens. Mas o problema é que colocamos tudo lá dentro, incluindo informações irrelevantes ou erradas, o que é uma abordagem bastante grosseira atualmente.」

·「Se quisermos processar streams de vídeo em tempo real e armazenar todos os tokens, um milhão de tokens é suficiente para cerca de 20 minutos.」

Defeitos do raciocínio

·「Gosto de usar o Gemini para jogar xadrez. Às vezes ele percebe que uma jogada é ruim, mas não consegue encontrar uma alternativa melhor, então dá uma volta e faz a jogada ruim mesmo assim. Um sistema de raciocínio preciso não deveria cometer esse tipo de erro.」

·「Ele consegue resolver questões de nível de medalha de ouro na IMO, mas ao reformular a pergunta, comete erros de matemática básica de escola primária. Parece que falta algo na introspecção do seu próprio processo de pensamento.」

Agente e criatividade

·「Para alcançar a AGI, você precisa de um sistema que possa resolver problemas de forma proativa por você. Agent é o caminho, e acho que estamos apenas começando.」

·「Ainda não vi alguém usando vibe coding para criar um jogo AAA que domine as paradas de aplicativos. Com o esforço atual, isso é possível, mas ainda não aconteceu. Isso indica que falta alguma coisa nas ferramentas ou nos processos.」

Destilação e modelos pequenos

·「Nossa hipótese é que, após o lançamento de um modelo Pro de ponta, sua capacidade pode ser comprimida em um modelo muito pequeno, capaz de rodar em dispositivos de borda, em cerca de seis meses a um ano. Ainda não atingimos o limite teórico de densidade de informação.」

Descobertas científicas e o “Teste Einstein”

·「Às vezes chamo de ‘Teste Einstein’, ou seja, se é possível treinar um sistema com o conhecimento de 1901 e fazê-lo derivar de forma independente os resultados de Einstein de 1905, incluindo a relatividade restrita. Se conseguir, esses sistemas estão próximos de inventar algo totalmente novo.」

·「Resolver um problema do Millennium Prize já é uma conquista, mas mais difícil ainda é propor um novo conjunto de problemas do Millennium Prize que sejam considerados profundos e dignos de uma pesquisa de uma vida por matemáticos de ponta.」

Conselhos para empreendedores de deep tech

·「Perseguir problemas difíceis e problemas simples é, na prática, bastante parecido, só que de formas diferentes. A vida é curta, então é melhor investir energia naquelas coisas que, se você não fizer, ninguém fará.」

Caminho para a realização da AGI

Gary Tan: Você pensa sobre a AGI há quase mais tempo que todos. Com o paradigma atual, quanto da arquitetura final da AGI você acha que já temos? O que está fundamentalmente faltando agora?

Demis Hassabis: Grande escala de pré-treinamento, RLHF, cadeia de raciocínio, tenho certeza de que farão parte da arquitetura final da AGI. Essas tecnologias já provaram muita coisa até hoje. Não consigo imaginar que, daqui a dois anos, descobriremos que esse caminho é sem saída. Para mim, isso não faz sentido. Mas, além do que já temos, talvez falte uma ou duas coisas. Aprendizado contínuo, raciocínio de longo prazo, alguns aspectos da memória ainda não estão resolvidos.

A AGI precisa de tudo isso resolvido. Talvez as tecnologias atuais, com algumas inovações graduais, possam chegar lá, mas também pode faltar um ou dois pontos-chave que precisam ser rompidos. Não acho que sejam mais de um ou dois. Minha avaliação é que a probabilidade de existirem esses pontos críticos ainda não resolvidos é de uns 50/50. Então, na DeepMind, estamos avançando em duas frentes.

Gary Tan: Tenho lidado com muitos sistemas de agentes, e o que mais me surpreende é que, na base, eles usam os mesmos pesos repetidamente. Então, o conceito de aprendizado contínuo é muito interessante, porque atualmente estamos basicamente colando as coisas com fita, como aqueles ciclos de “sonho noturno”, por exemplo.

Demis Hassabis: Sim, esses ciclos de sonho são bem legais. Já pensamos nisso na integração da memória situacional. Meu doutorado foi sobre como o hipocampo integra novas informações de forma elegante ao sistema de conhecimento existente. O cérebro faz isso muito bem.

Ele faz esse processo durante o sono, especialmente no sono REM, onde repassa experiências importantes para aprender com elas. Nosso primeiro programa de Atari, o DQN (DeepMind, 2013, a primeira rede Q profunda usando reforço para alcançar nível humano em jogos de Atari), conseguiu dominar jogos de Atari principalmente por meio de experiência de replay.

Isso veio da neurociência, de repetir o caminho de sucesso várias vezes. Era 2013, na época, considerado antigo na IA, mas foi fundamental.

Concordo com você, de fato estamos colando as coisas com fita. Colocamos tudo na janela de contexto. Isso não parece ideal. Mesmo que façamos isso com máquinas, não com cérebros biológicos, teoricamente poderíamos ter janelas de contexto de milhões ou dezenas de milhões de tokens, e memória perfeita, mas o custo de busca e recuperação ainda existe. Em momentos de decisão concreta, encontrar informações realmente relevantes não é simples, mesmo que tudo esteja armazenado. Então, vejo um grande espaço para inovação na área de memória.

Gary Tan: Honestamente, uma janela de contexto de um milhão de tokens já é maior do que eu esperava, e dá para fazer muita coisa.

Demis Hassabis: Para a maioria dos cenários, sim, é suficiente. Mas pense: a janela de contexto é aproximadamente equivalente à memória de trabalho. A memória de trabalho humana tem em média sete dígitos, enquanto nossa janela de contexto pode chegar a milhões ou dezenas de milhões de tokens. O problema é que colocamos tudo lá dentro, incluindo informações irrelevantes ou erradas, o que é uma abordagem bastante grosseira. E, se você quiser processar streams de vídeo em tempo real, simplesmente armazenar tudo, um milhão de tokens, só dá para cerca de 20 minutos. Mas, se você quer que o sistema entenda sua vida de um ou dois meses, ainda está longe de ser suficiente.

Gary Tan: DeepMind sempre investiu pesado em reforço e busca. Essa filosofia está profundamente embutida na construção do Gemini? O reforço ainda é subestimado?

Demis Hassabis: Talvez sim, ainda subestimado. Essa área tem altos e baixos. Desde o primeiro dia, na DeepMind, trabalhamos com sistemas de agentes. Todo o trabalho em Atari e AlphaGo, na essência, é de agentes de reforço, capazes de alcançar objetivos, tomar decisões, planejar. Claro, começamos no domínio de jogos, por ser mais controlável, e depois evoluímos para jogos mais complexos, como AlphaGo, AlphaStar, e assim por diante.

A questão agora é: podemos generalizar esses modelos para criar modelos de mundo ou de linguagem, além de apenas jogos? Nos últimos anos, temos trabalhado nisso. Hoje, o modo de pensar e o raciocínio em cadeia de todos os modelos líderes é, na essência, uma retomada do que o AlphaGo começou.

Acredito que muito do que fizemos na época está altamente relacionado ao que fazemos hoje. Estamos revisitando essas ideias antigas, usando maior escala, de forma mais geral, incluindo métodos como busca em árvore de Monte Carlo e outras técnicas de reforço. Os conceitos de AlphaGo e AlphaZero estão extremamente ligados aos modelos de base atuais, e acho que grande parte do progresso nos próximos anos virá daí.

Destilação e modelos pequenos

Gary Tan: Agora, para sermos mais inteligentes, precisamos de modelos maiores, mas a destilação também evolui, e modelos menores podem ficar bastante rápidos. Seus modelos Flash são muito bons, atingem cerca de 95% do desempenho dos modelos de ponta, mas custam só uma décima parte. É isso mesmo?

Demis Hassabis: Acho que essa é uma das nossas principais vantagens. Você precisa primeiro criar o maior modelo para alcançar capacidades de ponta. Uma das nossas maiores forças é que conseguimos rapidamente destilar e comprimir essas capacidades em modelos cada vez menores. A destilação foi uma invenção nossa, e ainda somos líderes mundiais nisso. Além disso, temos forte motivação de negócios para fazer isso. Somos provavelmente a maior plataforma de aplicações de IA do mundo.

Com AI Overviews, AI Mode, e Gemini, hoje, todos os produtos do Google — mapas, YouTube, etc. — estão integrando Gemini ou tecnologias relacionadas. Isso envolve bilhões de usuários e dezenas de produtos com bilhões de usuários. Eles precisam de alta velocidade, eficiência, baixo custo e baixa latência. Isso nos motiva a otimizar ao máximo os modelos Flash e Flash-Lite, para que sejam extremamente eficientes, e espero que isso também beneficie os usuários em suas tarefas diárias.

Gary Tan: Tenho curiosidade até que ponto esses modelos pequenos podem ser realmente inteligentes. A destilação tem limites? Modelos de 50B ou 400B podem ser tão inteligentes quanto os maiores modelos de ponta de hoje?

Demis Hassabis: Não acho que tenhamos atingido o limite teórico de informação ainda, pelo menos ninguém sabe se isso existe. Talvez algum dia encontremos um teto de densidade de informação, mas atualmente nossa hipótese é que, após o lançamento de um modelo Pro de ponta, sua capacidade pode ser comprimida em um modelo muito pequeno, capaz de rodar em dispositivos de borda, em cerca de seis meses a um ano.

Você também pode ver isso no modelo Gemma, onde o Gemma 4, na mesma escala, apresenta desempenho muito forte. Isso envolve muita destilação e otimizações de eficiência de modelos pequenos. Então, realmente, não vejo limites teóricos, estamos longe disso.

Gary Tan: Hoje, há uma disparidade enorme: engenheiros conseguem fazer em seis meses o trabalho que, há 6 meses, levaria 500 a 1000 vezes mais. Algumas pessoas aqui estão fazendo o trabalho de um engenheiro do Google dos anos 2000, mil vezes mais rápido. Steve Yegge já comentou isso.

Demis Hassabis: Acho isso empolgante. Modelos pequenos têm muitas aplicações. Um deles é o custo baixo e a velocidade, que trazem benefícios. Em tarefas como codificação, você consegue iterar mais rápido, especialmente ao colaborar com sistemas. Sistemas rápidos, mesmo que não sejam os mais avançados — digamos, com 90% a 95% do desempenho de ponta —, já são suficientes, e a velocidade de iteração compensa muito mais do que esses 5% a menos.

Outro grande benefício é rodar esses modelos em dispositivos de borda, não só por eficiência, mas por privacidade e segurança. Pense em dispositivos que lidam com informações altamente pessoais, ou em robôs domésticos. Você vai querer que eles rodem localmente um modelo eficiente e potente, deixando tarefas mais pesadas para a nuvem só quando necessário. Processar áudio e vídeo localmente, manter os dados na própria borda, pode ser o estado final ideal.

Memória e raciocínio

Gary Tan: Voltando à memória e ao contexto. Os modelos atuais são sem estado. Se eles tiverem aprendizado contínuo, como será a experiência do desenvolvedor? Como você orientaria esses modelos?

Demis Hassabis: Essa é uma questão muito interessante. A falta de aprendizado contínuo é uma grande limitação atual dos agentes. Os agentes atuais são úteis em partes específicas de uma tarefa, mas não conseguem se adaptar bem ao ambiente em que estão. Essa é a razão de ainda não poderem simplesmente “deixar de lado” após uma ação; eles precisam aprender o cenário específico. Para alcançar uma inteligência geral completa, esse problema precisa ser resolvido.

Gary Tan: E quanto ao raciocínio? Como estão as coisas? Os sistemas atuais têm uma cadeia de raciocínio forte, mas ainda cometem erros que um estudante de graduação não cometeria. O que precisa mudar? Quais avanços você espera?

Demis Hassabis: Ainda há muito espaço para inovação na forma de pensar. O que fazemos hoje é bastante rudimentar, bastante bruto. Há muitas melhorias possíveis, como monitorar o processo de raciocínio, fazer intervenções durante o pensamento. Acho que, de alguma forma, nossos sistemas e os concorrentes tendem a pensar demais, entrando em ciclos.

Gosto de usar o Gemini para jogar xadrez como exemplo. Todos os modelos de base avançados são ruins em xadrez, o que é interessante.

Observar seus trajetos de raciocínio é valioso, porque xadrez é um domínio bem compreendido. Posso rapidamente perceber se o sistema está se desviando ou se o raciocínio é válido. O que vemos é que às vezes ele considera uma jogada ruim, percebe que é ruim, mas não consegue encontrar uma alternativa melhor, então dá uma volta e faz a jogada ruim mesmo assim. Um sistema de raciocínio preciso não deveria cometer esse tipo de erro.

Essa grande lacuna ainda existe, mas consertá-la pode exigir apenas um ou dois ajustes. Por isso, você vê o que chamam de “inteligência dentada” (jagged intelligence): um lado consegue resolver problemas de nível de medalha de ouro na IMO, mas, ao reformular a pergunta, comete erros de matemática básica. Parece que falta algo na introspecção do próprio raciocínio.

Capacidade real do agente

Gary Tan: Agent é um tema amplo. Algumas pessoas dizem que é só hype. Eu acho que estamos apenas começando. Na sua avaliação, qual é a capacidade real dos agentes, e qual a diferença entre o que vocês fazem e o que a publicidade diz?

Demis Hassabis: Concordo, estamos só começando. Para alcançar a AGI, você precisa de um sistema que possa resolver problemas de forma proativa por você. Essa sempre foi nossa visão. Agent é o caminho, e acho que estamos apenas no começo.

Estamos explorando como fazer o Agent colaborar melhor no trabalho. Temos muitas experiências pessoais nesse sentido, e acho que muitos aqui também. Como integrar o Agent ao fluxo de trabalho, fazer com que ele não seja só um complemento, mas uma parte fundamental? Ainda estamos na fase de experimentação. Talvez nos últimos dois ou três meses tenhamos começado a encontrar cenários realmente valiosos. A tecnologia já atingiu um ponto em que não é mais só uma demonstração de brinquedo, mas algo que realmente traz valor para seu tempo e sua eficiência.

Vejo muitas pessoas iniciando dezenas de agentes e deixando-os rodar por horas, mas ainda não tenho certeza se o resultado justifica o esforço.

Ainda não vimos alguém usando vibe coding para criar um jogo AAA que domine as paradas de aplicativos. Eu mesmo já criei alguns protótipos, e muitos aqui também. Consigo fazer um protótipo de “Theme Park” em meia hora, quando, aos 17 anos, levei seis meses para fazer o mesmo.

Tenho a sensação de que, se alguém dedicar um verão inteiro, pode criar algo realmente incrível. Mas ainda assim, é preciso talento, criatividade e bom gosto humanos. Você precisa incorporar esses elementos em qualquer produto que construa. Na verdade, nenhum pequeno estúdio conseguiu vender um jogo de sucesso de mais de um milhão de cópias até hoje, e, com as ferramentas atuais, isso deveria ser possível. Então, falta alguma coisa, talvez nos processos ou nas ferramentas. Espero ver resultados assim nos próximos 6 a 12 meses.

Gary Tan: Em que medida tudo isso será totalmente automatizado? Acho que não será de cara, será um caminho gradual. Primeiro, as pessoas aqui vão alcançar 1000 vezes mais eficiência, e depois aparecerá alguém usando essas ferramentas para criar aplicativos ou jogos de sucesso, e só então mais etapas serão automatizadas.

Demis Hassabis: Exatamente, é isso que você deve esperar primeiro.

Gary Tan: Também há quem já esteja fazendo isso, mas reluta em admitir o quanto o Agent ajudou.

Demis Hassabis: Pode ser. Mas quero falar sobre criatividade. Sempre uso o AlphaGo como exemplo, especialmente a jogada 37 da segunda partida. Para mim, esse momento foi um divisor de águas, e foi por isso que comecei projetos como o AlphaFold. Voltando de Seul, começamos a trabalhar no AlphaFold no dia seguinte, há dez anos. Fui a Coreia para celebrar o décimo aniversário do AlphaGo.

Mas só fazer a jogada 37 não é suficiente. É impressionante, útil, mas será que esse sistema consegue inventar o próprio jogo de Go? Se você der uma descrição de alto nível, como “um jogo que um aprendiz de cinco minutos consegue aprender, mas que uma vida inteira não consegue dominar, com estética elegante, que pode ser jogado em uma tarde”, e o sistema responde que é o Go, aí sim, estamos perto de uma verdadeira invenção. Hoje, os sistemas não conseguem fazer isso.

Gary Tan: Talvez alguém na sala consiga.

Demis Hassabis: Se alguém conseguir, a resposta não será que o sistema está faltando alguma coisa, mas que a nossa forma de usar o sistema está errada. Talvez essa seja a resposta certa. Talvez os sistemas atuais já tenham essa capacidade, só que precisam de um criador genial para impulsioná-los, dar alma ao projeto, e esse criador precisa estar altamente integrado às ferramentas, quase uma extensão delas. Se você passar o dia inteiro usando essas ferramentas e tiver criatividade profunda, talvez consiga criar algo além da sua imaginação.

Open source e modelos multimodais

Gary Tan: Mudando de assunto, sobre open source. O lançamento do Gemma permitiu que modelos muito poderosos rodem localmente. Como você vê isso? A IA vai se tornar algo que o usuário controla, e não só na nuvem? Isso mudará quem pode construir produtos com esses modelos?

Demis Hassabis: Somos apoiadores firmes de open source e ciência aberta. O AlphaFold foi totalmente disponibilizado de graça. Nosso trabalho científico continua sendo publicado em periódicos de ponta. Quanto ao Gemma, queremos criar modelos líderes de mercado na mesma escala. Já tivemos cerca de 40 milhões de downloads do Gemma em duas semanas e meia desde o lançamento.

Acho importante que exista uma forte presença de tecnologias ocidentais no open source. Os modelos chineses são excelentes e lideram na área, mas acreditamos que o Gemma é altamente competitivo na mesma escala.

Para nós, há um problema de recursos: ninguém tem capacidade de computação sobrando para treinar dois modelos de ponta ao mesmo tempo. Nossa decisão atual é usar modelos de borda para Android, óculos, robôs, etc., preferencialmente como modelos abertos, porque uma vez implantados nos dispositivos, eles ficam expostos. Melhor abrir tudo de uma vez. Temos uma estratégia de abertura unificada em nível nanométrico, que faz sentido na estratégia geral.

Gary Tan: Antes de você, mostrei um sistema de IA que criei, com comando de voz para interagir com o Gemini. Ainda estou nervoso, mas funcionou. O Gemini foi construído desde o começo como multimodal. Já usei muitos modelos, mas a interação por voz com capacidade de usar ferramentas e compreensão de contexto, até agora, nenhum se compara ao Gemini.

Demis Hassabis: Exato. Uma vantagem do Gemini que ainda não foi totalmente reconhecida é que desde o início foi construído de forma multimodal. Isso torna o começo mais difícil do que só fazer texto, mas acreditamos que, a longo prazo, isso trará grandes benefícios, e já estamos começando a colher frutos.

Por exemplo, no campo de modelos de mundo, construímos o Genie (modelo de ambiente de interação generativa da DeepMind) sobre o Gemini. No setor de robótica, o Gemini Robotics será baseado em modelos multimodais, e nossa vantagem nessa área se tornará uma barreira de entrada. Também estamos usando cada vez mais o Gemini no Waymo (empresa de direção autônoma do Alphabet).

Imagine um assistente digital que acompanha você no mundo real, talvez no seu celular ou óculos, que precisa entender o ambiente físico ao seu redor. Nosso sistema é muito forte nisso. Continuaremos investindo nessa direção, e acredito que nossa vantagem competitiva nesse campo é grande.

Gary Tan: O custo do raciocínio está caindo rapidamente. Quando o raciocínio se tornar quase gratuito, o que será possível? Sua equipe vai mudar o foco de otimização?

Demis Hassabis: Não tenho certeza de que o raciocínio será realmente gratuito, pois a paradoxa de Jevons (que aumento de eficiência leva ao aumento do consumo total) ainda existe. Acho que, no final, todo mundo vai usar toda a capacidade computacional disponível.

Podemos imaginar grupos de milhões de agentes colaborando, ou um pequeno grupo de agentes pensando em várias direções ao mesmo tempo e integrando os resultados. Estamos experimentando essas possibilidades, e tudo isso consumirá recursos de raciocínio.

Na área de energia, se resolvermos problemas como fusão nuclear controlada, supercondutividade em temperatura ambiente, ou baterias de alta eficiência, acredito que, por meio de avanços em materiais, poderemos chegar a custos de energia quase zero. Mas, na fabricação de chips, ainda há gargalos físicos, pelo menos nas próximas décadas. Portanto, o limite de capacidade de raciocínio continuará existindo, e será preciso usar esses recursos de forma eficiente.

Próxima grande descoberta científica

Gary Tan: Feliz que modelos menores estão ficando mais inteligentes. Muitos fundadores de biotecnologia e ciências da vida estão na sala. O AlphaFold 3 já superou proteínas e agora se estende a moléculas biológicas mais amplas. Quanto falta para modelar sistemas celulares completos? Isso é uma questão de dificuldade totalmente diferente?

Demis Hassabis: O progresso da Isomorphic Labs tem sido excelente. O AlphaFold é apenas uma etapa no processo de descoberta de medicamentos. Estamos trabalhando em pesquisa bioquímica relacionada, como projetar compostos com propriedades corretas, e em breve teremos anúncios importantes.

Nosso objetivo final é criar uma célula virtual completa, um simulador de célula funcional que possa ser perturbado e que produza resultados próximos aos experimentais, com aplicações práticas. Você poderá pular muitas etapas de busca, gerar dados sintéticos em grande quantidade para treinar outros modelos, e fazer previsões sobre o comportamento de células reais.

Acredito que levará cerca de dez anos para criar uma célula virtual completa. Começamos pelo núcleo celular, que é relativamente autossuficiente. O segredo é dividir o problema em partes de complexidade adequada, que sejam auto-contidas, e focar nesses subsistemas. O núcleo celular é um bom ponto de partida.

Outro problema é a escassez de dados. Conversei com top cientistas de microscopia eletrônica e outras técnicas de imagem. Se pudermos fazer imagens de células vivas sem matá-las, isso seria revolucionário, pois transformaria o problema em uma questão de visão, que já sabemos como resolver.

Porém, até onde sei, ainda não há tecnologia capaz de fazer imagens de células vivas em resolução nanométrica sem destruí-las. Conseguimos imagens estáticas de alta resolução, o que já é muito avançado, mas não suficiente para transformar o problema em uma questão de visão.

Existem duas abordagens: uma é hardware e coleta de dados, a outra é construir simuladores mais avançados para modelar esses sistemas dinâmicos.

Gary Tan: Você não só olha para biologia. Materiais, descoberta de medicamentos, clima, matemática — se tivesse que fazer uma classificação, quais áreas serão mais transformadas nos próximos cinco anos?

Demis Hassabis: Cada área é empolgante, e é por isso que minha maior paixão é a ciência. Desde que comecei na IA, há mais de 30 anos, sempre a vi como a ferramenta definitiva para avançar na compreensão científica, na descoberta, na medicina e na nossa compreensão do universo.

Nossa missão, inicialmente, era em duas etapas: primeiro, resolver a inteligência, construir a AGI; segundo, usar essa inteligência para resolver todos os outros problemas. Depois, ajustamos a formulação, porque alguém perguntou se realmente pretendíamos resolver todos os problemas.

E a resposta é sim, é exatamente isso. Agora, as pessoas começam a entender o que isso significa. Especificamente, quero dizer que estamos focados em resolver o que chamo de “problemas de raiz” na ciência, aqueles que, uma vez resolvidos, desbloqueiam novas áreas de descoberta. O AlphaFold é um protótipo do que queremos fazer.

Mais de três milhões de pesquisadores no mundo usam o AlphaFold, quase todos os biólogos. Ouvi de executivos de farmacêuticas que, no futuro, quase todos os medicamentos serão descobertos usando o AlphaFold em alguma etapa. Nos orgulhamos disso, é o impacto que esperamos da IA. Mas acho que isso é só o começo.

Não consigo imaginar uma área científica ou de engenharia que a IA não possa ajudar. As áreas que você mencionou estão na fase “AlphaFold 1”, com resultados promissores, mas ainda sem o grande desafio. Nos próximos dois anos, veremos avanços em materiais, matemática, e muitas outras áreas.

Gary Tan: Parece uma espécie de Prometeu, dando à humanidade uma nova capacidade.

Demis Hassabis: Exatamente. Como na história de Prometeu, também precisamos ser cautelosos com o uso dessa capacidade, onde ela será aplicada, e com o risco de uso indevido das mesmas ferramentas.

Experiências de sucesso

Gary Tan: Muitos aqui tentam fundar empresas que usam IA na ciência. Na sua opinião, qual a diferença entre startups de ponta e aquelas que só colocam uma camada de API em modelos básicos, se autodenominando “IA para Ciência”?

Demis Hassabis: Estou pensando aqui, se estivesse no seu lugar, assistindo ao Y Combinator, como eu agiria. Uma coisa é prever a direção da IA, o que já é difícil. Mas acredito que há uma grande oportunidade em cruzar IA com outro campo de deep tech. Essa interseção, seja de materiais, medicina ou outras ciências difíceis, especialmente envolvendo o mundo atômico, não terá atalhos nos próximos anos. Essas áreas não serão dominadas por uma atualização de modelo de base. Se você quer uma direção defensiva, essa é a minha recomendação.

Sempre gostei de deep tech. Coisas duradouras e valiosas não vêm facilmente. Desde 2010, quando começamos, a IA era deep tech — investidores diziam “isso não vai dar certo”, a academia achava que era uma moda fracassada dos anos 90.

Mas, se você acredita na sua ideia — por que ela será diferente desta vez? Qual sua combinação única de background? Idealmente, você é um especialista em aprendizado de máquina e aplicações, ou consegue montar uma equipe fundadora assim. Nesse caso, há um impacto e valor enormes a serem criados.

Gary Tan: Essa informação é muito importante. Uma coisa que funciona parece óbvia depois, mas antes de acontecer, todo mundo duvida.

Demis Hassabis: Claro, por isso você precisa fazer o que realmente te apaixona. Para mim, é IA, e sempre foi. Decidi isso na infância, e até hoje acho que é a coisa mais impactante que posso fazer. E tem se mostrado assim, embora talvez tenha sido prematuro ou até tarde demais, talvez 50 anos adiantado.

E também é o que acho mais divertido. Mesmo que hoje ainda estejamos em um pequeno porão, e a IA ainda não esteja pronta, continuarei tentando. Talvez volte para a academia, mas encontrarei uma forma de seguir em frente.

Gary Tan: AlphaFold é um exemplo de uma aposta certa, de um caminho que deu certo. O que faz um campo científico ser propício a uma inovação como AlphaFold? Existe algum padrão, como uma função objetivo específica?

Demis Hassabis: Preciso escrever isso algum dia. Das experiências com AlphaGo, AlphaFold e outros projetos Alpha, aprendi que nossos métodos funcionam melhor quando:

Primeiro, o problema tem um espaço de busca combinatória enorme, quanto maior, melhor — maior que qualquer força bruta ou algoritmo especial. O espaço de jogadas de xadrez e a conformação de proteínas ultrapassam o número de átomos do universo. Segundo, é importante definir claramente a função objetivo, como minimizar energia livre de proteínas ou ganhar uma partida de Go, para que o sistema possa fazer otimização por gradiente. Terceiro, é preciso de dados suficientes ou de um simulador capaz de gerar uma grande quantidade de dados sintéticos dentro da distribuição.

Se esses três fatores estiverem presentes, as técnicas atuais podem avançar bastante, encontrando a “agulha no palheiro”. A descoberta de medicamentos funciona com a mesma lógica: há uma molécula que pode tratar uma doença sem efeitos colaterais, e o que falta é uma busca eficiente, que respeite as leis físicas. AlphaFold mostrou que esses sistemas podem explorar vastos espaços de busca para encontrar essas agulhas.

Gary Tan: Quero elevar o nível. Estamos falando que os humanos usam esses métodos para criar o AlphaFold, mas há também um meta, que é usar IA para explorar hipóteses possíveis. Quanto falta para que sistemas de IA possam fazer raciocínio científico de verdade — e não só encontrar padrões nos dados?

Demis Hassabis: Acho que estamos bem próximos. Estamos desenvolvendo sistemas generalistas. Temos um chamado AI co-scientist, e algoritmos como o AlphaEvolve, que vão além do Gemini. Todos os laboratórios de ponta estão explorando essa direção.

Porém, até agora, não vi uma descoberta científica realmente importante feita por esses sistemas. Acho que está chegando a hora. Pode estar relacionada à criatividade, a uma ruptura de fronteiras conhecidas. Quando isso acontecer, não será mais só reconhecimento de padrões, porque não haverá padrões a reconhecer. Será uma espécie de raciocínio por analogia, que esses sistemas ainda não possuem, ou que ainda não sabemos usar corretamente.

Um padrão que uso na ciência é: o sistema consegue propor uma hipótese realmente interessante, e não só testar uma hipótese existente. Porque testar uma hipótese também pode ser uma grande conquista — como provar a hipótese de Riemann ou resolver um problema do Millennium. Mas talvez estejamos a poucos anos de fazer isso de verdade.

Mais difícil ainda é propor um novo conjunto de problemas do Millennium que sejam considerados profundos e dignos de uma pesquisa de uma vida por matemáticos de ponta. Acho que isso é um nível acima, e ainda não sabemos como fazer. Mas não acho que seja magia. Acredito que esses sistemas podem fazer isso, talvez só precisem de uma ou duas melhorias.

Um método de avaliação que proponho é o chamado “Teste Einstein”: treinar um sistema com o conhecimento de 1901 e ver se ele consegue derivar, de forma independente, as descobertas de Einstein de 1905, incluindo a relatividade restrita. Acho que devemos realmente fazer esse teste, repetir várias vezes, até conseguir. Quando isso acontecer, esses sistemas estarão próximos de inventar algo totalmente novo.

Recomendações para empreendedores


Gary Tan: Uma última questão. Muitos aqui querem criar empresas de deep tech como vocês. Vocês são uma das maiores organizações de pesquisa em IA do mundo. Como alguém que já esteve na linha de frente da pesquisa de AGI, há algo que você sabe agora e gostaria de ter sabido aos 25 anos?

Demis Hassabis: Já conversamos um pouco sobre isso. Você percebe que perseguir problemas difíceis e problemas simples é, na prática, bastante semelhante, só que de formas diferentes. Cada um tem suas dificuldades. A vida é curta, então é melhor dedicar sua energia àquelas coisas que, se você não fizer, ninguém fará. Use esse critério para escolher.

Outro ponto é que, nos próximos anos, a combinação de diferentes áreas será mais comum. IA vai facilitar a integração entre elas.

Por fim, depende da sua linha do tempo para a AGI. A minha é por volta de 2030. Se você começar um projeto de deep tech hoje, geralmente é uma jornada de dez anos. Então, deve incluir no planejamento a chegada da AGI no meio do caminho. O que isso significa? Não necessariamente algo ruim, mas você precisa pensar nisso. Seu projeto pode se beneficiar da AGI? Como ela vai interagir com seu projeto?

Voltando ao exemplo do AlphaFold e de sistemas de IA geral, posso imaginar que sistemas como Gemini, Claude ou similares usarão sistemas especializados como o AlphaFold como ferramentas, acessando-os via API. Não acho que faremos tudo em um único sistema gigante.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar