«The New Yorker» investigação aprofundada: Por que os insiders da OpenAI consideram Altman não confiável?

Artigo: Xiaobing, Deep Tide TechFlow

No outono de 2023, o cientista-chefe da OpenAI, Ilya Sutskever, sentou-se em frente ao computador e concluiu um documento de 70 páginas.

Este documento foi organizado a partir de registos de mensagens do Slack, dossiês de comunicações com RH e atas de reuniões internas, apenas para responder a uma pergunta: Sam Altman, o homem que controla a que poderá ser a tecnologia mais perigosa da história da humanidade, pode, afinal, ser confiável?

A resposta dada por Sutskever, escrita na primeira página do documento, na primeira linha, traz como título de lista: “Sam revela padrões de comportamento consistentemente…”

Primeiro: mentir.

Dois anos e meio depois, hoje, o jornalista investigativo Ronan Farrow e Andrew Marantz publicaram uma reportagem de investigação super longa na “The New Yorker”. Tendo entrevistado mais de 100 pessoas envolvidas, obtiveram memorandos internos que nunca tinham sido divulgados antes, bem como mais de 200 páginas de notas privadas deixadas pelo fundador da Anthropic, Dario Amodei, durante o período dele na OpenAI. A história montada a partir desses documentos é ainda mais feia do que a “intriga palaciana” de 2023: como é que a OpenAI, de uma organização sem fins lucrativos criada para a segurança da humanidade, foi-se transformando, passo a passo, numa máquina comercial, e quase cada um dos seus protetores de segurança foi desmontado pessoalmente, à mão, pela mesma pessoa.

A conclusão de Amodei nas suas notas é mais direta: “O problema da OpenAI é o próprio Sam.”

A definição do “pecado original” da OpenAI

Para compreender o peso desta reportagem, é preciso primeiro explicar o quão especial é esta empresa chamada OpenAI.

Em 2015, Altman e um grupo de talentos de Silicon Valley fizeram algo sem precedentes, quase na história do comércio: usar uma organização sem fins lucrativos para desenvolver a tecnologia potencialmente mais poderosa da história da humanidade. As responsabilidades do conselho de administração estavam escritas de forma muito clara: a prioridade era a segurança, acima do sucesso da empresa, e até acima da sobrevivência da empresa. Dito de forma simples: se um dia a IA da OpenAI se tornar perigosa, o conselho tem a obrigação de encerrar a empresa com as próprias mãos.

Toda a arquitetura assenta num pressuposto: a pessoa que governa a AGI tem de ser extremamente honesta.

E se o palpite falhar?

A bomba central da reportagem é o documento de 70 páginas. Sutskever não faz política de escritório; ele é um dos cientistas de IA mais importantes do mundo. Mas, em 2023, ele ficou cada vez mais convencido de uma coisa: Altman tem estado a contar mentiras de forma contínua a executivos e ao conselho de administração.

Um exemplo concreto: em dezembro de 2022, numa reunião do conselho, Altman garantiu que múltiplas funcionalidades do GPT-4, que estava prestes a ser lançada, já tinham passado por avaliações de segurança. O membro do conselho Toner pediu para ver os documentos de aprovação e, ao verificar, descobriu que duas das funcionalidades mais controversas (afinação personalizada pelo utilizador e implementação de um assistente pessoal) não tinham sequer recebido aprovação do painel de segurança.

O que aconteceu na Índia ainda foi mais absurdo. Um funcionário denunciou a “violação daquela vez” a outro membro do conselho: a Microsoft não tinha concluído as avaliações de segurança necessárias, e lançou antecipadamente uma versão inicial do ChatGPT na Índia.

Sutskever registou ainda, no memorando, outra ocorrência: Altman disse à ex-CTO Mira Murati que o processo de aprovação de segurança não era assim tão importante; o diretor jurídico geral da empresa já tinha reconhecido isso. Murati foi confirmar com o diretor jurídico geral, que respondeu: “Não sei de onde é que Sam tirou essa impressão.”

As notas privadas de 200 páginas de Amodei

O documento de Sutskever parece uma acusação de um procurador. As mais de 200 páginas de notas deixadas por Amodei são mais como um diário escrito por uma testemunha presencial no local do crime.

Nesses anos em que Amodei trabalhou como responsável pela segurança na OpenAI, ele viu, com os próprios olhos, a empresa recuar passo a passo sob pressão comercial. Nas suas notas, ele registou um detalhe-chave do caso de investimento da Microsoft em 2019: ele tinha inserido nos estatutos da OpenAI uma cláusula de “fusão e assistência”; em linhas gerais, se outra empresa encontrasse uma via de AGI mais segura, a OpenAI devia parar de competir e passar a ajudar essa empresa. Esta foi a salvaguarda de segurança que ele mais valorizou em todo o acordo.

Quando o acordo estava quase a ser assinado, Amodei descobriu algo: a Microsoft obteve poder de veto sobre esta cláusula. O que significa isso? Mesmo que, um dia, algum concorrente encontrasse um caminho melhor, a Microsoft poderia, com uma frase, bloquear a obrigação de assistência da OpenAI. A cláusula ainda estava no papel, mas a partir do dia em que se assinou deixou de valer.

Mais tarde, Amodei deixou a OpenAI e fundou a Anthropic. A rivalidade entre as duas empresas assenta, na base, em divergências fundamentais sobre “como a IA deve ser desenvolvida”.

A promessa desaparecida de 20% de capacidade de computação

Há um detalhe na reportagem que arrepia a pele ao ler, sobre a “equipa de alinhamento super” da OpenAI.

Em meados de 2023, Altman contactou por e-mail um estudante de doutoramento na Berkeley a fazer investigação sobre “alinhamento enganador” (a IA finge ser dócil nos testes, mas depois, na implementação, faz o seu próprio esquema). Disse que estava muito preocupado com este assunto e que estava a considerar criar um prémio global de investigação de mil milhões de dólares. O doutorando ficou muito encorajado, interrompeu o curso e entrou na OpenAI.

Depois, Altman mudou de ideias: não iria fazer prémios externos, e sim criar, internamente, uma “equipa de alinhamento super”. A empresa anunciou em tom alto que iria atribuir “20% da capacidade de computação já existente” a esta equipa, com um valor potencial superior a mil milhões de dólares. As palavras do comunicado eram extremamente solenes, dizendo que, se o problema do alinhamento não fosse resolvido, a AGI poderia conduzir a “uma perda de poder para a humanidade, ou mesmo à extinção da humanidade”.

Jan Leike, nomeado para liderar esta equipa, disse posteriormente ao jornalista que a própria promessa era, em si, uma ferramenta de retenção de talentos muito eficaz.

E a realidade? Quatro pessoas que trabalhavam nesta equipa ou que tinham contacto muito próximo disseram que, na prática, a capacidade de computação atribuída era apenas de 1% a 2% da capacidade total da empresa, e ainda por cima usando hardware dos mais antigos. Mais tarde, esta equipa foi desmantelada, sem cumprir a missão.

Quando o repórter pediu para entrevistar pessoas responsáveis pela investigação sobre “segurança existencial” na OpenAI, a reação das relações públicas da empresa fez rir e chorar ao mesmo tempo: “Isso não é algo… que exista de forma real.”

O próprio Altman, contudo, foi tranquilo. Ele disse ao jornalista que a sua “intuição não se encaixa muito com muitas das coisas de segurança tradicionais para IA”, e que a OpenAI ainda iria fazer “projetos de segurança, ou pelo menos projetos que tenham algo a ver com segurança”.

O CFO posto de lado e o IPO que se aproxima

A reportagem da “The New Yorker” é apenas metade das más notícias deste dia. No mesmo dia, a The Information revelou outra notícia de grande impacto: há um sério desentendimento entre o CFO da OpenAI, Sarah Friar, e Altman.

Friar disse em privado aos colegas que não achava que a OpenAI estivesse pronta para abrir capital este ano. Dois motivos: a quantidade de trabalho processual e organizacional a concluir era demasiado grande, e o risco financeiro trazido pelos gastos de capacidade de computação de 600 mil milhões de dólares em 5 anos prometidos por Altman era demasiado alto. Ela chegou a não ter certeza se o crescimento das receitas da OpenAI conseguiria sustentar essas promessas.

Mas Altman quer avançar com o IPO ainda no quarto trimestre deste ano.

Ainda mais extraordinário é que Friar já não reportava diretamente a Altman. A partir de agosto de 2025, passou a reportar a Fidji Simo (CEO da área de aplicações da OpenAI). E Simo tirou baixa por motivos de saúde na semana passada. A ver como fica este cenário: uma empresa a acelerar o IPO, com o CEO e o CFO em desacordo fundamental; o CFO não reporta ao CEO; e o superior do CFO ainda está em baixa.

Até executivos internos da Microsoft não conseguiram ver isso com bons olhos e disseram que Altman “distorceu os factos, deu o dito por não dito, e continuou a desfazer acordos que já tinham sido alcançados”. Um executivo da Microsoft chegou mesmo a dizer: “Sinto que há uma certa probabilidade de, no fim, ele acabar por ser lembrado como um vigarista ao nível de Bernie Madoff ou SBF.”

O retrato de “duas caras” de Altman

Um ex-membro do conselho de administração da OpenAI descreveu ao jornalista duas características que Altman tem. Esta passagem pode ser o retrato mais duro das personagens em toda a reportagem.

O conselheiro disse que Altman tem uma combinação extremamente rara de traços: tem uma ânsia muito forte de agradar o interlocutor e de ser do agrado dele em cada encontro face a face. Ao mesmo tempo, ele tem uma indiferença quase sociopática em relação às consequências que enganar outras pessoas pode trazer.

Ter duas características ao mesmo tempo numa só pessoa é extremamente raro. Mas, para um vendedor, é o talento mais perfeito.

A reportagem usa uma metáfora muito boa: Jobs era conhecido pela “força de distorção da realidade”; ele conseguia fazer o mundo acreditar na sua visão. Mas mesmo Jobs nunca disse aos clientes “se não comprarem o meu leitor de MP3, a pessoa que vocês amam vai morrer”.

Altman já disse algo semelhante, sobre IA.

Um problema de caráter de um CEO, por que é um risco de todos

Se Altman fosse apenas o CEO de uma empresa tecnológica comum, essas acusações, no máximo, seriam um mexerico comercial interessante. Mas a OpenAI não é uma empresa comum.

Pela própria descrição dela, está a desenvolver a tecnologia potencialmente mais poderosa da história da humanidade. Pode remodelar a economia global e os mercados de trabalho (a OpenAI acaba de publicar um white paper de políticas sobre o problema do desemprego causado por IA), e também pode ser usada para fabricar armas biológicas em grande escala ou lançar ataques cibernéticos.

Todas as salvaguardas de segurança ficaram só no nome. A missão não lucrativa dos fundadores cedeu lugar ao sprint para o IPO. Tanto o antigo cientista-chefe como o antigo responsável pela segurança concluíram que o CEO “não é confiável”. Os parceiros comparam o CEO ao SBF. Nestas circunstâncias, com que direito é que este CEO decide unilateralmente quando lançar um modelo de IA que pode mudar o destino da humanidade?

Gary Marcus (professor de IA na New York University e defensor de longa data da segurança em IA) escreveu uma frase depois de ler a reportagem: se algum modelo futuro da OpenAI for capaz de fabricar armas biológicas em grande escala ou lançar ataques cibernéticos catastróficos, confiar na decisão de Altman, sozinho, de publicar ou não… você mesmo está mesmo descansado?

A resposta da OpenAI à “The New Yorker” foi, no entanto, concisa: “A maior parte deste artigo está a revirar eventos já reportados; usando formulações anónimas e anedotas seletivas, as fontes claramente têm objetivos pessoais.”

Uma resposta muito no estilo de Altman: não responde acusações específicas, não nega a autenticidade dos memorandos, apenas põe em causa as motivações.

Da carcaça da entidade sem fins lucrativos nasce uma árvore de dinheiro

Os dez anos da OpenAI, escritos como um plano narrativo, ficariam assim:

Um grupo de idealistas preocupados com os riscos da IA cria uma organização sem fins lucrativos orientada por missão. A organização faz avanços técnicos extraordinários. Os avanços atraem uma enorme massa de capital. O capital exige retorno. A missão começa a ceder lugar. A equipa de segurança é dissolvida. As pessoas que questionam são limpas. A estrutura sem fins lucrativos é transformada numa entidade com fins lucrativos. Antes, tinham o poder de encerrar a empresa; agora está cheia de aliados do CEO. Antes, prometia disponibilizar 20% da capacidade de computação para proteger a segurança da humanidade; agora, os responsáveis pelas relações públicas dizem “isso não é algo que exista de forma real”.

Os protagonistas da história, mais de cem pessoas que viveram isso em primeira mão, deram-lhe o mesmo rótulo: “não submetido à verdade”.

Ele está prestes a levar esta empresa ao IPO, com uma valorização superior a 850 mil milhões de dólares.

As informações deste artigo foram compiladas a partir de reportagens públicas de vários meios de comunicação, incluindo “The New Yorker”, Semafor, Tech Brew, Gizmodo, Business Insider e The Information.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar