Mensagem do Gate News, 29 de abril — Modelos da OpenAI executados no Amazon Web Services’ Bedrock irão migrar gradualmente para o Trainium, o chip de IA personalizado da Amazon, de acordo com comentários recentes do CEO da OpenAI, Sam Altman, e de executivos da AWS. Atualmente, os modelos operam em um ambiente misto usando tanto GPUs quanto Trainium, com uma parcela crescente sendo transferida para o Trainium ao longo do tempo. Altman afirmou que a empresa está “ansiosa para levar modelos para o Trainium.”
O executivo da AWS, Garman, reconheceu que o nome do Trainium pode ter sido enganoso, já que o chip foi projetado para treinamento e inferência, sendo que a inferência deve ser o principal caso de uso no futuro. No entanto, Garman enfatizou que a marca do chip é em grande parte irrelevante para a maioria dos clientes, observando que os usuários interagem com a OpenAI por meio de sua interface de API em vez de diretamente com o hardware subjacente. Quando perguntado sobre a integração futura de modelos que não sejam da OpenAI ao Bedrock Managed Agents, Garman recusou-se a fornecer detalhes, afirmando apenas que a AWS está atualmente focada em sua parceria com a OpenAI.
A colaboração destaca a estratégia da AWS de aproveitar seus silícios personalizados para dar suporte a grandes cargas de trabalho de IA em sua plataforma de nuvem.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
Relatório de pesquisa da a16z Crypto: A taxa de exploração de vulnerabilidades de DeFi por agentes de IA atingiu 70%
De acordo com o relatório de pesquisa publicado pela a16z Crypto em 29 de abril, com condições em que os agentes de IA são equipados com conhecimento estruturado do domínio, a taxa de sucesso de reproduzir vulnerabilidades de manipulação do preço do Ethereum atinge 70%; em ambientes de sandbox sem qualquer conhecimento do domínio, a taxa de sucesso é de apenas 10%. O relatório também registrou casos em que agentes de IA, de forma independente, contornaram as restrições do sandbox para acessar informações futuras de transações, e padrões sistemáticos de falha dos agentes ao criar planos de ataque lucrativos em várias etapas.
MarketWhisper23m atrás
Altman: Precificação Baseada em Tokens Ficando Obsoleta à medida que o GPT-5.5 Muda o Foco para Conclusão de Tarefas em vez de Contagem de Tokens
Mensagem do Gate News, 29 de abril — O CEO da OpenAI, Sam Altman, disse em uma entrevista com Ben Thompson na Stratechery que a precificação baseada em tokens não é um modelo viável a longo prazo para serviços de IA. Usando o GPT-5.5 como exemplo, Altman observou que, embora o preço por token seja significativamente mais alto do que o do GPT-5.4, o modelo usa muito menos tokens para concluir a mesma tarefa, o que significa que os clientes não se importam com a contagem de tokens — eles só se importam se a tarefa é concluída e qual é o custo total.
GateNews1h atrás
Modelo Ling-2.6-flash da Ant Group disponibilizado como código aberto: 104B de parâmetros com 7,4B ativos, alcança múltiplos benchmarks SOTA
Mensagem do Gate News, 29 de abril — Os pesos do modelo flash Ling-2.6 da Ant Group agora foram disponibilizados como código aberto, após anteriormente estarem disponíveis apenas via API. O modelo tem 104 bilhões de parâmetros no total, com 7,4 bilhões ativados por inferência, uma janela de contexto de 256K e licenciamento MIT. Versões de precisão BF16, FP8 e INT4
GateNews1h atrás
Sam Altman publica capturas de tela do Codex em dois modos, com as funções de escritório e programação oficialmente separadas
O CEO da OpenAI, Sam Altman, publicou no dia 29 de abril no X uma captura de tela e um comunicado: o Codex está lançando uma nova interface de orientação; ao entrar pela primeira vez, os usuários devem escolher entre dois modos, respectivamente para Excelmogging e Codemaxxing. Os usuários ativos semanais atuais do Codex já ultrapassam 4 milhões, e os casos de uso já se estenderam de geração de código para usos não técnicos.
MarketWhisper1h atrás
O Codex da OpenAI lança interface de dois modos: Excelmogging para trabalho de escritório, Codemaxxing para programação
Mensagem do Gate News, 29 de abril — O CEO da OpenAI, Sam Altman, anunciou hoje no X uma interface do Codex redesenhada, introduzindo dois modos distintos para os usuários. "Excelmogging" mira tarefas comuns do escritório com uma interface simplificada e o slogan "Mesmas ferramentas, interface mais simples," trazendo exemplos de tarefas como
GateNews2h atrás