*Importante* lançamento de IA de código aberto hoje. Pode a América vencer a corrida da Open AI? Minha conversa com @natolambert e @soldni da @allen_ai sobre o lançamento do Olmo 3 00:00 – Abertura Fria 00:39 – Boas-vindas & o grande anúncio de hoje 01:18 – Apresentando a família de modelos Olmo 3 02:07 – O que são realmente os "modelos base" (e por que eles importam) 05:51 – Dolma 3: os dados por trás do Olmo 3 08:06 – Desempenho vs Qwen, Gemma, DeepSeek 10:28 – O que significa verdadeiro código aberto (e por que é raro) 12:51 – Checkpoints intermediários, transparência e por que a AI2 publica tudo 16:37 – Por que Qwen está em toda parte (incluindo startups dos EUA) 18:31 – Por que laboratórios chineses vão para o código aberto (e por que laboratórios dos EUA não vão) 20:28 – Dentro do ATOM: a resposta dos EUA ao aumento dos modelos da China 22:13 – A ascensão dos "modelos de pensamento" e escalonamento em tempo de inferência 35:58 – O pipeline completo do Olmo, explicado de forma simples 46:52 – Pré-treinamento: dados, escala e evitando picos catastróficos 50:27 – Treinamento intermediário (ajuste de cauda) e evitando vazamento de testes 52:06 – Por que o treinamento de longo contexto importa 55:28 – SFT: construindo a base para raciocínio 1:04:53 – Ajuste de preferências & por que DPO ainda funciona 1:10:51 – A parte difícil: RLVR, cadeias de raciocínio longas e dor de infraestrutura 1:13:59 – Por que RL é tão tecnicamente brutal 1:18:17 – Imposto de complexidade vs hype de AGI 1:21:58 – Como todos podem contribuir para o futuro da IA 1:27:26 – Considerações finais
... corrida de IA **open source**, d'oh 🤦‍♂️
332