Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
Non aver paura della grandezza
Sholto Douglas (Anthropic):
"Negli ultimi anni, l'RL ci ha finalmente permesso di prendere un ciclo di feedback e trasformarlo in un modello che è almeno buono quanto i migliori esseri umani in un dato campo in un dominio ristretto. E lo stai vedendo con la matematica e il codice di competizione, che sono i due domini più adatti a questo - dove rapidamente i modelli stanno diventando incredibilmente competenti matematici di competizione e programmatori di competizione.
Non c'è nulla di intrinsecamente diverso tra il codice di competizione e la matematica. È solo che sono davvero [più] adatti all'RL rispetto a qualsiasi altro dominio. Ma, cosa importante, dimostrano che non c'è un tetto intellettuale sui modelli. Sono capaci di fare ragionamenti davvero difficili dato il giusto ciclo di feedback. Quindi, pensiamo che lo stesso approccio si generalizzi a praticamente tutti gli altri domini dell'impegno intellettuale umano dove, dato il giusto ciclo di feedback, questi modelli diventeranno almeno buoni quanto i migliori esseri umani in un dato campo. E poi, una volta che hai qualcosa che è almeno buono quanto i migliori esseri umani in un campo, puoi semplicemente farne funzionare 1.000 in parallelo o 100 volte più velocemente e hai qualcosa che, anche solo con quella condizione, è sostanzialmente più intelligente di qualsiasi essere umano. E questo ignora completamente se sia possibile creare qualcosa che sia più intelligente di un essere umano.
Le implicazioni di questo sono piuttosto sbalorditive, giusto? Nei prossimi 2 o 3 anni, dato il giusto ciclo di feedback, dato il giusto calcolo, ecc., pensiamo che noi come industria dell'AI nel suo complesso siamo sulla buona strada per creare qualcosa che sia almeno capace quanto la maggior parte degli esseri umani nella maggior parte dei compiti legati ai computer, possibilmente buono quanto molti dei nostri migliori scienziati nei loro campi. Sarà affilato e spigoloso, ci saranno esempi di cose che non può [fare]. Ma il mondo cambierà.
... Penso che valga la pena gridare dai tetti un po' - ragazzi, qualsiasi cosa possiamo misurare sembra migliorare davvero rapidamente. Dove ci porterà questo tra 2 o 3 anni? Non posso dirlo con certezza. Ma penso che valga la pena costruire nelle visioni del mondo che c'è una possibilità piuttosto seria che otteniamo l'AGI."
106,15K
Probabilmente, lo sviluppo più sorprendente nell'AI per me negli ultimi 6 mesi è che GPT-5 Pro e persino GPT-5 Thinking possono fare piccole scoperte scientifiche nuove.
Ricordiamo che questi sono modelli che pensano per meno di 40 minuti e non sono affatto avanzati come i modelli multi-agente di OpenAI non ancora rilasciati (di cui sappiamo che possono lavorare autonomamente per ore).
È abbastanza facile capire perché OpenAI abbia deciso di lanciare ora l'iniziativa "OpenAI for Science", presumibilmente solo poche settimane prima che il modello che ha vinto l'oro all'IMO, IOI e all'ICPC diventi disponibile al pubblico. Tempi entusiasmanti!

Sam Altman1 ott, 10:41
sembra davvero che questo stia iniziando a succedere (in piccoli modi)
138,19K
Principali
Ranking
Preferiti