Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Å bygge @EurekaLabsAI. Tidligere direktør for AI @ Tesla, grunnleggerteam @ OpenAI, CS231n/PhD @ Stanford. Jeg liker å trene store dype nevrale nett.
Jeg har aldri følt meg så langt bak som programmerer. Yrket blir dramatisk omstrukturert ettersom bitene programmereren bidrar med blir stadig sjeldnere. Jeg har en følelse av at jeg kunne vært ti ganger kraftigere hvis jeg bare satte sammen det som har blitt tilgjengelig det siste ~året, og en manglende evne til å kreve boosten føles tydelig som et ferdighetsproblem. Det finnes et nytt programmerbart abstraksjonslag å mestre (i tillegg til de vanlige lagene under) som involverer agenter, underagenter, deres prompts, kontekster, minne, moduser, tillatelser, verktøy, plugins, ferdigheter, kroker, MCP, LSP, slash-kommandoer, arbeidsflyter, IDE-integrasjoner, og et behov for å bygge en altomfattende mental modell for styrker og fallgruver ved fundamentalt stokastisk, feilbarlig, uforståelig og skiftende enheter plutselig blandet med det som pleide å være god gammeldags ingeniørkunst. Det er tydelig at et kraftig utenomjordisk verktøy ble delt rundt, bortsett fra at det ikke har noen manual og alle må finne ut hvordan de skal holde det og bruke det, mens det resulterende jordskjelvet med styrke 9 ryster yrket. Brett opp ermene for å ikke falle bakpå.
254
Jeg elsker uttrykket «mat til ettertanke» som en konkret, mystisk kognitiv evne mennesker opplever, men som LLM-er ikke har noe tilsvarende for.
Definisjon: "noe verdt å tenke på eller vurdere, som et mentalt måltid som nærer sinnet ditt med ideer, innsikter eller problemer som krever dypere refleksjon. Den brukes til temaer som utfordrer ditt perspektiv, gir ny forståelse, eller får deg til å gruble over viktige spørsmål, og fungerer som intellektuell stimulans.»
Så i LLM-språk er det en sekvens av tokens slik at når de brukes som prompt for tankekjeden, er prøvene belønnende å ta seg av, via en ennå uoppdaget iboende belønningsfunksjon. Besatt av hvilken form det tar. Noe å tenke på.
318
Raskt nytt innlegg: Automatisk gradering av ti år gamle Hacker News-diskusjoner med etterpåklokskap
Jeg tok hele 930-forsideartikkelen i Hacker News + diskusjon fra desember 2015 og ba GPT 5.1 Thinking API om å gjøre en etterpåklok analyse for å identifisere de mest og minst forutseende kommentarene. Dette tok ~3 timer å vibe code og ~1 time og 60 dollar å kjøre. Ideen ble vekket av HN-artikkelen i går hvor Gemini 3 ble bedt om å hallusinere HN-forsiden ett tiår senere.
Mer generelt:
1. Etterpåklokskapsanalyse har alltid fascinert meg som en måte å trene din fremoverprediksjonsmodell på, så det å lese resultatene er virkelig interessant og
2. Det er verdt å tenke på hvordan det ser ut når LLM-megahoder i fremtiden kan gjøre denne typen arbeid mye billigere, raskere og bedre. Hver eneste informasjon du bidrar med på internett kan (og vil sannsynligvis bli) gransket i detalj hvis den er «gratis». Derfor også min tidligere tweet fra en stund tilbake – «vær snill, fremtidige LLM-er følger med».
Gratulerer til topp 10-kontoene pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth og johncolanduoni - GPT 5.1 Thinking fant kommentarene dine til de mest innsiktsfulle og forutseende av alle kommentarer fra HN i desember 2015.
Koblinger:
- Mye mer detaljer i blogginnlegget mitt
- GitHub-repo av prosjektet hvis du vil spille
- De faktiske resultatsidene for din leseglede glede

859
Topp
Rangering
Favoritter
