Ik was altijd in de war over waarom zoveel mensen zich druk maken om LLM's zoals Cursor en ChatGPT die af en toe hallucineren of fouten maken. Ze zijn magische superanalisten ... dus wat maakt het uit als ze een paar fouten maken. Ik vind dat basis kwaliteitscontrole, triangulatie en bruggen bouwen je kunnen helpen deze fouten te vinden. Ik heb een paar banen in private equity gehad voordat ik bij Theia kwam, waar kwaliteitscontrole (d.w.z. ervoor zorgen dat het model van de associate niet kapot was) een groot deel van de rol was. Nieuwe analisten maken veel fouten. Mijn favoriete zin (om 2 uur 's nachts) was "goed werk, maar elk enkel getal op deze pagina is fout." Ik vond dit vervelend en saai, maar het was een absoluut cruciaal onderdeel van de baan. Ik had dit nooit eerder als een vaardigheid beschouwd, maar ik merk dat ik het elke dag gebruik met LLM's. Ik denk eigenlijk niet dat de LLM's helemaal zullen stoppen met het maken van fouten, dus dit is nu een kernvaardigheid voor jou. Ik heb een paar van de beste technieken voor kwaliteitscontrole gevonden — 1. Gewoon het model / de code doorbladeren. Je leert op deze manier veel fouten te vinden. 2. Basis triangulatie (bijv. 45% IRR is fout, de Amerikaanse pizzaverkopen kunnen geen $50B zijn omdat Domino's $18B doet en er is geen manier waarop ze 40% doen) 3. Bruggetjes maken tussen de getallen in het model (bijv. Als de markt met 50% groeit en we ons marktaandeel van 5 naar 10% vergroten, waarom groeien we dan niet met 100%? Ga die getallen controleren) 4. Bruggen naar eerdere analyses (bijv. onze omzet in 2028 was $120M in het vorige model en is nu $144M ... Wat is er specifiek gebeurd? Oh, we hebben de prijs per eenheid verhoogd van $10 naar $12, oké) Het komt er eerlijk gezegd op neer dat je naar de getallen op de pagina kijkt en er vijf minuten over nadenkt voordat je het model gewoon accepteert. Dit is een beetje super voor de hand liggend, maar ik post het voor het geval het iemand helpt.