Met de opkomst van werkbare AI-agenten zijn we weer een beetje terug bij af als het gaat om prompting/context engineering. Veel meningen, maar er is geen duidelijk bewijs over de juiste manier om agenten aan te sturen, hoe ze samen moeten worden gecoördineerd en hoe zeer lange taken georganiseerd en gestructureerd moeten worden.
Moeten we vertrouwen op seriële agentische arbeid (vaardigheden) of parallelle arbeid (subagenten)? Willen we een hiërarchie waarin één agent beslist wat de anderen moeten doen? Kunnen agents als rechters optreden om het werk van een andere agent te controleren? Welke controlepunten en tests moeten in agentische prompts worden ingebouwd?
111