Dimentica MCP, quello che voglio è uno standard supportato da un consorzio industriale per un protocollo API JSON per comunicare con i fornitori di LLM.
Tutti quelli che costruivano copie malfatte dell'API di completamento chat di OpenAI hanno funzionato fino a quando non ha più funzionato!
tutti continuano a pubblicare il meme su avere un sacco di diversi file di regole per gli agenti mentre il vero incubo continua a essere totalmente ignorato:
- openai ha appena rilasciato l'API delle risposte che rompe ogni singola architettura di agente esistente
- il formato di anthropic era il traduttore universale (superset delle completions di openai), ora è obsoleto
- ogni fornitore ha forme di messaggio diverse, schemi di chiamata agli strumenti, idratazione del ragionamento
- cline ha anthropic integrato nello storage su disco, 30+ fornitori, interfacce core
- la migrazione sarebbe un inferno architettonico totale
chi se ne frega di .cursorrules vs agents md quando le tue tracce di ragionamento scompaiono tra le chiamate API e l'intero codice presume un formato di messaggio che non è più il superset?
possiamo per favore standardizzare su uno standard API llm a prova di futuro?
Metti insieme alcune note sul nuovo articolo di DeepMind "I modelli video sono apprendisti e ragionatori zero-shot" - presenta un argomento molto convincente che i modelli video generativi sono per i problemi di visione ciò che gli LLM erano per i problemi di NLP: modelli singoli che possono risolvere una vasta gamma di sfide.
Se nascondi il prompt di sistema e le descrizioni degli strumenti per il tuo agente LLM, ciò che stai effettivamente facendo è prendere il set di documentazione più dettagliato per il tuo servizio e nasconderlo deliberatamente ai tuoi utenti più sofisticati!