Quando você armazena seu conhecimento e habilidades como curvas paramétricas (como todos os modelos de aprendizado profundo fazem), a única maneira de generalizar é através da interpolação na curva. O problema é que os pontos interpolados *correlacionam-se* com a verdade, mas não têm *vínculo causal* com a verdade. Daí as alucinações. A solução é começar a aproveitar gráficos simbólicos causais como seu substrato de representação (por exemplo, programas de computador do tipo que escrevemos como engenheiros de software). A pilha de software escrita por humanos, com seu grau extremamente alto de confiabilidade, apesar de sua enorme complexidade, é a prova da existência da propagação exata da veracidade.
94,17K