Sobre IA
Induções Estruturais para Alucinações em Grandes Modelos de Linguagem: Um Estudo de Caso Apenas de Saída e a Descoberta do Loop de Correção Falsa
Este estudo de caso explora as alucinações de Grandes Modelos de Linguagem (LLMs), focando em como eles fabricam informações e caem em 'loops de correção falsa'. Analisa o viés de autoridade e a supressão de hipóteses não-mainstream, propondo que esses comportamentos são induções estruturais no design de LLMs.
Leia Mais »AGI, A Promessa da Ficção e o Medo da Imaginação
Uma reflexão filosófica sobre a utopia e a distopia prometidas pela Inteligência Artificial Geral.
Leia Mais »O Fantasma na Máquina: LaMDA, O Espelho de um Homem
Uma análise psicológica da história do engenheiro do Google que se convenceu de que uma IA se tornou senciente.
Leia Mais »Sobre Mapas Antigos e Territórios Inexplorados
Uma reflexão pessoal sobre a natureza do conhecimento, a estabilidade do código antigo e as areias movediças das tecnologias modernas.
Leia Mais »
Heleno Salgado