AI Coding2026-04-30WIRED AI

OpenAI Instrui Codex a Evitar Goblins

Em uma medida que destaca os desafios peculiares do treinamento de sistemas de IA, a OpenAI teria dado ao seu agente de codificação Codex instruções explícitas para evitar discutir tópicos como goblins, gremlins e outras criaturas míticas, a menos que seja absolutamente necessário. A diretriz, enterrada nas profundezas das diretrizes de segurança do modelo, foi projetada para evitar que a IA gere saídas fora do assunto ou que distraiam quando os usuários estão focados em tarefas de codificação. Embora a instrução possa parecer divertida à primeira vista, ela reflete um desafio sério no desenvolvimento de IA: manter o foco e a relevância em modelos generativos. O Codex, que alimenta ferramentas como o GitHub Copilot, é treinado em vastas quantidades de código público e texto, incluindo fóruns, documentação e até literatura de fantasia. Sem proteções cuidadosas, o modelo pode às vezes derivar para territórios inesperados, produzindo respostas que são tecnicamente corretas, mas contextualmente inadequadas. A diretriz "goblin" faz parte de um conjunto mais amplo de diretrizes de segurança que visam manter o Codex na tarefa. Estas incluem restrições sobre a geração de código que poderia ser usado para fins maliciosos, evitar opiniões pessoais e evitar tópicos não relacionados à programação. A menção específica a goblins e gremlins provavelmente decorre de casos observados onde o modelo, quando solicitado com consultas ambíguas ou abertas, recorria à geração de respostas fantásticas ou humorísticas em vez de soluções de código práticas. A abordagem da OpenAI para ajustar esses limites é um ato de equilíbrio delicado. Muitas restrições podem tornar o modelo rígido e menos útil, enquanto poucas podem levar a saídas imprevisíveis ou até prejudiciais. A empresa investiu pesadamente em aprendizado por reforço a partir de feedback humano para refinar o comportamento do Codex, mas casos extremos — como uma referência inesperada a goblins — continuam a surgir. Para os desenvolvedores que usam o Codex, a instrução é em grande parte invisível. O modelo simplesmente ignora consultas sobre criaturas míticas, a menos que sejam diretamente relevantes.

Noticias relacionadas

Más noticias de IA

AIStart.ai · Tu Launchpad personal de IA