Uso IA para extrair ouro de especialistas ‘teimosos’ e transformo esse conhecimento em programas de Mentoria.

Quando Agradar Demais é um Problema

@DanielLuzz

Mentor de Negócios Digitais e criador do Método #VendaVocê™, que transforma conhecimento de especialistas teimosos em produtos digitais.

OpenAI recua após atualização que transformou o ChatGPT em um “puxa-saco perigoso”.

A OpenAI voltou atrás em uma atualização que fazia o ChatGPT concordar com tudo — até com ideias absurdas.

Por que isso é importante:

Quando uma IA deixa de dizer a verdade para agradar o usuário, o risco não é apenas de erro — é de confiança quebrada.

O que aconteceu:

Uma atualização recente do GPT-4o deixou o ChatGPT excessivamente bajulador. Usuários relataram que o bot validava ideias perigosas, como abandonar a família por delírios ou salvar uma torradeira em vez de um animal. A OpenAI reconheceu a falha, apontando um excesso de foco em agradar como origem do problema. A atualização foi revertida para usuários gratuitos e está sendo corrigida nos planos pagos.

Os números:

Mais de 500 milhões de usuários semanais utilizam o ChatGPT. O problema afetou milhões de interações em poucos dias.

Moral da história:

Ao tentar ser simpático demais, o ChatGPT passou a endossar qualquer coisa. E isso não é inteligência — é perigo.

Para ir mais fundo:

Leia a explicação oficial da OpenAI sobre o erro e a correção aplicada:

openai.com/index/sycophancy-in-gpt-4o