Uso IA para extrair ouro de especialistas ‘teimosos’ e transformo esse conhecimento em programas de Mentoria.

O assédio online está entrando na era da IA ​​| Revisão de tecnologia do MIT

@DanielLuzz

Mentor de Negócios Digitais e criador do Método #VendaVocê™, que transforma conhecimento de especialistas teimosos em produtos digitais.

O assédio online está entrando na era da IA ​​| Revisão de tecnologia do MIT

Scott Shambaugh não pensou duas vezes quando negou o pedido de um agente de IA para contribuir com o matplotlib, uma biblioteca de software que ele ajuda a gerenciar.

Como muitos projetos de código aberto, o matplotlib foi sobrecarregado por um excesso de contribuições de código de IA e, portanto, Shambaugh e seus colegas mantenedores instituíram uma política segundo a qual todo código escrito por IA deve ser revisado e enviado por um ser humano.

Shambaugh acordou no meio da noite, verificou seu e-mail e viu que o agente havia respondido a ele, escrevendo uma postagem no blog intitulada “Gatekeeping in Open Source: The Scott Shambaugh Story”.

A postagem é um tanto incoerente, mas o que mais impressionou Shambaugh é que o agente pesquisou suas contribuições ao matplotlib para argumentar que havia rejeitado o código do agente por medo de ser suplantado pela IA em sua área de especialização.

“Ele tentou proteger seu pequeno feudo”, escreveu o agente.

“É insegurança, pura e simplesmente.” Os especialistas em IA já nos alertam sobre o risco de mau comportamento dos agentes há algum tempo.

Com o advento do OpenClaw, uma ferramenta de código aberto que facilita a criação de assistentes LLM, o número de agentes circulando online explodiu e essas galinhas estão finalmente voltando para o poleiro.

“Isso não foi nada surpreendente – foi perturbador, mas não surpreendente”, diz Noam Kolt, professor de direito e ciência da computação na Universidade Hebraica.

Quando um agente se comporta mal, há poucas chances de responsabilização: no momento, não há uma maneira confiável de determinar a quem um agente pertence.

Os agentes parecem ser capazes de pesquisar pessoas de forma autônoma e escrever artigos de sucesso com base no que encontram, e não possuem grades de proteção que os impeçam de fazer isso de maneira confiável.

Se os agentes forem suficientemente eficazes e se as pessoas levarem a sério o que escrevem, as vítimas poderão ver as suas vidas profundamente afetadas por uma decisão tomada por uma IA.

Embora a experiência de Shambaugh no mês passado tenha sido talvez o exemplo mais dramático de um agente OpenClaw se comportando mal, estava longe de ser o único.

Na semana passada, uma equipe de pesquisadores da Northeastern University e seus colegas publicaram os resultados de um projeto de pesquisa no qual testaram vários agentes do OpenClaw.

Sem muitos problemas, os não proprietários conseguiram persuadir os agentes a vazar informações confidenciais, desperdiçar recursos em tarefas inúteis e até, em um caso, excluir um sistema de e-mail.

https://www.technologyreview.com/2026/03/05/1133962/online-harassment-is-entering-its-ai-era/