O ‘compromisso’ da OpenAI com o Pentágono é o que a Anthropic temia | Revisão de tecnologia do MIT
A OpenAI optou por questões jurídicas mais brandas e agora se beneficiará à medida que o Pentágono lança uma estratégia politizada de IA durante os ataques ao Irã.
Em 28 de fevereiro, a OpenAI anunciou que havia chegado a um acordo que permitirá aos militares dos EUA usarem suas tecnologias em ambientes confidenciais.
O CEO Sam Altman disse que as negociações, que a empresa começou apenas após a repreensão pública do Pentágono à Anthropic, foram “definitivamente apressadas”.
Nos seus anúncios, a OpenAI fez um grande esforço para dizer que não cedeu para permitir que o Pentágono fizesse o que quisesse com a sua tecnologia.
A empresa publicou uma postagem no blog explicando que seu acordo protegia contra o uso de armas autônomas e vigilância doméstica em massa, e Altman disse que a empresa não aceitou simplesmente os mesmos termos que a Anthropic recusou.
Você poderia ler isso para dizer que a OpenAI ganhou tanto o contrato quanto a moral elevada, mas ler nas entrelinhas e o jargão jurídico deixa algo mais claro: a Anthropic buscou uma abordagem moral que conquistou muitos apoiadores, mas falhou, enquanto a OpenAI buscou uma abordagem pragmática e legal que é, em última análise, mais branda com o Pentágono.
Ainda não está claro se a OpenAI pode incorporar as precauções de segurança que promete à medida que os militares lançam uma estratégia politizada de IA durante os ataques ao Irão, ou se o acordo será visto como suficientemente bom pelos funcionários que queriam que a empresa adoptasse uma linha mais dura.
(A OpenAI não respondeu imediatamente aos pedidos de informações adicionais sobre o seu acordo.) Mas o diabo também está nos detalhes.
A razão pela qual a OpenAI foi capaz de fazer um acordo quando a Anthropic não conseguiu foi menos uma questão de limites, disse Altman, mas uma questão de abordagem.
“A Anthropic parecia mais focada em proibições específicas do contrato, em vez de citar leis aplicáveis, com as quais nos sentíamos confortáveis”, escreveu ele.
A OpenAI afirma que uma base para a sua vontade de trabalhar com o Pentágono é simplesmente a suposição de que o governo não infringirá a lei.
A empresa, que partilhou um trecho limitado do seu contrato, cita uma série de leis e políticas relacionadas com armas autónomas e vigilância.
São tão específicas como uma directiva de 2023 do Pentágono sobre armas autónomas (que não as proíbe, mas emite directrizes para a sua concepção e testes) e tão amplas como a Quarta Emenda, que apoiou protecções para os americanos contra a vigilância em massa.
No entanto, o trecho publicado “não dá à OpenAI um direito independente e de estilo Anthropic de proibir o uso governamental que de outra forma seria legal”, escreveu Jessica Tillipman, reitora associada de estudos de direito de compras governamentais na faculdade de direito da Universidade George Washington.

