Anúncio


A Anthropic, empresa fundada por ex-funcionários da OpenAI preocupados com os perigos da IA, está flexibilizando o princípio fundamental de segurança em resposta à concorrência.

A Anthropic está adotando uma estrutura de segurança não vinculativa que, segundo a empresa, pode e irá mudar.

Em uma postagem no blog da companhia na terça-feira (24), detalhando a nova política, a Anthropic afirmou que as deficiências na Política de Escalabilidade Responsável, em vigor há dois anos, podem prejudicar a capacidade de competir em um mercado de IA em rápido crescimento.

O anúncio ocorre na mesma semana em que a Anthropic trava uma batalha significativa com o Pentágono dos Estados Unidos sobre as diretrizes da IA.

Não está claro se a mudança da Anthropic está relacionada à reunião de terça-feira (24) com o Secretário de Defesa dos EUA, Pete Hegseth, que deu um ultimato ao CEO da Anthropic, Dario Amodei, para que revogasse as medidas de segurança de IA da empresa ou corresse o risco de perder um contrato de US$ 200 milhões com o Pentágono. O Pentágono ameaçou colocar a Anthropic no que é, na prática, uma “lista negra do governo americano”.

Mas a empresa afirmou na publicação que a política de segurança anterior foi criada para gerar consenso na indústria em torno da mitigação dos riscos da IA ​​– medidas que a indústria, segundo a companhia, ignorou completamente. A Anthropic também apontou que a política de segurança estava em desacordo com o atual clima político antirregrulamentação de Washington.

A política anterior da Anthropic estipulava que ela deveria pausar o treinamento de modelos mais poderosos se as capacidades destes ultrapassassem a capacidade da empresa de controlá-los e garantir a segurança – uma medida que foi removida na nova política. A Anthropic argumentou que desenvolvedores de IA responsáveis ​​que pausam o crescimento enquanto agentes menos cuidadosos seguem em frente podem “resultar em um mundo menos seguro”.

Como parte da nova política, a Anthropic afirmou que irá separar os próprios planos de segurança das recomendações para a indústria de IA.

A Anthropic escreveu que esperava que os princípios de segurança originais “incentivassem outras empresas de IA a adotar políticas semelhantes”. “Essa é a ideia de uma ‘corrida para o topo’ (o oposto de uma ‘corrida para o fundo do poço’), na qual diferentes participantes do setor são incentivados a aprimorar, em vez de enfraquecer, as salvaguardas dos modelos e da postura geral de segurança”, destacou.

A empresa sugere que isso não tem acontecido agora. Um porta-voz da Anthropic não respondeu imediatamente a um pedido de comentário.

Nova política de segurança

A nova política de segurança da Anthropic inclui um “Roteiro de Segurança de Fronteira” que descreve as diretrizes e salvaguardas autoimpostas pela empresa. Mas a empresa reconheceu que a nova estrutura é mais flexível do que a política anterior.

“Em vez de compromissos rígidos, estes são objetivos públicos para os quais avaliaremos abertamente nosso progresso”, declarou a empresa.

A mudança ocorre um dia depois de o Secretário de Defesa dos EUA, Pete Hegseth, ter dado ao CEO da Anthropic, Dario Amodei, um prazo até sexta-feira (27) para reverter as medidas de segurança de IA da empresa, sob o risco de perder um contrato de US$ 200 milhões com o Pentágono e ser incluído no que é, na prática, uma “lista negra do governo”.

A Anthropic tem preocupações com duas questões que não está disposta a abandonar, de acordo com uma fonte familiarizada com a reunião da empresa com Hegseth: armas controladas por IA e vigilância doméstica em massa de cidadãos americanos. A Anthropic acredita que a IA não é confiável o suficiente para operar armas e que ainda não existem leis ou regulamentações que abranjam como a IA poderia ser usada em vigilância em massa, acrescentou a fonte.

Pesquisadores de IA aplaudiram a posição da Anthropic nas redes sociais na terça-feira (24) e expressaram preocupação com a ideia da IA ser usada para vigilância governamental.

A empresa sempre se posicionou como a empresa de IA que prioriza a segurança. A Anthropic publicou pesquisas mostrando como os próprios modelos de IA poderiam ser usados ​​para chantagem sob certas condições. Recentemente, a empresa doou US$ 20 milhões para a Public First Action, um grupo político que defende salvaguardas e educação em IA.

Mas a empresa tem enfrentado crescente pressão e concorrência tanto do governo quanto de rivais. Hegseth, por exemplo, planeja invocar a Lei de Produção de Defesa contra a Anthropic e designá-la como um risco na cadeia de suprimentos caso não cumpra as exigências do Pentágono, informou a CNN na terça-feira (24). A OpenAI e a Anthropic também estão em uma corrida para lançar novas ferramentas de IA corporativas, em uma tentativa de conquistar o mercado de trabalho.

Jared Kaplan, diretor científico da Anthropic, sugeriu em uma entrevista à revista Time que a mudança foi feita em nome da segurança, mais do que do aumento da concorrência.

“Sentimos que não ajudaria ninguém se parássemos de treinar modelos de IA”, sinalizou Kaplan à revista. “Com o rápido avanço da IA, não nos pareceu sensato assumir compromissos unilaterais, se os concorrentes estão avançando a passos largos”.

*Hadas Gold, da CNN, contribuiu com esta matéria



Source link

Últimas Notícias

plugins premium WordPress

MENU

ÚLTIMAS NOTÍCIAS

Emocionada, população se prepara para assistir à inauguração da Ponte de Guaratuba

PAUTA DIA 2 – 11H30 – GOVERNADOR RATINHO JUNIOR LIBERA O TRÁFEGO DE AUTOMÓVEIS NA PONTE DE GUARATUBA

Governador destaca geração de empregos do Paraná na Festa do Trabalhador em Cascavel

Acesso para ciclistas e pedestres na Ponte de Guaratuba será liberado às 3h de sábado

Operários da Ponte de Guaratuba festejam entrega da estrutura no Dia do Trabalhador

Técnicos pedagógicos da SEED são capacitados em Inteligência Artificial

Governador nomeia novos secretários de Cidades, Turismo e Planejamento

Paraná planeja aporte de até R$ 350 milhões em fundo contra desastres ambientais

Em Londrina, 88 apartamentos de novo residencial são entregues com apoio do Estado

Projeto de gestão inteligente do lodo no tratamento de esgoto da Sanepar recebe prêmio nacional