Dario Amodei, CEO da startup Anthropic e ex-vice-presidente de Pesquisa da OpenAI, emitiu um alerta preocupante durante uma entrevista ao jornalista Ezra Klein, do The New York Times, sobre o futuro das inteligências artificiais (IA).
Segundo Amodei, entre os anos de 2025 e 2028, as IAs poderão atingir um nível de autonomia que lhes permitirá reproduzir-se, representando um risco significativo para a segurança geopolítica e militar global.
Atualmente, a Anthropic classifica os níveis de segurança para IAs com a sigla ASL. Amodei indica que nos encontramos no nível 2, onde os modelos de linguagem já podem oferecer informações perigosas, como a construção de armas biológicas. No entanto, ele ressalta que essas informações ainda são pouco confiáveis e representam um risco relativamente baixo.
A preocupação aumenta com o potencial do nível 3, que poderá ser alcançado já no próximo ano. Neste estágio, o risco de uma catástrofe seria consideravelmente maior, com a possibilidade de utilização dessas tecnologias em armas biológicas e cibernéticas.
Amodei destaca também o nível 4, ainda especulativo, que poderia trazer características como autonomia e habilidade de persuasão. Ele estima que modelos com essa classificação poderão surgir entre 2025 e 2028, levantando questões sérias sobre a segurança global diante do uso militar dessas tecnologias.
Diante desse cenário, o CEO enfatiza a importância de monitorar de perto o desenvolvimento e a aplicação das IAs, especialmente considerando o potencial de alguns estados em aumentar suas capacidades militares com essa tecnologia.
Com investimentos de gigantes como Amazon e Google, a Anthropic lançou seu próprio modelo de linguagem, o Claude, destacando-se por desenvolver a tecnologia de maneira mais responsável que a OpenAI. A IA da Anthropic já está em sua terceira versão desde março deste ano.
Fonte: Redação com CNN
Imagem: Ilustração via DaLL-e 3