Nesse prazo, ainda em cenário
especulativo, as inteligências artificiais poderiam ganhar habilidade de
persuasão Freepik
gerada por IA
O CEO da startup Anthropic,
Dario Amodei, lançou um alerta que parece cena de cinema durante uma
entrevista, na sexta-feira, 12, ao jornalista Ezra Klein, do The New
York Times, sobre o futuro das inteligências artificiais (IA).
Segundo Amodei, entre 2025 e
2028, as IAs poderão alcançar um nível de autonomia que possibilitará sua
sobrevivência e reprodução, representando assim um risco significativo para a
segurança geopolítica e militar global.
Atualmente, a Anthropic define
níveis de segurança para IAs, identificados pela sigla ASL. Amodei sugere que
estamos no nível 2, onde os modelos de linguagem já podem fornecer informações
perigosas, como a construção de armas biológicas, por exemplo.
Contudo, ele ressalta que essas
informações ainda são pouco confiáveis e representam um risco relativamente
baixo. Porém, a preocupação aumenta quando se considera o potencial alcançado
no nível 3, que poderá ser atingido já no próximo ano. Neste estágio, o risco
de uma catástrofe seria consideravelmente maior, com a possibilidade de
utilização dessas tecnologias em armas biológicas e cibernéticas.
Além disso, Amodei destaca que
o nível 4, ainda especulativo, poderia trazer características como autonomia, o
que inclui capacidade independente de reprodução de sistemas, e habilidade de
persuasão. Ele estima que modelos com essa classificação poderão surgir entre
2025 e 2028, o que levanta questões sérias sobre a segurança global diante do
uso militar dessas tecnologias.
Diante desse cenário, o CEO
enfatizou a importância de monitorar de perto o desenvolvimento e a aplicação
das IAs, especialmente considerando o potencial de alguns estados em aumentar
suas capacidades militares com essa tecnologia.
Com investimentos de gigantes
como Amazon e Google, a Anthropic lançou seu próprio modelo de linguagem, o
Claude - a startup afirma que desenvolve a tecnologia de maneira mais
responsável que a OpenAI (os fundadores da Anthropic são dissidentes da dona do
ChatGPT). A IA da Anthropic já está em sua terceira versão, desde março deste
ano.
Nenhum comentário:
Postar um comentário