• IA será capaz de se reproduzir sem ajuda humana até 2028, diz CEO

  • Continua após o anúncio
  • Continua após o anúncio
  • 19/abr 12:50
    Por Alice Labate / Estadão

    O CEO da startup Anthropic, Dario Amodei, lançou um alerta que parece cena de cinema durante uma entrevista, na sexta-feira, 12, ao jornalista Ezra Klein, do The New York Times, sobre o futuro das inteligências artificiais (IA). Segundo Amodei, entre 2025 e 2028, as IAs poderão alcançar um nível de autonomia que possibilitará sua sobrevivência e reprodução, representando assim um risco significativo para a segurança geopolítica e militar global.

    Atualmente, a Anthropic define níveis de segurança para IAs, identificados pela sigla ASL. Amodei sugere que estamos no nível 2, onde os modelos de linguagem já podem fornecer informações perigosas, como a construção de armas biológicas, por exemplo. Contudo, ele ressalta que essas informações ainda são pouco confiáveis e representam um risco relativamente baixo.

    Porém, a preocupação aumenta quando se considera o potencial alcançado no nível 3, que poderá ser atingido já no próximo ano. Neste estágio, o risco de uma catástrofe seria consideravelmente maior, com a possibilidade de utilização dessas tecnologias em armas biológicas e cibernéticas.

    Além disso, Amodei destaca que o nível 4, ainda especulativo, poderia trazer características como autonomia, o que inclui capacidade independente de reprodução de sistemas, e habilidade de persuasão. Ele estima que modelos com essa classificação poderão surgir entre 2025 e 2028, o que levanta questões sérias sobre a segurança global diante do uso militar dessas tecnologias.

    Diante desse cenário, o CEO enfatizou a importância de monitorar de perto o desenvolvimento e a aplicação das IAs, especialmente considerando o potencial de alguns estados em aumentar suas capacidades militares com essa tecnologia.

    Com investimentos de gigantes como Amazon e Google, a Anthropic lançou seu próprio modelo de linguagem, o Claude – a startup afirma que desenvolve a tecnologia de maneira mais responsável que a OpenAI (os fundadores da Anthropic são dissidentes da dona do ChatGPT). A IA da Anthropic já está em sua terceira versão, desde março deste ano.

    *Alice Labate é estagiária sob supervisão do editor Bruno Romani

    Últimas