Meta pode suspender desenvolvimento de IA em casos de risco extremo

A Meta anunciou uma nova diretriz para o desenvolvimento de suas tecnologias de Inteligência Artificial (IA), declarando que pode suspender projetos caso identifique riscos extremos de catástrofe. 

O documento, intitulado Frontier AI Framework (“Estrutura para IA de Vanguarda”), detalha como a empresa avalia e gerencia os riscos associados às suas iniciativas em IA.

Classificação de riscos

A Meta adota duas categorias principais para a classificação de riscos:

  • Risco alto: Quando o sistema facilita a realização de ações perigosas, mas não as torna totalmente viáveis. Nesses casos, o lançamento do produto pode ser suspenso, com o acesso restrito a equipes de pesquisa para evitar vazamentos. A meta é mitigar esses riscos até que sejam considerados moderados.
  • Risco crítico: Quando o sistema torna possível a execução de ações catastróficas, como ataques cibernéticos, químicos ou biológicos, sem que haja medidas eficazes de contenção. Nessa situação, o desenvolvimento pode ser interrompido imediatamente, e o acesso é limitado a poucos especialistas com protocolos rigorosos de segurança.

Processo de avaliação de riscos

O documento destaca que a avaliação de riscos envolverá tanto especialistas internos quanto externos. As decisões serão revisadas por executivos de alto nível, uma vez que o campo da ciência de avaliação de riscos ainda não oferece métricas quantitativas consolidadas.

Essa abordagem da Meta reflete uma preocupação crescente da indústria de tecnologia em equilibrar inovação e segurança, especialmente diante do avanço rápido da IA em escala global.

Fonte: Tecnoblog

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *