A Meta anunciou uma nova diretriz para o desenvolvimento de suas tecnologias de Inteligência Artificial (IA), declarando que pode suspender projetos caso identifique riscos extremos de catástrofe.
O documento, intitulado Frontier AI Framework (“Estrutura para IA de Vanguarda”), detalha como a empresa avalia e gerencia os riscos associados às suas iniciativas em IA.
Classificação de riscos
A Meta adota duas categorias principais para a classificação de riscos:
- Risco alto: Quando o sistema facilita a realização de ações perigosas, mas não as torna totalmente viáveis. Nesses casos, o lançamento do produto pode ser suspenso, com o acesso restrito a equipes de pesquisa para evitar vazamentos. A meta é mitigar esses riscos até que sejam considerados moderados.
- Risco crítico: Quando o sistema torna possível a execução de ações catastróficas, como ataques cibernéticos, químicos ou biológicos, sem que haja medidas eficazes de contenção. Nessa situação, o desenvolvimento pode ser interrompido imediatamente, e o acesso é limitado a poucos especialistas com protocolos rigorosos de segurança.
Processo de avaliação de riscos
O documento destaca que a avaliação de riscos envolverá tanto especialistas internos quanto externos. As decisões serão revisadas por executivos de alto nível, uma vez que o campo da ciência de avaliação de riscos ainda não oferece métricas quantitativas consolidadas.
Essa abordagem da Meta reflete uma preocupação crescente da indústria de tecnologia em equilibrar inovação e segurança, especialmente diante do avanço rápido da IA em escala global.
Fonte: Tecnoblog