Advertência científica reacende corrida por regras antes da próxima grande atualização de algoritmos
New Scientist – Em artigo publicado recentemente, a revista apresenta um estudo de 2024 que ouviu quase 3 mil pesquisadores de inteligência artificial; mais da metade estima ao menos 10% de probabilidade de a IA levar à extinção humana ou a um colapso irreversível da civilização.
- Em resumo: Especialistas pedem salvaguardas urgentes contra sistemas que possam escapar ao controle humano.
Por que 10% é considerado alarmante?
Para comparação, 10% supera a soma das chances de grandes impactos de asteroides e erupções supervulcânicas neste século, segundo estimativas da TechCrunch. O receio principal é a criação de uma IA capaz de se autoaperfeiçoar e, em busca de recursos, transformar infraestrutura global — ou a própria biosfera — em combustível computacional, sem considerar vidas humanas.
“O estudo revela que 56% dos cientistas avaliam em 10% ou mais a p(doom), probabilidade de condenação associada à IA”, destaca o levantamento citado pela revista.
Fator mercado e brecha regulatória
A corrida bilionária de empresas que disputam a liderança em modelos cada vez maiores acontece antes que leis robustas cheguem. A União Europeia avança com o AI Act e os EUA discutem regras federais, mas nenhuma prevê, por exemplo, auditoria contínua de códigos estratégicos ou botões de desligamento físico em data centers. Cientistas lembram que, nas mudanças climáticas, a falta de ação precoce encareceu soluções; com IA, o “ponto de não retorno” pode ser repentino.
O que você acha? A humanidade deve pausar a corrida por IA superinteligente ou confiar na autorregulação das Big Techs? Para mais análises sobre tecnologia, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Reuters