Artigo
23 de out. de 2025
O Público Quer Freios na Corrida pela Superinteligência: 64% dos Americanos Apoiam Pausa no Desenvolvimento até Prova de Segurança
Author: Rafael Lins
Pesquisa do Future of Life Institute mostra que 64% dos americanos querem pausa no desenvolvimento da superinteligência artificial até prova de segurança. O estudo revela ceticismo, medo e pedidos por regulação global.
Introdução
Um novo levantamento do Future of Life Institute (FLI) reacendeu o debate global sobre os riscos da superinteligência artificial (ASI). O relatório, baseado em pesquisa conduzida pela Bryson Gillette Insights com 2.000 adultos nos Estados Unidos, mostra uma maioria expressiva defendendo a suspensão do avanço da IA até que sua segurança seja comprovada e a população aprove sua criação. O estudo surge junto a uma carta pública assinada por cientistas, executivos e figuras como Yoshua Bengio, Geoffrey Hinton, Steve Wozniak e Richard Branson, exigindo uma moratória no desenvolvimento da ASI.
👉 Link para o relatório completo: aqui!
Conhecimento e Uso de IA
O público demonstra amplo contato, mas pouca profundidade técnica.
46% utilizam ferramentas de IA semanalmente, enquanto 44% quase não têm contato com elas.
3 em cada 5 americanos se enquadram em um nível moderado de conhecimento sobre IA.
Os mais jovens e com renda acima de US$100 mil são os que melhor compreendem o tema .
Benefícios Reconhecidos, mas Riscos Alarmantes
Mesmo reconhecendo ganhos potenciais em áreas como medicina e educação, a maioria dos entrevistados associa riscos severos ao desenvolvimento de sistemas de nível “Expert” e “Superhumano”.
83% consideram “curar doenças” um bom motivo para seguir com o avanço.
64% veem a possibilidade de sistemas agirem de forma nociva como razão para interromper os projetos.
Quando o tema é Superhuman AI, 66% enxergam o risco de extinção humana como argumento forte contra o desenvolvimento .
Ceticismo Generalizado e Medo da Inevitabilidade
Metade dos americanos acredita que a IA avançada causará danos significativos à humanidade se desenvolvida sem salvaguardas.
75% acreditam que sistemas de nível “Expert” serão criados.
67% veem o mesmo para a Superhuman AI, mesmo admitindo que as proteções serão “mínimas”.
Entre os mais informados sobre IA, 86% acreditam que o avanço continuará, mas defendem regulação pesada .
Quem Deve Decidir o Futuro da IA?
A pesquisa aponta desconfiança nas big techs e preferência por entidades científicas e governamentais:
1º lugar: Organizações científicas internacionais.
2º: Agências regulatórias nacionais.
Apenas em 4º aparecem as empresas de tecnologia que criam os sistemas.
Mesmo os mais experientes em IA apoiam regulação, mas são mais tolerantes à participação das empresas no processo .
Um País Dividido entre Progresso e Sobrevivência
A proporção dos que “não estão convencidos” de que o desenvolvimento de IA avançada deva continuar chega a:
56% para IA de nível “Expert”;
64% para IA “Superhumana”.
Os perfis que mais apoiam o avanço são homens jovens, profissionais de tecnologia e usuários diários de IA — grupos que representam cerca de 20% da amostra total .
Informação e Influência
A formação de opinião ainda vem majoritariamente de redes sociais e mídia tradicional, com crescente influência de comunicadores científicos.
No entanto, 1 em cada 5 americanos não confia em ninguém para orientá-lo sobre segurança em IA — especialmente pessoas que nunca usaram essas ferramentas .
Conclusão
O relatório do FLI mostra uma sociedade cindida: fascinada pelo potencial da IA, mas temerosa das consequências. Com 64% pedindo uma pausa imediata no avanço da superinteligência, a mensagem é clara — a corrida por uma IA superior deve ser conduzida com controle, transparência e consenso público, sob pena de transformar inovação em ameaça existencial.





