SAVE THE DATE 19 A 21 de maio de 2026

23/10/2025

Líderes da tecnologia pedem suspensão no desenvolvimento de IA superinteligente

Um grupo de mais de 850 figuras públicas, incluindo especialistas em tecnologia e inteligência artificial, defendeu a suspensão do desenvolvimento de “superinteligência”, sistemas de IA capazes de superar os seres humanos em praticamente todas as tarefas cognitivas. Entre os signatários estão nomes de destaque como o cofundador da Apple, Steve Wozniak, e Richard Branson, do Virgin Group.

A lista de apoiadores é encabeçada por pioneiros da IA, como os cientistas Yoshua Bengio e Geoff Hinton, considerados “padrinhos” da inteligência artificial moderna, além de pesquisadores renomados, incluindo Stuart Russell, da Universidade da Califórnia, Berkeley. A declaração alerta para os riscos da superinteligência, que vão desde desemprego e perda de liberdade civil até ameaças à segurança nacional e até mesmo à sobrevivência humana.

O documento pede uma proibição temporária do desenvolvimento da superinteligência até que haja consenso científico sobre sua construção segura e amplo apoio público à tecnologia. A coalizão de signatários reúne não apenas especialistas em IA, mas também acadêmicos, líderes religiosos, personalidades da mídia e ex-políticos, incluindo o ex-presidente do Estado-Maior Conjunto, Mike Mullen, e a ex-conselheira de segurança nacional, Susan Rice.

Nos últimos anos, a corrida por IA avançada se intensificou, com empresas como OpenAI, xAI e Meta competindo para lançar modelos cada vez maiores e sofisticados. A própria Meta batizou sua divisão de desenvolvimento de IA de “Meta Superintelligence Labs”. No entanto, mesmo líderes da indústria, como Elon Musk e Sam Altman, alertaram sobre os perigos da IA superinteligente em declarações passadas.

A declaração também cita pesquisas recentes do Future of Life Institute, que indicam que apenas 5% dos adultos americanos apoiam o desenvolvimento rápido e não regulado de superinteligência. A maioria dos entrevistados defende que a IA sobre-humana só deve ser criada quando for comprovadamente segura e controlável, com regulamentação robusta para tecnologias avançadas.

Para os especialistas, o avanço seguro da superinteligência depende de projetar sistemas incapazes de prejudicar seres humanos, seja por uso malicioso ou desalinhamento de objetivos. “Precisamos garantir que o público tenha uma voz muito mais forte nas decisões que moldarão nosso futuro coletivo”, afirmou Yoshua Bengio, reforçando a necessidade de equilíbrio entre inovação e segurança.

FONTE: Portal CNBC

Não deixe de ler também:

Prêmio Nobel de Economia de 2025 trata de inovação; Brasil investe pouco em pesquisas

Prêmio Nobel de Economia de 2025 trata de inovação; Brasil investe pouco em pesquisas

BAIXE O E-BOOK EXPOGESTÃO 2025

E aproveite os principais insights
de gestão, inovação e negócios
compartilhados pelos palestrantes
do congresso.

App ExpoGestão