Logo
Tudo que você precisa saber sobre as eleições em um só lugar

Do príncipe Harry a Steve Bannon, centenas de figuras públicas pedem a proibição da superinteligência artificial

22/10/2025 13:39 O Globo - Rio/Política RJ

O príncipe Harry e Meghan Markle, duque e duquesa de Sussex, o ex-estrategista da Casa Branca Steve Bannon, e o pioneiro da inteligência artificial (IA) e ganhador do Prêmio Nobel Geoffrey Hinton fazem parte de um grupo que pede a proibição de trabalhos que possam levar à superinteligência computacional, um estágio da inteligência artificial, também chamado de IA geral, ainda não alcançado e que, segundo o grupo, poderia representar uma ameaça à humanidade.
Algum complexo? Por que os bilionários de tecnologia dos EUA estão obcecados em construir estátuas gigantes?
Para economizar: Amazon planeja substituir mais de meio milhão de empregos por robôs
Em uma declaração organizada pela Future of Life Institute, uma organização sem fins lucrativos que trabalha com riscos em larga escala, como armas nucleares, biotecnologia e IA, o grupo de cientistas e outras figuras públicas — incluindo cientistas ganhadores do Prêmio Nobel, ex-líderes militares e artistas — defendeu a proibição do desenvolvimento de superinteligência, ou seja, de uma IA muito mais capaz do que os seres humanos, até que haja “amplo consenso científico de que isso será feito de maneira segura e controlável”.
A declaração reuniu mais de 800 assinaturas de um grupo diversificado de pessoas. Outros signatários notáveis incluem Steve Wozniak, cofundador da Apple, o economista Daron Acemoglu, a ex-assessora de Segurança Nacional dos EUA Susan Rice, o ex-chefe do Estado-Maior Conjunto dos EUA Mike Mullen e o rapper Will.i.am.
Embora já tenham sido feitas várias declarações pedindo a desaceleração do desenvolvimento da IA no passado, inclusive pelo próprio Future of Life Institute, este novo esforço inclui muitos nomes inéditos e abrange uma gama mais ampla de profissões e orientações políticas do que as iniciativas anteriores.
Initial plugin text
“O que une todas essas pessoas, de diferentes espectros políticos, é o fato de que todas são humanas, não máquinas, e, portanto, se preocupam profundamente em garantir que o futuro seja um em que as máquinas trabalhem para nós. E não em que se tornem uma espécie de novos senhores digitais”, disse Max Tegmark, professor do Instituto de Tecnologia de Massachusetts (MIT) e presidente do Future of Life Institute.
Entenda: Por que crescem os temores de uma bolha de inteligência artificial de trilhões de dólares?
Tegmark afirmou estar entusiasmado em ver a preocupação com a IA superinteligente “saindo da bolha nerd” e atraindo grandes nomes de áreas fora da tecnologia e da ciência.
A declaração soma-se a uma lista crescente de apelos por uma desaceleração da IA, em um momento em que a tecnologia ameaça transformar amplos setores da economia e da cultura. OpenAI, Google, Meta e outras empresas de tecnologia estão investindo bilhões de dólares em novos modelos de IA e nos data centers que os sustentam, enquanto empresas de todos os tipos buscam maneiras de adicionar recursos de IA a uma ampla variedade de produtos e serviços.
A organização de Tegmark divulgou recentemente os resultados de uma pesquisa que encomendou, mostrando que 73% dos entrevistados em um estudo com adultos dos Estados Unidos desejam uma regulamentação rigorosa sobre IA avançada.
Outras pesquisas independentes também mostraram apoio bipartidário à supervisão da IA; uma pesquisa recente da Gallup, por exemplo, revelou que 88% dos democratas e 79% dos republicanos e independentes são favoráveis à manutenção de regras sobre IA para garantir segurança e proteção.
Dilema: A inteligência artificial precisa ser realmente inteligente para ser eficiente?
Embora alguns líderes de direita, como Bannon, tenham sido críticos em relação aos riscos da IA, outras figuras republicanas que tiveram papéis importantes no governo Trump — incluindo David Sacks, chefe de IA da Casa Branca — reagiram contra o que consideram propostas excessivamente onerosas de regulamentação que poderiam desacelerar um setor promissor.
Tegmark disse estar em contato com Sacks, que não assinou a declaração, e afirmou que a defesa do Future of Life Institute por controles sobre a superinteligência é compatível com o desejo de impulsionar a IA, mas de forma segura.
— Sacks quer grandes centros de dados para que possamos realizar ótimas pesquisas . Mas nunca tive a impressão de que ele esteja salivando com a ideia de construir um senhor digital sobre o qual perderemos o controle — disse Tergmark.
Initial plugin text

Fonte original: abrir