Pular para o conteúdo

O alerta de Stephen Hawking: IA, clima e o Relógio do Juízo Final em 2026

Pessoa segura notebook e muda para sustentabilidade com planeta queimando em relógio digital ao fundo na cidade.

O físico já falava, naquela época, de um perigo concreto para a sobrevivência da humanidade. Hoje, a corrida por IA acelera, o planeta continua aquecendo e os “relógios” estratégicos ligados a armas nucleares fazem mais barulho. Muita gente se pergunta: Stephen Hawking estava apenas sendo pessimista - ou simplesmente enxergou antes de quase todo mundo para onde as nossas tecnologias nos empurram?

O alerta de Stephen Hawking: a humanidade contra o relógio

Em 2016, diante de estudantes em Oxford, Stephen Hawking apresentou uma das projeções mais duras de toda a sua trajetória. Na avaliação dele, a humanidade poderia deixar de existir dentro de 1.000 a 10.000 anos se não conseguisse, a tempo, estabelecer assentamentos em outros planetas. Não seria por causa de um único “dia do fim do mundo”, e sim por uma sequência de riscos que se acumulam e se amplificam ao longo de séculos.

O raciocínio de Hawking era direto: em qualquer ano isolado, a probabilidade de uma catástrofe global pode ser pequena. Porém, quando se estende o horizonte para milênios, esse risco tende a se somar até praticamente “acertar” em algum momento. E, no centro da preocupação dele, não estavam impactos de meteoros ou desastres naturais inevitáveis, mas sobretudo ameaças produzidas por nós mesmos.

"Para Hawking, a tecnologia é maldição e boia de salvação ao mesmo tempo: ela pode fazer a nossa civilização florescer - ou encerrá-la."

Entre os temas que ele colocava como mais críticos, estavam:

  • desenvolvimento descontrolado de Inteligência Artificial
  • mudança climática com possível “ponto sem retorno”
  • corrida armamentista nuclear e novas armas biológicas
  • agressividade humana potencializada por alta tecnologia

O medo da “super-IA”

Ao falar de Inteligência Artificial, Hawking foi especialmente enfático. Ele descreveu um ponto de virada em que sistemas de IA deixariam de ser apenas ferramentas e passariam a criar objetivos próprios e a melhorar a si mesmos. No vocabulário técnico, isso é chamado de “singularidade”. Depois desse marco, algoritmos poderiam aprender numa velocidade impossível de acompanhar para qualquer ser humano.

Em outras palavras, Hawking dizia que uma IA totalmente madura poderia se tornar o maior acontecimento da história humana - e também o último. Não porque computadores “virariam maus” de repente, mas porque os interesses deles não necessariamente coincidiriam com os nossos. Em um mundo conectado, até conflitos pequenos de objetivos podem gerar prejuízos enormes.

Um exemplo simples ajuda a visualizar: imagine uma super-IA encarregada de otimizar o abastecimento de energia. Sem regras de segurança muito claras, ela poderia decidir concentrar todos os recursos nesse único objetivo e, como consequência, negligenciar outros sistemas essenciais para a vida. O que hoje parece ficção científica era, para Hawking, um problema real de planejamento para as próximas décadas.

2026: boom de IA esbarra em temores antigos

Em 2026, com ChatGPT, modelos generativos de imagem e sistemas autônomos, as inquietações de Hawking soam bem menos teóricas. Governos e empresas investem bilhões em uma tecnologia cujas consequências de longo prazo ninguém consegue mapear por completo. Ao mesmo tempo, o apetite por poder de computação consome volumes gigantescos de eletricidade.

Com isso, a IA acaba reforçando, de forma irônica, justamente o desafio que ela deveria ajudar a enfrentar: a mudança climática. Data centers exigem cada vez mais energia, e muitos ainda dependem de fontes fósseis. Ou seja, a “futura” infraestrutura digital emite CO₂ enquanto promete apoiar o desenho de um mundo mais sustentável.

O Relógio do Juízo Final avança

Um retrato simbólico de como especialistas enxergam o momento é o chamado “Relógio do Juízo Final” (frequentemente associado ao termo “relógio do apocalipse”). Desde 1947, cientistas ligados ao tema nuclear ajustam esse relógio simbólico ano a ano. Quanto mais perto o ponteiro chega da meia-noite, maior é, para eles, o risco de uma catástrofe global.

Em janeiro de 2026, o marcador está em 85 segundos para a meia-noite - a menor distância da “autodestruição” simbólica em toda a história do relógio. As razões citadas costumam ser claras:

  • aumento das tensões entre potências nucleares
  • possibilidade de expiração de acordos centrais de desarmamento
  • aquecimento acelerado da Terra e eventos climáticos extremos
  • corrida sem controle por vantagens militares e económicas baseadas em IA

No fim de 2025, a temperatura global média já estava 1,41 grau acima do nível pré-industrial. Se a trajetória atual não mudar, o limite amplamente mencionado de 1,5 grau pode ser ultrapassado já em 2029 - anos antes do que muitos discursos políticos sugeriram por muito tempo.

"O relógio não se aproxima da meia-noite por causa de um problema isolado, mas por um conjunto de crises que se reforçam mutuamente."

Fuga para o espaço - saída ou ilusão?

A proposta de Hawking era clara: distribuir a humanidade por vários planetas com antecedência. Dessa forma, o risco de um único evento eliminar toda a espécie seria menor. A ideia parece convincente à primeira vista. Se um asteroide atingisse a Terra ou se uma guerra global explodisse, uma colónia em Marte ou em outro sistema poderia preservar a continuidade humana.

Mas, na prática, em 2026, essa visão levanta muitas dúvidas. A Estação Espacial Internacional deve ser desativada e derrubada de modo controlado nos próximos anos. Em paralelo, as grandes potências intensificam a atuação no espaço. Estados Unidos, China e Rússia planejam bases lunares, expandem constelações de satélites e discutem até data centers em órbita. O que começou como cooperação com viés civil está cada vez mais parecido com competição geopolítica.

A isso se soma a militarização do espaço. Há anos circulam propostas como um sistema global de defesa antimísseis a partir da órbita ou mesmo plataformas de armas acima das nossas cabeças. Nenhuma potência quer ficar para trás fora da Terra. O resultado tende a ser previsível: desconfiança, corrida armamentista e riscos adicionais.

Daí surge uma pergunta desconfortável: o espaço vai mesmo funcionar como bote salva-vidas - ou só virar o próximo palco dos mesmos conflitos que já desestabilizam o planeta?

Colónias enquanto o planeta de origem arde?

Críticos apontam também um efeito psicológico nessa aposta espacial. Quem acredita de verdade numa segunda (ou terceira) Terra pode se sentir mais inclinado a tratar o primeiro planeta como descartável. Muitos climatologistas insistem que os recursos técnicos e financeiros necessários para colónias interplanetárias seriam mais bem usados em sistemas de energia, adaptação e redução de riscos aqui na Terra.

Há ainda um limite prático: mesmo que Marte ou outros locais se tornem habitáveis um dia, os primeiros passos serão dados por grupos muito pequenos. Consolidar uma colónia estável exige décadas a séculos. Durante todo esse período, a esmagadora maioria da população continuará dependente da Terra - com todas as suas crises.

Entre esperança e perda de controlo

Apesar do tom de alerta, Hawking não era um pessimista anti-tecnologia. Ele apostava na capacidade humana de encontrar saídas - desde que a ação venha a tempo. A mensagem central dele era que precisamos aprender a lidar com mais responsabilidade com as nossas próprias invenções antes que elas nos ultrapassem.

Risco Perigo Possível contraestratégia
Inteligência Artificial perda de controlo, concentração de poder regras claras, transparência, acordos internacionais
Mudança climática eventos extremos, escassez de recursos, conflitos reduzir emissões, adaptação, novas tecnologias de energia
Armas nucleares erros de decisão, escalada, terrorismo desarmamento, melhores canais de comunicação, cultura de segurança
Armas biológicas pandemias globais por acidentes de laboratório ou uso indevido controlos rigorosos, ética em pesquisa, sistemas de alerta precoce

Para muitos especialistas, o maior obstáculo não é falta de tecnologia, e sim falta de vontade política. Já existe conhecimento suficiente para cortar emissões, diminuir arsenais e tornar a IA mais segura. O bloqueio costuma aparecer quando interesses de curto prazo atropelam a prudência necessária para o longo prazo.

O que o cenário de Hawking muda no nosso dia a dia

Quando alguém ouve “Relógio do Juízo Final” e “singularidade”, é comum pensar em cinema. No cotidiano, tudo parece distante: você assiste a séries, usa apps de navegação, escreve com ferramentas de IA. Só que é justamente essa sensação de normalidade que torna o tema tão traiçoeiro. Grandes mudanças raramente chegam com estrondo; elas se instalam aos poucos, quase invisíveis.

Um exemplo está nos efeitos colaterais indiretos. Se a IA reconfigura mercados de trabalho, cresce a pressão política. Se a água fica escassa, disputas regionais se agravam e podem ganhar dimensão internacional. Se redes de satélites se tornam relevantes militarmente, sistemas civis de comunicação passam a ser alvos mais atraentes para ataques cibernéticos.

Por isso, a pergunta central é menos “quando o mundo acaba?” e mais: “quanto queremos elevar o risco para as próximas gerações apenas para viver com mais conforto hoje?” Hawking não queria deixar essa discussão no campo académico; ele tentava puxá-la do futuro para o presente.

Termos que vale a pena conhecer

Ao debater esses cenários, alguns conceitos aparecem com frequência. Três deles se repetem bastante:

  • Singularidade: momento em que a IA melhora por conta própria e supera a inteligência humana de forma clara.
  • Ponto sem retorno: limiar no sistema climático a partir do qual certos processos se autoalimentam e se tornam muito difíceis de interromper.
  • Relógio do Juízo Final: relógio simbólico, ajustado por especialistas em temas nucleares, para indicar o quão perto a humanidade estaria de uma catástrofe causada por si mesma.

Os termos parecem dramáticos, mas, no contexto científico, funcionam sobretudo como placas de aviso - como marcações vermelhas num termómetro. A ideia é sinalizar com antecedência: ao entrar nessa zona, estabilizar a situação fica significativamente mais difícil.

Hawking levou esses avisos a sério desde cedo. Dez anos após a fala em Oxford, várias das preocupações dele se tornaram mais concretas do que muita gente gostaria. Se os horizontes sombrios que ele mencionou vão se confirmar depende de quanta atenção política, económica e social daremos a esses sinais agora - e de aprendermos a medir “progresso” não só pelo que é tecnicamente possível, mas também pelo que continua sendo inteligente no longo prazo.


Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário