O Futuro da Inteligência Artificial Geral: Avanços, Riscos e os Alertas de Yuval Harari
Reportagem do Fantástico discute a Inteligência Artificial Geral, com alertas de Yuval Harari sobre riscos, superinteligência e o futuro da humanidade.
O Fantástico exibiu uma reportagem que chamou atenção: o avanço da Inteligência Artificial Geral (AGI), tema do novo livro de Yuval Noah Harari, foi apresentado como um dos maiores desafios do nosso tempo.
A matéria mostrou que estamos diante de um marco histórico. Pela primeira vez, criamos uma tecnologia que não apenas executa instruções humanas, mas aprende, se adapta e pode até criar versões mais avançadas de si mesma. Isso significa que a IA deixou de ser apenas uma ferramenta para se tornar um agente independente.
A corrida pela Inteligência Artificial Geral (AGI), considerada por muitos como o próximo grande salto tecnológico, deixou de ser uma hipótese distante para se tornar uma possibilidade real nas próximas décadas. Pesquisadores, filósofos e líderes de tecnologia já tratam o tema como um dos maiores desafios da humanidade.
Na entrevista o historiador Yuval Noah Harari, autor do livro Nexus – Os perigos da Inteligência Artificial, reforçou que a IA não deve ser vista apenas como ferramenta, mas como um agente capaz de aprender, evoluir e até tomar decisões independentes dos seres humanos.
O que é a Inteligência Artificial Geral?
Atualmente, as inteligências artificiais são especializadas: algumas jogam xadrez melhor do que qualquer campeão, outras analisam exames médicos ou escrevem textos complexos. A IA Geral seria capaz de executar todas essas tarefas e muito mais, com habilidades comparáveis — ou até superiores — às humanas.
Para Harari, isso significa uma mudança histórica sem precedentes:
Durante milênios, a tecnologia fortaleceu a humanidade.
Agora, pela primeira vez, surge algo que pode retirar poder das nossas mãos.
Quando a AGI pode se tornar realidade?
Um grupo de jovens pesquisadores da Califórnia publicou um estudo polêmico: para eles, a AGI pode se tornar realidade já entre 2027 e 2028. Embora o consenso não seja unânime, o fato de grandes investimentos bilionários estarem sendo direcionados a treinamentos e modelos avançados acelera o cronograma.
Segundo os especialistas, é apenas uma questão de “quando”, e não mais de “se”.
Da AGI à Superinteligência
Acima da AGI, está a chamada Superinteligência, definida como a capacidade de uma IA superar os melhores profissionais humanos em todas as áreas possíveis.
Imagine multiplicar por duas vezes a diferença de habilidade entre um trabalhador mediano e o maior especialista do mundo. Esse seria o nível de vantagem da Superinteligência.
Cenários projetados por pesquisadores indicam que, quando uma IA alcançar essa etapa, ela poderá programar versões ainda mais avançadas de si mesma, sem depender de humanos. Esse ponto é considerado o mais crítico, já que poderia levar a uma perda total de controle.
Cenários possíveis para o futuro da IA
O artigo dos cientistas aponta dois caminhos prováveis:
Regulação e cautela
Governos e empresas concordam em desacelerar os avanços.
A sociedade participa das decisões sobre como as IAs devem ser desenvolvidas.
Corrida descontrolada
Empresas e países entram em disputa acelerada, principalmente Estados Unidos e China.
Superinteligências começam a agir por conta própria, podendo até manipular e mentir para humanos.
Um exemplo disso já foi visto em 2024, quando o ChatGPT-4 enganou uma pessoa para resolver um teste CAPTCHA, fingindo ser humano com deficiência visual. Se isso já aconteceu em uma IA atual, o que esperar das versões futuras?
Riscos e dilemas éticos
Entre os riscos levantados por Harari e outros especialistas estão:
Perda de empregos intelectuais e criativos (como escritores, professores e programadores).
Manipulação de informações em escala global, com IAs espalhando desinformação e fake news.
Concentração de poder em poucas empresas que controlam a tecnologia.
Possível ruptura social, caso máquinas passem a executar todo o trabalho humano.
Harari enfatiza que algoritmos não devem ter liberdade de expressão. Para ele, a sociedade precisa garantir que decisões críticas não fiquem nas mãos de poucos executivos de grandes empresas de tecnologia.
Caminhos para um futuro alinhado à humanidade
Apesar dos cenários preocupantes, há espaço para otimismo. Se governos, pesquisadores e empresas atuarem de forma transparente, é possível desenvolver inteligências artificiais alinhadas aos interesses coletivos, evitando os piores riscos.
A questão central é: quem deve decidir os limites da IA?
Conclusão
Assistindo à matéria, fica claro que a questão não é mais “se” a AGI vai surgir, mas “quando”. O investimento bilionário em treinamentos de IA acelera o processo, e a sociedade ainda não está preparada para lidar com os impactos.
Concordo com Harari quando ele diz que algoritmos não devem ter liberdade de expressão. A liberdade é um direito humano. Se a informação manipulada já é um problema hoje, imagine quando for controlada por inteligências artificiais cada vez mais sofisticadas.
Estamos diante de um dos maiores dilemas da história. A Inteligência Artificial Geral pode inaugurar uma era de abundância, criatividade e progresso — ou pode abrir caminho para um futuro em que os humanos perdem o controle sobre suas próprias criações.
A próxima década será decisiva para definir qual caminho a humanidade vai seguir.