Yuval Harari, de Sapiens, alerta: IA é um poder que não podemos controlar

Yuval Harari analisa em novo livro o poder incontrolável da inteligência artificial

Yuval Harari analisa em novo livro o poder incontrolável da inteligência artificial (Divulgação)

Yuval Noah Harari, renomado autor de “Sapiens: Uma Breve História da Humanidade”, emite um alerta contundente sobre o impacto da inteligência artificial (IA) em nossa sociedade. Para Harari, a IA é um poder tão vasto e incontrolável que pode ameaçar a própria democracia e dividir o mundo. Essa reflexão profunda aparece em seu novo livro, “Nexus: A Brief History of Information Networks” (“Nexus: Uma Breve História de Redes de Informação”, em tradução livre), cujo trecho foi recentemente publicado pelo jornal The Guardian.

Catástrofes

Harari destaca que, ao longo da história, a humanidade sempre buscou dominar poderes que não compreende completamente, frequentemente resultando em catástrofes. O autor utiliza exemplos clássicos, como o mito grego de Faetonte e a fábula do Aprendiz de Feiticeiro, para ilustrar como o desejo humano de adquirir poder pode levar ao desastre. Assim como essas histórias antigas, a IA representa um novo tipo de “magia” moderna, com consequências que podem escapar ao controle humano.

Perigos da IA

O problema, segundo Harari, não está na psicologia individual, mas na maneira única como os humanos cooperam em grandes números para alcançar poder. Essa cooperação em massa permite que a humanidade convoque forças que podem ser incontroláveis. Com a IA, estamos lidando com algo que vai além das capacidades humanas convencionais – uma tecnologia que pode tomar decisões e criar novas ideias de forma independente.

Mais que uma ferramenta

Harari argumenta que a IA não deve ser vista apenas como uma ferramenta, mas como um agente autônomo. Este agente, que ele sugere ser mais parecido com uma “inteligência alienígena” do que com inteligência artificial, é capaz de desenvolver estratégias, projetar armas e tomar decisões que poderiam mudar o curso da história de maneiras imprevisíveis. A verdadeira ameaça da IA, segundo Harari, não é uma revolta robótica ao estilo de Hollywood, mas a criação de sistemas autônomos que podem operar fora do entendimento e controle humanos.

Inteligência Alienígena

Essa “inteligência alienígena”, como Harari a chama, não está tentando replicar a inteligência humana, mas está evoluindo de uma maneira totalmente diferente. Medir o progresso da IA em comparação com a inteligência humana seria tão errado quanto avaliar o voo de um avião em comparação com o voo de um pássaro. A IA está se desenvolvendo em uma direção que pode ser incompreensível para os humanos, e isso traz riscos incalculáveis.

Civilização em Perigo

O livro de Harari traz uma reflexão crucial sobre como estamos moldando o futuro com tecnologias que podem estar além da nossa capacidade de controle. Ele alerta que a corrida para desenvolver a IA mais avançada da história pode colocar toda a civilização em perigo, e nos convida a reconsiderar como lidamos com esses novos poderes.

Resumo para quem está com pressa:

Sair da versão mobile