
O ano é 2027. Poderosos sistemas de inteligência artificial (IA) estão se tornando mais inteligentes que os humanos e estão causando estragos na ordem global. Espiões chineses roubaram os segredos de IA dos Estados Unidos, e a Casa Branca está correndo para retaliar. Em um dos principais laboratórios de IA, os engenheiros ficam assustados ao descobrir que seus modelos estão começando a enganá-los, o que aumenta a possibilidade de se tornarem desonestos.
Essas não são cenas de um roteiro de ficção científica. São cenários imaginados por uma organização sem fins lucrativos de Berkeley, Califórnia, chamada AI Futures Project, que passou o último ano tentando prever como será o mundo nos próximos anos, à medida que sistemas de IA cada vez mais poderosos forem desenvolvidos.
O projeto é liderado por Daniel Kokotajlo, um ex-pesquisador da OpenAI que deixou a empresa no ano passado por estar preocupado com o fato de ela estar agindo de forma imprudente.
Enquanto esteve na OpenAI, onde fazia parte da equipe de governança, Kokotajlo escreveu relatórios internos detalhados sobre como a corrida pela inteligência artificial geral, ou AGI – um termo difuso para inteligência de máquina de nível humano – poderia se desenvolver. Depois de sair, ele se juntou a Eli Lifland, um pesquisador de IA que tinha um histórico de previsão precisa de eventos mundiais. Eles começaram a trabalhar para tentar prever a próxima onda de IA.
O resultado é “AI 2027″, um relatório e um site lançados esta semana que descrevem, em um cenário fictício detalhado, o que poderia acontecer se os sistemas de IA ultrapassassem a inteligência humana – o que os autores esperam que aconteça nos próximos dois ou três anos.
“Prevemos que as IA continuarão a melhorar a ponto de se tornarem agentes totalmente autônomos e melhores que os humanos em tudo até o final de 2027″, disse Kokotajlo em uma entrevista recente.
Atualmente, não faltam especulações sobre IA. São Francisco foi tomada pelo fervor da IA, e o cenário tecnológico da Bay Area se tornou um conjunto de tribos em guerra e seitas dissidentes, cada uma delas convencida de que sabe como o futuro se desenrolará.
Algumas previsões de IA assumiram a forma de um manifesto, como “Machines of Loving Grace” (Máquinas de Graça Amorosa), um ensaio de 14 mil palavras escrito no ano passado por Dario Amodei, CEO da Anthropic, ou “Situational Awareness” (Consciência Situacional), um relatório do ex-pesquisador da OpenAI, Leopold Aschenbrenner, que foi amplamente lido nos círculos políticos.
O pessoal do AI Futures Project elaborou o seu como um cenário de previsão – essencialmente, uma peça de ficção científica rigorosamente pesquisada que usa seus melhores palpites sobre o futuro como pontos de enredo. O grupo passou quase um ano aprimorando centenas de previsões sobre a I.A. Em seguida, contrataram um escritor – Scott Alexander, que escreve o blog Astral Codex Ten – para ajudar a transformar a previsão em uma narrativa.
“Pegamos o que achávamos que aconteceria e tentamos torná-lo envolvente”, disse Lifland.
Os críticos dessa abordagem podem argumentar que as histórias fictícias de IA são melhores para assustar as pessoas do que para educá-las. E alguns especialistas em IA, sem dúvida, se oporão à afirmação central do grupo de que a inteligência artificial ultrapassará a inteligência humana.
Ali Farhadi, CEO do Allen Institute for Artificial Intelligence, um laboratório de IA, em Seattle, analisou o relatório “AI 2027″ e disse que não ficou impressionado.
“Sou totalmente a favor de projeções e previsões, mas essa previsão não parece estar fundamentada em evidências científicas ou na realidade de como as coisas estão evoluindo na IA”, disse ele.
Não há dúvida de que alguns dos pontos de vista do grupo são extremos. Kokotajlo, por exemplo, me disse no ano passado que acreditava que havia 70% de chance dA IA destruir ou prejudicar catastroficamente a humanidade. E tanto Kokotajlo quanto, Lifland têm vínculos com o Altruísmo Efetivo, outro movimento filosófico popular entre os trabalhadores da área de tecnologia que há anos vem fazendo alertas terríveis sobre a IA.
Mas também vale a pena observar que algumas das maiores empresas do Vale do Silício estão planejando um mundo além da AGI, e que muitas das previsões aparentemente malucas feitas sobre IA no passado – como a visão de que as máquinas passariam no Teste de Turing, um experimento mental que determina se uma máquina pode parecer se comunicar como um ser humano – se tornaram realidade.
Em 2021, um ano antes do lançamento do ChatGPT, Kokotajlo escreveu uma postagem no blog intitulada “What 2026 Looks Like” (Como será 2026), descrevendo sua visão sobre o progresso dos sistemas de IA. Várias de suas previsões se mostraram prescientes, e ele se convenceu de que esse tipo de previsão era valioso e que ele era bom nisso.
“É uma maneira elegante e conveniente de comunicar sua opinião a outras pessoas”, disse ele.
Embora eu concorde com os autores de “AI 2027″ que sistemas poderosos de IA estão por vir, não estou convencido de que os programadores de IA sobre-humanos adquirirão automaticamente as outras habilidades necessárias para abrir caminho para a inteligência geral. E desconfio de previsões que presumem que o progresso da IA será suave e exponencial, sem grandes gargalos ou bloqueios ao longo do caminho.
Mas acho que vale a pena fazer esse tipo de previsão, mesmo que eu discorde de algumas das previsões específicas. Se a poderosa IA estiver realmente próxima, todos nós precisaremos começar a imaginar alguns futuros muito estranhos.
Fonte: Estadão