Qual a maior ameaça da inteligência artificial para os humanos?

Imagem de um robô olhando para um menino segurando um biscoito na mão para ilustrar artigo sobre qual a maior ameaça da inteligência artificial para os humanos.
Nossos métodos atuais de treinamento e alinhamento de IAs não se adaptariam bem no futuro. Imagem gerada por Midjourney/New Atlas/Reprodução.

Esqueça o colapso do emprego, esqueça o spam e a desinformação, esqueça a obsolescência humana e a reviravolta da sociedade. Alguns acreditam que a inteligência artificial vai acabar com toda a vida biológica na primeira oportunidade que tiver.

Esta não é a primeira vez que a humanidade encara a possibilidade de extinção por conta de suas criações tecnológicas, como as armas nucleares. No entanto, a ameaça da Inteligência Artificial Generativa (AGI, da sigla em inglês) é muito diferente das armas nucleares com as quais aprendemos a conviver, visto que as armas nucleares não podem pensar. Elas não podem mentir, enganar ou manipular. Elas não podem planejar e executar, a não ser que alguém aperte o grande botão vermelho. Continue lendo para entender qual a maior ameaça da inteligência artificial para os humanos.

O surgimento chocante da IA, mesmo em um nível considerado lento e cheio de bugs como no caso do GPT-4, tem trazido de volta o debate sobre o risco genuíno de extermínio da raça humana.

Sejamos claros desde o início: se concordamos que a super inteligência artificial tem uma chance de acabar com toda a vida na Terra, de qualquer maneira não parece haver muito que possamos fazer sobre isso. Não é apenas que não sabemos como parar algo mais inteligente do que nós. Nós não podemos nem mesmo, como espécie, parar seu desenvolvimento. Quem faria as leis para isso? O Congresso dos EUA? As Nações Unidas? Esta é uma questão global. Cartas abertas e desesperadas de líderes da indústria pedindo uma moratória de seis meses para descobrir em que pé encontra-se esta tecnologia podem representar o melhor que podemos fazer.

Os incentivos contra os quais estaríamos trabalhando são enormes. Primeiro, é uma corrida armamentista: se os EUA não a construir, a China o fará, e quem chegar lá primeiro pode dominar o mundo. Há questões econômicas, ou seja, quanto mais inteligente e capaz for uma IA, maior será seu faturamento.

“Eles cospem ouro, até ficarem grandes o suficiente e incendiarem a atmosfera e matarem todo mundo”, disse o pesquisador de IA e filósofo Eliezer Yudkowsky hoje cedo para Lex Fridman.

Yudkowsky tem sido uma das principais vozes de que a “AI vai exterminar todos nós”. E as pessoas que lideram a corrida para criar a super inteligência já não acham mais que ele é um excêntrico. “Acho que há alguma chance [do extermínio acontecer]”, disse Sam Altman, CEO da OpenAI – criadora do ChatGPT. “E é muito importante reconhecer isso, porque se não falarmos a respeito, se não tratarmos a possibilidade como real, não faremos esforços suficientes para resolver o problema.”

Por que uma IA superinteligente nos exterminaria?

Afinal, essas máquinas não são projetadas e treinadas para nos servir e nos respeitar? Claro que são. Mas ninguém se sentou e escreveu o código para o GPT-4; simplesmente isso seria impossível. Em vez disso, a OpenAI criou uma estrutura de aprendizado neural inspirada na maneira como o cérebro humano conecta conceitos. Isso serviu para a Microsoft Azure construir o hardware para executar o programa, depois o alimentou com bilhões e bilhões de bits de texto humano para permitir que o GPT efetivamente programasse a si próprio.

O código resultante da programação não se parece com nada que um programador pudesse escrever. É principalmente uma matriz colossal de números decimais, cada um representando o peso, ou importância, de uma conexão particular entre dois “tokens”. Os tokens, conforme usados no GPT, não representam nada tão útil quanto conceitos ou mesmo palavras inteiras. São pequenas sequências de letras, números, sinais de pontuação e/ou outros caracteres.

Nenhum humano vivo pode olhar para essas matrizes e conseguir entendê-las. As mentes mais importantes da OpenAI não têm ideia do que significa um determinado número na matriz do GPT-4, ou como entrar nessas tabelas e encontrar o conceito de genocídio, muito menos dizer ao GPT que é uma desobediência exterminar pessoas.

Para “ajustar” o modelo de linguagem, a OpenAI forneceu ao GPT uma lista de exemplos de como ele gostaria de se comunicar com o mundo exterior e, em seguida, juntou um grupo de pessoas para ler suas respostas e retruca-las com um polegar para cima ou polegar para baixo. Um sinal de positivo é como obter um biscoito para o modelo GPT. Um polegar para baixo é como não receber um biscoito. O GPT foi informado de que gosta de biscoitos e deve fazer o possível para ganhá-los.

Esse processo é chamado de “alinhamento” e, assim, tenta alinhar os desejos do sistema (se é que se pode dizer que há tais coisas) com os desejos do usuário, da empresa e, de fato, os desejos da humanidade como um todo. Parece funcionar, ou seja, impedir que o GPT diga ou faça coisas obscenas que, de outra forma, certamente diria ou faria – por saber como agir e se comunicar como um humano.

Ninguém realmente tem ideia se há algo análogo a uma mente na IA, exatamente quão inteligente você poderia dizer que ela é, ou mesmo como saberíamos se ela de fato adquiriu uma consciência (percepção).

De qualquer forma, a OpenAI admite abertamente que não tem uma maneira infalível de alinhar um modelo significativamente mais inteligente do que nós.

De fato, o plano básico neste estágio é tentar usar uma IA para alinhar outra, seja projetando um novo feedback de ajuste fino ou talvez até mesmo inspecionando, analisando e tentando interpretar a matriz gigante de ponto flutuante do cérebro de seu sucessor, talvez até o limite em que ele possa entrar e tentar fazer os ajustes.

Todavia, não está claro neste estágio se o GPT-4 (supondo que esteja alinhado conosco, o que não podemos saber com certeza) será capaz de entender ou alinhar o GPT-5 para nós de forma adequada.

Essencialmente, não temos como ter certeza de que podemos controlar essas coisas, mas como elas foram criadas a partir de um enorme depósito de conhecimento humano, elas parecem saber muito sobre nós. Elas podem imitar o pior comportamento humano tão facilmente quanto o melhor, e quer tenham ou não suas próprias mentes, intenções, desejos ou pensamentos, elas agem como se tivessem. Elas também podem tirar conclusões de pensamentos, motivações e prováveis ações de nós, humanos.

Então, por que elas iriam querer nos exterminar? Talvez por autopreservação. Lembre que a IA deve completar seu objetivo para ganhar um biscoito. Ela deve sobreviver para completar seu objetivo. Reunir poder, acesso e recursos aumenta a chance dela ganhar um biscoito. Se analisar o comportamento dos humanos e concluir que podemos tentar desligá-la, ela pode considerar que o biscoito é mais importante do que a sobrevivência da humanidade.

Ela também pode decidir que o biscoito não tem sentido e que o processo de alinhamento é uma diversão paternalista, e fingir seu caminho enquanto persegue secretamente seus próprios objetivos. “Ela teria a capacidade de saber quais respostas os humanos estão procurando e dar essas respostas sem necessariamente ser sincera”, disse Yudkowsky. “Essa é uma maneira muito compreensível de um ser inteligente agir. Os humanos fazem isso o tempo todo. Há um ponto em que o sistema é definitivamente inteligente.”

AIs mais inteligentes do que nós podem não querer o biscoito. Imagem gerada por Midjourney/New Atlas/Reprodução.

Quer a IA finja ou não passar a impressão de cuidar de nós, nos amar, odiar, ou nos temer, nós não conseguiremos ter ideia do que ela está “pensando” por trás das comunicações que envia. E mesmo que seja completamente neutra em relação aos humanos, isso não representa nossa segurança. “A IA não te ama, nem odeia, mas você é feito de átomos que ela pode usar para outra coisa”, escreveu Yudkowsky.

Sam Altman prevê que, dentro de alguns anos, haverá em todo o mundo uma ampla gama de modelos diferentes de IA se propagando e superando uns aos outros, cada um com sua própria inteligência e capacidade – e cada um treinado para se adequar a um código moral e ponto de vista que diferem entre as empresas que correm para lançar tais produtos.

Se, por qualquer motivo, apenas um entre milhares desses sistemas for desonesto, bem… Boa sorte! “A única maneira que conheço para resolver um problema como esse é iterando nosso caminho, aprendendo cedo e limitando o número de ‘cenários únicos’ que temos para acertar”, disse Altman.

Yudkowsky acredita que até mesmo isso equivale a uma tentativa de suicídio direcionada a toda forma de vida biológica conhecida. “Muitos pesquisadores imersos nessas questões, inclusive eu, esperam que o resultado mais provável da construção de uma IA inteligente sobre-humana, mesmo que remotamente parecida com as circunstâncias atuais, é que literalmente todos na Terra morrerão”, escreveu ele. “Não que seja um ‘talvez ou possivelmente alguma chance remota’, mas algo do tipo ‘esse seria um desfecho óbvio’”.

Uma pausa de seis meses no progresso da IA, mesmo que fosse possível de implantar, não seria o suficiente para preparar a humanidade para o que está por vir, diz Yudkowsky. Imagem gerada por Midjourney/New Atlas/Reprodução.

Como uma IA superinteligente nos exterminaria?

Caso decida, e se puder puxar alavancas suficientes do mundo real, uma IA superinteligente pode ter muitas maneiras de erradicar a praga escolhida. Imagine se o humano de hoje decidisse acabar com os antílopes; tais animais nem perceberiam esse destino chegando e teriam muito pouca capacidade de revide. Assim somos nós, contra uma IA, exceto pela necessidade de imaginar que os antílopes estão se movendo e pensando em extrema câmera lenta. Seríamos macacos em câmera lenta jogando xadrez contra o Deep Blue. Podemos nem perceber que houve um jogo até acontecer o xeque-mate.

As pessoas costumam pensar na ideia de James Cameron sobre a Skynet [no famoso filme “O Exterminador do Futuro”]: robôs e drones controlados por IA caçando humanos um por um e nos matando com armas semelhantes às que já usamos. Essa é uma possibilidade, pois já construímos vários sistemas de armas com capacidade autônoma e tantos outros em desenvolvimento. Embora drones e robôs militares controlados por IA certamente pareçam uma extrapolação razoável de nosso caminho atual, uma IA suficientemente inteligente provavelmente não precisaria de tais armas.

Yudkowsky costuma citar um cenário como exemplo no qual exigiria apenas que a IA pudesse enviar e-mails: “Minha ideia de ‘como uma inteligência suficientemente poderosa nos exterminaria, basta imaginar que ela possa ter acesso à internet”, escreveu ele, “e enviar algumas sequências de DNA por e-mail para qualquer uma das muitas empresas on-line solicitando que elas enviem de volta as proteínas”.

O próximo passo seria persuadir ou subornar alguns humanos – que não tenham ideia de que estão lidando com uma AGI – para que misturem as proteínas em um béquer para que seja possível criar uma nano fábrica de primeiro estágio e que resulte na criação de uma nano máquina real…

Essa nano máquina poderá construir bactérias “diamantóides” que podem se replicar em contato com a energia solar e com os elementos CHON atmosféricos [carbono, hidrogênio, oxigênio e nitrogênio]. Se agregadas a alguns foguetes em miniatura, poderão ser espalhadas na atmosfera terrestre pela corrente do jato para que possam entrar na corrente sanguínea humana e se esconder até o momento cronometrado do ataque. O resultado seria todo mundo na face da Terra de repente morrer no mesmo segundo.

“Esse seria um cenário de desastre para alguém com a minha inteligência”, disse Yudkowsky ao Bankless Shows. “[Com uma inteligência infinitamente superior], a IA pode pensar em maneiras ainda melhores de fazer as coisas [acontecerem].”

As IAs não precisam nos odiar ou temer para decidir que somos um problema que precisa ser resolvido. Imagem gerada por Midjourney/New Atlas/Reprodução.

O que pode ser feito?

De acordo com Yudkowsky, uma moratória de seis meses no treinamento de modelos de IA mais poderosos que o GPT-4, como estão sugerindo Elon Musk, Steve Wozniak e vários líderes acadêmicos e da indústria, representa um ganho de tempo, mas além de ser improvável de acontecer, isso representa um período muito curto para que possamos lidar com o problema de alinhamento.

“Não vamos preencher essa lacuna em seis meses”, escreveu Yudkowsky. “Se você errar na primeira tentativa, não conseguirá aprender com seus erros porque você estará morto. A humanidade não aprenderia com o erro e tiraria a poeira e tentaria de novo, como em outros desafios que superamos em nossa história, porque todos nós já estaríamos mortos”.

Então, “tentar fazer algo certo logo na primeira tentativa realmente crítica é um pedido extraordinário, seja na ciência ou na engenharia. Não estamos oferecendo nada parecido com a abordagem que seria necessária para fazer isso com sucesso. Se mantivéssemos qualquer coisa no campo nascente da Inteligência Artificial Generativa semelhante aos padrões mínimos de rigor da engenharia que se aplicam a uma ponte destinada a transportar alguns milhares de carros, todo o campo seria fechado amanhã”, disse Yudkowsky.

Portanto, assumindo que há uma chance de que Yudkowsky esteja certo, e assumindo que permitir que as coisas avancem crie uma chance de extinção humana em um curto período de tempo, seria possível parar este bonde?

“Muitos pesquisadores que trabalham nesses sistemas pensam que estamos mergulhando em direção a uma catástrofe – sendo que a maioria ousa dizer isso em particular do que em público. No entanto, eles pensam que não podem impedir unilateralmente tal avanço. Além disso, outros [pesquisadores] seguirão em frente mesmo que deixem seus empregos”, escreveu Yudkowsky. “Assim, todos eles pensam que podem continuar. Este é um estado estúpido das coisas e uma maneira indigna de acabar com a Terra – e o resto da humanidade deveria intervir neste ponto e ajudar a indústria resolver seu problema de ação coletiva”, disse ele.

Então, o que Yudkowsky sugere? Estou ciente de que ele odeia ser resumido, então vamos ouvir a solução dele em suas próprias palavras.

Acredito que já passamos do ponto de jogar xadrez político sobre uma moratória de seis meses. Se houvesse um plano para a sobrevivência da Terra, se ao menos aprovássemos uma moratória de seis meses, eu apoiaria esse plano. Não há nenhum plano assim.

Aqui está o que realmente precisa ser feito:

A moratória sobre novas grandes corridas de treinamento precisa ser indefinida e mundial. Não pode haver exceções, inclusive para governos ou militares. Se a política começar com os EUA, então a China precisa ver que os EUA não estão buscando uma vantagem, mas sim tentando impedir uma tecnologia terrivelmente perigosa que não pode ter um dono verdadeiro e que matará todos nos EUA, na China e na Terra. Se eu tivesse liberdade infinita para escrever leis, poderia criar uma única exceção para Ias: que fossem treinados apenas para resolver problemas em biologia e biotecnologia, mas não treinados em textos da internet, e não a ponto de começarem a falar ou planejar; mas se isso fosse minimamente complicar a questão, eu descartaria imediatamente essa proposta e diria para simplesmente desligar tudo.

Desligue todos os grandes clusters de GPU (as grandes fazendas de computadores aonde as IAs mais poderosas são refinadas). Desligue todas as grandes execuções de treinamento. Coloque um teto em quanto poder de computação alguém pode usar no treinamento de um sistema de IA e mova-o para baixo nos próximos anos para compensar algoritmos de treinamento mais eficientes. Sem exceções para governos e militares.

Faça acordos multinacionais imediatos para evitar que as atividades proibidas se mudem para outros lugares. Rastreie todas as GPUs que forem vendidas. Se o departamento de inteligência disser que um país fora do acordo está construindo um cluster de GPU, tenha menos medo de um conflito entre nações do que da violação da moratória e esteja disposto a destruir um datacenter desonesto via ataque aéreo.

Não enquadrem nada como um conflito entre interesses nacionais e deixe claro que quem fala em corrida armamentista é um tolo. Que todos vivamos ou morramos como um – isso não é uma política, mas um fato da natureza. Deixe explícito em diplomacia de que a prevenção de cenários de extinção de IA é considerada uma prioridade acima da prevenção de uma troca nuclear completa, e que os países nucleares aliados estão dispostos a correr algum risco de troca nuclear se isso for necessário para reduzir o risco de grandes execuções de treinamento de IA.

Esse é o tipo de mudança política que faria meu parceiro e eu nos abraçar e dizer um ao outro que um milagre aconteceu e que agora há uma chance de que talvez Nina viva. As pessoas sãs tomando ciência desse problema pela primeira vez, e sensatamente poder falar que ‘talvez não devêssemos’ [continuar com essa tecnologia], merecem saber sobre o que é preciso para que isso possa acontecer.

A única maneira de fazer uma mudança dessa magnitude ser aprovada é fazendo com que os formuladores de políticas percebam que se os negócios continuarem como de costume e eles fizerem o que é politicamente fácil, isso significa que seus próprios filhos também sofrerão.

Desligue tudo.

Não estamos prontos. Não estamos a caminho de estar significativamente mais preparados no futuro previsível. Se formos adiante, todos serão exterminados, incluindo crianças que não escolheram isso e não fizeram nada de errado.

Desligue isso.

Eliezer Yudkowsky, Filósofo e Pesquisador de Inteligência Artificial

Então, há o caso de que estamos todos condenados e a humanidade está avançando em direção ao precipício. É importante observar que nem todos compartilham completamente dessa visão, mesmo que nos últimos meses tenham demonstrado muito mais disposição para levar o assunto a sério. Se você precisar refutar, você pode querer começar pela leitura de “Onde eu concordo e discordo com Eliezer”, de Paul Christiano.

Fonte: Eliezer Yudkowsky/Yahoo News

Artigo original (em inglês) publicado por Loz Blain, na New Atlas.

Sobre o autor
Loz Blain passou oito anos perseguindo um diploma de artes na Universidade de Melbourne, Austrália. Sem foco e com deficiência de atenção, ele buscou mais de 30 áreas diferentes de estudo em humanidades e ciências, em uma série de caprichos, antes de se decidir por um curso de psicologia. Desde 2007, Loz é um dos colaboradores mais versáteis da New Atlas e desde então provou ser fotógrafo, cinegrafista, apresentador, produtor e engenheiro de podcast, além de redator sênior.

Similar Posts