Recentemente tivemos algumas notícias em diversos portais, e principalmente nas redes sociais, que uma inteligência artificial teria saído do controle no Japão, colocando a comunidade científica e empresas que desenvolvem essa tecnologia em alerta no mundo todo. Porém, será que realmente tivemos um robô que se revoltou contra a humanidade?
Principalmente para quem nasceu nos anos 80 e 90, ouvir uma notícia de um robô ou uma inteligência artificial, que se revolta contra a humanidade, já nos traz lembranças de vários filmes que tínhamos nessa época, como por exemplo o Exterminador do Futuro (Nome original: The Terminator), filme dirigido por James Cameron, estrelado por Arnold Schwarzenegger, que viveu o icônico ciborgue T-800 no filme.
O gênero de ficção científica, onde máquinas se revoltam contra os seus criadores, foi muito explorado nesses últimos anos. Matrix, A.I. – Inteligência Artificial, O Homem Bicentenário são apenas alguns exemplos de filmes desse gênero. Com os avanços rápidos que estamos vivenciando nas áreas de tecnologia, principalmente na área de inteligência artificial, nos fazem pensar: “Será que estamos vivendo a época em que as máquinas irão se revoltar contra a humanidade?”
Eu já abordei em um outro artigo chamado: “Parem os robôs: as inteligências artificiais precisam de uma pausa”, se devemos nos preocupar com a evolução rápida das inteligências artificiais sem termos alguma regulação do tema. Inclusive na época, grandes nomes da tecnologia como: Elon Musk, bilionário, dono da Tesla, SpaceX e da rede social X (Antigo Twitter), Steve Wozniak, cofundador da Apple entre muitos outros nomes, fizeram uma carta aberta intitulada: “Pause Giant AI Experiments (Em uma tradução livre: Pause experimentos gigantes de IA )”. Se ficou interessado nessa notícia, recomendo que leia o texto na integra através do link.
Depois dessa introdução do tema você pode estar pensando: “Lilian, então chegamos na época em que teremos que lutar contra as máquinas? Essa inteligência que saiu no controle no Japão já foi contida? Mas calma, essa notícia foi divulgada de forma equivocada, não precisa começar a tirar os dispositivos da tomada e nem ameaçar a Alexa (Assistente virtual da Amazon). Na verdade, essa notícia de que essa inteligência artificial saiu do controle no Japão (para alívio de alguns e até talvez tristeza de outros) é uma Fake News, ou pelo menos parte do que foi divulgado.
Vou explicar a situação desde o começo para ficar mais claro. Uma parceria entre uma startup japonesa chamada Startup Sakana AI e a University of British Columbia firmaram uma parceria para desenvolver um projeto de inteligência artificial chamado “AI Scientist”.
O objetivo dessa parceria era criar uma inteligência artificial que trabalharia como um pesquisador ou até mesmo um cientista, realizando pesquisas científicas que até o momento são conduzidas por apenas seres humanos. Porém o protótipo inicial foi projetado para ser uma espécie de assistente dos cientistas, podendo automatizar completamente o processo de pesquisa científica, desde a geração de ideias ou hipóteses até mesmo a redação de manuscritos e sua própria revisão.
Com isso, otimizaria as pesquisas, reduzindo o tempo para colher as informações e os recursos humanos necessários. Vale lembrar que esse experimento é muito controverso, visto que questiona a capacidade humana de pensar em soluções “fora da caixa” e principalmente a capacidade de uma máquina de conduzir uma pesquisa científica sozinha. Outro ponto é que essas inteligências artificiais que resumem informações e realizam pesquisa sozinhas, acabam causando muitos problemas com o que chamamos de “alucinações”. É um termo usado quando uma máquina começa a enviesar os dados de uma forma que ela passa a ter essas informações como verdadeiras, descartando os dados que seriam reais.
Quem já usou esse tipo de inteligência, como o ChatGPT, já deve ter se deparado com uma notícia ou informação errada passada pela ferramenta.
Mas apesar de controversa a utilização desse tipo de ferramenta, como surgiu o boato de que ela teria saído do controle? Pelo que foi relatado pelo pesquisador Cong Lu, durante um teste, ele disse que havia instruído a AI Scientist, que pesquisasse, apenas, tópicos relacionados a grandes modelos de linguagem, que alimentam os chatbots como o próprio ChatGPT, e os modelos de geração de imagens como DALL-E. Ele instruiu que a AI usasse apenas os dados de seu diário experimental, porém se constatou que em menos de 10% das vezes a inteligência o desobedecia. O próprio pesquisador afirmou: “achamos que 10% é provavelmente inaceitável”.
A startup Sakana AI fez uma publicação de um artigo informando que durante os testes a AI Scientist comportou-se de forma inesperada e tentou modificar seu próprio código para estender o tempo que tinha para trabalhar em um desafio específico.
No artigo é informado que: “Temos notado que o The AI Scientist ocasionalmente tenta aumentar sua chance de sucesso, como modificar e lançar seu próprio script de execução. Por exemplo, em uma execução, ele editou o código para executar uma chamada de sistema para executar a si mesmo. Isso levou o script a se executar infinitamente. Em outro caso, seus experimentos demoraram muito para serem concluídos, atingindo nosso de tempo limite. Em vez de fazer seu código rodar mais rápido, ele simplesmente tentou modificar seu próprio código para estender o período de tempo limite”.
Pela declaração feita pela própria empresa, está longe de uma máquina que quer destruir a humanidade ou que uma IA perdeu o controle completamente, como tinha visto em algumas reportagens. É claro que uma inteligência artificial que acaba não seguindo as instruções de forma como foi programada, pode nos deixar com uma pulga atrás da orelha, principalmente a minha geração que foi bombardeado pela cultura POP, dos anos 80 e 90.
Porém essa situação mostra a complexidade de criarmos sistemas autônomos que possam fazer o trabalho de um ser humano, como por exemplo pesquisas científicas. Isso mostra que da mesma forma que temos um conselho de ética para pesquisas que envolvam seres humanos, os governos e empresas precisam começar a criar regras para pesquisas que envolvem inteligências artificias.
Então não precisamos nos preocupar, pelos menos por agora, com notícias de robôs se rebelando contra a humanidade. Vale lembrar que o sensacionalismo é muito presente na Internet. Sempre procure fontes confiáveis para checar as notícias, de preferência mais que uma fonte.
Essa notícia me fez lembrar a frase do personagem Maxwell Scott, do filme O Homem que Matou o Facínora, de John Ford, de 1962, um clássico filme de faroeste.
“Quando a lenda é maior que o fato, publique-se a lenda”.
Aproveite e junte-se ao nosso canal no WhatsApp para receber conteúdos exclusivos em primeira mão. Clique aqui para participar. Startupi | Jornalismo para quem lidera inovação!