*Por Scott Zoldi
Perder peso sem esforço é um dos grandes sonhos da humanidade. Quem luta contra a balança espera — há décadas — um remédio milagroso que permita eliminar os quilos a mais sem grandes dificuldades. Recentemente, o Ozempic, medicamento usado para diabetes parece ter alcançado essa façanha, inclusive, o empresário Elon Musk é um dos beneficiados pelo feito. Mas, você deve estar se perguntando o que tem a ver o medicamento para diabetes com o ChatGPT?
Ambos estão lutando para ser a panaceia mais badalada de 2023. Mas são, de fato, soluções? Faço mais uma provação: mesmo que sejam, devemos nos permitir confiar nelas?
Em linhas gerais, o ChatGPT não está auxiliando ou aprimorando a criatividade humana, está apenas lançando uma configuração dos dados de IA para os quais foi treinado. Então o que há de tão novo nisso?
O que é velho é novo de novo
Vamos aos fatos, nem a tecnologia ChatGPT da OpenAI (Chat Generative Pre-trained Transformer) nem a Ozempic são exatamente novas.
A versão atual do ChatGPT, versão 3, é uma atualização da versão anterior, ChatGPT-2, lançada em 2019. Ozempic (e medicamentos do gênero) existem há anos. Ozempic foi aprovado pela primeira vez pela Food and Drug Administration (FDA) — a ANVISA dos EUA -, para tratar diabetes tipo II em 2017 e, em 2021, para controle de peso crônico.
E o que exatamente é o ChatGPT?
Quando solicitado a se descrever, o ChatGPT diz: modelo de linguagem AI desenvolvido pela OpenAI, que é capaz de gerar texto semelhante ao humano com base nas informações de entrada que recebe. O modelo da OpenAI é treinado em um grande universo de dados de texto e pode gerar respostas a perguntas, resumir textos longos, escrever histórias e muito mais. É frequentemente utilizado em aplicativos de Inteligência Artificial de conversação para simular um diálogo humana com os usuários.
Superficialmente, esses dois elixires mágicos parecem irresistíveis. Quem não gostaria que um chatbot de IA escrevesse conteúdo ou código? Quem não gostaria de perder peso indesejado sem sentir fome? ChatGPT e Ozempic são duas coisas totalmente diferentes, mas ambos apelam para um dos instintos mais básicos da humanidade: conseguir algo com o menor esforço. E é exatamente por isso que pondero: confiar incontestavelmente em qualquer uma dessas soluções é errado.
Trapaceiros vão trapacear com ChatGPT
Eu não sou exatamente um grande fã de Taylor Swift, mas ela acertou em cheio quando canta em Shake it Off que ‘Fakers gonna Fake’ (falsos irão fingir). Da mesma forma, os trapaceiros vão trapacear com o ChatGPT da OpenAI. Pessoas má intencionadas sempre foram capazes de trapacear em exames e redações, seja encomendando trabalhos antigos – por correio antes da Internet -, ou hoje, em uma miríade de formas digitais. A esse respeito, o ChatGPT é apenas a mais nova ferramenta que permite que os trapaceiros trapaceiem, contudo, em uma escala impressionante.
Confira aqui o Mídia Kit do Startupi!
Acredito que trapacear é errado. O mesmo acontece com todas as instituições de ensino, a maioria das quais possui um código de honra e ética. Se você usar o ChatGPT para escrever seu artigo ou criar outros produtos de trabalho que você apresenta como de sua própria criação, você está trapaceando. Trair é errado e, além disso, a pessoa que você mais machuca quando trai é você mesmo. No final das contas, seja no trabalho ou na vida, os trapaceiros vão falhar miseravelmente, porque não têm as habilidades que a trapaça os impediu de aprender.
Há uma razão pela qual precisamos de IA ética
Não sou médico, então não posso comentar com autoridade sobre os efeitos a longo prazo do uso off-label de Ozempic. Mas eu sou um Ph.D. cientista de dados, e posso dizer que o ChatGPT está posicionado como um assistente excessivamente agressivo; os tecnólogos há muito falam sobre o valor da IA como assistência e aprimoramento, não substituindo e emburrecendo a raça humana. O ChatGPT não está auxiliando ou aprimorando a criatividade humana, está regurgitando uma configuração dos dados nos quais foi treinado. Isso não equivale a inteligência. Existem muitos casos relatados de erros que o ChatGPT frequentemente comete sob o disfarce de autoridade.
A realidade é que nem o ChatGPT nem qualquer IA tem consciência. Dentro de nossa estrutura, já usamos IA generativa para produzir dados de treinamento sintéticos com foco no desenvolvimento de teste de robustez/cenário e automações de processos robóticos (RPAs) e também para certas interações voltadas para o cliente em áreas como gerenciamento de casos de fraude e cobranças. Os RPAs são construídos de maneira ética, explicável, responsável e determinista — qualidades absolutamente essenciais ao usar IA para responder a qualquer questão ou circunstância financeira com impacto humano. Sem um gerenciamento cuidadoso, essas decisões e interações baseadas em IA podem rapidamente se tornar insensíveis, cheias de erros, imprevisíveis e antiéticas.
Colocando o ChatGPT em perspectiva
Eu acredito que o ChatGPT é um brinquedo legal para se divertir. É eficaz para encontrar e corrigir bugs no código do computador. As escolas estão até tentando descobrir como ensinar com ele, em vez de bloquear o acesso dos alunos. O ChatGPT também é uma droga de IA perigosa para a mente que, usada de maneira inadequada, mina a inteligência criativa. Isso me lembra o fato de que Steve Jobs não permitia que seus filhos usassem iPads.
Além disso, sem uma auditoria ou proteção regulatória em torno dele, o ChatGPT não é seguro para uso na tomada de decisão voltada para o cliente. Não apoio o uso do ChatGPT na FICO devido à falta de auditoria, interpretação e explicabilidade — esta não é a tecnologia certa para nossa empresa e as decisões financeiras que permitimos. E não sou o único com esse ponto de vista. Até Sam Altman, CEO da Open AI, concorda; “Atualmente, é um erro usar o ChatGPT para tarefas importantes. O sistema é um vislumbre do progresso; em termos de robustez e confiabilidade, ainda há muito trabalho a ser feito”, escreveu. Ponto final.
O mundo se adaptará ao ChatGPT assim como fez com todas as outras tecnologias. As faculdades mudarão seus currículos e métodos de teste; Prevejo o regresso dos exames escritos e orais. Quanto a mim? Continuarei a escrever artigos com base em meus pensamentos originais, sem um chatbot.
* Scott Zoldi é Chief Analytics Officer da FICO
Acesse aqui e saiba como você e o Startupi podem se tornar parceiros para impulsionar seus esforços de comunicação. Startupi – Jornalismo para quem lidera a inovação.