Todos os dias saem notícias sobre novos produtos e serviços que se utilizam de AI em seu core. Acompanhando o mercado, podemos perceber os sinais de que as AIs continuarão a impactar as vidas de todos na sociedade durante um bom tempo, trazendo mudanças significativas em todas as áreas da vida das pessoas. Desde o modo como trabalhamos, nos movimentamos, ou até nos alimentamos, até a maneira com a qual fazemos negócios, tudo tem sido impactado pela introdução da automação. Com a chegada das AIs que se baseiam no treinamento com base em texto, as LLMs (large language models), tudo ficou ainda mais rápido, pois esses modelos conseguem ser ainda mais personalizados, e realizar tarefas baseadas em comandos naturais do ser humano – utilizando linguagem natural. No entanto, para ferramentas tão poderosas serem de fato eficientes e, sobretudo, confiáveis, precisam ser desenvolvidas com atenção especial aos conjuntos de dados utilizados para seu treinamento.
Um caso interessante para se observar foi o lançamento da AI Overview pelo Google, que tinha o objetivo de ser um complemento das buscas realizadas através do Search. Após o lançamento, usuários de redes sociais começaram a compartilhar respostas absurdas dadas pela IA. Como a tecnologia aprende por meio de dados, com informações de todos os meios virtuais, acabou por absorver conceitos errados quando foi treinada. Agora, não é todo uso de AIs que produz conteúdo ruim. Um experimento interessante, que acabou se concretizando em produto, é o case das agências de notícias internacionais que utilizam a automação alimentada por IA para produzir reportagens esportivas, atualizações financeiras e artigos. São milhares de conteúdos automatizados por ano, mas com um cuidado mais afinado com os datasets que alimentam essas AIs. Estas agências usam a IA para ajudar a interpretar resultados, atuando como um jornalismo liderado por dados, o que é muito mais fácil de controlar e produz resultados mais confiáveis.
Como falamos com frequência em tecnologia: se ela consome lixo, o output será lixo (garbage in, garbage out). Não tem como ter qualidade nos resultados se os elementos analisados forem ruins ou não passarem por uma supervisão adequada. Assim como não se faz um jantar sem escolher muito bem os ingredientes, escolher bem os dados que vão alimentar as IAs é fundamental como etapa de limpeza e preparação. Isso tornaria as respostas mais confiáveis e íntegras. Da mesma forma, não há como educar uma pessoa com base em dados sem fonte confiável, ou em fóruns online, muito menos confiar em resultados de perguntas feitas para IAs treinadas com esse tipo de dado.
As ferramentas baseadas em IAs generativas têm um potencial enorme de ajudar as pessoas em seu processo de aprendizagem, assim como as ferramentas atuais de busca já têm ajudado, mas precisam ser construídas sobre bases sólidas de conhecimento. Os humanos, ao conversarem na internet, não têm compromisso em falar apenas a verdade, ou citar fontes confiáveis, como livros, estudos acadêmicos ou até enciclopédias. Muito pelo contrário: querem expor suas opiniões e debater conceitos, o que faz parte de conversas públicas, mas muitas vezes acaba desafiando a lógica – o debate sobre a terra ser plana é um bom exemplo disso.
Não podemos esquecer a integridade das informações consumidas por este tipo de sistema. O ideal seria que empresas com essa intenção tivessem muito cuidado com os conteúdos utilizados. De quebra, ao dominar essas técnicas, treinarão seus profissionais para aprenderem o que fazer com dados sensíveis e resolver problemas complexos, além de criar sistemas de IA que realmente impulsionam a inovação. A tecnologia do futuro não pode ignorar os princípios da privacidade, da igualdade e da ética. Sem isso, serão novos canais para disseminar desconhecimento.
Aproveite e junte-se ao nosso canal no WhatsApp para receber conteúdos exclusivos em primeira mão. Clique aqui para participar. Startupi | Jornalismo para quem lidera inovação!