*Por Flávio Costa
No mês de dezembro de 2024, durante os 12 dias de novidades da OpenAI, dentre várias atualizações interessantes, como a disponibilidade do Sora como produto standalone (https://sora.com acessível apenas para clientes ChatGPT Plus ou Pro), foram lançados também os novos modelos o3 e o3-mini, referidos como modelos que superam capacidades humanas em algumas áreas. As primeiras avaliações mostram que o o3 pontuou 96,7% nos problemas de matemática do AIME 2024, errando apenas UMA questão.
AGI é um conceito que representa um nível avançado de IA capaz de realizar qualquer tarefa intelectual que um ser humano consiga executar. Uma das principais distinções desse modelo especializado seria o senso de raciocínio, ou seja, habilidades cognitivas comparáveis às humanas, incluindo planejamento, abstração e tomada de decisões em ambientes dinâmicos.
Linha do tempo para melhor entendimento dos avanços:
Setembro/2024 o1: projetado para realizar um raciocínio mais profundo antes de responder, melhorando a precisão em tarefas complexas como ciências, codificação e matemática.
Dezembro/2024 o3: se baseia na fundação do o1, oferecendo desempenho superior em tarefas de raciocínio complexas. Ele emprega técnicas de aprendizado por reforço para aprimorar suas habilidades de resolução de problemas.
O novo modelo se chama “o3” em vez de “o2” para evitar potenciais conflitos de marca com a operadora de telecomunicações britânica O2.
A empresa não anunciou datas de lançamento para nenhum dos novos modelos o3, mas o CEO Sam Altman disse que o o3-mini pode ser lançado no final de janeiro/2025.
Esses avanços contribuem para o planejamento da OpenAI de desenvolvimento contínuo da AGI, que, embora represente um progresso significativo, continua sendo um esforço complexo e contínuo. Porém, esses avanços nas capacidades de modelos de linguagem também trazem riscos. À medida que esses modelos se tornam mais inteligentes e autônomos, o potencial de danos causados por desalinhamento ou uso indevido aumenta significativamente. Isso destaca a necessidade URGENTE de pesquisas em segurança de IA.
Investimentos estão sendo direcionados para áreas como o monitoramento da “cadeia de pensamento” (chain-of-thought) para detectar possíveis enganos e garantir que sistemas de IA mais avançados permaneçam alinhados aos valores humanos. O “Alinhamento Deliberativo”, é um dos exemplos desse investimento, um paradigma de treinamento que ensina diretamente aos LLMs raciocinadores o texto de especificações de segurança interpretativas e escritas por humanos, e os treina para raciocinar explicitamente sobre essas especificações antes de responder.
*Flávio Costa é especialista em cibersegurança, professor, escritor e palestrante. Engenheiro de Desenvolvimento de Negócios da Fortinet, instrutor oficial e Subject Matter Expert (SME) da CompTIA e professor na iniciativa do Ministério da Ciência, Tecnologia e Inovação (MCTI) do Governo Federal.
Aproveite e junte-se ao nosso canal no WhatsApp para receber conteúdos exclusivos em primeira mão. Clique aqui para participar. Startupi | Jornalismo para quem lidera inovação!