Após a Autoridade Nacional de Proteção de Dados (ANPD) proibir a Meta, proprietária de plataformas como Facebook, Instagram e Whatsapp, de usar dados para treinar modelos de inteligência artificial. A empresa entrou com um pedido de reconsideração, mas o órgão manteve a sua posição, proibindo a big tech de utilizar os dados de usuários. Embora a legislação sobre IA esteja em desenvolvimento no Brasil, precisamos lembrar que a IA nada mais é do que um desenvolvimento do conceito de “big data”, simultaneamente overhyped se comparado a 10 anos atrás, e que já regulamos a privacidade e a segurança de dados, além de copyright de maneira importante no Brasil.
A decisão da ANPD não só representa um avanço, mas um alerta rumo a uma abordagem mais responsável no uso da IA. É claro que segurança e confiabilidade da aprendizagem de IA no Brasil são temas complexos e multifacetados. O investimento em pesquisa e desenvolvimento ainda é inferior, enquanto muitas big techs que têm sede nos EUA, vem influenciando o desenvolvimento global de IA justamente por terem investimentos em pesquisa significativos.
Ainda assim, incidentes noticiados pelo The New York Times como o caso do hacker que invadiu os sistemas de mensagens internas da OpenAI em abril do ano passado, roubando detalhes sensíveis sobre a tecnologia da empresa, levaram a medidas mais rigorosas. Com isso, criou-se um Comitê de Segurança e Proteção, apoiado por especialistas como Paul Nakasone, ex-chefe da NSA, agência de Segurança Nacional dos EUA.
Já durante o Seoul AI Safety Summit, evento que aconteceu na capital da Coreia do Sul, em maio deste ano, empresas como Google, Meta, Microsoft, Amazon, OpenAI e xAI, de Elon Musk, bem como empresas da China, Coreia do Sul e Emirados Árabes Unidos, reuniram-se em um acordo voluntário internacional no qual se comprometem a “não desenvolver ou implementar” modelos de IA sem controle sobre riscos graves. Caso contrário, as empresas concordaram em desligar imediatamente o desenvolvimento de seus modelos de IA.
O anúncio amplia também a chamada Declaração de Bletchley, assinada por mais de 25 países na primeira cúpula internacional sobre a segurança da IA, realizada em novembro, no Reino Unido. O Brasil é um dos signatários do documento que apresenta a urgência da compreensão e administração coletiva dos potenciais riscos da IA.
Embora essas iniciativas sejam louváveis, a governança global de IA está aquém do ideal, reagindo a riscos à medida que surgem. O Brasil tem potencial para se destacar, mas precisa de investimento em pesquisa, no desenvolvimento da tecnologia, além de educação e regulamentação ética para garantir benefícios aos cidadãos. A automação que a IA traz pode melhorar a produtividade e adicionar eficiência à indústria, impactando positivamente na economia. A personalização de conteúdo pela IA promete aprimorar a experiência do usuário, mas requer treinamento com dados diversos para que seja pertinente.
Para que isso ocorra sem mais consequências negativas, o, é fundamental que os sistemas de IA sejam transparentes e explicáveis para que as pessoas entendam como as decisões são tomadas e quem é responsável por elas. Apesar dos avanços, falta muito para que as empresas e governos trabalhem para mitigar riscos, preparar líderes e envolver a sociedade civil e especialistas na discussão desses temas. A colaboração é essencial para desenvolver e usar a IA de maneira que beneficie a humanidade como um todo, minimizando riscos e maximizando os benefícios. Sem que todos esses agentes tenham o mesmo entendimento e cheguem a um denominador comum, a “engrenagem” da IA ainda seguirá girando de forma descompassada.
Aproveite e junte-se ao nosso canal no WhatsApp para receber conteúdos exclusivos em primeira mão. Clique aqui para participar. Startupi | Jornalismo para quem lidera inovação!