Desde o dia 10 de janeiro, a OpenAI, responsável pelo ChatGPT, alterou a sua página de políticas de uso na internet. A empresa retirou um trecho do texto que proibia o uso de sua tecnologia para fins “militares e de guerra”. A alteração ocorre num momento em que agências militares em todo o mundo mostram interesse em usar a Inteligência Artificial.
Quando questionado sobre a mudança na sua política, o porta-voz da OpenAI, Niko Felix, disse ao Intercept que a empresa “pretendia criar um conjunto de princípios universais que fossem fáceis de lembrar e aplicar, especialmente porque nossas ferramentas são agora usadas globalmente por usuários comuns que agora também pode construir GPTs.”
Felix explicou que “um princípio como ‘Não prejudique os outros’ é amplo, mas facilmente compreendido e relevante em vários contextos. A OpenAI citou especificamente armas e ferimentos a terceiros como exemplos claros”.
A OpenAI ainda proíbe a utilização dos seus grandes modelos de linguagem (LLMs) para qualquer ato que possa causar danos e alerta as pessoas contra a utilização dos seus serviços para desenvolver ou utilizar armas.
Acesse aqui e saiba como você e o Startupi podem se tornar parceiros para impulsionar seus esforços de comunicação. Startupi – Jornalismo para quem lidera a inovação.