Em uma recente palestra TED[1], Mustafa Suleyman, cofundador do DeepMind, compartilhou uma reflexão provocada por uma pergunta de seu sobrinho de seis anos: “O que é Inteligência Artificial (IA)?”. Suleyman descreveu a IA como um “software inteligente que lê a maioria dos textos disponíveis na internet e pode conversar sobre qualquer assunto”. Quando questionado se a IA era como uma pessoa, ele explicou ao sobrinho que a IA é uma ferramenta que nos amplia, tornando-nos mais inteligentes e produtivos. À medida que evolui, será como um oráculo onisciente, auxiliando-nos a resolver grandes desafios científicos.
No entanto, Suleyman sentiu que suas respostas foram defensivas. A pergunta, embora simples, raramente é abordada por aqueles que trabalham diariamente com IA: o que realmente é a inteligência artificial? O que significa criar algo completamente novo, fundamentalmente diferente de qualquer invenção anterior?
Isso nos leva a outra questão: como podemos regulamentar algo que ainda não conseguimos descrever ou entender completamente?
Já vivenciamos esse cenário no passado. A tecnologia impulsionou a criação de novas regulamentações para lidar com os desafios decorrentes de seu uso. Em 2018, a entrada em vigor do Regulamento Geral de Proteção de Dados (RGPD), também conhecido como General Data Protection Regulation (GDPR), na União Europeia, gerou uma onda regulatória global. Isso levou vários agentes afetados a adotarem medidas para garantir a conformidade com uma lei de aplicação extraterritorial que exige um alto nível de conformidade, sob pena de riscos sancionatórios, reputacionais e econômicos associados à não conformidade.
Esse movimento regulatório, cunhado pela Professora Anu Bradford como “efeito Bruxelas”, será novamente observado com a regulamentação da IA. A recente publicação do Regulamento 2024/1689, conhecido como Artificial Intelligence Act (ou EU AI Act), certamente desencadeará discussões em outros países ao redor do mundo para regulamentar esse tema complexo.
No Brasil, esse movimento já teve efeitos práticos com o avanço das discussões sobre o Projeto de Lei (PL) nº 2.338/23, de autoria do Senador Rodrigo Pacheco. A tramitação mais recente do PL ocorreu em 9 de julho de 2024, adiando a deliberação do PL na Comissão Temporária de Inteligência Artificial (CTIA). Apesar do adiamento, espera-se que o PL seja aprovado logo após o recesso parlamentar e, em seguida, seja apreciado pelo plenário do Senado e da Câmara dos Deputados, seguindo para a sanção presidencial, caso não sofra alterações.
Embora estejamos em um cenário iminente de regulamentação da IA, é fundamental destacar que os riscos associados à adoção da IA já existem e exigem ação imediata por parte das organizações e de seus usuários. As soluções de IA Generativa permitiram avanços extraordinários na produtividade e eficiência dos usuários, a partir da criação de conteúdo com um simples acesso à internet.
No entanto, se os benefícios são significativos, os riscos também são. Discussões emergiram junto com a IA Generativa, especialmente em relação às fontes de dados utilizadas para o treinamento do sistema, os direitos e autorizações para o uso desses bancos de dados pelos desenvolvedores da IA e os resultados gerados, que podem apresentar alucinações ou resultados não confiáveis.
Os riscos relacionados ao uso dos sistemas de IA podem variar desde uma infração de direitos de propriedade intelectual de terceiros até a utilização de informações não confiáveis, com resultados enviesados e discriminatórios, riscos de segurança da informação e proteção de dados, entre outros riscos que podem afetar diretamente a precisão e acurácia dos conteúdos e resultados obtidos com os referidos sistemas.
Esses são riscos tangíveis e já enfrentados pelas organizações, que ainda não adotaram medidas para conscientizar seus colaboradores, terceiros e prestadores de serviços sobre o uso adequado e ético da inteligência artificial e em como empregar as salvaguardas recomendadas para o seu uso responsável.
Para ilustrar essa realidade, é sabido que empresas do setor financeiro estão utilizando a IA para a análise de crédito, assim como empresas de recursos humanos que estão recrutando candidatos com base em soluções de IA. Como garantir que as decisões tomadas pela IA são justas e não discriminatórias? Se a IA for treinada com dados enviesados, qualquer resultado pode afetar diretamente a vida das pessoas envolvidas.
Apesar da ausência temporária de uma norma legal brasileira sobre o assunto, não podemos olvidar das medidas de governança que devem ser implementadas agora para mitigar os riscos advindos desta tecnologia.
Este é um chamado à ação. Não podemos ignorar a realidade que se impõe ou esperar uma obrigação legal para lidar com os riscos existentes. A jornada de conformidade para cumprir requisitos regulatórios complexos será longa, e é necessário adotar medidas de governança urgentemente, tanto como um passo para mitigar os riscos relacionados ao uso da IA quanto como uma medida para aproveitar os potenciais benefícios, que já estão sendo experimentados por grande parte das empresas.
Nesse sentido, a conscientização sobre a governança em IA é de suma importância. Este não é apenas um tópico para especialistas em tecnologia ou direito, mas uma questão que deve ser pauta da alta liderança. A IA está remodelando o mundo como o conhecemos, e as implicações de seu uso vão além dos aspectos técnicos. Elas tocam em questões éticas, legais e sociais que afetam a todos. Portanto, é imprescindível que os líderes estejam engajados e informados sobre o assunto, conduzindo discussões, estabelecendo diretrizes e garantindo que a IA seja utilizada de maneira responsável e ética. Somente com o engajamento de todos os envolvidos será possível navegar com sucesso no futuro incerto, mas promissor, que a IA nos apresenta. A hora de agir é agora.
[1] Disponível em: https://www.youtube.com/watch?v=KKNCiRWd_j0&t=981s