A instalação da Comissão Especial na Câmara dos Deputados para debater o Projeto de Lei 2338/2023 marca um momento decisivo para o futuro digital brasileiro. Enquanto parlamentares se reúnem em Brasília para discutir como regular algo que evolui exponencialmente, uma pergunta emerge: estamos tentando controlar um rio em cheia com barragens projetadas para riachos?
A inteligência artificial não espera. Enquanto debatemos sua regulação, ela avança a passos largos, transformando indústrias e redefinindo profissões. O ChatGPT alcançou 100 milhões de usuários em apenas dois meses – um ritmo de adoção jamais visto na história da tecnologia. Comparativamente, o telefone fixo levou 75 anos para atingir essa marca. Essa velocidade coloca os legisladores em uma posição desconfortável: como regular algo que, quando a lei for promulgada, já terá se transformado?
O projeto em análise traz elementos fundamentais: centralidade da pessoa humana, proteção de direitos fundamentais e mecanismos de responsabilização. Contudo, a velocidade legislativa raramente acompanha a inovação tecnológica. Quando a lei finalmente entrar em vigor, os sistemas de IA já terão evoluído para formas que os legisladores sequer imaginaram durante os debates.
Este é o desafio regulatório contemporâneo: como criar regras suficientemente flexíveis para acomodar inovações futuras, mas robustas o bastante para proteger valores fundamentais? A resposta pode estar não em regular a tecnologia em si, mas em estabelecer princípios inegociáveis que orientem seu desenvolvimento. Princípios como transparência algorítmica e primazia humana podem servir como bússolas éticas em um terreno tecnológico em constante mutação.
O Brasil tem a oportunidade de se posicionar como protagonista nesse debate global. Enquanto a União Europeia adota uma abordagem mais restritiva com seu AI Act e os Estados Unidos preferem uma regulação setorial, podemos encontrar um caminho intermediário que equilibre proteção e inovação. Nossa tradição jurídica, que já produziu marcos como o Código de Defesa do Consumidor e a LGPD, oferece um terreno fértil para essa construção.
A criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial representa um avanço significativo. Ao centralizar a governança na Autoridade Nacional de Proteção de Dados, reconhecemos a conexão intrínseca entre dados e inteligência artificial. Contudo, a efetividade desse sistema dependerá de recursos adequados e independência técnica. Sem investimento em capacitação, corremos o risco de criar um órgão que existe apenas no papel.
Particularmente sensível é a questão dos direitos autorais. Quando sistemas de IA são treinados com obras protegidas, quem deve ser remunerado? O projeto prevê princípios de razoabilidade, mas a implementação prática será um desafio. Um compositor brasileiro recentemente descobriu que suas melodias foram utilizadas para treinar um sistema que agora produz músicas em seu estilo – sem qualquer compensação.
Os impactos econômicos dessa regulação serão profundos. Por um lado, regras excessivamente rígidas podem sufocar startups, criando barreiras de entrada que apenas os gigantes tecnológicos conseguirão superar. Por outro, a ausência de regulação clara pode gerar insegurança jurídica, afastando investimentos. O equilíbrio é delicado e exige uma compreensão sofisticada tanto do direito quanto da tecnologia.
Enquanto avançamos neste debate, uma reflexão se impõe: estamos regulando a inteligência artificial porque tememos sua capacidade de nos superar ou porque reconhecemos que ela amplifica tanto nossas virtudes quanto nossos vícios? Talvez a verdadeira questão não seja controlar a tecnologia, mas decidir coletivamente que tipo de sociedade queremos construir com as ferramentas que criamos.
O filósofo Yuval Noah Harari argumenta que, pela primeira vez na história, enfrentamos o risco de criar sistemas que conhecem mais sobre nós do que nós mesmos. A regulação da IA, portanto, não é apenas uma questão técnica ou econômica, mas existencial: trata-se de preservar nossa autonomia como indivíduos e como sociedade.
E você, prefere uma IA estritamente controlada, mesmo que isso signifique menos inovação, ou está disposto a aceitar riscos em nome do progresso tecnológico? A resposta a essa pergunta definirá não apenas o futuro da regulação, mas o próprio contrato social da era digital.
Alexander Coelho, sócio da Godke Data Protection & Privacy e do escritório Godke Advogados. Especialista em Direito Digital e Proteção de Dados. Membro da Comissão de Privacidade e Proteção de Dados e Inteligência Artificial (IA) da OAB/São Paulo. Pós-graduado em Digital Services pela Faculdade de Direito de Lisboa (Portugal).
Fonte: TI INSIDE Online - Leia mais