Nesta quinta-feira (05), o Senado aprovou o Projeto de Lei (PL) 2.338/2023, que regulamenta a inteligência artificial no Brasil. Embora seja um avanço, o texto ainda precisa ser apreciado pelo plenário e seguir para a Câmara dos Deputados.
A aprovação contou com apoio simbólico após ajustes em pontos polêmicos. O trecho que classificava sistemas de IA de big techs como “alto risco” foi removido, o que gerou críticas por favorecer essas empresas.
Senado deve fazer apenas ajustes no projeto
O projeto, criado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), passou por mudanças relevantes. Essas alterações aconteceram devido à pressão de parlamentares de direita e grandes empresas de tecnologia. Eles afirmaram que o texto original poderia prejudicar a liberdade de expressão.
O senador Carlos Viana (Podemos-MG) preside a Comissão Temporária Interna sobre Inteligência Artificial (CTIA) e enfatiza a necessidade de proteger dados digitais no Brasil. Para ele, é essencial impedir o uso irresponsável dessas informações para garantir os direitos fundamentais e a criatividade dos cidadãos.
O projeto estabelece o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). Esse sistema atuará na regulamentação e supervisão do uso de IA no Brasil.
Assim, as empresas não poderão utilizar conteúdos protegidos por direitos autorais para treinar inteligência artificial sem compensar os detentores. No entanto, instituições científicas, museus e bibliotecas sem fins lucrativos podem usar esses conteúdos livremente.
Restrições e Penalidades
Entre as proibições estabelecidas pelo projeto, estão:
- Uso de IA para criar material de abuso ou exploração sexual.
- Exploração de vulnerabilidades dos usuários.
- Indução a comportamentos que possam causar danos à saúde, segurança ou direitos fundamentais.
- Desenvolvimento de armas autônomas que ataquem sem intervenção humana.
Penalidades incluem multas de até R$ 50 milhões ou 2% do faturamento anual da empresa, suspensão parcial ou total das ferramentas de IA e publicação das infrações cometidas.
Algumas aplicações de IA foram classificadas como de alto risco, exigindo maior controle, como:
- Gestão de imigração e controle de fronteiras.
- Diagnósticos médicos e procedimentos clínicos.
- Controle de trânsito e abastecimento de serviços essenciais, como água e energia.
- Processos seletivos de estudantes e acesso a serviços públicos essenciais.
Dessa forma, empresas menores, como startups, podem enfrentar maiores custos para atender às regulamentações. Isso preocupa parte do setor, que teme impactos na inovação.
Um relatório recente da Cisco revela que 98% das empresas brasileiras estão criando estratégias de inteligência artificial. Contudo, a falta de infraestrutura ainda representa um grande desafio.
Portanto, com a regulamentação avançando, o Brasil busca equilibrar inovação tecnológica e proteção de direitos. O tema segue gerando debates importantes no mercado e na sociedade.