• Comissão do Senado deve apresentar regras para uso de inteligência artificial em maio

  • Continua após o anúncio
  • Continua após o anúncio
  • 30/abr 18:27
    Por Julia Camim / Estadão

    A Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado tem até o dia 23 de maio para finalizar seus trabalhos sobre o projeto de lei que regulamenta o uso da tecnologia no país. O relatório preliminar, apresentado na última quarta-feira (24) pelo relator Eduardo Gomes (PL-TO), pode sofrer alterações e receber emendas até o próximo dia 9. O texto é um projeto alternativo que agrupa diferentes propostas sobre o tema, em especial a do presidente da Casa, senador Rodrigo Pacheco (PSD-MG).

    O objetivo da Comissão, criada em 2023 por meio de um requerimento de Pacheco, é estabelecer normas para garantir que as ferramentas de IA sejam seguras e confiáveis, “em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico”. Presidida pelo senador Carlos Viana (Podemos-MG), a equipe realizou uma série de audiências públicas para debater aplicações, benefícios e riscos do uso das tecnologias em diversos setores profissionais e sociais.

    De acordo com o relator, o documento apresentado busca resguardar os direitos fundamentais sem prejudicar a inovação e o desenvolvimento tecnológico no país. Segundo Gomes, é importante diferenciar o que é humano do que é artificial para proteger “o jeito criativo brasileiro” e a “integridade da informação”. Por isso, o texto trata de direitos autorais, direito à privacidade, estabelece a correção de vieses a fim de evitar discriminação, prevê proteção aos trabalhadores e também o fomento à inovação sustentável.

    Após o fim do período de análise pela comissão temporária, o texto será discutido no plenário e, se aprovado, segue para a Câmara dos Deputados, onde pode enfrentar dificuldades para tramitar. Como mostrou o Estadão, na visão do presidente da Câmara, deputado Arthur Lira (PP-AL), o projeto do Senado pode sufocar a capacidade de inovação de desenvolvedores de IA.

    Regulamentação da IA no Brasil

    O primeiro ponto do projeto é a definição das bases para o uso das tecnologias de desenvolvimento de IA no país. O texto estabelece que é fundamental a centralidade da pessoa humana, o respeito aos direitos humanos, à democracia e à liberdade de expressão. É necessário também garantir a proteção ao meio ambiente, a igualdade, a valorização do trabalho humano, o desenvolvimento econômico e tecnológico, a privacidade, o acesso à informação e a proteção de grupos vulneráveis.

    Para isso, a proposta estabelece que os ciclos de vida das ferramentas devem ser supervisionados por seres humanos, os agentes desenvolvedores de sistemas de IA devem ser transparentes e prestar contas além de prevenir e mitigar riscos e danos individuais, sociais e econômicos. O texto ainda prevê que as pessoas afetadas pelos sistemas têm direito à informação prévia sobre a interação com uma ferramenta de inteligência artificial.

    Em quatro casos específicos, no entanto, a lei não se aplica: quando o uso das ferramentas é para fim particular e não econômico, para a defesa nacional, têm formatos abertos e livres, com exceção daqueles considerados de alto risco, ou integram atividades de testagem fora de circulação do mercado.

    Também é prevista a regulamentação de atividades de segurança pública, que poderão utilizar sistemas de identificação biométrica à distância apenas sob autorização judicial. A tecnologia poderá ser utilizada para buscar vítimas de crime ou desaparecidos, em caso de persecução de crimes passíveis de pena máxima de reclusão superior a dois anos ou crime em flagrante.

    A fim de garantir a fiscalização e implementação da lei, o projeto também cria o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado por uma autoridade designada pelo Governo Federal. Assim, serão determinados critérios de avaliação dos sistemas de IA para identificar os riscos de cada tecnologia. Os desenvolvedores de IA ainda serão obrigados a compartilhar os dados sobre o impacto dos algoritmos no funcionamento da ferramenta, identificando a probabilidade e gravidade de consequências adversas.

    A empresa responsável por uma IA considerada de alto risco, que impacta no exercício de direitos e liberdades, afeta um grupo vulnerável ou traz riscos à integridade física, deverá manter contato com o poder público para promover testes de confiabilidade e monitoramento constante dos sistemas.

    Já as tecnologias de risco excessivo serão proibidas. Os sistemas, de acordo com a proposta, não podem:

    – adotar técnicas subliminares que induzem a um comportamento prejudicial ou perigoso à saúde ou segurança própria ou de terceiros;

    – explorar pessoas vulneráveis em decorrência da idade, situação socioeconômica, deficiência física ou mental;

    – possibilitar a produção ou disseminação de materiais de abuso sexual infantil;

    – ranquear ou classificar pessoas, com base em comportamento ou personalidade, para o acesso a bens e políticas públicas;

    – avaliar traços de personalidade ou comportamentos passados, como antecedentes criminais, para avaliação de risco de infrações ou reincidências;

    – desenvolver armas autônomas que não disponham de controle humano.

    As sanções previstas para empresas ou pessoas físicas que descumprirem as normas são advertência, multa de até R$ 50 milhões por infração ou 2% do faturamento empresarial, a publicização da irregularidade, proibição da participação em regime de sandbox – ambiente experimental – regulatório por até cinco anos, suspensão do desenvolvimento e fornecimento de IA e proibição de tratamento de algumas bases de dados.

    Ainda, as violações podem ser enquadradas na Lei Geral de Proteção de Dados (LGPD) e a empresa que causar dano coletivo ou individual deverá reparar a vítima independentemente do grau de autonomia do sistema. A organização apenas não será considerada culpada em casos comprovados de uso dos sistemas por terceiros com intenção de causar danos a outras pessoas.

    O chamado marco regulatório da IA também prevê adoção de medidas de governança e de autorregulação para que iniciativas privadas estabeleçam critérios técnicos sobre determinados sistemas e compartilhem documentações com o SIA, principalmente sobre riscos não mitigáveis, impactos ambientais e sociais da tecnologia em questão.

    Últimas