Marco Legal da IA aprovado pelo Senado: impactos e próximos passos

Foi aprovado, em 10 de dezembro, pelo Senado Federal, o texto do substitutivo ao Projeto de Lei 2338/2023, que estabelece o Marco Legal da Inteligência Artificial no Brasil. O texto segue agora para a Câmara dos Deputados e ainda pode sofrer alterações.

Confira abaixo alguns dos principais impactos da regulação em tramitação:

1. Direitos Autorais e Desenvolvimento de IA

– Estabelece a obrigatoriedade de remuneração aos titulares de direitos autorais quando seus conteúdos forem utilizados no treinamento de sistemas de IA;

– Prevê a necessidade de publicação de sumário informando quais conteúdos protegidos foram utilizados no desenvolvimento dos sistemas;

– Permite livre negociação do uso das obras entre as partes, inclusive de forma gratuita;

– Visa proteger o setor cultural e criativo, garantindo remuneração pela utilização de conteúdo.

2. Sistema de Governança

– Cria o Sistema Nacional de Regulação e Governança de IA (SIA), coordenado pela ANPD;

– Estabelece competências setoriais específicas, mantendo as atribuições dos reguladores existentes;

– Prevê regimes simplificados para startups e pequenas empresas.

3. Autoridade Nacional De Proteção de Dados

– É designada autoridade competente para impor sanções, aplicar multas, expedir normas sobre as formas e requisitos de certificação, os procedimentos da avaliação de impacto algorítmico e para a comunicação de graves incidentes.

– Deverá se manifestar sobre processos normativos dos órgãos reguladores e exercerá competência normativa, regulatória e sancionatória quanto ao uso de IA para atividades econômicas que não tiverem órgão regulador específico.

– Zelará pelos direitos fundamentais, estimulará a adoção de boas práticas, receberá denúncias e representará o Brasil em organismos internacionais da área.

– Coordenará o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será criado e integrado por órgãos estatais de regulação setorial, entidades de autorregulação e de certificação, pelo Conselho de Cooperação Regulatória de Inteligência Artificial (Cria) e pelo Comitê de Especialistas e Cientistas de Inteligência Artificial (Cecia).

4. Classificação de Risco

– Define sistemas proibidos (risco excessivo);

– Estabelece requisitos específicos para sistemas de alto risco;

– Cria obrigações especiais para IA generativa e de propósito geral.

– Estabelece o caráter facultativo para a avaliação preliminar, ou seja, a avaliação preliminar só será obrigatória para os sistemas generativos e de propósito geral.

5. Trabalhadores

– Os candidatos terão assegurados os direitos a explicação e revisão humana das decisões que tiverem impacto jurídico relevante em processos recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, avaliação do desempenho e do comportamento das pessoas afetadas nas áreas de emprego.

– No caso de uso de sistemas que façam identificação biométrica, deverá haver a garantia de proteção contra discriminação direta, indireta, ilegal ou abusiva.

6. Prazos de Adequação

– Vigência geral: 730 dias após publicação;

– Sistemas proibidos e IA generativa: 180 dias;

– Disposições sobre supervisão e fiscalização: imediata;

– Medidas de incentivo: imediata.

Embora a tramitação da lei ainda dependa da análise da Câmara dos Deputados e sanção presidencial, algumas medidas já podem ser tomadas pelos agentes de IA, especialmente a implementação da governança, com base nas boas práticas atuais, antecipando a conformidade com a regulação. Para tanto, as seguintes medidas são recomendadas:

  1. Risk assessment da IA para estabelecer o programa de governança e aplicação de modelo de análise de maturidade periódica;
  2. Realizar o mapeamento dos sistemas de IA utilizados ou em desenvolvimento;
  3. Instituir o Comitê de Uso Responsável da IA (podendo aproveitar alguma estrutura já existente, como o de riscos, dados ou de cybersegurança);
  4. Desenvolver Política de Uso e Guias de Boas Práticas no uso de sistemas de IA;
  5. Desenvolver metodologia e implementar processos de documentação das decisões automatizadas;
  6. Atualizar clausulado específico para contratos/licenças de uso de IA;
  7. Adotar padrões técnicos internacionalmente reconhecidos;
  8. Implementar medidas de transparência sobre o uso de IA;
  9. Investir na capacitação das equipes sobre uso ético e responsável de IA;
  10. Avaliar potencial de risco da utilização de ferramentas de Inteligência Artificial;
  11. Acompanhar regulamentação setorial específica.

O Peck Advogados está à disposição para auxiliar no processo de adequação e esclarecer dúvidas específicas sobre os impactos em cada setor.

Continuaremos acompanhando a tramitação na Câmara dos Deputados e manteremos todos informados sobre eventuais alterações relevantes.

Compartilhe

Últimas notícias

17/03/2023

Aceleradora Abstrato abre em Florianópolis com 12 empresas de tecnologia

Santa Catarina ganha nesta quinta-feira mais um empreendimento de peso no setor de tecnologia: a Abstrato Aceleradora é inaugurada em Florianópolis às 18h com 12 […]

16/05/2022

Dados vazados ou sequestrados afetam nosso dinheiro e moral: o que fazer?

Quem diria que os dados se tornariam uma propriedade, um bem com valor patrimonial sujeito a estar na mira do crime organizado digital? Hoje o […]

09/05/2023

O cenário da Proteção de Dados no Reino Unido

As mudanças que ocorreram com a saída do Reino Unido da União Europeia não foram só do ponto de vista econômico, mas também no sistema […]

Veja mais publicações

ASSINE NOSSA NEWSLETTER

Receba conteúdos sobre Direito, Inovação e Negócios.

CADASTRE-SE

Nosso Escritório

Rua Henrique Schaumann, nº 270, 4º andar
Edifício Pinheiros Corporate,
São Paulo – SP | CEP: 05413-909
(11) 2189-0444