Senado Aprova Marco Regulatório da Inteligência Artificial

Projeto de lei segue agora para a Câmara dos Deputados

No último dia 10 de dezembro, o Senado Federal aprovou o Projeto de Lei 2.338/23, que estabelece um marco regulatório para o desenvolvimento e uso da inteligência artificial (IA) no Brasil.

O projeto, agora remetido à Câmara dos Deputados, ainda poderá sofrer alterações antes de retornar ao Senado para a decisão final (atualmente o projeto tem cerca de 199 emendas a apreciação).

Abaixo os principais pontos do PL 2.338/23, destacando aspectos cruciais para o Setor de tecnologia da informação (TI).

Principais Aspectos do Marco Regulatório da Inteligência Artificial

1. Responsabilidades dos Agentes da Cadeia de Valor

Os agentes da cadeia de valor da IA incluem desenvolvedores, provedores e usuários. O projeto destaca que os usuários também possuem responsabilidade no uso e contratação de sistemas de IA desenvolvidos por terceiros.

Nota: A “cadeia de valor” refere-se às etapas de criação, distribuição e utilização de sistemas de IA. Isso inclui desde o desenvolvimento do algoritmo até a sua aplicação prática.

2. Sistemas de Propósito Geral

O PL aborda sistemas de IA amplamente aplicáveis, como ChatGPT, Claude e CoPilot, que podem ser utilizados em diversas finalidades e contextos.

Nota: Sistemas de propósito geral são algoritmos versáteis que oferecem funcionalidades abrangentes, diferentemente de soluções projetadas para casos de uso específicos.

3. Direitos dos Indivíduos Atingidos

O projeto protege direitos individuais e coletivos de pessoas afetadas pelo uso de sistemas de IA, garantindo transparência, segurança e responsabilização.

Nota: Direitos como explicação de decisões automatizadas, opção de revisão humana e mecanismos de recurso estão alinhados a normas internacionais, como o GDPR europeu.

4. Requisitos de Governança e Avaliação de Impacto

Empresas devem implementar medidas de governança baseadas nos riscos associados aos seus sistemas de IA. O projeto também detalha situações que demandam avaliações de impacto algorítmico.

Nota: A avaliação de impacto algorítmico é um processo de identificação e mitigação de riscos associados ao uso de IA, incluindo vieses, discriminação e falta de transparência.

5. Processo de Certificação

Será estabelecido um mecanismo para certificar a conformidade dos sistemas de IA com as regras definidas pelos órgãos reguladores.

Nota: Certificações são fundamentais para garantir que tecnologias atendam a padrões de segurança, ética e privacidade.

6. Autorregulação Setorial

Setores específicos deverão desenvolver diretrizes de autorregulação, aprovadas por reguladores competentes.

Nota: A autorregulação promove soluções adaptadas às necessidades de cada setor, mantendo flexibilidade no cumprimento das normas.

Legislação Vigente Aplicável

Até que o marco regulatório entre em vigor, sistemas de IA no Brasil continuam sujeitos a normas como:

  • Lei Geral de Proteção de Dados (LGPD)
  • Marco Civil da Internet
  • Leis de Propriedade Intelectual e Direitos Autorais
  • Código do Consumidor
  • Legislação Trabalhista

Nota: A integração entre normas já existentes e as novas regras será crucial para evitar sobreposições e lacunas.

Recomendações para Profissionais de TI

  • Mapeie casos de uso de IA: Identifique onde e como sistemas de IA são aplicados em sua organização.
  • Desenvolva um programa de governança: Adote boas práticas de segurança, proteção de dados e compliance.
  • Monitore riscos: Avalie potenciais impactos em cibersegurança, proteção de dados e propriedade intelectual.

Nota: A adoção proativa de medidas de governança não só assegura conformidade como também agrega valor à organização.