fbpx

25 ago
Uma regulação inteligente para a Inteligência Artificial

Proposta visa estabelecer primeiro marco regulatório para o desenvolvimento e o uso de IA no país

A Comissão de Ciência e Tecnologia, Comunicação e Informática da Câmara dos Deputados (CCTCI) promoveu uma audiência pública para debater o projeto de lei (PL) nº 21/2020, que estabelece princípios, direitos e deveres para o uso de Inteligência Artificial no Brasil, e dá outras providências.

Trata-se de proposta que visa estabelecer o primeiro marco regulatório para o desenvolvimento e o uso de Inteligência Artificial (IA) no país. Liderada de forma competente pela relatora do projeto, a deputada Luísa Canziani, a audiência promoveu excelente debate técnico e reuniu boas sugestões para aprimoramento do PL. Pretendo utilizar esse texto para resumir as principais sugestões que apresentei naquela oportunidade.

Antes disso, no entanto, vale dar um passo atrás. O objetivo do projeto é bastante ambicioso: nenhum grande país do mundo regulou até hoje Inteligência Artificial de forma transversal – ou seja, independente de sua aplicação específica para um setor ou uma atividade – como pretende o PL.

É verdade que, após anos de debate público, está em pauta na União Europeia uma proposta ainda mais ampla que a brasileira – porém, ela ainda depende de aprovação no Parlamento Europeu e no Conselho da Europa, em um processo que deve levar anos e resultar em inúmeras modificações no texto.

Há ainda, regulações sobre aplicações ou sistemas de IA específicos – como carros autônomos, tecnologias de reconhecimento facial ou sistema automatizados para avaliação de score de crédito.

No entanto, os países têm privilegiado a elaboração de planos ou estratégias nacionais de desenvolvimento de IA, em detrimento de regulações abrangentes e gerais – o Brasil mesmo publicou sua Estratégia Nacional em abril deste ano.

Nesse sentido, a prioridade internacional tem sido estimular a pesquisa em Inteligência Artificial, promover o desenvolvimento de sistemas de IA e viabilizar sua aplicação em setores estratégicos, inclusive pelo poder público.

Isso não significa, contudo, que não há riscos a serem avaliados. Como em qualquer tecnologia nascente é preciso identificar e gerenciar os riscos oferecidos – e eventualmente estabelecer regulações para evitá-los ou mitigá-los.

Entretanto, é fundamental escapar de duas armadilhas que se repetem na regulação de novas tecnologias – ambas bem documentadas acadêmica e historicamente.

De um lado, diante das incertezas geradas por uma nova tecnologia, é preciso evitar o impulso de proibir ou restringir significativamente seu desenvolvimento ou utilização por excesso de precaução ou medo.

De outro, definida uma abordagem mais aberta à nova tecnologia, é preciso investir no debate técnico e em experiências mais flexíveis de regulação – como diretrizes, autorregulações, sandboxes etc. – de modo a evitar diante de um incidente inesperado (um exemplo seria um acidente envolvendo um carro autônomo) ou outro episódio que possa causar certa comoção pública, seja aprovada uma regulação às pressas e sem as devidas ponderações, apenas para responder a tal comoção. Nos dois casos os resultados seriam desastrosos para o país: desestímulo à inovação e atraso tecnológico por décadas.

Nesse contexto, considerando que a Câmara já aprovou o regime de urgência para a tramitação do PL nº 21/2020, manifestando seu claro interesse em avançar com essa discussão, o projeto poderia assumir o papel de nortear as discussões regulatórias futuras de modo a evitar essas armadilhas.

Assim, ao invés de pretender regular definitivamente as técnicas computacionais abrangidas pela Inteligência Artificial, o texto poderia estabelecer alguns parâmetros regulatórios para a atuação futura dos reguladores e do poder público de forma geral.

Visando tal objetivo, sugiro quatro vetores de aprimoramento do projeto. Os dois primeiros estão relacionados ao fato do texto original do PL ter sido inspirado diretamente das Recomendações do Conselho da OCDE para IA. Como a maior parte dos documentos produzidos por organismos internacionais, seu conteúdo é mais aberto e principiológico, visando facilitar o consenso entre os países envolvidos. Por isso proponho:

(1) Que a definição de sistema de IA do PL seja ajustada, deixando-a menos aberta. Uma alternativa seria seguir o exemplo europeu, no qual a minuta em discussão inclui como parte da definição um rol exemplificativo das técnicas computacionais usualmente utilizadas, como aprendizagem automática (machine learning), inferência bayesiana etc.

(2) Que os princípios previstos no PL para nortear o uso responsável de IA no Brasil sejam detalhados, de modo a preverem comandos claros para quem desenvolve ou utiliza sistema de Inteligência Artificial no país. Isso reduziria a insegurança jurídica e auxiliaria na concretização desses princípios na prática. Em alguns casos, os princípios fazem referência a conceitos que já são amplamente utilizados no direito brasileiro – como dignidade humana, privacidade ou direitos humanos. Em outros casos, no entanto, é preciso que o projeto deixe mais claro quais as obrigações previstas por trás de princípios como transparência, “explicabilidade”, segurança e responsabilização.

Além disso, proponho outros dois aprimoramentos:

(3) Em linha com a minuta em avaliação na União Europeia e com leis brasileiras recentes – como a Lei Geral de Proteção de Dados – que o texto preveja que toda regulação ou intervenção do poder público no tema de IA seja proporcional aos riscos efetivamente identificados. E friso a expressão “efetivamente”, pois é imprescindível que esse risco seja mensurado vis-à-vis aos benefícios oferecidos pela mesma tecnologia e aos riscos oferecidos por sistemas com a mesma funcionalidade que não utilizam IA. Ou seja, essa avaliação de risco deve ser contextual, não pode ocorrer no vácuo.

(4) Por fim, em linha com a experiência internacional, que o PL indique que as regulações e as intervenções do poder público em IA devem ocorrer prioritariamente de forma setorial, considerando o contexto regulatório existente e fortalecendo as autoridades de cada setor. É preciso reconhecer que a regulação do desenvolvimento e do uso de IA deve assumir contornos muito distintos em setores como saúde, segurança pública ou aviação, por exemplo. Justamente por isso, é preciso fugir de ideias como a de uma autoridade super poderosa de regulação de IA ou mesmo da incorporação de competências nesse sentido por entidades como a Autoridade Nacional de Proteção de Dados – que regula tema correlato, mas bastante diverso das tecnologias de Inteligência Artificial.

Há ainda espaço para mais debate e incorporação de outras sugestões, como as apresentadas pelos meus companheiros de audiência pública. A relatora do PL e os membros da CCTCI estão atentos a isso e certamente avançarão no aperfeiçoamento do texto antes de sua votação pela Câmara dos Deputados.

Publicado por JOTA

Deixe um comentário

Seja o Primeiro a Comentar!

avatar

Compartilhe com um amigo

Tags

Tem uma pergunta?
Nós estamos aqui para ajudar. Envie-nos um e-mail ou ligue-nos para (86) 3133-7070
Entrar em contato!
© 2017 iCEV Instituto de Ensino Superior
Esse domínio pertence ao Grupo Educacional Superior CEV
CNPJ: 12.175.436/0001-09