É necessário regular a inteligência artificial na América Latina?

Diante dos erros: Quem é o responsável? Quem sanciona a empresa? Como reparam os danos causados? / Luca Bravo, Unsplash
Diante dos erros: Quem é o responsável? Quem sanciona a empresa? Como reparam os danos causados? / Luca Bravo, Unsplash
Debate ganha novos contornos depois da criação, na Europa, do primeiro marco jurídico de IA da história.
Fecha de publicación: 20/09/2021
Etiquetas: Gestão LexLatin

Quando ouvimos falar sobre Inteligência Artificial (IA) provavelmente pensamos em imagens de robôs ou cidades futuristas, como em alguns filmes de ficção científica que assistimos. 

Porém, a IA está mais presente do que pensamos. Ferramentas tecnológicas que utilizamos no nosso dia a dia como Spotify, Netflix ou Gmail ou chatbots de interação que servem para solucionar dúvidas ou reclamações frente a uma entidade bancária são alguns exemplos de usos da IA.

No caso do setor privado, muitas empresas incorporaram a IA para agilizar processos internos, adquirir novos clientes, cross selling e up selling, prevenir riscos, otimizar inventários, entre outros usos. 

A evolução e o crescimento exponencial nos últimos anos da IA a nível mundial em diferentes setores do mercado traz consigo um intenso debate acerca dos potenciais riscos inerentes ao seu uso e medidas aplicáveis mediante uma normativa específica que as supervisione. 

Pois bem, a União Europeia (UE) tomou a frente. Dentro da estratégia digital dos seus países membros, há alguns meses publicou o Projeto de Regulamento Europeu sobre os usos da IA que busca garantir a segurança dos seus cidadãos e regular os sistemas que utilizam este tipo de tecnologia.

O projeto de regulamento propõe uma classificação baseada na análise de risco que o sistema de IA pode aplicar para que ocorra ou não uma violação dos direitos fundamentais das pessoas e, desta forma, possa ser garantida uma utilização segura, transparente e sob controle humano.

Assim, a Proposta de Regulamento junto ao Livro Branco sobre IA e outras disposições comunitárias buscam que a UE se converta no hub mundial da IA: ao publicar o primeiro marco legal da história e promover o investimento e inovação em todos os países membros.

O esforço da Comissão Europeia em criar um marco na IA promovendo uma regulação segura e planos de investimento não será em vão. A meta é atrair mais de 20 bilhões de euros de investimento ao ano durante os próximos dez anos, provenientes de empresas privadas e governos europeus que fomentarão o desenvolvimento e a aplicação regulada da IA.

Neste contexto, seria prematuro pensar em uma regulação de IA na América Latina? Vamos analisar o caso do Peru.

Desde o ano 2018, o governo peruano realizou grandes esforços para promover a pesquisa em IA e, desde os últimos dois anos, estamos vendo os primeiros avanços regulatórios em matéria digital. Como exemplo, o governo peruano, através da secretaria de Governo Digital da Presidência do Conselho de Ministros, colocou à disposição da população uma Estratégia Nacional da Inteligência Artificial (Enia) correspondente ao período 2021 - 2026 que tem como finalidade impulsionar a pesquisa, desenvolvimento e adoção da IA no país.

Em matéria regulatória, a Lei do Governo Digital e seu Regulamento estabelecem as primeiras disposições sobre as condições, requisitos e usos das novas tecnologias nos procedimentos desenvolvidos para as entidades públicas.

No entanto, não há uma disposição clara e específica sobre IA que regule os riscos, responsabilidades e supervisão do uso próprio deste tipo de tecnologia. Não contar com uma regulamentação implementada que limite o desenvolvimento da IA enquanto seu uso vai crescendo, em um curto ou médio prazo, representaria um grande risco para a sociedade em geral. É necessário levar em conta que a IA em algumas ocasiões funciona mal. É uma tecnologia em expansão e crescimento que pode ter erros que podem nos afetar como pessoas. 

Imaginemos que estamos interagindo com um chatbot de uma linha aérea e ele nos dá uma informação errada sobre o horário de saída de um voo. Lamentavelmente, compramos a passagem e, por desconhecimento, chegamos ao aeroporto em um horário posterior à saída do voo. Quem é responsável pelos danos à minha pessoa? Quem sanciona a empresa? Como reparo os danos ocasionados?

Bom, este exemplo está classificado como um risco mínimo segundo o Projeto de Regulamento Europeu. No nosso caso, se não contamos com uma classificação própria sobre os tipos de riscos no uso da IA e uma regulação às entidades que utilizem esta tecnologia, quem vai proteger nossos direitos fundamentais?

Problemas de segurança, exposição de informação pessoal, comportamento ruim de modelos de IA, problemas de interação e, em geral, os riscos e responsabilidades que isto leva são alguns exemplos de dano à pessoa. É inegável os benefícios que a IA nos traz como cidadãos e como valor agregado para as empresas, às quais recorrem a esta tecnologia cada vez com mais frequência.

Com este exemplo podemos ver a clara necessidade de regular a IA em toda a América Latina. Pensar em um marco normativo sobre IA não é pensar em travas administrativas, muito pelo contrário. Mediante uma legislação clara e concisa podemos incentivar o investimento e a inovação da IA por meio de sandboxs regulatórios que, no final, só trarão benefícios para nossa região.

Por agora, devemos ter esperança que as maiores empresas da região que utilizam a IA recorram a uma autorregulação que seja focada na imparcialidade, transparência, responsabilidade e segurança sobre o uso da IA.

*Eduardo Linares Yabar, membro ativo da ALIL. Advogado internacional - Ontier Espanha. 

Add new comment

HTML Restringido

  • Allowed HTML tags: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Lines and paragraphs break automatically.
  • Web page addresses and email addresses turn into links automatically.