02.10

Artigos

Propriedade Intelectual

A Inteligência Artificial e os desafios na corrida para regulamentação

Daniel Pinheiro Pereira

A inteligência artificial (IA) já faz parte de boa parte da rotina das pessoas que, muitas vezes, nem ao menos se dão conta disso. Interações com assistentes virtuais e sugestões oferecidas pelos mecanismos de buscas ou pelas plataformas de streaming são apenas alguns dos exemplos mais simples de utilização.

A revolução ocorrida com o surgimento do ChatGPT, em meados de novembro de 2022, colocou a IA em grande evidência no cenário mundial e foi possível perceber um crescimento exponencial de aplicações utilizando desse tipo de tecnologia generativa. 

Com capacidade de automatizar processos, analisar grandes volumes de dados e aprender com padrões, a IA opera de forma transversal nos mais diversos setores da economia como na indústria, na medicina, na publicidade, nos investimentos, no entretenimento e está redefinindo a maneira como empresas, governos e indivíduos interagem. 

Obviamente essa transformação gerou uma corrida global para regulamentação da IA. Recentemente, em março de 2024, foi aprovado o AI ACT que é a regulação da IA na União Europeia e pretende garantir o desenvolvimento e utilização da tecnologia de forma segura, ética, responsável e atinge até mesmo fornecedores estrangeiros, desde que seus sistemas impactem os indivíduos no território da UE. 

Anteriormente, no último trimestre de 2023, os Estados Unidos já haviam anunciado diretrizes para o uso seguro da IA em seu território, através de uma ordem executiva do presidente Joe Biden com uma abordagem mais abrangente sobre proteção aos riscos potenciais.

No Brasil, ao tempo em que este artigo é elaborado, tramita no Congresso o PL 2.338/23 que, provavelmente, dará origem ao nosso Marco Regulatório da Inteligência Artificial. O texto atual é substitutivo, apresentado pelo Senado, ao PL 21/2020, que possuía uma redação mais principiológica.

O texto enfatiza a importância dos direitos fundamentais, a transparência que deve permear os sistemas de IA, impõe uma classificação de riscos dos diferentes modelos de IA, além de estabelecer responsabilidades para fornecedores e operadores da tecnologia.

O projeto ainda traz capítulo destinado aos direitos autorais possibilitando que titulares de direitos proíbam a utilização de seus conteúdos no desenvolvimento dos sistemas de IA. Além disso, o fornecedor de sistemas de IA, que utilize conteúdo protegido por direitos autorais, deverá informar quais obras foram utilizadas no treinamento dos sistemas.

De uma maneira geral, percebe-se que as diretrizes globais, que buscam regular a IA, acabam reforçando ainda mais, direta ou indiretamente, a necessidade das empresas em manter uma cultura de governança e compliance, independentemente se os outputs gerados por seus sistemas de IA irão impactar pessoas de dentro ou de fora da corporação. 

Inobstante as legislações específicas, muitas delas ainda em elaboração, como a brasileira, devemos lembrar a já incidência dos demais estatutos vigentes como Código Civil, Código de Defesa do Consumidor, Proteção de Dados, Leis trabalhistas, o que nos deixa muito claro que o dever de vigilância não fica restrito apenas aos desenvolvedores fornecedores de sistema. 

Empresas contratantes desses serviços, mesmo que leigas no assunto, também devem manter monitoramento constante sobre o comportamento da tecnologia, a fim de evitar e mitigar riscos apresentados pelo sistema. 

Nesse sentido, imagine um contratante que pretende oferecer aos seus clientes um chatbot dotado de IA e em determinado momento o sistema comete “alucinações” ou profere mensagens de conteúdo discriminatório aos usuários. Nesse caso, mesmo que a empresa não tenha propriamente desenvolvido aquele aplicativo, estará enquadrada numa cadeia de responsabilidade perante o ofendido/vítima. As corporações deverão estar atentas e adotar políticas de mitigação de riscos que partem desde uma fase prévia à contratação de determinado sistema, passam por um período exaustivo de testes antes de disponibilizá-lo e que seguirá através de monitoramento até o fim do ciclo de vida daquela aplicação. 

Embora a regulamentação da IA pareça ser importante para proteger os direitos e interesses dos cidadãos, legislar sobre tecnologia é sempre um desafio tendo em vista o risco da norma se mostrar obsoleta, ou seja, não acompanhar o avanço tecnológico e, por consequência, se mostrar inútil ou insuficiente.

Além disso, é essencial garantir que as regulamentações não criem obstáculos desnecessários para a inovação e o desenvolvimento da tecnologia. É necessário um habilidoso jogo de equilíbrio entre promover a inovação e proteger os valores e direitos fundamentais da sociedade. Regulamentações excessivamente restritivas correm o risco de sufocar a criatividade e a experimentação necessárias para impulsionar avanços significativos.
{

Advogados