Para Ricardo Cueva, discriminação gerada pelos algoritmos é um dos maiores problemas
O ministro Ricardo Villas Bôas Cueva, do STJ (Superior Tribunal de Justiça), mede o impacto do ChatGPT pela mudança de atitude das pessoas no debate sobre regulação da IA (inteligência artificial).
No começo do ano passado, quando assumiu a presidência de uma comissão responsável por sugerir um projeto de lei para tratar do tema, tudo parecia pertencer a um futuro distante.
“Esse tipo de argumento quase que desapareceu quando surgiu o ChatGPT”, diz o ministro. “A conversa no mundo inteiro passou a ser até um clamor pela regulação. É importante aproveitar esse momento.”
Ele afirma que a inteligência artificial já causa danos às pessoas e oferece riscos muito grandes, daí a necessidade urgente de regulá-la —mas sem criar amarras que impeçam a inovação tecnológica. Cueva aponta a discriminação como um dos maiores problemas dos algoritmos.
RICARDO VILLAS BÔAS CUEVA, 61
Ministro do STJ, foi presidente da comissão responsável por subsidiar a elaboração de um substitutivo sobre inteligência artificial no Brasil. Formado em direito pela USP, é mestre pela Universidade Harvard (EUA) e doutor pela Universidade Johann Wolfgang Goethe (Alemanha).
Porque ela está presente nas nossas vidas. Na contratação de serviços, na obtenção de benefícios, na busca de emprego, ao obter um seguro ou um empréstimo, no reconhecimento facial.
E ela já causa danos e oferece riscos muito grandes. Por exemplo, tem o viés discriminatório que os algoritmos desenvolvem dependendo da base de dados que é usada. No reconhecimento facial, isso é comum. As bases de dados não são suficientemente amplas para contemplar todas as etnias e tipos físicos. Isso gera erros graves que levam a prisões injustas ou até mortes.
Ou então nas contratações. Grandes empresas analisam currículos por meio da inteligência artificial. Mas, pelo fato de as mulheres, no passado, não terem tido tantas oportunidades, elas acabam sendo consideradas num padrão inferior. É um viés que se cria pela repetição de padrões e que tem de ser combatido.
Pelo que a gente viu nas audiências públicas, por sermos um país muito desigual, com um racismo estrutural muito arraigado, o medo é que a inteligência artificial cristalize ainda mais essas estruturas antigas. Que dificulte a mudança social e reforce os vieses discriminatórios, dificulte a ascensão social por questões de gênero, raça, convicções etc.
Ela cria um rol de direitos básicos dos afetados pela inteligência artificial. Com esses direitos, as pessoas poderiam reclamar perante as autoridades competentes e/ou perante o Judiciário. Isso pode criar uma nova leva de demandas, pode haver uma hiperjudicialização, mas talvez seja o preço a pagar.
A ideia é que haja transparência, explicabilidade, inteligibilidade e auditabilidade do algoritmo. Ou seja, a pessoa tem o direito de saber que está sendo tratada por um algoritmo, tem direito a uma explicação sobre como funciona esse algoritmo, tem direito de auditabilidade.
Tem também o direito de exigir requisitos mínimos de segurança, que a inteligência artificial seja capaz de voltar a operar caso o funcionamento seja interrompido –por exemplo, um veículo autônomo não pode parar no meio da estrada.
Também temos que garantir que haja um direito a participação humana na decisão, a uma revisão de uma decisão automatizada.
Há duas abordagens. Uma possibilidade é a regulação setorial. O reconhecimento facial teria uma regulação própria, os veículos autônomos outra, os diagnósticos médicos outra etc. É mais ou menos como os Estados Unidos têm feito.
E tem o caminho da União Europeia, que procura uma regulação mais horizontal, que seja genérica e abarque todos os setores. E cada setor cria normas específicas mais densas. A ideia dessa regulação ao modo europeu é já ter de antemão uma regulação leve com alguns parâmetros de controle do algoritmo.
A nossa inspiração maior foi a União Europeia. Mas, de certo modo, o modelo adotado é um pouco híbrido. A gente também se inspirou na visão americana, que atribui o principal papel de controle para as regulações setoriais.
E criar uma normatização que seja flexível, que possa se desenvolver com o tempo, em paralelo com as tecnologias novas. Sem impedir o desenvolvimento de uma nova técnica, sem gerar obstáculos à inovação e sem criar ônus excessivo para uma empresa nova. A regulação não pode barrar a entrada de novos concorrentes.
A questão do nexo de causalidade é complexa na inteligência artificial, porque o nível de interação com o ser humano varia muito.
O projeto de lei da Câmara, que atendia aos reclamos da indústria, procurava usar uma modalidade de responsabilidade totalmente subjetiva. Ou seja, o ônus da prova ficaria inteiramente com quem sofreu o dano, o que é muito oneroso e contraria o nosso ordenamento jurídico.
O que se procurou fazer na comissão foi criar uma classificação de riscos. No âmbito civil, para as aplicações de alto risco, responsabilidade objetiva [não é preciso provar culpa]. Para as aplicações de menor risco, é possível alegar fatos que eximam de responsabilidades o produtor ou o operador de inteligência artificial.
Na área penal, o Código Penal vai ter que resolver.
Esse discurso começou a aparecer agora, depois do ChatGPT. Nós começamos a trabalhar em abril de 2022. Naquela época, tudo era visto com muito ceticismo. A questão era por que regular, como regular uma coisa que ainda não existe e não se sabe para onde vai.
Esse tipo de argumento quase que desapareceu quando surgiu o ChatGPT e outros modelos de linguagem ampliada. A conversa no mundo inteiro passou a ser até um clamor pela regulação. É importante aproveitar esse momento para criar logo uma normatização de caráter geral, que que seja capaz de prevenir e evitar alguns dos riscos mais sérios.
Mas o que eu ouço dos especialistas é que a visão apocalíptica é hiperbólica e está longe de se realizar. Um dos princípios que regem a inteligência artificial no mundo, ou que deveriam reger, é a ideia de resiliência. Quer dizer, a inteligência artificial tem que ser segura como um carro, um avião, uma geladeira.
A ideia é não regular o produto, o serviço, a aplicação, mas seus efeitos. O que se procura fazer é classificar riscos. Alguns riscos são inaceitáveis. Por exemplo, o uso de armas de inteligência artificial deveria ser proscrito, assim como o uso de algoritmos para manipular a consciência das pessoas.
Depois, há os usos de alto risco. Por exemplo, o sistema de Justiça, o sistema de segurança, de saúde e infraestruturas críticas [como água, energia, telecomunicações] são aplicações de alto risco. Para elas, o ônus é maior: tem que fazer auditoria, análise de impacto, apresentar relatórios de conformidade.
Isso poderia ser feito de uma forma autorregulada, dependendo do setor, e cada um dos setores se encarregaria de criar padrões. E os setores deveriam se reportar a uma autoridade central, com a capacidade de supervisionar esses relatórios e aplicar sanções.
Com base na experiência da Lei Geral de Proteção de Dados, que criava uma autoridade que foi vetada por vício de iniciativa, a gente optou por deixar que o Poder Executivo defina essa autoridade. Talvez a ANPD [Autoridade Nacional de Proteção de Dados] possa assumir esse papel.
Existe uma intersecção óbvia entre esses temas, mas eles não se identificam. Nas fake news, a dimensão política é muito mais evidente. Na inteligência artificial, tem algum risco de contaminação política, mas é menor.
O que existem são outras preocupações. Uma delas é que ela possa ampliar ainda mais o poder das big techs e desfuncionalizar ainda mais as democracias. Outra é a pegada ambiental da inteligência artificial, muito pesada. Tem também o impacto financeiro, que é difícil de medir.
Tudo isso não está contemplado. Falamos dos riscos mais palpáveis. A ideia é que esse arcabouço normativo geral seja flexível, leve, que tenha uma sobrevida razoável e que possa impedir os maiores riscos às pessoas: violações da privacidade, proteção de dados, discriminação.
Fonte: Folha de S. Paulo