A inteligência artificial (IA) tem sido amplamente adotada em diversos segmentos, como por exemplo, na seleção de candidatos para vagas de empregosconcessão de crédito, segurança pública e até mesmo na análise de processos judiciais.

Apesar de seu potencial inovador, a utilização pode gerar impactos negativos quando seus algoritmos reproduzem vieses discriminatórios, perpetuando desigualdades históricas presentes nos dados utilizados para seu treinamento. Esse fenômeno ocorre porque a IA aprende padrões a partir de informações pré-existentes e, se esses dados já contêm distorções sociais, o sistema pode replicá-los e amplificá-los.

Diante desse risco, a legislação brasileira estabelece mecanismos para evitar que decisões automatizadas violem direitos fundamentais. A Lei Geral de Proteção de Dados (LGPD – Lei 13.709/2018) determina que o tratamento de dados pessoais deve ser realizado de forma transparente e sem discriminação, conforme previsto no artigo 6º, inciso IX.

Além disso, a LGPD assegura que o titular de dados tem o direito de solicitar informações sobre decisões tomadas exclusivamente com base em tratamento automatizado e até mesmo requerer sua revisão, especialmente quando essas decisões afetam significativamente sua vida, como a recusa de crédito ou a exclusão de um processo seletivo, conforme o artigo 20.

 

Código de Defesa do Consumidor (Lei 8.078/1990) também desempenha um papel fundamental na proteção contra decisões discriminatórias geradas por sistemas automatizados. Empresas que utilizam IA em seus serviços devem garantir que os consumidores não sejam prejudicados por práticas abusivas, podendo ser responsabilizadas caso ocorra algum dano injustificado. Além disso, a Constituição Federal, em seu artigo 5º, assegura o princípio da igualdade e proíbe qualquer tipo de discriminação, servindo como base para contestação judicial de algoritmos que violem esses direitos.

 

Na prática, isso significa que empresas e órgãos públicos que utilizam inteligência artificial precisam adotar medidas para garantir que seus sistemas sejam auditáveis, éticos e livres de preconceitos estruturais. Já os cidadãos devem estar atentos ao impacto dessas tecnologias e buscar informações sempre que uma decisão automatizada parecer injusta ou discriminatória. O Poder Judiciário brasileiro já começa a discutir a responsabilidade pelo uso indevido da IA, e novas regulamentações podem surgir nos próximos anos para reforçar a proteção contra seus riscos.

A inteligência artificial deve ser um instrumento de inovação e equidade, e não um meio de reforçar desigualdades sociais. Caso um indivíduo se sinta prejudicado por uma decisão automatizada, é essencial buscar informações sobre seus direitos e, se necessário, recorrer ao amparo legal para garantir a justiça e a transparência no uso dessas tecnologias.

 


Lívia Vilela
OAB/SP 508.882