Direito e Inteligência Artificial: Desafios e Futuro; Por Machidovel Trigueiro Filho

COMPARTILHE A NOTÍCIA

A inteligência artificial (IA) deixou de ser um tema de laboratório para compor a espinha dorsal de serviços digitais, cadeias de produção e decisões públicas e privadas. O salto de capacidade dos modelos fundacionais (foundation models), aliado a dados massivos e computação em nuvem, ampliou o raio de ação da IA e trouxe implicações jurídicas sensíveis: proteção de dados, direitos do consumidor, concorrência, propriedade intelectual, responsabilidade civil e administrativa, além de impactos sobre o trabalho e a democracia.

Ao mesmo tempo, a IA é plural: há sistemas de alto risco, como os aplicados em saúde, crédito e policiamento; de risco limitado, como sistemas de recomendação; e usos triviais. Um tratamento regulatório uniforme não capta essa diversidade, o que explica a ascensão da regulação baseada em risco, combinada com governança e accountability técnica.

O objetivo deste artigo é fornecer um mapa prático para juristas, gestores públicos e profissionais de compliance. Situamos os marcos normativos relevantes no Brasil e no exterior, analisamos casos de uso na prática, identificamos riscos jurídicos recorrentes e propomos mecanismos concretos de governança algorítmica e avaliação de impacto. O foco é pragmático: como reduzir riscos jurídicos sem inibir a inovação e maximizar ganhos sociais, especialmente em serviços públicos digitais, justiça e setores regulados.

No Brasil, três pilares estruturam o debate: a Lei Geral de Proteção de Dados (LGPD), que consagra princípios de finalidade, necessidade, transparência e responsabilização; o Marco Civil da Internet, que define diretrizes de neutralidade, proteção de registros e cooperação; e normas setoriais, como as aplicáveis aos setores de saúde, financeiro, consumidor e antitruste.

A LGPD, em especial, exige base legal para o tratamento de dados, estabelece o direito à revisão de decisões automatizadas e impõe deveres de segurança, reporte e governança. Em paralelo, autoridades como ANPD, Senacon, Bacen, CVM e Cade publicam guias e orientações que, na prática, funcionam como uma espécie de “soft law” aplicada à IA.

No plano internacional, destaca-se o AI Act da União Europeia, que consolida a abordagem regulatória baseada em risco ao tornar compulsórias obrigações de gestão, documentação, transparência, testes, qualidade de dados e supervisão humana para sistemas de alto risco. O texto também proíbe práticas consideradas inaceitáveis, como manipulação subliminar e determinados usos de vigilância biométrica.

Essa arquitetura é complementada por soft laws, como as diretrizes da OCDE, padrões ISO/IEC — entre eles a ISO/IEC 23894 sobre gestão de risco em IA — e frameworks de auditoria como o NIST AI Risk Management Framework. Mesmo quem não atua diretamente na União Europeia pode usar essas referências para embasar boas práticas contratuais e de compliance.

Nos tribunais, a IA já apoia atividades como triagem processual, busca de precedentes, análise de risco de litigância e otimização de rotinas administrativas. A automação aumenta eficiência, mas levanta alertas sobre opacidade, vieses e respeito ao due process: quando uma recomendação automatizada influencia relatórios, pautas ou decisões, é essencial que o sistema seja auditável, explicável e sujeito a supervisão humana.

Na advocacia, modelos de linguagem agilizam pesquisa, revisão de contratos, análise de due diligence e redação assistida. O ganho de produtividade é real, porém exige políticas internas claras sobre confidencialidade, validação humana (human-in-the-loop), proteção de segredos e observância de deveres éticos.

Boas práticas incluem a classificação de risco dos casos de uso, o registro de modelos e versões relevantes, a adoção de políticas de uso responsável com logs e amostras de validação, a previsão de cláusulas contratuais para provedores com métricas de acurácia e segurança, além da capacitação contínua de equipes jurídicas para interpretar respostas automatizadas criticamente e evitar “alucinações” ou citações inexistentes.

A IA também pode ampliar a efetividade de políticas públicas, apoiando a triagem de benefícios com prevenção a fraudes, a priorização de vistorias, a previsão de demanda em saúde, o atendimento ao cidadão, a educação personalizada e a manutenção preditiva urbana.

Contudo, a assimetria de poder entre Estado e cidadão impõe salvaguardas reforçadas, como transparência ativa sobre o uso de IA, avaliações de impacto antes de implantar sistemas de alto risco, mecanismos de contestação e revisão, registros públicos de algoritmos e governança intersetorial.

Sandboxes regulatórios e guias técnicos setoriais ajudam a equilibrar inovação e proteção de direitos. Nas compras públicas de soluções de IA, é recomendável exigir transparência técnica, métricas de desempenho, requisitos de segurança e direitos de auditoria. Editais podem incorporar padrões abertos, interoperabilidade, documentação mínima — como model cards e datasheets —, além de mecanismos de portabilidade e regras claras de governança.

A responsabilidade por danos decorrentes de sistemas de IA é um dos temas mais complexos. Em cadeias produtivas sofisticadas, há desenvolvedores de modelos, integradores, provedores de nuvem e usuários corporativos. O desafio é alocar riscos conforme controle e benefício: quem define o desenho do sistema, seleciona os dados, determina a finalidade e obtém ganho econômico deve suportar maior responsabilidade.

Nas relações de consumo, aplicam-se deveres de informação clara e adequada, a vedação a práticas enganosas, a responsabilidade solidária por vício de qualidade e a inversão do ônus da prova quando cabível. Em setores críticos, as obrigações de segurança e diligência técnica são ainda mais exigentes.

Contratos devem refletir essa realidade, prevendo alocação de responsabilidades por desempenho, vieses e segurança, exigência de evidências de testes e auditorias, seguros e fundos de garantia, além de métricas objetivas de qualidade, como precisão por classe, taxas de falso positivo e negativo e estabilidade sob drift. A ausência de documentação técnica robusta fragiliza defesas em litígios e pode caracterizar negligência.

Outro ponto crucial é a prevenção de vieses e discriminação. Sistemas de IA podem reproduzir ou amplificar desigualdades se treinados com dados históricos enviesados. O Direito deve assegurar igualdade material e proibir discriminação indireta, mesmo sem intenção discriminatória.

Ferramentas como testes de equidade — equal opportunity, demographic parity, predictive parity — e relatórios de impacto se tornam meios probatórios importantes. O devido processo algorítmico inclui direitos de informação, explicação compreensível, contestação, revisão humana e correção de resultados injustos.

A transparência deve ser calibrada: suficiente para accountability e defesa, sem comprometer segredos industriais ou a segurança do sistema. Na prática, recomenda-se adotar matrizes de risco de viés, definir casos de uso proibidos, estabelecer métricas-alvo de equidade, realizar avaliações de impacto sempre que sistemas afetarem grupos vulneráveis, além de oferecer treinamentos periódicos e manter supervisão ética independente.

Os modelos de IA dependem fortemente de dados. A LGPD impõe bases legais, minimização, segurança e governança. Em sistemas que aprendem continuamente, é crucial mapear o ciclo de vida dos dados, registrar consentimentos quando aplicável, aplicar técnicas de anonimização e avaliar riscos de reidentificação.

No campo da propriedade intelectual, há dois eixos principais: o estatuto jurídico das criações geradas por IA — incluindo autoria, originalidade e titularidade — e a licitude do uso de obras protegidas para treino. A tendência é reconhecer a titularidade do humano que orienta e integra a criação, sobretudo quando exerce curadoria substantiva.

Ao mesmo tempo, cresce o uso de bases de dados licenciadas, marcas d’água e metadados para rastreabilidade de conteúdos gerados.

A governança de IA não é apenas jurídica, mas também organizacional e de engenharia. Ela pode ser estruturada em três camadas: políticas e princípios, como códigos de conduta e comitês de ética; processos e controles, incluindo registros de modelos, gestão de mudanças, monitoramento de drift e resposta a incidentes; e evidências e relatórios, como datasheets for datasets, model cards, avaliações de impacto e auditorias independentes.

A avaliação de impacto em IA deve ser proporcional ao risco. Para sistemas de alto risco, recomenda-se definir escopo e finalidade legítima, mapear partes interessadas e possíveis danos, realizar testes de desempenho e equidade, analisar explicabilidade, adotar medidas de mitigação, planejar monitoramento contínuo e criar planos de resposta a incidentes. Esses relatórios devem ser revisados periodicamente e a implantação condicionada à aprovação de instâncias de governança competentes.

Nos próximos anos, veremos a convergência entre IA generativa, robótica e agentes autônomos, com impacto significativo em serviços jurídicos e públicos. Espera-se avanço nas técnicas de alinhamento e redução de alucinações, novas salvaguardas como assinaturas digitais e trilhas de procedência, além da expansão de modelos especializados treinados com dados confiáveis.

O Direito deverá focar menos em proibir tecnologias e mais em garantir resultados socialmente desejáveis, como segurança, não discriminação, transparência significativa e reparação efetiva. A capacidade de medir e auditar consequências será o divisor de águas entre jurisdições que lideram a inovação e as que apenas importam soluções.

A IA não é um objeto monolítico, mas um ecossistema de práticas, dados e modelos em evolução. O Direito pode desempenhar um papel catalisador se adotar abordagem baseada em risco, reforçar accountability técnica e fomentar capacidade institucional.

No nível privado, governança, documentação e avaliação de impacto são o núcleo da diligência; no setor público, políticas de dados, sandboxes e compras inteligentes aceleram a inovação com salvaguardas. O futuro da regulação dependerá da habilidade coletiva de transformar princípios em controles verificáveis e de construir confiança por meio de evidências.

Prof. Dr. Machidovel Trigueiro Filho, Vice Diretor da Faculdade de Direito da UFC, Coordenador do CRIA – Centro de Referência em Inteligência Artificial da UFC, Pós Doutor na USP/SP, Professor Visitante na FIU/EUA, Professor Pesquisador em STANFORD/EUA. Foi eleito o “Empreendedor Digital do Ano no Brasil” pela Associação Brasileira de Startups e a Startup Brasil.

 

COMPARTILHE A NOTÍCIA

PUBLICIDADE

Confira Também

Aprovação sólida mantém Elmano favorito a mais de um ano da eleição

Brasil tem 37,8% de trabalhadores informais; Saiba o tamanho da formalidade e da informalidade no Ceará

Com Camilo ao lado, Lula transforma aniversário de 95 anos do MEC em ato político

Bolsonaro antecipa o jogo e aposta em Tarcísio para 2026

A polêmica anunciada no entorno do Aeroporto Pinto Martins

A derrota da aberração: quando a política encontra seus limites

Lula e Trump em rota de conciliação (ou será colisão?); Por Fábio Campos

Em Nova York, TikTok e Lula dão passo decisivo para mega datacenter de R$ 50 bi no Ceará; Elmano e Camilo na mesa

Ciristas, ouçam Ciro: facções são caso federal

PEC da Blindagem ou PEC da Bandidagem?

De “abutre” a aliado: Valdemar declara apoio do PL a Ciro com foco em derrotar o PT no Ceará; Veja vídeo

Ceará pode virar coração digital da América do Sul, diz estudo do BTG

MAIS LIDAS DO DIA

Emprego formal avança em 2025, mas ritmo desacelera com juros altos

Pesquisa Real Big Data: Ciro e Elmano empatados

Sindiônibus suspende 25 linhas de ônibus em Fortaleza sem autorização da Prefeitura

Setor de bares e restaurantes registra menor nível de prejuízos desde a pandemia, aponta Abrasel

Aprovação sólida mantém Elmano favorito a mais de um ano da eleição

Ceará aplica mais de R$ 13 milhões em multas por desmatamento ilegal na Mata Atlântica

Pesquisa: Disputa pelo Senado expõe força de Cid Gomes, RC resiliente e a fragilidade do bolsonarismo quando dividido

Edson Fachin assume Presidência do STF e dispensa tradicional baile de posse

STJ reafirma impenhorabilidade de bem de família mesmo em inventário