A 5ª Câmara Criminal do Tribunal de Justiça de Santa Catarina (TJ/SC) negou o pedido de revogação de medidas protetivas de urgência em um caso de violência doméstica. O tribunal identificou indícios de que a petição inicial havia sido criada por inteligência artificial e continha citações de jurisprudência inexistente.
A relatora do caso, desembargadora Cinthia Beatriz da Silva Bittencourt Schaefer, destacou que se tratava de um ato de má-fé e desrespeito ao tribunal, enfatizando que os precedentes jurídicos apresentados “foram criados para induzir o julgador a erro”. Apesar de conhecer a ordem, o advogado impetrante foi advertido. No mérito, o colegiado considerou improcedente a alegação de desproporcionalidade na prorrogação das medidas protetivas, fundamentando a decisão no entendimento do Superior Tribunal de Justiça (STJ), que estabelece a necessidade de garantir a segurança da vítima.
Repercussão e preocupações no meio jurídico
O caso provocou debate sobre o uso de IA na elaboração de peças jurídicas. O jurista Lênio Streck, em publicação no Instagram, alertou para o risco crescente de petições com fundamentos falsos geradas por IA. “É apenas a ponta do iceberg da agnotologia jurídica que vem aí!!”, afirmou.
Na Justiça Eleitoral, um caso semelhante ocorreu em 2023, quando o ministro Benedito Gonçalves aplicou multa de R$ 2.604 a um advogado por litigância de má-fé ao protocolar uma petição escrita com ChatGPT no Tribunal Superior Eleitoral (TSE). O advogado buscava ingresso como amicus curiae em uma investigação eleitoral contra o ex-presidente Jair Bolsonaro, mas sua real intenção era criar uma “fábula escrita a duas mãos” como protesto contra o uso de IA na Justiça.
Na decisão, Gonçalves destacou que a resolução do TSE veda o amicus curiae nesse tipo de processo e criticou a dependência exclusiva da IA na elaboração da petição, sem qualquer contribuição do requerente. A conduta foi considerada temerária e infundada, resultando na multa equivalente a dois salários-mínimos.
Cenário global e preocupação com fraudes
O problema não se restringe ao Brasil. Nos Estados Unidos, o advogado Steven A. Schwartz utilizou o ChatGPT para processar a empresa Avianca, mas a petição continha precedentes inexistentes. A repercussão do caso levou um juiz do Texas a determinar que petições elaboradas com IA devem ser identificadas para verificação de precisão.
A advogada Ana Paula Ávila, vice-presidente da Comissão Especial de Proteção de Dados e Privacidade da OAB/RS, reforçou que advogados têm o dever ético e legal de checar informações geradas por ferramentas de IA, pois essas podem fornecer dados falsos. Segundo ela, apesar de parecerem precisas, as respostas da IA podem induzir ao erro, exigindo dupla verificação em fontes autêuticas para evitar a “IA: Ignorância Autêutica”.
No Brasil, a utilização consciente de informações falsas pode levar à sanção por litigância de má-fé, conforme o artigo 80 do Código de Processo Civil (CPC), e também à responsabilidade civil por erro profissional, incluindo indenização por perda de uma chance.
A linha tênue entre avanço e risco
A inteligência artificial já faz parte do universo jurídico, auxiliando profissionais em diversas tarefas. O Conselho Federal da OAB (CFOAB) aprovou um conjunto de recomendações para o uso da IA generativa na advocacia, enfatizando ética e responsabilidade profissional. As diretrizes, elaboradas pelo Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados da OAB, focam em quatro pilares: legislação aplicável, confidencialidade e privacidade, prática jurídica ética e transparência no uso da IA.
O advogado Renato Opice Blum destaca que profissionais devem se atentar aos riscos relacionados à Lei Geral de Proteção de Dados (LGPD) e ao plágio, reforçando a necessidade de uso responsável das ferramentas generativas. Ele reconhece que a IA pode ser uma aliada na redação de peças jurídicas, trazendo referências doutrinárias, mas alerta que não substitui a capacidade do advogado de adaptar os argumentos ao contexto jurídico adequado.
Durante o evento “IA no Direito: Ferramentas, Governança e Perspectivas para o Futuro”, promovido pelo portal Migalhas e coordenado pelo advogado Luiz Augusto Filizzola D’Urso, foram apresentadas oito ferramentas de IA recomendadas para otimizar a prática advocatícia, sempre com foco na ética e no bom uso da tecnologia.
A inteligência artificial não é, por si só, um problema. Mas seu uso irresponsável pode transformar remédio em veneno. A chave está na regulação, na ética e na responsabilidade profissional, evitando distorções que comprometam a integridade do sistema de Justiça.