28/04/2025

Falhas no uso de inteligência artificial geram condenações

Por: Luiza Calegari
Fonte: Valor Econômico
O Judiciário tem garantido indenização por falhas no uso de inteligência
artificial (IA). Levantamento do escritório TozziniFreire Advogados
mostra que desde 2010, quando houve a primeira menção ao termo, 140 ações
foram ajuizadas em busca de reparação e em 64% dos casos o pedido foi
aceito em segunda instância.
O volume ainda é pequeno em relação ao mar de processos em tramitação no
Judiciário. Mas especialistas da área cível destacam que a demanda vem
aumentando e abrangendo temas cada vez mais diversificados.
O estudo do TozziniFreire Advogados não buscou, nos Tribunais de Justiça e
Superior Tribunal de Justiça (STJ), apenas discussões de mérito envolvendo a
inteligência artificial. Detectou acórdãos que mencionam o uso da IA em
alguma etapa do andamento do processo. Foram localizadas 711 decisões. Além
disso, 718 acórdãos citam a expressão como contexto geral, mas sem que a IA
seja diretamente tratada no caso.
Só 140 decisões têm a inteligência artificial como causa de pedir e aprofundam
o debate sobre o tema. Os Tribunais de Justiça que mais concentram processos
sobre o tema são os de São Paulo (61 casos) e Rio Grande do Sul (49 casos).
Conforme explica Sofia Kilmar, sócia de contencioso do TozziniFreire, os
temas mais recorrentes nesses processos são prevenção de fraudes financeiras,
remoção de produtos que violam termos de uso de marketplace e adoção da IA
para reconhecimento facial.
Até 2016, o único assunto levado ao Judiciário mencionando a IA era o de
organização de conteúdos na internet. Só depois os temas começaram a se
diversificar. Segundo Sofia Kilmar, 50 processos questionam mecanismos de
busca e algoritmos usados no controle e restrição de uso das plataformas de
tecnologia.
Uma decisão de 2021 do Tribunal de Justiça de Minas Gerais (TJMG), por
exemplo, já mencionava o uso de IA nos processos de exclusão de contas de
plataformas de tecnologia. "Sabe-se que diversas medidas adotadas em
ambientes digitais advêm de decisões tomadas por máquinas mediante a
aplicação de algoritmos”, afirma o acórdão em processo que questionava a
suspensão da conta de uma empresa no WhatsApp.
Na ação, como o aplicativo não conseguiu justificar o motivo da exclusão do
perfil nem a prévia notificação, a 16ª Câmara Cível concedeu tutela de urgência
para ordenar o restabelecimento da conta no WhatsApp (processo nº
1.0000.20.597631-9/001).
Tipos diferentes de tecnologia, como algoritmos, IA generativa,
reconhecimento facial, deep fakes e formas de automatização são tratados da
mesma forma nos processos. “Não há, nas ações, distinção entre algoritmo e
inteligência artificial, mas essa distinção também não está sendo feita no Projeto
de Lei para regular o tema [PL nº 2.338, atualmente em tramitação na Câmara
dos Deputados], e isso é proposital, deixar o conceito abrangente e analisar o
nível de risco oferecido pela tecnologia”, explica Sofia Kilmar.
Outros 49 casos abordam fraudes bancárias. O único precedente do STJ trata
desse assunto. Em decisão monocrática, a ministra Maria Thereza de Assis
Moura não chegou a analisar o mérito do pedido feito pelo Banco Itaú, por
aplicação da Súmula 7, o que teve o efeito de manter a decisão de segunda
instância.
Nela, o Tribunal de Justiça de São Paulo (TJSP) entendeu que o banco possui
conhecimento tecnológico suficiente para afastar práticas fraudulentas,
“inclusive com utilização de inteligência artificial para detecção do perfil do
consumidor e da transação realizada”. Foi determinada indenização por danos
morais no valor de R$ 5 mil (processo nº 1010322-67.2018.8.26.0152).
O tema do reconhecimento facial só chegou ao Judiciário em 2021, mas desde
então tem sido frequente em processos judiciais. Tertullyano Marques Sousa,
responsável pela área de Privacidade e Proteção de Dados do Marcelo Tostes
Advogados, aponta que o uso da tecnologia ainda apresenta desafios, como a
falta de precisão no reconhecimento de rostos negros e a falta de transparência
a respeito do armazenamento e uso dessas informações sensíveis.
Ainda não chegamos na camada mais profunda do debate sobre IA”
— Camilla Jimene
“Existem muitas correlações entre o uso da inteligência artificial e a proteção
de dados. Como a exigência de reconhecimento facial para operações cotidianas
na prestação de serviços. Ela atende aos princípios de adequação e
necessidade?”, questiona.
Um caso levado ao Tribunal de Justiça do Distrito Federal (TJDF), por
exemplo, envolvia um motorista de aplicativo que foi desligado da plataforma
porque o sistema de IA não reconheceu o rosto como sendo o mesmo da
pessoa cadastrada.
Segundo a 2ª Turma Cível, no entanto, as partes concordaram, na assinatura do
contrato, com a possibilidade de rescisão unilateral. “Não pode o Poder
Judiciário impor a sua continuidade, sob pena de ofensa aos artigos 473, caput,
421 e 421-A, todos do Código Civil”, diz a decisão, que negou o pedido do
motorista (processo nº 0707611-32.2021.8.07.0009).
Como ainda não há legislação específica sobre o tema, a grande maioria dos
processos cíveis tem se apoiado no Código de Defesa do Consumidor (Lei nº
8.078, de 1991) e no Código Civil (Lei nº 10.406, de 2002). Mas o próprio PL
2.338 está se apoiando nas previsões dessas duas leis, aponta Sofia Kilmar, que
já têm sua aplicação e jurisprudência consolidadas.
Apesar da diversificação e do crescimento, no entanto, o tema está longe do
amadurecimento que outros países já atingiram, afirma Camilla Jimene, head do
contencioso digital e sócia do escritório Opice Blum. Segundo ela, a maior dor
de cabeça que a inteligência artificial dará para os legislativos e judiciários do
mundo no futuro será relacionada à propriedade intelectual.
Até agora, poucos casos envolvendo direito de imagem chegaram ao Judiciário,
mas o número tende a aumentar. Em outubro de 2024, por exemplo, o TJSP
analisou o pedido de um locutor que alegava que um shopping usou sua voz
em campanha publicitária sem autorização. O shopping, por sua vez, tinha dito
que a peça foi produzida por inteligência artificial (processo nº 1119021-
41.2023.8.26.0100).
Os desembargadores da 6ª Câmara de Direito Privado entenderam que havia
possibilidade de cometimento de plágio e violação de direitos de personalidade,
uma vez que “tecnologias de IA se servem de bancos de dados prévios”. Assim,
o colegiado anulou a sentença, que tinha negado o pedido do locutor, e ordenou
a produção de prova pericial.
Segundo Camilla Jimene, esse é o cerne da questão. “Para que ferramentas de
IA generativa produzam conteúdos, elas precisam ser treinadas com conteúdos
que já existem. É daí que as discussões e os litígios vão nascer”, afirma a
especialista.
Ela acredita que essa discussão não vai demorar para chegar aqui porque as
grandes empresas de tecnologia costumam usar o Brasil como sede de apoio
para atuação em toda a América Latina. E, quando chegar, deve haver
desigualdades nas condições de julgamento em diferentes locais e instâncias.
“Na esfera cível, os juízes podem nomear peritos forenses computacionais,
escolhendo profissionais no mercado. Na esfera criminal, no entanto, a perícia
depende dos institutos de criminalística, e aí depende de cada Estado conseguir
se estruturar com ferramentas e capacitação para poder trabalhar com esse
assunto”, diz
Essa discrepância ganha ainda mais relevância diante do fato de que o uso de
IA também terá repercussões penais significativas, aposta Camilla Jimene. “Nós
ainda não chegamos na camada mais profunda do debate sobre inteligência
artificial.”