top of page

Artigos e notícias

Inteligência artificial e a responsabilidade civil

Por Mayra M. Bessa Martins - 15/11/2025

A inteligência artificial (IA) deixou o plano do futuro para integrar o presente das rotinas empresariais. Atualmente, a IA analisa, recomenda e, em muitos casos, substitui a ação humana em tarefas antes dependentes de julgamento e experiência. Esse avanço traz consigo um novo desafio jurídico: quando uma decisão tomada pela IA causa dano, quem responde?

A redação atual do Código Civil ancora-se na ideia de culpa humana — expressa na negligência, imprudência ou imperícia. Contudo, tais conceitos não se aplicam diretamente à inteligência artificial, pois, quando um sistema autônomo falha, o erro não decorre de descuido, mas sim de limitações nos dados utilizados, parâmetros inadequadamente definidos ou falhas de treinamento do algoritmo.

Nessas situações, atribuir responsabilidade torna-se um desafio: seria do desenvolvedor, do fornecedor da tecnologia ou da empresa que a utiliza? É nesse ponto que o Direito Civil é instado a se atualizar para lidar com a autonomia crescente das tecnologias inteligentes.

Ao tratar da responsabilidade por falhas de sistemas de IA, tem predominado o entendimento doutrinário e jurisprudencial da responsabilidade pelo risco da atividade. Em outras palavras, quem se beneficia da tecnologia assume também os riscos inerentes ao seu uso. O art. 927, parágrafo único, do Código Civil consagra esse princípio ao prever que aquele que exerce atividade que, por sua natureza, implica risco, responde pelos danos dela decorrentes, independentemente de culpa.

Assim, mesmo sem negligência ou dolo, a empresa usuária pode ser responsabilizada objetivamente pelos prejuízos causados a terceiros em razão do funcionamento da inteligência artificial que emprega.

Na prática, ao falarmos de relação entre empresa e cliente, isso quer dizer que a responsabilidade perante o consumidor final permanece. Afinal, este não tem condições de identificar se o erro decorreu de falha de código, parâmetro incorreto ou decisão automatizada sem supervisão humana.

O que o consumidor percebe é apenas o resultado: uma cobrança indevida gerada por um sistema de automação financeira, a negativa injustificada de crédito por um algoritmo de análise de risco, a recusa discriminatória em um processo seletivo conduzido por uma IA, a exclusão indevida de uma conta em plataforma digital, ou até mesmo a oferta manipulada por um sistema que direciona o consumo de forma opaca e desleal.

O Código de Defesa do Consumidor (arts. 12 e 14) reforça a responsabilidade objetiva do fornecedor, bem como a Lei Geral de Proteção de Dados (LGPD) impõe deveres de transparência e o direito de revisão de decisões automatizadas.

Já nas relações empresariais — especialmente entre a contratante da solução de IA e a fornecedora da tecnologia — a responsabilidade deve ser tratada preventivamente por meio contratual. O contrato é o instrumento chave para definir quem responde, em que medida e por qual tipo de dano.

E por se tratar de um processo envolve múltiplos atores, o que fragmenta a cadeia de responsabilidades e dificulta a identificação do responsável direto por eventuais danos, a adoção de modelos contratuais sofisticados, que reflitam a natureza colaborativa da tecnologia e distribuam adequadamente os deveres de controle, segurança e reparação entre as partes, é essencial.

Os instrumentos devem prever cláusulas específicas de responsabilidade civil, garantias técnicas, auditoria, acesso a registros (logs), conformidade com a LGPD, e delimitação precisa do escopo e limites de uso da tecnologia. Contratos genéricos, que apenas preveem a “entrega e uso do sistema”, constituem fonte potencial de litígios. O instrumento deve especificar o funcionamento da IA, suas finalidades, parâmetros de segurança e margens de erro toleráveis, além de definir a alocação dos riscos e os mecanismos de compensação por danos a terceiros. Essa estrutura contratual assegura equilíbrio, previsibilidade e reduz disputas onerosas.

Os projetos legislativos em tramitação, como o PL 4/2025 (que integra a proposta de reforma do Código Civil) e o AI Act europeu, caminham na mesma direção: reforçar deveres de diligência e governança aplicáveis aos sistemas de IA, especialmente os classificados como de alto risco. Trata-se de movimento global que busca adaptar a responsabilidade civil às tecnologias autônomas sem afastar princípios fundamentais como boa-fé, prevenção do dano e reparação integral.

A proposta do PL 4/2025, por exemplo, propõe regras específicas para responsabilização de agentes que desenvolvem, fornecem ou operam sistemas de IA, além de equiparar o fornecedor ou operador de sistemas de alto risco àquele que assume objetivamente os danos decorrentes de sua utilização, aproximando-se da teoria do risco do fornecedor, consagrada no direito do consumo.

Em termos práticos, a adoção de sistemas automatizados passa a configurar ato de risco regulado, com reflexos diretos sobre contratos empresariais, compliance e governança corporativa.

Paralelamente, o PL 2.775/2024 propõe alterações na LGPD para estabelecer parâmetros específicos sobre o uso de dados pessoais no treinamento de sistemas de IA, visando garantir tratamento seguro, transparente e proporcional dos dados. O texto impõe diretrizes rigorosas para proteção de direitos fundamentais e exige práticas mais criteriosas de processamento e armazenamento de informações, promovendo um desenvolvimento ético e confiável da tecnologia.

O que se constata, portanto, é que, embora a inteligência artificial traga ganhos de eficiência e produtividade, quanto maior o grau de automação, maior o dever de diligência, controle e revisão das tecnologias utilizadas. Isso exige supervisão humana efetiva, governança transparente e mecanismos de contestação acessíveis.

A adoção dessas práticas minimiza riscos operacionais e jurídicos, preserva a confiança do consumidor e assegura segurança e previsibilidade nas relações empresariais. Em um cenário de transformação tecnológica acelerada, antecipar riscos e estruturar processos sólidos de conformidade deixou de ser uma escolha — tornou-se parte essencial da estratégia empresarial moderna.

bottom of page