Um sistema de inteligencia artificial nega um emprestimo a um cliente sem explicar o motivo. Um algoritmo de selecao de curriculos discrimina candidatos por genero sem que nenhum humano tenha tomado essa decisao conscientemente. Um veiculo autonomo causa um acidente com vítima fatal. Um chatbot de atendimento fornece informacoes medicas incorretas que levam um paciente a tomar uma decisao prejudicial a sua saude. Esses cenarios ja nao sao ficcao cientifica — sao casos reais que estao chegando aos tribunais de todo o mundo e que colocam uma pergunta urgente sobre a mesa: quando um sistema de inteligencia artificial causa dano, quem e responsavel?

Para as empresas que desenvolvem, implantam ou utilizam sistemas de IA, essa questao tem implicacoes juridicas, financeiras e reputacionais enormes. No Brasil, onde a regulamentacao especifica da IA ainda esta em construcao, o arcabouco juridico existente — Codigo Civil, CDC, LGPD, legislacao setorial — ja oferece respostas importantes, ainda que incompletas. Neste artigo, a Ana Maria Pereira Advocacia analisa o estado atual da responsabilidade juridica empresarial no contexto da inteligencia artificial.

- - -

O Crescimento da IA e os Novos Riscos Juridicos

A adocao de sistemas de inteligencia artificial pelas empresas brasileiras cresceu de forma exponencial nos ultimos anos. Bancos usam IA para analise de credito e deteccao de fraudes. Planos de saude usam algoritmos para autorizacao de procedimentos. Empresas de RH usam sistemas automatizados para triagem de curriculos. Varejistas usam IA para precificacao dinamica e personalizacao de ofertas. Em todos esses casos, decisoes que antes eram tomadas por seres humanos — e que podiam ser questionadas e explicadas — sao agora tomadas por algoritmos cuja logica interna pode ser opaca ate mesmo para seus proprios desenvolvedores.

73%
das grandes empresas brasileiras ja utilizam alguma forma de IA em seus processos de negocio, segundo pesquisas recentes
4x
e o crescimento projetado no numero de processos judiciais envolvendo decisoes automatizadas nos proximos 5 anos no Brasil
2026
ano em que o Brasil deve aprovar sua regulamentacao especifica sobre inteligencia artificial, em discussao no Congresso Nacional

A inteligencia artificial nao e apenas uma questao tecnologica — e uma questao juridica, etica e de responsabilidade que toda empresa que utiliza IA precisa enfrentar com seriedade.

Ana Maria Pereira Advocacia
- - -

Quem Pode Ser Responsabilizado: Os Atores da Cadeia de IA

Uma das principais complexidades da responsabilidade por danos causados por sistemas de IA e a multiplicidade de atores envolvidos na cadeia de desenvolvimento e uso dessas tecnologias. Cada um deles pode ter responsabilidades distintas:

💻

Desenvolvedor do Sistema

A empresa ou pessoa que criou o algoritmo ou modelo de IA. Pode ser responsabilizada por defeitos no projeto, por bias (vies) incorporado nos dados de treinamento ou por falhas tecnicas no funcionamento do sistema.

🏢

Empresa que Implanta a IA

A empresa que adquire ou licencia um sistema de IA e o utiliza em seus processos. Mesmo que nao tenha desenvolvido a tecnologia, responde pelos danos causados aos seus clientes e terceiros pelas decisoes do sistema.

☁️

Provedor de Infraestrutura

Empresas de cloud computing e provedores de plataformas de IA que fornecem a infraestrutura tecnologica sobre a qual os sistemas operam. Podem ser corresponsaveis em casos de falhas de seguranca ou de disponibilidade.

👤

Usuario Final Empresarial

A empresa que usa a IA no relacionamento direto com consumidores — mesmo que apenas como ferramenta — responde perante esses consumidores pelos danos causados, independentemente de quem desenvolveu o sistema.

- - -

As Bases Juridicas da Responsabilidade por IA no Brasil

O Brasil ainda nao tem uma lei especifica sobre inteligencia artificial em vigor — embora o Projeto de Lei 2338/2023 esteja em tramitacao no Congresso e deva ser aprovado em breve. Enquanto isso, o ordenamento juridico existente ja oferece fundamentos solidos para a responsabilizacao de empresas por danos causados por sistemas de IA:

Codigo de Defesa do Consumidor

Quando o sistema de IA e utilizado em uma relacao de consumo — como na concessao de credito, na autorizacao de procedimentos medicos por planos de saude ou no atendimento ao cliente — o CDC e a principal base juridica. O codigo estabelece a responsabilidade objetiva do fornecedor pelos danos causados por defeitos nos produtos e servicos — o que significa que a empresa responde independentemente de culpa. Nao e necessario provar que a empresa agiu com negligencia: basta demonstrar o dano e o nexo causal com o sistema de IA.

Codigo Civil — Responsabilidade por Fato de Terceiro e Risco

O Codigo Civil estabelece, no artigo 927, paragrafo unico, que aquele que exerce atividade que por sua natureza implica risco para os direitos de outrem responde pelos danos causados, mesmo sem culpa. A atividade empresarial que utiliza sistemas de IA com potencial de causar danos pode ser enquadrada nessa teoria do risco — especialmente em setores de alto impacto como saude, financas e transporte.

A LGPD e as Decisoes Automatizadas

A Lei Geral de Protecao de Dados tem um dispositivo especialmente relevante para o contexto da IA: o artigo 20, que garante ao titular dos dados o direito de solicitar revisao de decisoes tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses — como perfis de consumo, avaliacao de credito ou aspectos de personalidade. Isso significa que empresas que usam IA para tomar decisoes sobre pessoas precisam garantir a possibilidade de revisao humana dessas decisoes — e o descumprimento dessa obrigacao pode gerar responsabilidade perante a ANPD.

Marco Legal da IA no Brasil

O que esta por vir

O PL 2338/2023, aprovado pelo Senado em 2024 e em tramitacao na Camara, estabelece um marco regulatorio para a inteligencia artificial no Brasil baseado na classificacao de risco dos sistemas. Sistemas de IA de alto risco — como os usados em decisoes de credito, saude, seguranca publica e selecao de pessoal — terao obrigacoes especificas de transparencia, auditabilidade e gestao de riscos. As empresas que nao se prepararem para esse novo marco regulatorio estarao expostas a sancoes significativas.

- - -

Os Principais Cenarios de Responsabilidade por IA

Cenario 1 — Financeiro

Algoritmos de Credito e Discriminacao Algorítmica

Bancos e fintechs que utilizam IA para concessao de credito podem ser responsabilizados quando seus algoritmos negam credito de forma discriminatoria — com base em variaveis que, indiretamente, refletem raca, genero ou origem social, mesmo que isso nao seja intencional. O STJ ja tem precedentes reconhecendo o direito do consumidor a explicacao das razoes da negativa de credito e a revisao da decisao automatizada. Empresas que nao conseguem explicar como seu algoritmo tomou uma decisao estao em posicao juridica fragilissima.

Cenario 2 — Saude

IA em Diagnosticos e Autorizacao de Procedimentos

Sistemas de IA utilizados em diagnosticos medicos ou na autorizacao de procedimentos por planos de saude criam um dos cenarios de maior risco juridico. Quando um algoritmo nega a autorizacao de um procedimento necessario, ou quando um sistema de auxilio ao diagnostico induz a um erro medico, a responsabilidade pode ser compartilhada entre o medico, o hospital, o plano de saude e o desenvolvedor da tecnologia. Os danos potenciais — incluindo danos morais e materiais de grande monta — justificam uma gestao de risco extremamente rigorosa nesse setor.

Cenario 3 — Trabalhista

Selecao Automatizada de Candidatos

Empresas que utilizam IA na triagem de curriculos e selecao de candidatos podem ser responsabilizadas por discriminacao quando o algoritmo — mesmo sem intencao explicita — filtra candidatos com base em caracteristicas protegidas pela lei, como genero, raca ou deficiencia. A jurisprudencia trabalhista brasileira esta evoluindo rapidamente nessa direcao, e empresas que nao auditam regularmente seus sistemas de selecao automatizada estao assumindo um risco trabalhista crescente.

Cenario 4 — Consumidor

Chatbots e Assistentes Virtuais com Informacoes Incorretas

Empresas que utilizam chatbots e assistentes virtuais baseados em IA no atendimento ao cliente respondem pelos danos causados por informacoes incorretas ou enganosas fornecidas por esses sistemas. Se um chatbot informa incorretamente as condicoes de um produto, um prazo de garantia ou as instrucoes de uso de um medicamento, a empresa e responsavel pelo dano causado — independentemente de ter sido um "erro do algoritmo". O consumidor nao pode ser prejudicado pela escolha tecnologica da empresa.

Cenario 5 — Transporte

Veiculos Autonomos e Sistemas de Navegacao

Com a chegada progressiva de veiculos com niveis crescentes de autonomia ao mercado brasileiro, a questao da responsabilidade por acidentes envolvendo IA de conducao e cada vez mais relevante. O Codigo de Transito Brasileiro e o Codigo Civil ja permitem a responsabilizacao do fabricante do veiculo e da empresa que disponibiliza a tecnologia de conducao autonoma por defeitos no sistema — e a tendencia regulatoria global aponta para a responsabilidade objetiva do fabricante nesses casos.

- - -

Como as Empresas Podem se Proteger Juridicamente

Diante desse cenario de responsabilidade crescente, as empresas que utilizam IA precisam adotar uma postura proativa de gestao de riscos juridicos. As principais medidas sao:

  • 1
    Auditoria regular dos sistemas de IA

    Todo sistema de IA que toma ou influencia decisoes que afetam pessoas deve ser auditado periodicamente para identificar vies, erros sistematicos e comportamentos nao previstos. Essa auditoria deve ser documentada e seus resultados devem alimentar melhorias continuas no sistema. A documentacao das auditorias e essencial como evidencia de due diligence em caso de litígio.

  • 2
    Garantia de revisao humana nas decisoes de alto impacto

    Em conformidade com o artigo 20 da LGPD, e como boa pratica de gestao de risco, decisoes de alto impacto sobre pessoas — negativa de credito, negativa de procedimento medico, demissao, exclusao de plataforma — devem sempre ter um mecanismo de revisao humana disponivel. A empresa que consegue demonstrar que sempre ofereceu revisao humana tem uma posicao defensiva muito mais solida em eventual litígio.

  • 3
    Transparencia e explicabilidade das decisoes automatizadas

    Quando um sistema de IA toma uma decisao que afeta um cliente ou colaborador, a empresa deve ser capaz de explicar — em linguagem acessivel — os principais fatores que levaram aquela decisao. Sistemas de "caixa preta" que nao permitem nenhuma explicacao estao em rota de colisao com a LGPD e com o marco regulatorio de IA que esta por vir.

  • 4
    Contratos robustos com fornecedores de tecnologia de IA

    Quando a empresa utiliza sistemas de IA desenvolvidos por terceiros, o contrato com o fornecedor precisa definir claramente as responsabilidades de cada parte em caso de dano, as obrigacoes de manutencao e atualizacao do sistema, os mecanismos de comunicacao de falhas e as garantias oferecidas pelo desenvolvedor. Um contrato vago com o fornecedor de IA pode deixar a empresa sozinha para responder por danos que nao causou diretamente.

  • 5
    Politica interna de governanca de IA

    Assim como as empresas tem politicas de compliance, protecao de dados e gestao de riscos, precisam ter uma politica especifica de governanca de IA — que estabeleca criterios para a adocao de sistemas de IA, processos de validacao antes da implantacao, mecanismos de monitoramento continuo e protocolos de resposta a incidentes envolvendo esses sistemas.

  • 6
    Acompanhamento da evolucao regulatoria

    O marco regulatorio da IA no Brasil esta em rapida evolucao. Empresas que nao acompanham essas mudancas e nao se preparam com antecedencia para cumpri-las correm o risco de ser pegas de surpresa por novas obrigacoes com prazos de adequacao curtos. O acompanhamento regulatorio proativo — com assessoria juridica especializada — e um investimento estrategico, nao um custo.

- - -

O Direito do Cidadao Diante da IA

Nao e apenas as empresas que precisam se preparar — os cidadaos tambem tem direitos relevantes diante das decisoes tomadas por sistemas de inteligencia artificial. E importante que cada pessoa conheca as protecoes que o ordenamento juridico brasileiro ja oferece:

  • Direito a explicacao: pela LGPD, voce tem direito a solicitar informacoes sobre os criterios e procedimentos utilizados em decisoes automatizadas que afetem seus interesses — como a negativa de um emprestimo ou a nao selecao em um processo seletivo.
  • Direito a revisao humana: o artigo 20 da LGPD garante o direito de solicitar revisao por um ser humano de qualquer decisao tomada unicamente por sistema automatizado que afete seus interesses de forma significativa.
  • Direito a indenizacao: se uma decisao automatizada lhe causou dano — material ou moral — voce tem direito a indenizacao. O CDC e o Codigo Civil ja oferecem base juridica para essas acoes, mesmo sem uma lei especifica de IA.
  • Direito a nao discriminacao: sistemas de IA que discriminem por raca, genero, origem, religiao ou qualquer outra caracteristica protegida violam a Constituicao Federal e a legislacao antidiscriminatoria — e as empresas que os utilizam podem ser responsabilizadas civil e criminalmente.
  • Direito a transparencia sobre o uso de IA: consumidores tem o direito de saber quando estao interagindo com um sistema de IA — e nao com um ser humano. A falta de transparencia sobre o uso de IA no atendimento ao cliente pode configurar pratica abusiva.
- - -

O Papel do Advogado Empresarial na Era da IA

A interseccao entre inteligencia artificial e direito empresarial e um dos campos mais dinamicos e desafiadores da advocacia contemporanea. O advogado especializado em direito empresarial e tecnologia desempenha um papel fundamental em ajudar empresas a navegar nesse cenario com seguranca:

Na fase preventiva, o advogado auxilia na estruturacao de politicas de governanca de IA, na revisao de contratos com fornecedores de tecnologia, na adequacao a LGPD e ao marco regulatorio de IA, e na implementacao de mecanismos de auditoria e revisao humana que reduzam a exposicao da empresa a litígios.

Na fase de resposta a incidentes, quando um sistema de IA causa dano — seja a um cliente, a um colaborador ou a terceiros — o advogado orienta sobre as obrigacoes de notificacao, gerencia as comunicacoes com reguladores e partes afetadas, e coordena a defesa da empresa em eventuais processos administrativos ou judiciais.

E na fase regulatoria, o acompanhamento proativo das mudancas legislativas e da jurisprudencia sobre IA permite que a empresa se adapte com antecedencia, evitando as multas e as sancoes que aguardam quem nao se preparar.

Conclusao

A inteligencia artificial veio para ficar — e seus beneficios para as empresas e para a sociedade sao inegaveis. Mas com o poder de tomar decisoes que afetam a vida de milhoes de pessoas vem uma responsabilidade proporcional. As empresas que ignoram essa responsabilidade — seja por desconhecimento juridico ou por aposta no vazio regulatorio — estao construindo sobre areia.

O caminho para o uso responsavel da IA passa pela compreensao clara das obrigacoes juridicas ja existentes, pela adocao de boas praticas de governanca de IA e pelo acompanhamento atento da regulamentacao que esta por vir. Empresas que se preparam hoje para o ambiente regulatorio de amanha terao uma vantagem competitiva significativa — alem de uma posicao muito mais solida diante de eventuais litígios.

A Ana Maria Pereira Advocacia esta pronta para orientar sua empresa na construcao de uma estrategia juridica solida para o uso responsavel da inteligencia artificial. Entre em contato e descubra como podemos ajuda-la a inovar com seguranca.