quem responde quando a inteligência artificial erra?

O avanço da inteligência artificial (IA) dentro das empresas brasileiras deixou de ser uma tendência para se tornar uma realidade operacional. De…


O avanço da inteligência artificial (IA) dentro das empresas brasileiras deixou de ser uma tendência para se tornar uma realidade operacional. De atendimento ao cliente a decisões financeiras e jurídicas, sistemas automatizados já influenciam, direta ou indiretamente, emas escolhas estratégicas. O problema é que, enquanto a adoção acelera, uma pergunta essencial ainda segue sem resposta clara: quem responde quando a IA erra?

A discussão ganhou novo fôlego após um caso nos Estados Unidos envolvendo o Gemini, ferramenta desenvolvida pela Google. A empresa foi acionada judicialmente após a família de um usuário alegar que interações com o chatbot teriam incentivado comportamentos extremos, levantando questionamentos sobre segurança e responsabilidade no uso da tecnologia.

Na prática, empresas já utilizam a IA para recomendar decisões, priorizar demandas, sugerir acordos e até interpretar dados complexos, e já fazo que já faz parte da rotina dos departamentos jurídicos. Dados recentes mostram que a inteligência artificial já faz parte da rotina dos departamentos jurídicos. Segundo estudo da KPMG intitulado “Dos dados ao conhecimento”, realizado em 2024 com 1.390 executivos de oito setores, 51% dos líderes já observam impacto significativo da IA na área jurídica, sendo que 33% apontam alto impacto e 18% relatam mudanças transformadoras.

A tecnologia já ultrapassou a fase experimental e passou a influenciar operações e decisões dentro das empresas. Ainda que o discurso oficial mantenha o ser humano como decisor final, a realidade é que, em muitos casos, a influência da tecnologia é determinante. E isso muda completamente a lógica de responsabilidade. Afinal, quando uma decisão tem por base uma recomendação gerada por IA, o erro está no algoritmo, na empresa que o implementou ou no profissional que o validou?

A resposta, ao menos por enquanto, tende a recair sobre as organizações. Do ponto de vista jurídico e reputacional, dificilmente será aceitável transferir a responsabilidade para a tecnologia. A inteligência artificial não é sujeito de direito, é ferramenta. E, como qualquer ferramenta, sua utilização implica responsabilidade de quem a adota.

No Brasil, discussões em torno do Marco Legal da Inteligência Artificial ainda avançam em ritmo mais lento do que a adoção da tecnologia pelo mercado. Isso abre espaço para um fenômeno já observado em outros contextos: decisões judiciais passando a estabelecer, na prática, os limites de uso antes mesmo da existência de regras claras.

Outro ponto crítico ainda pouco discutido é o risco da chamada “falsa segurança”. Sistemas de IA, especialmente os baseados em modelos generativos, têm a capacidade de produzir respostas altamente convincentes, mesmo quando incorretas. Esse tipo de erro não apenas passa despercebido com mais facilidade, como também tende a ser incorporado ao processo decisório com um nível de confiança que nem sempre é justificado.

É nesse contexto que a governança de IA assume um papel central. Não como um protocolo técnico isolado, mas como a base que sustenta decisões seguras dentro das empresas. Isso passa por auditoria de sistemas, definição clara de responsabilidades, monitoramento contínuo e critérios objetivos para uso da tecnologia em áreas sensíveis.

Sem essa estrutura, o uso da inteligência artificial tende a ampliar riscos em vez de reduzi-los. Decisões passam a ser tomadas com base em informações imprecisas, sem que haja clareza sobre a origem do erro ou sobre quem deveria tê-lo evitado. A maturidade no uso de IA também impacta diretamente a gestão de risco e a reputação das empresas.

Organizações que tratam a tecnologia apenas como uma ferramenta de eficiência operacional correm o risco de negligenciar seu efeito sobre processos críticos. Já aquelas que incorporam governança desde o início conseguem equilibrar inovação com segurança. Outro efeito importante está na própria tomada de decisão.

À medida que a inteligência artificial ganha espaço, cresce também a necessidade de revisão dos fluxos internos. Quem valida? Em que momento? Com base em quais critérios? Sem respostas claras para essas perguntas, a tecnologia deixa de ser um apoio e passa a ser um ponto cego dentro da operação.

Do ponto de vista estratégico, empresas mais preparadas tendem a sair na frente. Não apenas por utilizarem inteligência artificial, mas por fazerem isso com controle, transparência e responsabilidade. A discussão sobre responsabilidade em IA já faz parte da rotina das empresas, ainda que de forma pouco estruturada. E, como em outros momentos de transformação tecnológica, quem se antecipa tem vantagem.

Mais do que perguntar se a IA pode errar, organizações deveriam estar se perguntando se estão preparadas para lidar com as consequências quando isso acontecer. Porque a discussão já não é mais sobre a possibilidade de falha, é sobre quem estará disposto a assumir o erro.

Por Edson Hideki, sócio fundador da Revio





Source link

WhatsApp