Governança na era da Inteligência Artificial: o dever de diligência do conselho de administração frente às decisões algorítmicas

02.03.2026
.

A ascensão da inteligência artificial (IA) deixou de ser uma previsão futurista para se consolidar como uma força motriz no epicentro da estratégia corporativa. De otimizações na cadeia de suprimentos a decisões de investimento informadas por complexos modelos preditivos, a IA não é mais uma ferramenta de TI, mas um ativo estratégico que permeia o core business das organizações.

Essa integração, contudo, impõe um desafio sem precedentes aos conselhos de administração e à alta gestão: como o dever fiduciário de diligência, um pilar da governança corporativa, se aplica a decisões delegadas ou assistidas por algoritmos?

A questão transcende a mera adoção tecnológica. Ela redefine a própria natureza da supervisão e da responsabilidade. Se uma decisão estratégica informada por uma IA resulta em perdas significativas, violações regulatórias ou danos reputacionais, a quem recai a responsabilidade?

A resposta, à luz da legislação e da melhor prática de governança, é inequívoca: a responsabilidade final permanece com os administradores. A IA, portanto, não dilui o dever de diligência; ela o amplifica, exigindo um novo paradigma de governança algorítmica.

A expansão do dever de diligência na era algorítmica

O dever de diligência (duty of care), consagrado no artigo 153 da Lei das Sociedades por Ações (Lei nº 6.404/76), exige que o administrador empregue o cuidado e a diligência que todo homem ativo e probo costuma empregar na administração de seus próprios negócios.

Tradicionalmente, a doutrina da Business Judgment Rule protege os administradores de responsabilidade por decisões de negócio que, em retrospecto, se mostram equivocadas, desde que tenham sido tomadas de forma informada, em boa-fé e sem interesse pessoal.

Na era da IA, o critério “informado” ganha uma nova dimensão. A diligência agora se estende à obrigação de compreender, em um nível estratégico, os sistemas de IA que a companhia utiliza.

Não se espera que conselheiros se tornem cientistas de dados, mas que sejam capazes de fazer as perguntas certas: Qual a lógica de negócio por trás do algoritmo? Quais são suas limitações conhecidas? Como os dados que o alimentam são validados? Qual o protocolo para supervisão humana e intervenção?

O risco de “carimbar” uma recomendação algorítmica sem um escrutínio crítico representa uma falha direta nesse dever. A delegação da análise a uma máquina não equivale à delegação da responsabilidade. Pelo contrário, a decisão de confiar em um sistema de IA é, em si, uma decisão de negócio que deve ser informada e diligentemente supervisionada.

O “problema da caixa-preta” e seus riscos corporativos

A complexidade de alguns modelos de IA, notadamente os de deep learning, cria o que é conhecido como o “problema da caixa-preta” (black box problem), onde os processos internos que levam a um determinado resultado não são facilmente interpretáveis. Essa opacidade gera riscos corporativos tangíveis que vão muito além de uma decisão de negócio errada.

Viés algorítmico e o risco ESG: Um dos riscos mais proeminentes é o viés algorítmico. Se um sistema de IA para recrutamento, treinado com dados históricos, aprende a preferir um determinado perfil demográfico, a empresa pode incorrer em práticas discriminatórias, mesmo que de forma não intencional. Isso cria não apenas um passivo trabalhista, mas também um grave risco reputacional que afeta diretamente os pilares “Social” e de “Governança” da agenda ESG.

Segurança e privacidade de dados: A implementação de sistemas de IA, especialmente aqueles que processam grandes volumes de dados de clientes ou funcionários, amplia a superfície de ataque para incidentes de segurança. Uma falha na governança desses sistemas pode resultar em violações massivas da Lei Geral de Proteção de Dados (LGPD), acarretando multas vultosas e perda de confiança do mercado.

A responsabilidade civil pela decisão automatizada: Se um algoritmo de precificação dinâmica leva a práticas anticompetitivas, ou se uma IA de diagnóstico de crédito nega acesso a serviços de forma sistemática e equivocada, a responsabilidade civil recai sobre a empresa. O argumento de que “foi o algoritmo que decidiu” é juridicamente insustentável. A responsabilidade é de quem implementa e se beneficia da tecnologia.

Governança de IA na prática: um framework para o conselho

Para navegar neste novo cenário, os conselhos de administração devem adotar uma postura proativa, estabelecendo um framework robusto de governança de IA. Isso não significa frear a inovação, mas sim canalizá-la de forma segura e responsável.

  1. Estabelecimento de supervisão formal: A criação de um comitê de risco tecnológico, ou a atribuição explícita dessa supervisão a um comitê existente (como o de auditoria ou de riscos), é um primeiro passo fundamental. Essa estrutura garante que a pauta da IA tenha um fórum dedicado e qualificado no mais alto nível da organização.
  2. Desenvolvimento de políticas claras de uso: O conselho deve assegurar que a administração desenvolva e implemente uma política interna de uso de IA. Tal documento deve definir, no mínimo: as ferramentas de IA aprovadas, os tipos de dados que podem ser processados, os casos de uso permitidos e, crucialmente, os protocolos para validação e supervisão humana em cada processo.
  3. Princípio da supervisão humana qualificada: A automação não pode ser sinônimo de abdicação. Para decisões de alto impacto, a política de governança deve exigir um ponto de controle onde um humano qualificado revisa, valida e assume a responsabilidade final pela decisão, mesmo que ela tenha sido recomendada pela IA.
  4. Exigência de “auditabilidade” e transparência: O conselho deve demandar que a gestão priorize a aquisição ou o desenvolvimento de sistemas de IA que sejam, na medida do possível, interpretáveis e auditáveis. A capacidade de explicar por que um algoritmo tomou uma determinada decisão é vital para a gestão de riscos e para a defesa da empresa em um eventual litígio.

A IA é uma ameaça à Governança Corporativa?

A Inteligência Artificial não é uma ameaça à governança corporativa, mas um teste à sua maturidade e capacidade de adaptação. O papel do conselho de administração não é o de programar ou auditar o código-fonte, mas o de exercer seu ceticismo informado e sua diligência fiduciária sobre a estratégia tecnológica e seus riscos inerentes.

No século XXI, a fluência digital deixou de ser um diferencial para se tornar uma competência essencial para o exercício da administração. Compreender os contornos estratégicos da Inteligência Artificial é, hoje, uma parte indissociável do dever de diligência. As empresas cujos conselhos entenderem e abraçarem essa nova realidade não apenas mitigarão riscos, mas estarão mais bem posicionadas para liderar em uma economia cada vez mais algorítmica.


Artigo escrito por Ronaldo Moysés e publicado oficialmente no LexLegal Brasil

Compartilhe

Assine nossa newsletter