A ascensão da inteligência artificial (IA) deixou de ser uma previsão futurista para se consolidar como uma força motriz no epicentro da estratégia corporativa. De otimizações na cadeia de suprimentos a decisões de investimento informadas por complexos modelos preditivos, a IA não é mais uma ferramenta de TI, mas um ativo estratégico que permeia o core business das organizações.
Essa integração, contudo, impõe um desafio sem precedentes aos conselhos de administração e à alta gestão: como o dever fiduciário de diligência, um pilar da governança corporativa, se aplica a decisões delegadas ou assistidas por algoritmos?
A questão transcende a mera adoção tecnológica. Ela redefine a própria natureza da supervisão e da responsabilidade. Se uma decisão estratégica informada por uma IA resulta em perdas significativas, violações regulatórias ou danos reputacionais, a quem recai a responsabilidade?
A resposta, à luz da legislação e da melhor prática de governança, é inequívoca: a responsabilidade final permanece com os administradores. A IA, portanto, não dilui o dever de diligência; ela o amplifica, exigindo um novo paradigma de governança algorítmica.
O dever de diligência (duty of care), consagrado no artigo 153 da Lei das Sociedades por Ações (Lei nº 6.404/76), exige que o administrador empregue o cuidado e a diligência que todo homem ativo e probo costuma empregar na administração de seus próprios negócios.
Tradicionalmente, a doutrina da Business Judgment Rule protege os administradores de responsabilidade por decisões de negócio que, em retrospecto, se mostram equivocadas, desde que tenham sido tomadas de forma informada, em boa-fé e sem interesse pessoal.
Na era da IA, o critério “informado” ganha uma nova dimensão. A diligência agora se estende à obrigação de compreender, em um nível estratégico, os sistemas de IA que a companhia utiliza.
Não se espera que conselheiros se tornem cientistas de dados, mas que sejam capazes de fazer as perguntas certas: Qual a lógica de negócio por trás do algoritmo? Quais são suas limitações conhecidas? Como os dados que o alimentam são validados? Qual o protocolo para supervisão humana e intervenção?
O risco de “carimbar” uma recomendação algorítmica sem um escrutínio crítico representa uma falha direta nesse dever. A delegação da análise a uma máquina não equivale à delegação da responsabilidade. Pelo contrário, a decisão de confiar em um sistema de IA é, em si, uma decisão de negócio que deve ser informada e diligentemente supervisionada.
A complexidade de alguns modelos de IA, notadamente os de deep learning, cria o que é conhecido como o “problema da caixa-preta” (black box problem), onde os processos internos que levam a um determinado resultado não são facilmente interpretáveis. Essa opacidade gera riscos corporativos tangíveis que vão muito além de uma decisão de negócio errada.
Viés algorítmico e o risco ESG: Um dos riscos mais proeminentes é o viés algorítmico. Se um sistema de IA para recrutamento, treinado com dados históricos, aprende a preferir um determinado perfil demográfico, a empresa pode incorrer em práticas discriminatórias, mesmo que de forma não intencional. Isso cria não apenas um passivo trabalhista, mas também um grave risco reputacional que afeta diretamente os pilares “Social” e de “Governança” da agenda ESG.
Segurança e privacidade de dados: A implementação de sistemas de IA, especialmente aqueles que processam grandes volumes de dados de clientes ou funcionários, amplia a superfície de ataque para incidentes de segurança. Uma falha na governança desses sistemas pode resultar em violações massivas da Lei Geral de Proteção de Dados (LGPD), acarretando multas vultosas e perda de confiança do mercado.
A responsabilidade civil pela decisão automatizada: Se um algoritmo de precificação dinâmica leva a práticas anticompetitivas, ou se uma IA de diagnóstico de crédito nega acesso a serviços de forma sistemática e equivocada, a responsabilidade civil recai sobre a empresa. O argumento de que “foi o algoritmo que decidiu” é juridicamente insustentável. A responsabilidade é de quem implementa e se beneficia da tecnologia.
Para navegar neste novo cenário, os conselhos de administração devem adotar uma postura proativa, estabelecendo um framework robusto de governança de IA. Isso não significa frear a inovação, mas sim canalizá-la de forma segura e responsável.
A Inteligência Artificial não é uma ameaça à governança corporativa, mas um teste à sua maturidade e capacidade de adaptação. O papel do conselho de administração não é o de programar ou auditar o código-fonte, mas o de exercer seu ceticismo informado e sua diligência fiduciária sobre a estratégia tecnológica e seus riscos inerentes.
No século XXI, a fluência digital deixou de ser um diferencial para se tornar uma competência essencial para o exercício da administração. Compreender os contornos estratégicos da Inteligência Artificial é, hoje, uma parte indissociável do dever de diligência. As empresas cujos conselhos entenderem e abraçarem essa nova realidade não apenas mitigarão riscos, mas estarão mais bem posicionadas para liderar em uma economia cada vez mais algorítmica.
Artigo escrito por Ronaldo Moysés e publicado oficialmente no LexLegal Brasil