Pular para o conteúdo
PANAIR
Voltar para Insights
4 min de leitura por Panair

Governança de IA em decisões executivas

Quando uma IA pode decidir, quando precisa de clearance humano, e por que essa fronteira não é técnica — é institucional.


Há uma pergunta que nenhuma demonstração técnica responde: quem assina pela decisão?

Na engenharia, a resposta era estrutural — havia um arquiteto, um responsável técnico, um log de revisões. Cada commit deixava rastro. Cada deploy passava por aprovação. A IA introduz uma camada nova: um sistema que delibera. E deliberação sem assinatura é o oposto de governança.

Esta nota é sobre como pensar essa fronteira na prática.

O erro de linguagem

A indústria adotou o termo “human-in-the-loop” como se fosse uma solução. Não é. É uma descrição. Diz que existe uma pessoa em algum ponto da execução — não diz onde, com que autoridade, ou com que consequência.

Em uma operação séria, “in the loop” significa coisas radicalmente diferentes:

  • Revisão prévia — humano lê antes de a ação ocorrer
  • Aprovação por exceção — humano só é chamado quando o sistema sinaliza incerteza
  • Auditoria posterior — humano nunca interrompe; reconstrói o que aconteceu
  • Co-execução — humano e máquina decidem juntos, com pesos diferentes

Cada uma dessas modalidades carrega uma estrutura de responsabilidade distinta. Tratar todas como “human-in-the-loop” é importar uma frase de marketing para o lugar onde precisaríamos de protocolo.

Três níveis de decisão

A Panair trabalha com um critério simples — não é o nosso, é uma síntese de ambientes que operam IA com cobertura jurídica. Cada chamada a um sistema é classificada em um dos três níveis:

I. Advisory

A IA propõe. Um humano decide. O sistema entrega evidência, opções, avaliações de risco — mas não executa nada sozinho. É o nível adequado para qualquer decisão que: (a) tenha consequência irreversível, (b) envolva terceiros não consultados, ou (c) exija interpretação de norma ambígua.

A maioria das aplicações executivas vive aqui. E é aqui que o trabalho real está — não é montar a IA, é desenhar a interface de revisão para que o humano consiga decidir em segundos sem virar gargalo.

II. Conditional

A IA executa dentro de um envelope pré-aprovado. Há limites de valor, limites de escopo, limites de impacto. Fora do envelope, escala automaticamente para Advisory. Dentro do envelope, opera sem aprovação caso a caso.

Funciona para operações repetitivas e bem-delimitadas: triagem de tickets, classificação de documentos, resposta a consultas internas, ajustes de estoque. Exige um envelope desenhado por alguém que entende tanto a regra quanto o que acontece quando a regra falha.

III. Autonomous

A IA decide e executa sem revisão humana no caminho. Auditoria é posterior, não prévia. É reservado para o que é (a) reversível, (b) de baixo impacto individual, e (c) suficientemente repetitivo para que padrões anômalos sejam detectáveis estatisticamente.

A maioria das organizações erra ao tentar começar aqui. Autonomous é o último nível, não o primeiro. Sistemas chegam aqui depois de meses provando comportamento em Conditional.

A fronteira não é técnica

Note o que esses três níveis não dizem: nada sobre o modelo, sobre a arquitetura, sobre o vendor. A fronteira entre eles é institucional, não técnica.

Quem assina, em última instância, pelo dano causado por uma decisão? Esta pergunta resolve a maior parte das dúvidas:

  • Se ninguém assina, é porque ninguém pode operar autônomo
  • Se a assinatura sobe ao C-level a cada exceção, o envelope condicional está mal calibrado
  • Se a assinatura desce ao operacional sem suporte, o que se está fazendo é diluir responsabilidade — não distribuí-la

Governança de IA é a engenharia que torna a assinatura possível. Logs, trilhas, motivação registrada de cada decisão, evidência reproduzível. Sem isso, qualquer um dos três níveis é teatro.

O que muda em 2026

Três mudanças concretas tornam essa discussão mais urgente que há dois anos:

Primeira: modelos com janelas de contexto longas mudaram o que conta como “ação”. Antes, “uma decisão” era um prompt e uma resposta. Hoje, é uma sequência de chamadas que pode incluir leitura de bases internas, escrita em sistemas, comunicação com terceiros. O envelope precisa cobrir a sequência inteira, não a chamada.

Segunda: o regulador começou a exigir descrição auditável do processo de decisão. No Brasil, o tema entrou em audiência pública em mais de uma agência. Na União Europeia, é obrigação. Quem operar sem trilha rastreável vai pagar multa, não só perder cliente.

Terceira: o modelo deixou de ser o gargalo. Em 2024 a discussão era sobre acurácia. Em 2026 é sobre quem aprovou o que, quando, e com base em qual evidência. A pergunta migrou da inferência para a contabilidade.

Como começamos uma conversa

Quando uma companhia nos chama para discutir governança de IA, a primeira pergunta nunca é sobre tecnologia. É sobre o que já está sendo decidido por sistemas que ninguém classificou. Quase sempre há mais do que se imagina — e quase sempre estão em Autonomous sem terem passado por Advisory ou Conditional.

A correção não é parar tudo. É reclassificar. E desenhar a interface para que cada nível possa operar com a velocidade que sua categoria de decisão permite — Advisory rápido o suficiente para não virar gargalo, Conditional auditável o suficiente para suportar um stress test, Autonomous transparente o suficiente para que uma exceção não vire crise.

A IA não muda quem responde pela decisão. Muda quanto trabalho é necessário para que essa resposta seja honesta.