IA Confiável: Dados, Modelos e Processos Precisam de Governança
A Inteligência Artificial (IA) Confiável e Responsável vai além de tecnologias avançadas: trata-se de desenvolver e utilizar sistemas que sigam princípios éticos, promovam justiça, transparência e respeito aos direitos humanos. Para isso, confiança é a palavra-chave.
GOVERNANÇA DE IA
Ana Maria Lopes Corrêa
5/12/20253 min read


IA Confiável e Responsável é o desenvolvimento e uso de sistemas de inteligência artificial que seguem princípios éticos, promovem a justiça, a transparência e o respeito aos direitos humanos. Uma solução de IA deve utilizar práticas que demostrem confiança no seu PROCESSO de desenvolvimento, implantação e monitoramento, na escolha, treino e validação dos MODDELOS e na preparação e manutenção dos DADOS (ALZUBAIDI et al., 2023).
Ou seja, ela precisa estar presente em três pilares fundamentais:
Dados bem preparados e mantidos,
Modelos cuidadosamente treinados e validados, e
Processos de desenvolvimento, implantação e monitoramento bem governados.
É exatamente nesse ponto que a Governança de IA se torna essencial.
O papel da Governança de IA: Governança de IA é o conjunto de políticas, diretrizes e práticas que asseguram que a IA esteja alinhada com valores éticos, regulações, metas de negócio e expectativas sociais. Ela garante que os três pilares — dados, modelos e processos — sejam tratados com o a atenção necessária.
Para ilustrar como isso funciona na prática, veja três exemplos onde apenas um dos pilares falha, comprometendo toda a solução:
1. Quando os Dados falham (modelo e processo bons)
Uma fintech lançou um sistema de IA para detectar fraudes em transações bancárias.
O modelo era bem desenvolvido, com técnicas robustas de aprendizado supervisionado.
Processo sólido: Avaliações regulares, revisões éticas e compliance fortes. Prestação de contas e responsabilidades definidas, transparência e explicabilidade especificadas, riscos éticos, de justiça e equidade, proteção, privacidade, integridade e qualidade dos dados, contextos sociais e de segurança e robustez analisados, avaliados e mitigados no ciclo de vida.
Mas os dados usados vinham de registros históricos incompletos e desatualizados, com viés de registro (ex.: dados de transações recentes e digitais eram muito mais detalhados do que dados antigos).
Impactos: A IA apresentava alta precisão nos testes internos, mas na prática deixava passar fraudes mais sofisticadas ou marcava transações legítimas como suspeitas em perfis fora do padrão dos dados históricos.
Resultados: Aumento de reclamações de clientes; Falsos positivos elevados (restrição de contas sem necessidade) e Imagem arranhada, mesmo com compliance em dia.
Lição: Dados ruins comprometem até os melhores modelos e processos.
2. Quando o Modelo é o elo fraco (dados e processos bons)
Uma grande rede varejista implementou um sistema de recomendação personalizada.
Os dados eram excelentes: captavam comportamento online e offline, perfis detalhados e atualizados.
Processo sólido: Avaliações regulares, revisões éticas e compliance fortes. Prestação de contas e responsabilidades definidas, transparência e explicabilidade especificadas, riscos éticos, de justiça e equidade, proteção, privacidade, integridade e qualidade dos dados, contextos sociais e de segurança e robustez analisados, avaliados e mitigados no ciclo de vida.
Porém, o modelo escolhido era simplório: um algoritmo básico de filtragem colaborativa, sem atualização dinâmica nem capacidade de lidar com contextos complexos.
Impactos: As recomendações eram genéricas e repetitivas, não captavam nuances como preferências sazonais ou mudanças de comportamento.
Resultados: Taxa de conversão menor do que esperado; Usuários começavam a ignorar recomendações por achá-las irrelevantes e Perda de oportunidade de crescimento de receita, mesmo com toda a infraestrutura certa.
Lição: Bons dados e processos não compensam um modelo mal escolhido.
3. Quando o Processo é falho (dados e modelo bons)
Um hospital implantou um sistema de triagem automatizada para emergências.
Os dados clínicos eram bem estruturados e representativos.
O modelo era avançado, usando IA médica validada e treinada para vários perfis demográficos.
Mas o processo era falho: não havia auditoria contínua, nem documentação clara para explicar decisões, e as atualizações do modelo eram feitas sem critérios padronizados de validação. riscos éticos, de justiça e equidade, proteção, privacidade, integridade e qualidade dos dados, contextos sociais e de segurança e robustez não foram analisados, avaliados e muito menos mitigados no ciclo de desenvolvimento
Impactos: Apesar do bom desempenho inicial, houve erros não detectados após atualizações: o modelo começou a priorizar pacientes com sintomas menos graves por causa de uma falha de ajuste que passou despercebida.
Resultados: Atrasos críticos em atendimentos graves; Desconfiança entre médicos e gestores e Revisão emergencial e bloqueio temporário do sistema.
Lição: Sem um processo governando corretamente, até IA de qualidade se torna perigosa.
Para uma IA ser realmente confiável e responsável, os três pilares precisam estar em harmonia:
✅ Dados confiáveis
✅ Modelos robustos
✅ Processos bem governados
E a Governança de IA é o elo que une todos esses elementos.
Gostaria de aprender como implementar a Governança da IA de forma estruturada e prática?
Conheça o nosso treinamento Governança da IA Aplicada
Referência bibliográfica desta publicação: ALZUBAIDI, L. et al. Towards Risk-Free Trustworthy Artificial Intelligence: Significance and Requirements. International Journal of Intelligent Systems., Oct. 26, 2023, Article ID 4459198, 41p. Disponível em: https://lnkd.in/d2JwSz8t
