DECIFRA-ME OU TE DEVORO:A IA e os desafios da implementação da sua governança

A inteligência artificial (IA) está transformando o mundo ao nosso redor. De diagnósticos médicos a sistemas financeiros, sua capacidade de tomar decisões e aprender de forma autônoma é impressionante. No entanto, com esse poder vêm grandes responsabilidades: como garantir que essas soluções sejam éticas, seguras e transparentes? A resposta está na governança da IA. Mas, como transformar princípios éticos em práticas concretas?

GOVERNANÇA DE IA

1/22/20258 min read

A IA e os desafios de Implementação de sua Governança

A inteligência artificial (IA) está transformando o mundo ao nosso redor. De diagnósticos médicos a sistemas financeiros, sua capacidade de tomar decisões e aprender de forma autônoma é impressionante. No entanto, com esse poder vêm grandes responsabilidades: como garantir que essas soluções sejam éticas, seguras e transparentes? A resposta está na governança da IA. Mas, como transformar princípios éticos em práticas concretas?

Desde o início de 2023, venho estudando diferentes frameworks e ferramentas de governança de IA. Baseando-me nessa experiência, identifiquei três grandes desafios centrais que tornam a implementação da governança de IA uma tarefa complexa. Neste artigo, vou explorar esses desafios, destacando suas limitações, exemplos práticos e possíveis soluções.

O Que Torna a Governança de IA Um Desafio?

Para entender a complexidade da governança de IA, é importante reconhecer que soluções de IA não são apenas "códigos". Elas combinam algoritmos (que são sim códigos), grandes volumes de dados e infraestrutura tecnológica para simular processos que imitam o raciocínio humano. Essas simulações possibilitam:

  • Interpretação do mundo: IA consegue "enxergar" (reconhecimento e produção de imagens), "ouvir" (reconhecimento e produção de sons) e "comunicar-se" (linguagem natural, reconhecimento e produção de textos).

  • Análise e predição: Processam dados para encontrar padrões, fazer recomendações ou prever eventos futuros.

  • Interação com humanos e sistemas: Decidem, diagnosticam, otimizam processos e até geram novos insights.

Além disso, através dos modelos de redes neurais, deep learning e a IA generativa aumentamos significativamente o seu poder de aprendizado, sua capacidade cognitiva que é o processo/capacidade de adquirir conhecimento.

Por trás dessas capacidades incríveis, surgem questões éticas e de responsabilidade que antes eram exclusivas dos seres humanos. Como exigir transparência, justiça e responsabilização de sistemas que agem e aprendem de forma autônoma?

1. O desafio de operacionalizar a inclusão dos princípios da governança

Alguns princípios como Segurança e Solidez Técnica e a Gestão Responsável de Dados são mais objetivos e possuem frameworks, técnicas e ferramentas que tornam sua operacionalização mais tangível. Porém, outros princípios amplamente aceitos para guiar a governança de IA – como responsabilidade, justiça e equidade, transparência e responsabilização – coloca-los em prática é mais desafiador do que parece. Isso ocorre porque muitos desses conceitos são subjetivos e complexos de traduzir para sistemas automatizados.

1.1 –IA Responsável e Sustentável

Esse princípio se refere aos impactos das ações das soluções de IA nos indivíduos, nos grupos, na empresa, na sociedade e no meio ambiente e suas respectivas responsabilidades por tais impactos garantindo que sejam evitados, prevenidos e corrigidos se acontecerem.

Porém, as soluções de IA são responsáveis pelos resultados de suas ações dentro dos limites de seu design, como: processam dados, fazer previsões, executar tarefas automatizadas, como aprovar ou rejeitar solicitações. Suas ações se baseiam nas instruções e algoritmos desenvolvidos por humanos.

Limitação: A IA não pode assumir responsabilidade pelos impactos de suas ações pois não possui, pelo menos ainda, consciência ou agência para entender tais impactos.

Exemplo: Um sistema de IA usado para filtrar currículos pode rejeitar automaticamente candidaturas com base em critérios enviesados (como histórico de contratações que favorecem homens em cargos técnicos).

Solução e Desafio: Garantir que as equipes tenham ferramentas que a permitam simular e avaliar os possíveis impactos das ações da solução de IA antes de sua implementação.

1.2 –Equidade e Justiça

Esse princípio garante que as decisões de IA sejam justas, sem discriminar indivíduos ou grupos. O desafio, porém, está nos dados: se o sistema foi treinado com dados enviesados, ele tenderá a reproduzir essas desigualdades.

Limitação: A IA não possui uma compreensão própria de justiça ou igualdade; ela apenas reproduz os padrões presentes nos dados de treinamento. Se houverem vieses, a IA poderá reproduzi-los ou amplificá-los.

Exemplo: Um sistema de análise de crédito pode penalizar clientes de regiões historicamente negligenciadas, perpetuando padrões de exclusão financeira.

Solução e Desafio: Garantir que as equipes tenham ferramentas para identificar e corrigir vieses nos dados de treinamento. Além disso, realizar auditorias contínuas para ajustar os critérios de avaliação.

1.3 –Transparência e Explicabilidade

Este princípio se refere a necessidade de descrever e explicar de forma clara os mecanismos pelos quais as soluções de IA tomam decisões e aprendem a se adaptar ao seu ambiente e à governança dos dados utilizados e criado.

No entanto, algoritmos complexos, como redes neurais e deep learning, muitas vezes funcionam como "caixas-pretas": é difícil explicar como eles chegaram a uma decisão. Isso gera desconfiança e desafios regulatórios.

Limitação: A transparência e explicabilidade esbarram na complexidade técnica dos algoritmos e na barreira de compreensão para não especialistas. Mesmo que seja possível oferecer explicações técnicas detalhadas, elas podem ser inacessíveis para tomadores de decisão, reguladores ou usuários finais que não possuem formação técnica.

Exemplo: Um banco usa IA para aprovar empréstimos, mas não consegue explicar por que um cliente foi recusado. A justificativa “baixa pontuação” é vaga e insuficiente para o cliente ou reguladores.

Solução e Desafio: Adotar técnicas e ferramentas de Explainable AI (XAI) quando possível, como por exemplo LIME ((Local Interpretable Model-agnostic Explanations) ou SHAP (SHapley Additive exPlanations). Porém, só isso não basta, é preciso capacitar equipes internas com conhecimentos básicos sobre o funcionamento de modelos complexos com uma linguagem acessível, implementar diretrizes organizacionais que exigem relatórios de explicabilidade para modelos de IA, mesmo que de maneira simplificada, para diferentes públicos.

1.4 –Responsabilização e rastreabilidade

Este princípio se refere a necessidade de garantir que os resultados das ações das soluções de IA tenham a responsabilidade e/ou rastreabilidade definida. Ou seja, é preciso prestar contas das ações das soluções de IA.

Mas, como descrito no princípio 1.1 – Princípio da IA responsável e sustentável, as ações das soluções de IA se baseiam nas instruções e algoritmos desenvolvidos e nos dados nos quais foram treinados, ambos desenvolvidos e tratados pelos seres humanos.

Limitação: As soluções de IA não podem ser responsáveis por prestar contas de suas ações diretamente, pois isso envolve assumir responsabilidade moral e responder pelos resultados de maneira autônoma.

Exemplo: Se um chatbot de IA fornece informações incorretas ou ofensivas, a organização que criou ou opera o chatbot é responsável por prestar contas, pois a IA não tem capacidade de justificar seu comportamento ou aprender ética por si só.

Solução de Desafio: A responsabilidade por prestar contas e por fornecer a rastreabilidade das ações das soluções de IA são dos criadores, operadores ou proprietários da IA que decidem os objetivos estratégicos e as regras do sistema. Portanto, devem responder pelos erros ou impactos negativos causados pelas decisões da solução de IA. Por isso, é preciso ter diretrizes éticas e legais, e garantir que as equipes tenham total consciência de suas responsabilidades.

2. O desafio da diversidade dos frameworks de governança de IA

Atualmente existem inúmeros frameworks de governança de IA que podem ser divididos em dois tipos:

  • Frameworks genéricos: Como os da OCDE (2019) e da UNESCO (2021), que fornecem orientações amplas, mas sem detalhar como operacionalizar essas práticas.

  • Frameworks específicos: Como os da Alan Turing Institute ou da BSA (BSA, 2021), que oferecem ferramentas práticas para implementação.

E as perguntas são: Qual tipo de framework utilizar, um genético ou específico? E, qual deles?

Solução e Desafio: As organizações que pretendem, de fato, adotar medidas mais efetivas em relação à ética e governança da IA, devem escolher um framework que traga sugestões claras e objetivas sobre o que deve ser feito. Porém, deve ser levado em conta o contexto de cada operação, e mais, de cada projeto de IA inexistindo uma solução que se encaixe sempre e totalmente em todas as situações.

3. O desafio do Especialistas em Ética e Governança de IA

Um dos maiores desafios é a ausência de profissionais especializados em governança de IA. Esse é um campo multidisciplinar que exige:

  1. Conhecimentos técnicos:

    • Fundamentos técnicos de IA e gestão de dados.

    • Familiaridade com o ciclo de vida do desenvolvimento de soluções de IA.

  2. Aspectos éticos e regulatórios:

    • Conhecimento de princípios de governança de IA.

    • Entendimento de regulamentações locais e internacionais que tratam do uso e governança de IA

  3. Frameworks e Ferramentas de Governança:

    • Capacidade de avaliar e selecionar frameworks de governança de IA, como os propostos por organismos como IEEE, ISO ou outros.

    • Familiaridade com ferramentas de Explainable AI (XAI), detecção de viés e auditoria de modelos.

  4. Gestão Organizacional e Mudança Cultural:

    • Conhecimento de gestão de projetos, liderança e estratégias para implementar mudanças culturais em organizações.

    • Habilidades para alinhar as práticas de governança de IA aos objetivos estratégicos da empresa.

     5. Habilidades interpessoais: Liderança, comunicação, capacidade de disseminar boas práticas em equipes, inovação e adaptabilidade.

O mercado ainda carece de um consenso sobre o papel desses especialistas, dificultando sua formação e contratação. Porém, este profissional é essencial para garantir que as soluções de IA sejam implementadas de forma responsável, ética e alinhada aos princípios da governança.

Conclusão: A Governança de IA como Pilar do Futuro Tecnológico

A governança de IA é mais do que uma exigência ética; ela é um pilar essencial para o avanço seguro e responsável da tecnologia em nossa sociedade. Os desafios destacados – desde a operacionalização de princípios éticos até a escolha de frameworks adequados e a formação de especialistas – refletem a complexidade de lidar com sistemas cada vez mais autônomos e impactantes. Contudo, enfrentá-los não é uma tarefa impossível.

A construção de soluções de IA que respeitem valores como transparência, equidade e responsabilização exige esforços coordenados entre profissionais de diversas áreas, o uso de ferramentas adequadas e um compromisso contínuo das organizações com práticas éticas e sustentáveis. Além disso, a adoção de frameworks contextualizados e a capacitação de especialistas em governança de IA são passos indispensáveis para transformar desafios em oportunidades de inovação.

Somente ao abordar a governança de IA com seriedade e comprometimento, será possível explorar o potencial transformador da inteligência artificial enquanto se protegem os direitos e valores fundamentais de indivíduos e comunidades. Assim, pavimentamos um futuro tecnológico mais justo, seguro e alinhado aos interesses coletivos.

Referências do artigo:

BSA. The Business Software Alliance. AI for Europe. 2020a. Disponível em: https://www.bsa.org/files/policy-filings/12172020aiforeurope.pdf. Acesso em: 19 nov. 2022.

BSA. The Business Software Alliance. BSA Global Members. 2022a. Disponível em: https://www.bsa.org/membership. Acesso em: 19 nov. 2022.

BSA. The Software Alliance. Confronting Bias: BSA’s Framework to Build Trust in AI. 2021. Disponível em: https://ai.bsa.org/wp-content/uploads/2021/06/2021bsaaibias.pdf. Acesso em: 20 ago. 2022.

BSA. The Business Software Alliance. Priorities in AI. 2020b. Disponível em: https://www.bsa.org/files/policy-filings/bsatransitionai.pdf. Acesso em: 19 nov. 2022.

BSA. The Business Software Alliance. Sobre a BSA. 2022b. Disponível em: https://www.bsa.org/pt/sobre-a-bsa. Acesso em: 19 nov. 2022.

OCDE. Recommendation of the Council on Artificial Intelligence. 2019. Disponível em: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449. Acesso em: 21 ago. 2022.

UNESCO. Organização das Nações Unidas para Educação, Ciência e Cultura. Recomendação sobre a Ética da lnteligência Artificial. 2021. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000381137_por. Acesso em: 27 maio 2022.

#ai #aigovernance #aiethical #ia #govenança-de-ia #ia-ética