GOVERNANÇA E ÉTICA EM INTELIGÊNCIA ARTIFICIAL NA PRÁTICA I - ÉTICA DAS CONSEQUÊNCIAS (UTILITARISMO)

Muito se tem falado na importância da Governança da Inteligência Artificial (IA) , segundo o Gartner® Plataformas de Governança de IA, ferramentas que asseguram conformidade ética, segurança e transparência nos processos de IA está no segundo lugar, entre as dez tendências tecnológicas para 2025, perdendo só para os Agentes de IA. Mas, o que é ética em IA e como ela acontece, ou não acontece, na prática?

GOVERNANÇA DE IA

Ana Maria Lopes Corrêa

11/26/20243 min read

Alguém um dia me falou que ética é como você age mesmo quando alguém não está olhando, sempre achei isso bem abstrato e difícil de entender, e na verdade ética é alguma coisa difícil de definir.

Pela Wikipédia: “ ética é o conjunto de padrões e valores morais de um grupo ou indivíduo. Contudo, em filosofia, a ética, filosofia ética, ou filosofia moral, é a disciplina filosófica que estuda os fundamentos da ação moral, procurando justificar a moralidade de uma ação e distinguir as ações morais das ações imorais amorais. A ética procura responder a várias questões de âmbito moral, sendo as principais: Como devemos viver? Ou Como devemos agir?”

De qualquer forma a ética tem sido o alicerce fundamental da sociedade humana. Em tecnologia devemos compreender quais os impactos éticos individuais, sociais e culturais provocados pelas inovações tecnológicas.

A Inteligência Artificial trouxe considerações éticas sem precedentes e por que isso tem acontecido? Porque a inteligência artificial é um ou mais algoritmos (códigos) que processam dados em uma infraestrutura tecnológica e que, diferentemente de outros tipos de aplicações, simulam o raciocínio humano. Além, disso, são capazes de aprender, se adaptar e operar de forma autônoma, inclusive tomando decisões que afetam diretamente vida de pessoas. Portanto, todas essas características implicam e amplificam a importância de incorporar princípios éticos em seu desenvolvimento e implantação.

Os principais desafios éticos da IA são:

  • O grande potencial das consequências não intencionais provocadas pela imprevisibilidade dos algoritmos que não são determinísticos

  • A escala de impacto dos erros e vieses que podem afetar tanto uma grande quantidade de pessoas, como milhões, em tempo real

  • A dificuldade de atribuir a responsabilidade. Afinal, quem errou?

Compreender e abordar essas questões exige uma base em estruturas éticas fundamentais adaptadas aos desafios específicos que a IA apresenta.

Principais estruturas éticas e sua relevância para a IA

Yustein (2024) apresenta três principais estruturas éticas para lidar com as complexidades éticas da IA sendo a ética das consequências (utilitarismo), éticas dos deveres (deontologia) e ética da virtude. Cada uma proporciona uma perspectiva única para avaliar os potenciai benefícios e riscos da IA.

Neste artigo vou abordar a ética das consequências (utilitarismo) com uma breve descrição e com a exemplificação prática, o que acredito que tornará menos subjetiva a compreensão.

Ética das Consequências (utilitarismo): O princípio da maximização de benefícios

Definição: A ética das consequências (utilitarismo) defende ações que maximizem a felicidade ou os benefícios gerais, ao mesmo tempo em que minimizem os danos.

Relevância para IA:

Sistemas de IA devem ser projetados para gerar o maior benefício total para a sociedade.

Vamos observar exemplos práticos (hipotéticos) onde poderia não ter sido observado a ética das consequências (utilitarismo).

Porém antes vou especificar o que estou chamando de Solução Cognitiva de IA e Agente de IA

  • Soluções Cognitivas de IA: Referem-se a qualquer solução que utiliza algoritmos para simular funções humanas, como predição, prescrição e IA generativa. Estas soluções são focadas em processamento de informações, geração de insights e simulação cognitiva, mas não têm a capacidade de agir de forma autônoma no ambiente.

  • Agente de IA: Soluções que, além de analisar dados e fornecer insights, possuem a capacidade de agir autonomamente no ambiente, desempenhando tarefas e tomando decisões de forma contínua e adaptativa.

Negligenciar a ética das consequências no desenvolvimento de IA não é apenas um risco moral, mas também pode gerar impactos negativos tangíveis para empresas e indivíduos. Adotar uma abordagem proativa, que avalie os benefícios e riscos potenciais desde a concepção de um sistema de IA, é essencial para garantir que a tecnologia realmente promova o bem-estar humano.

No próximo artigo, continuaremos explorando como o princípio ético dos deveres (deontologia) pode ser aplicado ao desenvolvimento de IA e o que ocorre quando ele não é observado.

Fique atento e participe dessa discussão fundamental para o futuro da inteligência artificial!

Referências do artigo:

YUSTEIN,T. The Ethical AI Bible: A Universal Guide for Safe and Responsible Artificial Intelligence. E-book, 2024.