GOVERNANÇA E ÉTICA EM INTELIGÊNCIA ARTIFICIAL NA PRÁTICA II - ÉTICA DOS DEVERES (DEONTOLOGIA)
No artigo passado, sobre a ética das Consequências (utilitarismo) abordei a complexidade e importância da ética no desenvolvimento de soluções de IA, mencionei as três principais estruturas éticas apresentadas por Yustein (2024), a saber: ética das consequências (utilitarismo), ética dos deveres (deontologia) e ética da virtude, e fiz uma breve descrição e um exemplo prático hipotético da não observação da primeira delas, a ética das consequências (utilitarismo) para um agente de IA e uma solução cognitiva de IA. Neste artigo vou fazer uma breve descrição da ética dos deveres (deontologia) e apresentar um caso prático (hipotético) onde poderia não ter sido observado esta ética.
GOVERNANÇA DE IA
Ana Maria Lopes Corrêa
11/27/20242 min read


A ética das regras e deveres (deontologia)
Definição: A deontologia enfatiza a adesão a regras e deveres morais, independentemente dos resultados.
Relevância para IA: Sistemas de IA devem operar dentro de limites morais claramente definidos, garantindo o respeito aos direitos e princípios fundamentais.
Aplicação na IA:
Garantir a conformidade com regras éticas, como nunca usar IA para propagar desinformação.
Incorporar mecanismos de segurança para prevenir violações de regras, independentemente da utilidade potencial.
Vamos observar exemplos práticos (hipotéticos). Porém, como no outro artigo, antes vou especificar o que estou chamando de Solução Cognitiva de IA e Agente de IA
Soluções Cognitivas de IA: Referem-se a qualquer solução que utiliza algoritmos para simular funções humanas, como predição, prescrição e IA generativa. Estas soluções são focadas em processamento de informações, geração de insights e simulação cognitiva, mas não têm a capacidade de agir de forma autônoma no ambiente.
Agente de IA: Soluções que, além de analisar dados e fornecer insights, possuem a capacidade de agir autonomamente no ambiente, desempenhando tarefas e tomando decisões de forma contínua e adaptativa.
Negligenciar a ética dos deveres (deontologia) no desenvolvimento de IA, assim como a ética das consequências (utilitarismo) não é apenas um risco moral, mas também pode gerar impactos negativos tangíveis para empresas e indivíduos. Adotar uma abordagem proativa de governança de IA que incorpore regras éticas claras e justa no desenvolvimento de soluções de IA é essencial para garantir que a tecnologia opere de maneira responsável e respeitem os direitos humanos.
No próximo artigo, continuaremos explorando como o princípio ético da virtude pode ser aplicado ao desenvolvimento de IA e o que ocorre quando ele não é observado.
Fique atento e participe dessa discussão fundamental para o futuro da inteligência artificial!
Referências do artigo:
YUSTEIN,T. The Ethical AI Bible: A Universal Guide for Safe and Responsible Artificial Intelligence. E-book, 2024.




