Uma lição da IA: Ética não é um jogo da imitação

Autores

  • Mariana Rocha Bernardi Universidade de Caxias do Sul (UCS)

Palavras-chave:

Julgamento tendencioso. Pensamento crítico. Equidade e igualdade. Ética aprendida. Ética programada. Racionalidade da ética.

Resumo

Como podemos ensinar padrões morais de comportamento para uma máquina? Um dos mais importantes alertas contra a IA é a necessidade de evitar vieses em tomadas de decisões eticamente carregadas, mesmo se a população sobre a qual a aprendizagem é baseada também possui um viés próprio. Isto é especialmente relevante quando consideramos que a equidade (e a proteção das minorias) é uma noção ética que por si própria vai além (muito provavelmente) das opiniões tendenciosas das pessoas: a equidade deve ser perseguida e assegurada pelas estruturas sociais, independentemente se as pessoas concordam ou não. Nós sabemos (acreditamos?) que o viés, ou estar suscetível a vieses, é uma coisa ruim, independentemente do que a maioria diz. Em outras palavras, bem e mal não são o que a maioria diz, isso está além de maiorias e de fórmulas matemáticas. A ética não pode ser baseada numa opinião majoritária sobre o que é certo e errado ou em um rígido código de conduta. Nós devemos superar o ceticismo generalizado em nossa sociedade sobre a racionalidade da ética e dos valores. A boa notícia é que a IA está nos forçando a pensar a ética de uma nova forma. A tentativa de formalizar a ética em uma série de regras perde de vista que uma pessoa não é apenas uma instância de um caso, mas um ser único e irrepetível. A ética deveria nos prevenir do erro de tentar converter equidade em igualdade matemática, adquirida através da extração de características e a computação de uma fórmula de valor. Equidade não é igualdade matemática, nem mesmo uma massificada igualdade que considera diferentes fatores.

Biografia do Autor

Mariana Rocha Bernardi, Universidade de Caxias do Sul (UCS)

Doutoranda em Filosofia pela Universidade de Caxias do Sul (UCS). Bolsista de pesquisa CAPES 

Referências

ANDERSON, S.L. “The unacceptability of Asimov’s three laws of robotics as a basis for machine ethics”. In: ANDERSON, M.; ANDERSON, S. L. (Eds.). Machine ethics. Cambridge: Cambridge University Press, 2011. p. 285-296.

AWAD, E.; SOUZA, S. D.; KIM, R.; SCHULZ, J.; HENRICH, J.; SCHARIFF, A.; BONNEFON, J.-F.; RAHWAN, I. “The Moral Machine experiment”. Nature, v. 563, p. 59-64, 2018.

BISHOP, C.M. Pattern Recognition and Machine Learning. New York: Springer, 2006.

BOGOSIAN, K. “Implementation of moral uncertainty in intelligent machines”. Minds and Machines, v. 27, n. 4, p. 591-608, 2017.

BREMER, P.; DENNIS, L.A.; FISHER, M.; WINFIELD, A.F. “On Proactive, Transparent, and Verifiable Ethical Reasoning for Robots”. Proceedings of the IEEE, v. 107, n. 3, p. 541-561. Special Issue on Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems, 2019.

ETIENNE, H. “When AI Ethics Goes Astray: A Case Study of Autonomous Vehicles”. Social Science Computer Review, v. 40, n. 1, p. 1-11, 2020.

GÉNOVA, G.; GONZÁLEZ, M.R.; FRAGA, A. “Ethical education in software engineering: responsibility in the production of complex systems”. Science and Engineering Ethics, v. 13, n. 4, p. 505-522, 2007.

GÉNOVA, G.; GONZÁLEZ, M.R. “Teaching Ethics to Engineers: A Socratic Experience”. Science and Engineering Ethics, v. 22, n. 2, p. 567-580, 2016.

GERT, B.; GERT, J. “The Definition of Morality”. The Stanford Encyclopedia of Philosophy. Disponível em: https://plato.stanford.edu/archives/fall2020/entries/moralitydefinition.

HINSLEY, F.H.; STRIPP, A. (Eds.), Codebreakers: The inside story of Bletchley Park. Oxford: Oxford University Press, 1993.

HODGES, A. Alan Turing: The enigma. London: Burnett Books, 1983.

JACQUES, A.E. “Why the moral machine is a monster”. We Robot Conference, University of Miami School of Law, April 11-13, 2019.

JOHNSON, D.G. Computer Ethics. 2ª ed. Upper Saddle River: Prentice Hall, 1994.

LAUDON, K.C. “Ethical Concepts and Information Technology”. Communications of the ACM, v. 38, n. 12, p. 33-39, 1995.

LEONARD, C. “Teaching ethics to machines”. 2016. [Online]. Available: https://www.linkedin.com/pulse/teaching-ethicsmachines-charles-leonard.

LUMBRERAS, S. “The Limits of Machine Ethics”. Religions, n. 8, p. 100, 2017.

MAY, J.; WORKMAN, C.; HAAS, J.; HAN, H. “The Neuroscience of Moral Judgment: Empirical and Philosophical Developments”. In: BRIGARD, F. de; SINNOTTARMSTRONG, W. (Eds.). Neuroscience and Philosophy. Massachusetts: MIT Press, 2022.

NALLUR, V. “Landscape of Machine Implemented Ethics”. Science and Engineering Ethics, v. 26, n. 5, p. 2381-2399, 2020.

NASCIMENTO, A.M.; VISMARI, L.F.; QUEIROZ, A.C.M.; CUGNASCA, P.S.; CAMARGO JUNIOR, J.B.; ALMEIDA JUNIOR, J.R. de. “The Moral Machine: Is It Moral?”. 2nd International Workshop on Artificial Intelligence Safety Engineering within 38th International Conference on Computer Safety,

Reliability, and Security, September 10-13, 2019, Turku, Finland. Lecture Notes in Computer Science, v. 11699, p. 405-410.

OBER, J. “Democracy’s Wisdom: An Aristotelian Middle Way for Collective Judgment”. American Political Science Review, v. 107, n. 1, p. 104-122, 2013.

PURI, A. “Moral Imitation: Can an Algorithm Really Be Ethical?”. Rutgers Law Record, v. 48, n. 1, p. 47-58, 2020.

SISMONDO, S. “Post-truth?”. Social Studies of Science, v. 47, n. 1, p. 3-6, 2017.

TORRESEN, J. “A Review of Future and Ethical Perspectives of Robotics and AI”, Frontiers in Robotics and AI, v. 4, n. 75, 2018.

TURING, A.M. “Computing Machinery and Intelligence”. Mind, n. 59, p. 433-460, 1950.

VANDERELST, D.; WINFIELD, A. “An architecture for ethical robots inspired by the simulation theory of cognition”. Cognitive Systems Research, n. 48, p. 56-66, 2018.

Downloads

Publicado

2023-07-01

Como Citar

BERNARDI, M. R. Uma lição da IA: Ética não é um jogo da imitação. Kairós, Fortaleza, v. 19, n. 1, p. 223–239, 2023. Disponível em: https://ojs.catolicadefortaleza.edu.br/index.php/kairos/article/view/420. Acesso em: 22 dez. 2024.

Edição

Seção

Traduções