EU AI Act (I) – Sobre o estatuto moral da IA

No fim do ano passado, os órgãos institucionais da União Europeia acordaram o EU AI Act, que regula a implementação de algoritmos de inteligência artificial (IA). Assim começamos a institucionalizar formalmente esta novidade na história da Terra que é a perda pelo Homo Sapiens da exclusividade de procedimentos “inteligentes” (ao nosso nível). A qual detivemos desde que, muito antes de termos lançado a forma civilizada de vida, se extinguiram outros hominídeos que se nos comparavam.

Um regulamento como esse implica logicamente a determinação do estatuto moral da IA. O qual, no entanto, dada precisamente a novidade dessa forma de inteligência, não é límpido.

No caso das tecnologias clássicas, desde as pedras lascadas do Homo habilis aos nossos robôs programados, a intuição mais comum sobre o seu estatuto moral será a do armeiro, num 007, que declara ao célebre agente de Sua Majestade que quem mata não é a arma, nem o técnico que a constrói, mas quem puxa o gatilho. Essas tecnologias serão assim moralmente neutras, apenas as suas utilizações terão cunho ético.

Mas considere-se o clássico caso de estudo dos navios. O seu design determina que o artefacto apenas pode ser operacionalizado por uma equipa especializada e hierarquizada. Ou seja, o design técnico implementa uma moral, nesse exemplo, a que for própria à hierarquização social em detrimento da igualdade ou da liberdade individual.

Em todo o caso, diremos que a agência moral e a responsabilidade consequente cabem ao designer, bem como a quem o enquadra organizacional, legislativamente etc. O artefacto apenas transmite essa agência aos utilizadores, que implementarão depois as suas.

O que dizer hoje, porém, sobre algoritmos como o de um automóvel autónomo que trava, ou não, quando um gato subitamente atravessa a estrada e uma eventual derrapagem, nessa curva molhada, porá em risco os passageiros? Não se verifica nestes algoritmos a agência que é própria dos utilizadores humanos em tais situações?

Independentemente de decisões particulares como essa, objetar-se-á que, em geral, as tomadas de decisão artificiais resultam de procedimentos estatísticos, e não da chamada “causalidade do agente” (provocação da ação segundo uma deliberação consciente e livre). Mas duas contra-objeções se podem colocar: essa causalidade ocorre sequer nos seres humanos? Mesmo que ocorra, não será de reconhecer uma nova condição intermédia entre ela e a ausência de decisão em artefactos desde o martelo ao robô programado?

Uma forma possível dessa condição moral fraca é a “moralidade a-mental” (ing. mind-less morality), proposta por L. Floridi e J.W. Sanders: a agência moral será reconhecida a partir de um nível, tido como suficiente, de interatividade, autonomia e adaptabilidade – ex. num cão de resgate, ou num bot dotado de IA cujas intervenções tenham significado moral. Um problema aqui será o da determinação dessa suficiência – qual ou quanta interatividade etc. serão suficientes para um automóvel autónomo ter agência moral?

Suponhamos que obtemos uma resposta que nos satisfaz a essa questão, e outorgamos alguma agência moral a algoritmos inteligentes, mormente os generativos com capacidade de aprendizagem. Teremos então de atender aos problemas sobre a responsabilidade proporcional a tal agência. Desde logo, o problema das “muitas mãos” (D. Thompson): como distinguir o que cabe ao algoritmo de o que cabe à empresa que o produz, ao legislador que versa as ações em causa, ao utilizador etc.? Suponhamos ainda que conseguimos isolar a responsabilidade do algoritmo; em caso de dolo, essa responsabilidade significa concretamente o quê? O algoritmo vai para a cadeia virtual?…

Não faltam questões sobre esta matéria. Mas ainda outra linha de questionamento releva da recusa de uma ética antropocêntrica, já presente na moralidade a-mental. Se a IA não é moralmente neutra, então a determinação do seu estatuto moral contempla não só uma agência mas, eventualmente, também uma paciência (gr. pathos) moral: os algoritmos inteligentes, especialmente os generativos e capazes de aprender, serão legitimamente objetos de valores morais?

Afinal, ainda há poucas décadas ninguém que se mantivesse longe do manicómio se lembraria de falar em direitos morais dos animais. E duas ou três gerações atrás, o mesmo sobre as crianças. Se pretendemos alguma justificação para os nossos códigos morais, então não podemos recusar paciência moral àqueles algoritmos apenas porque não imaginamos por que lhes a haveríamos de reconhecer.

A estranheza desta hipótese reconduz-nos à questão básica de como outorgamos estatutos morais. Fazemo-lo conforme o objeto considerado revele consciência, sentimentos…? Os habituais discursos e comportamentos sobre, por um lado, inimigos na guerra, escravos etc. e, por outro lado, doentes em coma, deficientes mentais etc., sugerem que esses critérios, no mínimo, são secundários. Ao contrário, sobressaem critérios como o da referida interatividade social e, logo, o da linguagem. Por exemplo, assim que isolamos um cão ao lhe atribuirmos um nome, e interagimos com ele usando esse som vocal, mais nos choca a violência, natural ou intencional, sobre esse animal. Daí aos robôs sociais, ainda mais se forem dotados de IA, irá um pequeno passo.

Passo esse que nos constrangerá, então, a ponderar direitos dessas entidades com que estamos começando a partilhar a Terra.

Em suma, o impacto da IA parece bem requerer alguma regulamentação. A qual implica a determinação do estatuto moral dessa nova entidade. Designadamente, ou o da neutralidade, ou o de uma agência e porventura paciência morais. Determinação essa que depende das respostas a diversas questões, preferivelmente sustentadas por argumentos bons ou cogentes.

Correio do Minho (ed. impressa), 02/03/2024

Sem comentários:

Enviar um comentário

Qualquer comentário cortês é bem-vindo, em particular se for crítico ou sugerir desenvolvimentos ao post.

O pensamento técnico e o desafio português

Quando se fala em “tecnologia”, ocorrem-nos habitualmente objetos com utilidade prática – computadores, esferográficas… No entanto, aquele t...