No fim do ano passado, os órgãos institucionais da União Europeia acordaram o EU AI Act, que regula a implementação de algoritmos de inteligência artificial (IA). Assim começamos a institucionalizar formalmente esta novidade na história da Terra que é a perda pelo Homo Sapiens da exclusividade de procedimentos “inteligentes” (ao nosso nível). A qual detivemos desde que, muito antes de termos lançado a forma civilizada de vida, se extinguiram outros hominídeos que se nos comparavam.
Um regulamento como esse implica logicamente a
determinação do estatuto moral da IA. O qual, no entanto, dada precisamente a
novidade dessa forma de inteligência, não é límpido.
No caso das tecnologias clássicas, desde as pedras
lascadas do Homo habilis aos nossos robôs programados, a intuição mais comum sobre
o seu estatuto moral será a do armeiro, num 007, que declara ao célebre
agente de Sua Majestade que quem mata não é a arma, nem o técnico que a
constrói, mas quem puxa o gatilho. Essas tecnologias serão assim moralmente
neutras, apenas as suas utilizações terão cunho ético.
Mas considere-se o clássico caso de estudo dos
navios. O seu design determina que o artefacto apenas pode ser operacionalizado
por uma equipa especializada e hierarquizada. Ou seja, o design técnico
implementa uma moral, nesse exemplo, a que for própria à hierarquização social
em detrimento da igualdade ou da liberdade individual.
Em todo o caso, diremos que a agência moral e a
responsabilidade consequente cabem ao designer, bem como a quem o enquadra
organizacional, legislativamente etc. O artefacto apenas transmite essa agência
aos utilizadores, que implementarão depois as suas.
O que dizer hoje, porém, sobre algoritmos como o
de um automóvel autónomo que trava, ou não, quando um gato subitamente
atravessa a estrada e uma eventual derrapagem, nessa curva molhada, porá em
risco os passageiros? Não se verifica nestes algoritmos a agência que é própria
dos utilizadores humanos em tais situações?
Independentemente de decisões particulares como
essa, objetar-se-á que, em geral, as tomadas de decisão artificiais resultam de
procedimentos estatísticos, e não da chamada “causalidade do agente” (provocação
da ação segundo uma deliberação consciente e livre). Mas duas contra-objeções
se podem colocar: essa causalidade ocorre sequer nos seres humanos? Mesmo que
ocorra, não será de reconhecer uma nova condição intermédia entre ela e a
ausência de decisão em artefactos desde o martelo ao robô programado?
Uma forma possível dessa condição moral fraca é a
“moralidade a-mental” (ing. mind-less morality), proposta por L. Floridi e J.W. Sanders: a agência moral
será reconhecida a partir de um nível, tido como suficiente, de interatividade,
autonomia e adaptabilidade – ex. num cão de resgate, ou num bot dotado de IA
cujas intervenções tenham significado moral. Um problema aqui será o da
determinação dessa suficiência – qual ou quanta interatividade etc. serão
suficientes para um automóvel autónomo ter agência moral?
Suponhamos que obtemos uma resposta que nos
satisfaz a essa questão, e outorgamos alguma agência moral a algoritmos
inteligentes, mormente os generativos com capacidade de aprendizagem. Teremos
então de atender aos problemas sobre a responsabilidade proporcional a tal
agência. Desde logo, o problema das “muitas mãos” (D. Thompson): como
distinguir o que cabe ao algoritmo de o que cabe à empresa que o produz, ao
legislador que versa as ações em causa, ao utilizador etc.? Suponhamos ainda
que conseguimos isolar a responsabilidade do algoritmo; em caso de dolo, essa
responsabilidade significa concretamente o quê? O algoritmo vai para a cadeia
virtual?…
Não faltam questões sobre esta matéria. Mas ainda
outra linha de questionamento releva da recusa de uma ética antropocêntrica, já
presente na moralidade a-mental. Se a IA não é moralmente neutra, então a
determinação do seu estatuto moral contempla não só uma agência mas, eventualmente,
também uma paciência (gr. pathos) moral: os algoritmos inteligentes,
especialmente os generativos e capazes de aprender, serão legitimamente objetos
de valores morais?
Afinal, ainda há poucas décadas ninguém que se
mantivesse longe do manicómio se lembraria de falar em direitos morais dos
animais. E duas ou três gerações atrás, o mesmo sobre as crianças. Se
pretendemos alguma justificação para os nossos códigos morais, então não
podemos recusar paciência moral àqueles algoritmos apenas porque não imaginamos
por que lhes a haveríamos de reconhecer.
A estranheza desta hipótese reconduz-nos à questão
básica de como outorgamos estatutos morais. Fazemo-lo conforme o objeto
considerado revele consciência, sentimentos…? Os habituais discursos e
comportamentos sobre, por um lado, inimigos na guerra, escravos etc. e, por
outro lado, doentes em coma, deficientes mentais etc., sugerem que esses
critérios, no mínimo, são secundários. Ao contrário, sobressaem critérios como
o da referida interatividade social e, logo, o da linguagem. Por exemplo, assim
que isolamos um cão ao lhe atribuirmos um nome, e interagimos com ele usando
esse som vocal, mais nos choca a violência, natural ou intencional, sobre esse
animal. Daí aos robôs sociais, ainda mais se forem dotados de IA, irá um
pequeno passo.
Passo esse que nos constrangerá, então, a ponderar
direitos dessas entidades com que estamos começando a partilhar a Terra.
Em suma, o impacto da IA parece bem requerer
alguma regulamentação. A qual implica a determinação do estatuto moral dessa nova
entidade. Designadamente, ou o da neutralidade, ou o de uma agência e
porventura paciência morais. Determinação essa que depende das respostas a
diversas questões, preferivelmente sustentadas por argumentos bons ou cogentes.
Correio do Minho (ed. impressa), 02/03/2024
Comentários
Enviar um comentário
Qualquer comentário cortês é bem-vindo, em particular se for crítico ou sugerir desenvolvimentos ao post.