Avançar para o conteúdo principal

EU AI Act (I) – Sobre o estatuto moral da IA

No fim do ano passado, os órgãos institucionais da União Europeia acordaram o EU AI Act, que regula a implementação de algoritmos de inteligência artificial (IA). Assim começamos a institucionalizar formalmente esta novidade na história da Terra que é a perda pelo Homo Sapiens da exclusividade de procedimentos “inteligentes” (ao nosso nível). A qual detivemos desde que, muito antes de termos lançado a forma civilizada de vida, se extinguiram outros hominídeos que se nos comparavam.

Um regulamento como esse implica logicamente a determinação do estatuto moral da IA. O qual, no entanto, dada precisamente a novidade dessa forma de inteligência, não é límpido.

No caso das tecnologias clássicas, desde as pedras lascadas do Homo habilis aos nossos robôs programados, a intuição mais comum sobre o seu estatuto moral será a do armeiro, num 007, que declara ao célebre agente de Sua Majestade que quem mata não é a arma, nem o técnico que a constrói, mas quem puxa o gatilho. Essas tecnologias serão assim moralmente neutras, apenas as suas utilizações terão cunho ético.

Mas considere-se o clássico caso de estudo dos navios. O seu design determina que o artefacto apenas pode ser operacionalizado por uma equipa especializada e hierarquizada. Ou seja, o design técnico implementa uma moral, nesse exemplo, a que for própria à hierarquização social em detrimento da igualdade ou da liberdade individual.

Em todo o caso, diremos que a agência moral e a responsabilidade consequente cabem ao designer, bem como a quem o enquadra organizacional, legislativamente etc. O artefacto apenas transmite essa agência aos utilizadores, que implementarão depois as suas.

O que dizer hoje, porém, sobre algoritmos como o de um automóvel autónomo que trava, ou não, quando um gato subitamente atravessa a estrada e uma eventual derrapagem, nessa curva molhada, porá em risco os passageiros? Não se verifica nestes algoritmos a agência que é própria dos utilizadores humanos em tais situações?

Independentemente de decisões particulares como essa, objetar-se-á que, em geral, as tomadas de decisão artificiais resultam de procedimentos estatísticos, e não da chamada “causalidade do agente” (provocação da ação segundo uma deliberação consciente e livre). Mas duas contra-objeções se podem colocar: essa causalidade ocorre sequer nos seres humanos? Mesmo que ocorra, não será de reconhecer uma nova condição intermédia entre ela e a ausência de decisão em artefactos desde o martelo ao robô programado?

Uma forma possível dessa condição moral fraca é a “moralidade a-mental” (ing. mind-less morality), proposta por L. Floridi e J.W. Sanders: a agência moral será reconhecida a partir de um nível, tido como suficiente, de interatividade, autonomia e adaptabilidade – ex. num cão de resgate, ou num bot dotado de IA cujas intervenções tenham significado moral. Um problema aqui será o da determinação dessa suficiência – qual ou quanta interatividade etc. serão suficientes para um automóvel autónomo ter agência moral?

Suponhamos que obtemos uma resposta que nos satisfaz a essa questão, e outorgamos alguma agência moral a algoritmos inteligentes, mormente os generativos com capacidade de aprendizagem. Teremos então de atender aos problemas sobre a responsabilidade proporcional a tal agência. Desde logo, o problema das “muitas mãos” (D. Thompson): como distinguir o que cabe ao algoritmo de o que cabe à empresa que o produz, ao legislador que versa as ações em causa, ao utilizador etc.? Suponhamos ainda que conseguimos isolar a responsabilidade do algoritmo; em caso de dolo, essa responsabilidade significa concretamente o quê? O algoritmo vai para a cadeia virtual?…

Não faltam questões sobre esta matéria. Mas ainda outra linha de questionamento releva da recusa de uma ética antropocêntrica, já presente na moralidade a-mental. Se a IA não é moralmente neutra, então a determinação do seu estatuto moral contempla não só uma agência mas, eventualmente, também uma paciência (gr. pathos) moral: os algoritmos inteligentes, especialmente os generativos e capazes de aprender, serão legitimamente objetos de valores morais?

Afinal, ainda há poucas décadas ninguém que se mantivesse longe do manicómio se lembraria de falar em direitos morais dos animais. E duas ou três gerações atrás, o mesmo sobre as crianças. Se pretendemos alguma justificação para os nossos códigos morais, então não podemos recusar paciência moral àqueles algoritmos apenas porque não imaginamos por que lhes a haveríamos de reconhecer.

A estranheza desta hipótese reconduz-nos à questão básica de como outorgamos estatutos morais. Fazemo-lo conforme o objeto considerado revele consciência, sentimentos…? Os habituais discursos e comportamentos sobre, por um lado, inimigos na guerra, escravos etc. e, por outro lado, doentes em coma, deficientes mentais etc., sugerem que esses critérios, no mínimo, são secundários. Ao contrário, sobressaem critérios como o da referida interatividade social e, logo, o da linguagem. Por exemplo, assim que isolamos um cão ao lhe atribuirmos um nome, e interagimos com ele usando esse som vocal, mais nos choca a violência, natural ou intencional, sobre esse animal. Daí aos robôs sociais, ainda mais se forem dotados de IA, irá um pequeno passo.

Passo esse que nos constrangerá, então, a ponderar direitos dessas entidades com que estamos começando a partilhar a Terra.

Em suma, o impacto da IA parece bem requerer alguma regulamentação. A qual implica a determinação do estatuto moral dessa nova entidade. Designadamente, ou o da neutralidade, ou o de uma agência e porventura paciência morais. Determinação essa que depende das respostas a diversas questões, preferivelmente sustentadas por argumentos bons ou cogentes.

Correio do Minho (ed. impressa), 02/03/2024

Comentários

Mensagens populares deste blogue

A reindustrialização e a tecnologia como vontade

Enquanto ainda se discute o Orçamento do Estado, sobre o financiamento e orientação de uma eventual reindustrialização e desenvolvimento tecnológico do nosso país, concordaremos que ou serão eminentemente comunitários, ou em boa parte nacionais, ou não se realizarão quaisquer dessas inovações que impliquem investimento. Em última análise, porém, a opção implica uma decisão no âmbito do que um autor já clássico, ainda que numa obra que cumpre agora o número redondo de trinta anos apenas, chamou a “tecnologia como volição”. Uma decisão também salientada, embora de forma mais simplificada, pelos recentes Nobel da economia Daron Acemoglu e Simon Johnson. No plano da modalidade de financiamento, dada a carta pública do nosso Primeiro-ministro à Presidente da Comissão Europeia, a opção portuguesa parece ser a comunitária. Tanto por um aumento das dotações nacionais para o orçamento da UE, quanto pela mutualização de dívida contraída pela Comissão Europeia. Com a França a ter duplicado nest...

De incêndios vários à decisão e prestação de contas

Desde os incêndios todos os verões até a decisão que demorou 50 anos sobre um novo aeroporto, parece bem termos um problema com as decisões em alternativas da nossa vida coletiva. (Que um dos nossos maiores entretenimentos televisivos sejam os infindáveis e em regra inconsequentes comentários de eventos políticos, é mais um sintoma desta dificuldade). Numa aproximação ao esclarecimento da estrutura desse problema, em particular quando as alternativas se abrem sobre equipamentos públicos, será útil atender a um outro incêndio: o que deflagrou no hospital público da ilha mais povoada dos Açores, São Miguel, em maio passado. A área de implantação desse complexo é tendencialmente retangular. Mas, apesar de o incêndio ter ocorrido apenas na secção onde se encontrava a central elétrica, todos os doentes foram evacuados e os serviços foram suspensos. Por sorte, a iniciativa privada construíra poucos anos antes um hospital de dimensões suficientes para acolher agora os doentes que não pud...

ChatGPT: um novo ator, uma nova rede

Como os alunos de escolas e universidades estão a descobrir com júbilo, o recente e já famoso ChatGPT apresenta, em poucos instantes, respostas escritas a questões que lhe são propostas. Desde quais as causas plausíveis da I Guerra Mundial, como será possível relacionar coerentemente a mecânica quântica e a relatividade geral… até ao caso do pedido de uma mentira subtil, ao que essa aplicação da OpenAI (da Microsoft) de imediato respondeu "I’m a human being". Em alguns sítios, está a ensaiar-se a proibição da sua utilização em contexto escolar (Sciences Po, Paris) ou empresarial (JPMorgan Chase). Talvez pontualmente isso funcione. Mas, em geral, imagino que as proibições terão tanto sucesso como o nadador num rio caudaloso que, desprezando a corrente, invista as suas limitadas forças em braçadas rumo a um determinado ponto da margem a montante. Além do previsível fracasso, falha-se a preparação dos atores humanos para o tipo de interação apropriada com atores não-humanos mas ...