EU AI Act (II) – O desafio da “caixa negra”

Em 2017, o algoritmo AlphaGo Zero ultrapassou os seus predecessores ou alternativas, que por sua vez já tinham ultrapassado a competência humana no jogo do go (considerado mais complexo do que o xadrez).

Mas o Zero não se distingue apenas pelo nível do seu desempenho, é significativo principalmente pelo modo como o conseguiu: o único input que recebeu foram as regras do jogo. Em cuja base esse algoritmo aprendeu em poucos dias jogando contra si próprio. E, embora tenha demorado um pouco mais do que o AlphaGo Master, ao qual foram facultadas jogadas humanas como exemplos, o Zero surpreendeu pela criatividade das jogadas, a qual não se encontrava nas decisões do algoritmo anterior.

Ou seja, pelo menos em algumas atividades, a IA é capaz de aprender praticamente sozinha, de criar processos novos, e de ser assim ainda mais eficaz do que a IA mais dependente dos seres humanos.

A novidade e a dimensão desse poder tecnológico, além de inúmeros interesses práticos e do interesse teórico do seu contributo para a compreensão do que se chama “inteligência”, naturalmente gera preocupações. Destas, entre os suspeitos do costume conta-se a proteção de dados, a manipulação da informação… mas focarei aqui o que dá o título a esta crónica. Em vista de uma ulterior abordagem ao EU AI Act, com que a UE inaugurou recentemente a regulamentação da IA.

Comecemos pelo princípio: um algoritmo é uma sequência de instruções para se alcançar uma meta a partir de um estado inicial, como os gestos para se dobrar uma camisa engomada, os procedimentos na regra de três simples etc. Os algoritmos ditos “inteligentes” são capazes de funções cognitivas como o reconhecimento facial, o processamento de linguagem natural (utilização de línguas como a portuguesa), ou a tomada de decisões. Foquemo-nos nesta última.

Uns algoritmos – IA simbólica – tomam decisões mediante sucessões de frases condicionais, como “Se chover, então usa-se guarda-chuva e/ou gabardina”, “Se se usar apenas guarda-chuva, então…”, “Se se usar apenas gabardina, então…”, “Se se usar ambos, então…”. Essas instruções são seguidas conforme os estados verificados – ex. “Chove”, “Usa-se apenas gabardina”…

Estes processos são transparentes, e as decisões finais dependem das condições dadas pelo programador. Não levantarão enigmas de maior à sua regulamentação.

Mas não é esse o caso de algoritmos como o AlphaGo Zero. Estes outros são constituídos por redes de unidades capazes de receber e reenviar sinais elétricos, como o cérebro. Cada nó da rede ou neurónio da camada de entrada recebe o sinal, pode reenviá-lo para inúmeros neurónios da camada seguinte, cada um destes pode reenviá-lo aos da terceira camada… até à camada de saída. A qual apresentará um resultado.

Uma vez que esse resultado receba um valor positivo ou negativo – ex. vitória ou derrota, segundo as regras de um jogo – os canais que aí trouxeram, de camada a camada, são ponderados numericamente. Para, na oportunidade seguinte, o algoritmo se centrar à volta de um caminho positivo, e se afastar de um negativo, entre as camadas de entrada e de saída – aumentando a probabilidade de lograr uma vitória mais rápida, mais ampla ou mais segura. Uma vez apresentado e reforçado positiva ou negativamente esse segundo resultado, o algoritmo afina-se, e assim por diante. Ou seja, com os reforços, o algoritmo aprende como produzir resultados progressivamente adequados à encomenda.

Em âmbitos em que uns resultados não são melhores do que outros, antes o que se visa é a precisão de qualquer deles em relação a alguma categoria – ex. o diagnóstico de uma doença, ou a classificação de transeuntes conforme um seu nível de segurança pública – o algoritmo é treinado com casos exemplares, até formar padrões e, assim, ser capaz de classificar futuros casos que lhe venham a ser dados. Esta aprendizagem é supervisionada pelo treinador em função da categoria predeterminada.

Mas também se pode deixar o algoritmo sem supervisão na deteção de padrões nos dados. Esta aprendizagem aumenta a probabilidade tanto de irrelevância desses padrões, e de má orientação das previsões feitas na sua base, quanto da deteção de algum aspeto que passasse despercebido aos analistas humanos.

Em vista da regulamentação da IA, o mais significativo é que nas aprendizagens por reforço, com supervisão ou sem esta conhecemos os dados facultados aos algoritmos. Nas duas primeiras, conhecemos também a meta, seja o que merecerá avaliação positiva, seja a categoria para a classificação. Mas em nenhuma das três conhecemos o processo nas camadas interiores do algoritmo. Estas constituem uma “caixa negra” cujo processo nos é opaco.

Desta forma, simples regulamentações, por um lado, do design destes algoritmos incluindo os seus treinos e, por outro lado, das utilizações finais, ignoram o que os algoritmos efetivamente fazem entre inputs e outputs.

Ou melhor, ignoram os processos das suas ações. Este último conceito justifica-se se se reconhecer a estas entidades, como sugeri no CM em 2 de março, já não a passividade de tecnologias como um martelo ou um teclado de PC, mas alguma agência com significado moral, ainda que não tão forte quanto a que nos costumamos atribuir.

Em conformidade, se as “caixas negras” continuarem fechadas, não será possível determinar as boas ações segundo a intenção (oculta na "caixa negra") de cumprir o dever estipulado por alguma lei geral. Como qualquer aluno no fim do 10º ano é suposto reconhecer, a fundamentação da moral dessa agência apenas poderá ser consequencialista: a ação boa é aquela que tem boas consequências. Sobre o que tais regulamentos poderão assim lograr, e sobre as objeções que se lhes levantem, aqui já não posso fazer mais do que referir qualquer manual de Filosofia desse ano de escolaridade. E sugerir a sua aplicação a este caso.


Correio do Minho (ed. impressa, revisto), 27/03/2024

EU AI Act (I) – Sobre o estatuto moral da IA

No fim do ano passado, os órgãos institucionais da União Europeia acordaram o EU AI Act, que regula a implementação de algoritmos de inteligência artificial (IA). Assim começamos a institucionalizar formalmente esta novidade na história da Terra que é a perda pelo Homo Sapiens da exclusividade de procedimentos “inteligentes” (ao nosso nível). A qual detivemos desde que, muito antes de termos lançado a forma civilizada de vida, se extinguiram outros hominídeos que se nos comparavam.

Um regulamento como esse implica logicamente a determinação do estatuto moral da IA. O qual, no entanto, dada precisamente a novidade dessa forma de inteligência, não é límpido.

No caso das tecnologias clássicas, desde as pedras lascadas do Homo habilis aos nossos robôs programados, a intuição mais comum sobre o seu estatuto moral será a do armeiro, num 007, que declara ao célebre agente de Sua Majestade que quem mata não é a arma, nem o técnico que a constrói, mas quem puxa o gatilho. Essas tecnologias serão assim moralmente neutras, apenas as suas utilizações terão cunho ético.

Mas considere-se o clássico caso de estudo dos navios. O seu design determina que o artefacto apenas pode ser operacionalizado por uma equipa especializada e hierarquizada. Ou seja, o design técnico implementa uma moral, nesse exemplo, a que for própria à hierarquização social em detrimento da igualdade ou da liberdade individual.

Em todo o caso, diremos que a agência moral e a responsabilidade consequente cabem ao designer, bem como a quem o enquadra organizacional, legislativamente etc. O artefacto apenas transmite essa agência aos utilizadores, que implementarão depois as suas.

O que dizer hoje, porém, sobre algoritmos como o de um automóvel autónomo que trava, ou não, quando um gato subitamente atravessa a estrada e uma eventual derrapagem, nessa curva molhada, porá em risco os passageiros? Não se verifica nestes algoritmos a agência que é própria dos utilizadores humanos em tais situações?

Independentemente de decisões particulares como essa, objetar-se-á que, em geral, as tomadas de decisão artificiais resultam de procedimentos estatísticos, e não da chamada “causalidade do agente” (provocação da ação segundo uma deliberação consciente e livre). Mas duas contra-objeções se podem colocar: essa causalidade ocorre sequer nos seres humanos? Mesmo que ocorra, não será de reconhecer uma nova condição intermédia entre ela e a ausência de decisão em artefactos desde o martelo ao robô programado?

Uma forma possível dessa condição moral fraca é a “moralidade a-mental” (ing. mind-less morality), proposta por L. Floridi e J.W. Sanders: a agência moral será reconhecida a partir de um nível, tido como suficiente, de interatividade, autonomia e adaptabilidade – ex. num cão de resgate, ou num bot dotado de IA cujas intervenções tenham significado moral. Um problema aqui será o da determinação dessa suficiência – qual ou quanta interatividade etc. serão suficientes para um automóvel autónomo ter agência moral?

Suponhamos que obtemos uma resposta que nos satisfaz a essa questão, e outorgamos alguma agência moral a algoritmos inteligentes, mormente os generativos com capacidade de aprendizagem. Teremos então de atender aos problemas sobre a responsabilidade proporcional a tal agência. Desde logo, o problema das “muitas mãos” (D. Thompson): como distinguir o que cabe ao algoritmo de o que cabe à empresa que o produz, ao legislador que versa as ações em causa, ao utilizador etc.? Suponhamos ainda que conseguimos isolar a responsabilidade do algoritmo; em caso de dolo, essa responsabilidade significa concretamente o quê? O algoritmo vai para a cadeia virtual?…

Não faltam questões sobre esta matéria. Mas ainda outra linha de questionamento releva da recusa de uma ética antropocêntrica, já presente na moralidade a-mental. Se a IA não é moralmente neutra, então a determinação do seu estatuto moral contempla não só uma agência mas, eventualmente, também uma paciência (gr. pathos) moral: os algoritmos inteligentes, especialmente os generativos e capazes de aprender, serão legitimamente objetos de valores morais?

Afinal, ainda há poucas décadas ninguém que se mantivesse longe do manicómio se lembraria de falar em direitos morais dos animais. E duas ou três gerações atrás, o mesmo sobre as crianças. Se pretendemos alguma justificação para os nossos códigos morais, então não podemos recusar paciência moral àqueles algoritmos apenas porque não imaginamos por que lhes a haveríamos de reconhecer.

A estranheza desta hipótese reconduz-nos à questão básica de como outorgamos estatutos morais. Fazemo-lo conforme o objeto considerado revele consciência, sentimentos…? Os habituais discursos e comportamentos sobre, por um lado, inimigos na guerra, escravos etc. e, por outro lado, doentes em coma, deficientes mentais etc., sugerem que esses critérios, no mínimo, são secundários. Ao contrário, sobressaem critérios como o da referida interatividade social e, logo, o da linguagem. Por exemplo, assim que isolamos um cão ao lhe atribuirmos um nome, e interagimos com ele usando esse som vocal, mais nos choca a violência, natural ou intencional, sobre esse animal. Daí aos robôs sociais, ainda mais se forem dotados de IA, irá um pequeno passo.

Passo esse que nos constrangerá, então, a ponderar direitos dessas entidades com que estamos começando a partilhar a Terra.

Em suma, o impacto da IA parece bem requerer alguma regulamentação. A qual implica a determinação do estatuto moral dessa nova entidade. Designadamente, ou o da neutralidade, ou o de uma agência e porventura paciência morais. Determinação essa que depende das respostas a diversas questões, preferivelmente sustentadas por argumentos bons ou cogentes.

Correio do Minho (ed. impressa), 02/03/2024

O pensamento técnico e o desafio português

Quando se fala em “tecnologia”, ocorrem-nos habitualmente objetos com utilidade prática – computadores, esferográficas… No entanto, aquele t...