Como está expresso no website oficial da Comissão
Europeia (CE, página “AI Act”), no desenho desse regulamento foi adotada uma
abordagem baseada nos riscos da IA. Isto é, considerando o produto
(multiplicação) do grau de prejuízo atribuído a certos resultados desses
sistemas tecnológicos pela probabilidade de tais resultados ocorrerem – assim,
se a probabilidade de uma certa ocorrência até for baixa, mas se considere
enorme a gravidade desse resultado, o risco deste será alto.
Este tipo de avaliação de tecnologias costuma fazer-se
em três momentos: o reconhecimento ou estimativa (ing. assessment) dos riscos, a
avaliação (evaluation) destes últimos, e a sua gestão. Creio que o maior risco que corremos com essa abordagem se joga nas
condições desse terceiro momento que deveremos colocar o maior esforço. É na gestão dos riscos da IA que todos
nós, que nos sentimos a perder o pé perante as notícias que nos chegam todos os
dias mas que queremos não perder o comboio que esta tecnologia nos
abre, nos deveremos concentrar.
Comecemos pelo reconhecimento apresentado no EU AI
Act. Aí se assume que a maioria dos sistemas de IA apoiarão a resolução de
problemas da sociedade, sem provocar efeitos perniciosos. Mas que alguns
sistemas criam riscos.
E os autores avançam: “Por exemplo, muitas vezes
não é possível descobrir por que razão um sistema de IA tomou uma decisão ou
previsão e tomou uma determinada ação. Assim, pode tornar-se difícil avaliar se
alguém foi injustamente prejudicado, como numa decisão de contratação ou num
pedido de um regime de prestações públicas” (tradução automática no referido
website, sem explicação da razão de escolha das expressões portuguesas propostas como tradução das originais inglesas).
Foi precisamente este exemplo que visei nestas páginas sob a designação «O desafio da “caixa negra”», em relação à tomada de decisão por algoritmos
conexionistas. Dos quais conhecemos o
input (os dados que lhes são facultados) e o output (a decisão ou previsão
feita pelo algoritmo com base naqueles dados), mas não conhecemos, ou temos
muita dificuldade em conhecer as razões pelas quais esses sistemas chegam dos
primeiros aos últimos.
Em relação, então, aos sistemas de IA que criem
riscos, o referido regulamento apresenta um esquema para a sua avaliação ética
e jurídica em quatro níveis, conforme as áreas sociais, económicas e políticas
a que se apliquem tais sistemas. A saber:
Riscos da segurança, dos meios de subsistência e dos
direitos das pessoas são considerados inaceitáveis. Pelo que os sistemas autónomos
que os criem serão banidos.
Um nível abaixo, é considerado elevado o risco dos
sistemas que ameacem infraestruturas como as redes de transporte ou a formação
educativa. Estes sistemas terão de satisfazer obrigações rigorosas antes de
serem implementados. Entre elas, a “exploração da atividade para assegurar a
rastreabilidade dos resultados” (AI Act).
Já o risco de “falta de transparência na
utilização da IA” é limitado. Esta expressão pode invocar a opacidade (falta de rastreabilidade) que se
aponta aos algoritmos conexionistas; no entanto, os autores do EU AI Act
referem-na tão-simplesmente à necessidade de informar os utilizadores humanos,
nos devidos casos, de que o interlocutor ou o autor de um dado conteúdo são
sistemas de IA (como é feito na citada página da CE ao se acionar o tradutor
automático).
Finalmente, de risco mínimo ou nenhum são
aplicações de videojogos, filtragem de spam etc. A sua utilização continuará
livre.
Eventualmente não estarei a interpretar
corretamente o documento. Mas o que retiro, em suma, é que sistemas de IA que
possam prejudicar aquelas primeiras áreas, por improvável que isto seja, serão
proibidos. Assim como serão proibidos, no segundo conjunto de aplicações, todos
os algoritmos em cujas camadas interiores (entre a de entrada e a de saída) se
não encontrem rastros dos processos que resultem nos outputs obtidos. Algoritmos
estes que, atualmente, creio serem os que têm maiores capacidades de tomada de
decisão e de aprendizagem.
À velha Europa, da IA, parece assim que só servirão uns bots e tradutores automáticos, desde que se anuncie a respetiva presença, mais videojogos e filtros. O resto do mundo que implemente os algoritmos que farão a diferença na civilização humana e na Terra.
Ou então: ou a obrigação de rastreabilidade não é
para se cumprir – nem porventura a proibição de sistemas de IA de risco
“inaceitável” –, ou se desenvolve(m) alguma(s) tecnologia(s), mais a literacia
tecnológica dos respetivos utilizadores, que minore(m) o perigo até um nível
socialmente aceitável.
Uma atual candidata a essa segunda alternativa merece
também o nome de “caixa negra”, mas como as dos aviões, que registam todos os
procedimentos humanos e mecânicos durante a deslocação do aparelho, de modo a
se explicar o resultado atingido. Talvez assim se possa rastrear os processos
nas camadas interiores dos algoritmos conexionistas, quebrando a opacidade
destes.
Outra forma clássica de minorar muito o risco
tecnológico é a multiplicação de sistemas independentes redundantes. De modo
que a probabilidade de todos falharem no mesmo caso tenda para zero, ou, se forem sistemas de controlo, bastando um
deles para se bloquear um processo tido como perigoso.
Enfim, com essa “caixa negra” e/ou de outra forma,
poderemos gerir razoavelmente os riscos elevados de alguns sistemas de IA. E
até, porventura, reduzir a esse nível alguns riscos agora inaceitáveis, pela
diminuição da probabilidade de provocarem acontecimentos graves, facultando
assim a aplicação da IA a problemas da sociedade nas primeiras áreas do esquema.
Me parece que esta é a melhor esperança, para que não tombemos seja no anacronismo civilizacional da Europa, seja num faroeste tecnológico mascarado por declarações de intenções, por bem-intencionadas que estas sejam.
adaptado de Correio do Minho (ed. impressa), 08/05/2024