EU AI Act (III) – O risco da abordagem baseada nos riscos

Em dezembro passado, o Parlamento e o Conselho Europeus inauguraram mundialmente a regulamentação da produção e implementação da Inteligência Artificial (IA). Ainda que a aplicação desse diploma seja progressiva.

Como está expresso no website oficial da Comissão Europeia (CE, página “AI Act”), no desenho desse regulamento foi adotada uma abordagem baseada nos riscos da IA. Isto é, considerando o produto (multiplicação) do grau de prejuízo atribuído a certos resultados desses sistemas tecnológicos pela probabilidade de tais resultados ocorrerem – assim, se a probabilidade de uma certa ocorrência até for baixa, mas se considere enorme a gravidade desse resultado, o risco deste será alto.

Este tipo de avaliação de tecnologias costuma fazer-se em três momentos: o reconhecimento ou estimativa (ing. assessment) dos riscos, a avaliação (evaluation) destes últimos, e a sua gestão. Creio que o maior risco que corremos com essa abordagem se joga nas condições desse terceiro momento que deveremos colocar o maior esforço. É na gestão dos riscos da IA que todos nós, que nos sentimos a perder o pé perante as notícias que nos chegam todos os dias mas que queremos não perder o comboio que esta tecnologia nos abre, nos deveremos concentrar.

Comecemos pelo reconhecimento apresentado no EU AI Act. Aí se assume que a maioria dos sistemas de IA apoiarão a resolução de problemas da sociedade, sem provocar efeitos perniciosos. Mas que alguns sistemas criam riscos.

E os autores avançam: “Por exemplo, muitas vezes não é possível descobrir por que razão um sistema de IA tomou uma decisão ou previsão e tomou uma determinada ação. Assim, pode tornar-se difícil avaliar se alguém foi injustamente prejudicado, como numa decisão de contratação ou num pedido de um regime de prestações públicas” (tradução automática no referido website, sem explicação da razão de escolha das expressões portuguesas propostas como tradução das originais inglesas). Foi precisamente este exemplo que visei nestas páginas sob a designação «O desafio da “caixa negra”», em relação à tomada de decisão por algoritmos conexionistas. Dos quais conhecemos o input (os dados que lhes são facultados) e o output (a decisão ou previsão feita pelo algoritmo com base naqueles dados), mas não conhecemos, ou temos muita dificuldade em conhecer as razões pelas quais esses sistemas chegam dos primeiros aos últimos.

Em relação, então, aos sistemas de IA que criem riscos, o referido regulamento apresenta um esquema para a sua avaliação ética e jurídica em quatro níveis, conforme as áreas sociais, económicas e políticas a que se apliquem tais sistemas. A saber:

Riscos da segurança, dos meios de subsistência e dos direitos das pessoas são considerados inaceitáveis. Pelo que os sistemas autónomos que os criem serão banidos.

Um nível abaixo, é considerado elevado o risco dos sistemas que ameacem infraestruturas como as redes de transporte ou a formação educativa. Estes sistemas terão de satisfazer obrigações rigorosas antes de serem implementados. Entre elas, a “exploração da atividade para assegurar a rastreabilidade dos resultados” (AI Act).

Já o risco de “falta de transparência na utilização da IA” é limitado. Esta expressão pode invocar a opacidade (falta de rastreabilidade) que se aponta aos algoritmos conexionistas; no entanto, os autores do EU AI Act referem-na tão-simplesmente à necessidade de informar os utilizadores humanos, nos devidos casos, de que o interlocutor ou o autor de um dado conteúdo são sistemas de IA (como é feito na citada página da CE ao se acionar o tradutor automático).

Finalmente, de risco mínimo ou nenhum são aplicações de videojogos, filtragem de spam etc. A sua utilização continuará livre.

Eventualmente não estarei a interpretar corretamente o documento. Mas o que retiro, em suma, é que sistemas de IA que possam prejudicar aquelas primeiras áreas, por improvável que isto seja, serão proibidos. Assim como serão proibidos, no segundo conjunto de aplicações, todos os algoritmos em cujas camadas interiores (entre a de entrada e a de saída) se não encontrem rastros dos processos que resultem nos outputs obtidos. Algoritmos estes que, atualmente, creio serem os que têm maiores capacidades de tomada de decisão e de aprendizagem.

À velha Europa, da IA, parece assim que só servirão uns bots e tradutores automáticos, desde que se anuncie a respetiva presença, mais videojogos e filtros. O resto do mundo que implemente os algoritmos que farão a diferença na civilização humana e na Terra.

Ou então: ou a obrigação de rastreabilidade não é para se cumprir – nem porventura a proibição de sistemas de IA de risco “inaceitável” –, ou se desenvolve(m) alguma(s) tecnologia(s), mais a literacia tecnológica dos respetivos utilizadores, que minore(m) o perigo até um nível socialmente aceitável.

Uma atual candidata a essa segunda alternativa merece também o nome de “caixa negra”, mas como as dos aviões, que registam todos os procedimentos humanos e mecânicos durante a deslocação do aparelho, de modo a se explicar o resultado atingido. Talvez assim se possa rastrear os processos nas camadas interiores dos algoritmos conexionistas, quebrando a opacidade destes.

Outra forma clássica de minorar muito o risco tecnológico é a multiplicação de sistemas independentes redundantes. De modo que a probabilidade de todos falharem no mesmo caso tenda para zero, ou, se forem sistemas de controlo, bastando um deles para se bloquear um processo tido como perigoso.

Enfim, com essa “caixa negra” e/ou de outra forma, poderemos gerir razoavelmente os riscos elevados de alguns sistemas de IA. E até, porventura, reduzir a esse nível alguns riscos agora inaceitáveis, pela diminuição da probabilidade de provocarem acontecimentos graves, facultando assim a aplicação da IA a problemas da sociedade nas primeiras áreas do esquema.

Me parece que esta é a melhor esperança, para que não tombemos seja no anacronismo civilizacional da Europa, seja num faroeste tecnológico mascarado por declarações de intenções, por bem-intencionadas que estas sejam.


adaptado de Correio do Minho (ed. impressa), 08/05/2024

O pensamento técnico e o desafio português

Quando se fala em “tecnologia”, ocorrem-nos habitualmente objetos com utilidade prática – computadores, esferográficas… No entanto, aquele t...