Avançar para o conteúdo principal

EU AI Act (II) – O desafio da “caixa negra”

Em 2017, o algoritmo AlphaGo Zero ultrapassou os seus predecessores ou alternativas, que por sua vez já tinham ultrapassado a competência humana no jogo do go (considerado mais complexo do que o xadrez).

Mas o Zero não se distingue apenas pelo nível do seu desempenho, é significativo principalmente pelo modo como o conseguiu: o único input que recebeu foram as regras do jogo. Em cuja base esse algoritmo aprendeu em poucos dias jogando contra si próprio. E, embora tenha demorado um pouco mais do que o AlphaGo Master, ao qual foram facultadas jogadas humanas como exemplos, o Zero surpreendeu pela criatividade das jogadas, a qual não se encontrava nas decisões do algoritmo anterior.

Ou seja, pelo menos em algumas atividades, a IA é capaz de aprender praticamente sozinha, de criar processos novos, e de ser assim ainda mais eficaz do que a IA mais dependente dos seres humanos.

A novidade e a dimensão desse poder tecnológico, além de inúmeros interesses práticos e do interesse teórico do seu contributo para a compreensão do que se chama “inteligência”, naturalmente gera preocupações. Destas, entre os suspeitos do costume conta-se a proteção de dados, a manipulação da informação… mas focarei aqui o que dá o título a esta crónica. Em vista de uma ulterior abordagem ao EU AI Act, com que a UE inaugurou recentemente a regulamentação da IA.

Comecemos pelo princípio: um algoritmo é uma sequência de instruções para se alcançar uma meta a partir de um estado inicial, como os gestos para se dobrar uma camisa engomada, os procedimentos na regra de três simples etc. Os algoritmos ditos “inteligentes” são capazes de funções cognitivas como o reconhecimento facial, o processamento de linguagem natural (utilização de línguas como a portuguesa), ou a tomada de decisões. Foquemo-nos nesta última.

Uns algoritmos – IA simbólica – tomam decisões mediante sucessões de frases condicionais, como “Se chover, então usa-se guarda-chuva e/ou gabardina”, “Se se usar apenas guarda-chuva, então…”, “Se se usar apenas gabardina, então…”, “Se se usar ambos, então…”. Essas instruções são seguidas conforme os estados verificados – ex. “Chove”, “Usa-se apenas gabardina”…

Estes processos são transparentes, e as decisões finais dependem das condições dadas pelo programador. Não levantarão enigmas de maior à sua regulamentação.

Mas não é esse o caso de algoritmos como o AlphaGo Zero. Estes outros são constituídos por redes de unidades capazes de receber e reenviar sinais elétricos, como o cérebro. Cada nó da rede ou neurónio da camada de entrada recebe o sinal, pode reenviá-lo para inúmeros neurónios da camada seguinte, cada um destes pode reenviá-lo aos da terceira camada… até à camada de saída. A qual apresentará um resultado.

Uma vez que esse resultado receba um valor positivo ou negativo – ex. vitória ou derrota, segundo as regras de um jogo – os canais que aí trouxeram, de camada a camada, são ponderados numericamente. Para, na oportunidade seguinte, o algoritmo se centrar à volta de um caminho positivo, e se afastar de um negativo, entre as camadas de entrada e de saída – aumentando a probabilidade de lograr uma vitória mais rápida, mais ampla ou mais segura. Uma vez apresentado e reforçado positiva ou negativamente esse segundo resultado, o algoritmo afina-se, e assim por diante. Ou seja, com os reforços, o algoritmo aprende como produzir resultados progressivamente adequados à encomenda.

Em âmbitos em que uns resultados não são melhores do que outros, antes o que se visa é a precisão de qualquer deles em relação a alguma categoria – ex. o diagnóstico de uma doença, ou a classificação de transeuntes conforme um seu nível de segurança pública – o algoritmo é treinado com casos exemplares, até formar padrões e, assim, ser capaz de classificar futuros casos que lhe venham a ser dados. Esta aprendizagem é supervisionada pelo treinador em função da categoria predeterminada.

Mas também se pode deixar o algoritmo sem supervisão na deteção de padrões nos dados. Esta aprendizagem aumenta a probabilidade tanto de irrelevância desses padrões, e de má orientação das previsões feitas na sua base, quanto da deteção de algum aspeto que passasse despercebido aos analistas humanos.

Em vista da regulamentação da IA, o mais significativo é que nas aprendizagens por reforço, com supervisão ou sem esta conhecemos os dados facultados aos algoritmos. Nas duas primeiras, conhecemos também a meta, seja o que merecerá avaliação positiva, seja a categoria para a classificação. Mas em nenhuma das três conhecemos o processo nas camadas interiores do algoritmo. Estas constituem uma “caixa negra” cujo processo nos é opaco.

Desta forma, simples regulamentações, por um lado, do design destes algoritmos incluindo os seus treinos e, por outro lado, das utilizações finais, ignoram o que os algoritmos efetivamente fazem entre inputs e outputs.

Ou melhor, ignoram os processos das suas ações. Este último conceito justifica-se se se reconhecer a estas entidades, como sugeri no CM em 2 de março, já não a passividade de tecnologias como um martelo ou um teclado de PC, mas alguma agência com significado moral, ainda que não tão forte quanto a que nos costumamos atribuir.

Em conformidade, se as “caixas negras” continuarem fechadas, não será possível determinar as boas ações segundo a intenção (oculta na "caixa negra") de cumprir o dever estipulado por alguma lei geral. Como qualquer aluno no fim do 10º ano é suposto reconhecer, a fundamentação da moral dessa agência apenas poderá ser consequencialista: a ação boa é aquela que tem boas consequências. Sobre o que tais regulamentos poderão assim lograr, e sobre as objeções que se lhes levantem, aqui já não posso fazer mais do que referir qualquer manual de Filosofia desse ano de escolaridade. E sugerir a sua aplicação a este caso.


Correio do Minho (ed. impressa, revisto), 27/03/2024

Comentários

Mensagens populares deste blogue

A reindustrialização e a tecnologia como vontade

Enquanto ainda se discute o Orçamento do Estado, sobre o financiamento e orientação de uma eventual reindustrialização e desenvolvimento tecnológico do nosso país, concordaremos que ou serão eminentemente comunitários, ou em boa parte nacionais, ou não se realizarão quaisquer dessas inovações que impliquem investimento. Em última análise, porém, a opção implica uma decisão no âmbito do que um autor já clássico, ainda que numa obra que cumpre agora o número redondo de trinta anos apenas, chamou a “tecnologia como volição”. Uma decisão também salientada, embora de forma mais simplificada, pelos recentes Nobel da economia Daron Acemoglu e Simon Johnson. No plano da modalidade de financiamento, dada a carta pública do nosso Primeiro-ministro à Presidente da Comissão Europeia, a opção portuguesa parece ser a comunitária. Tanto por um aumento das dotações nacionais para o orçamento da UE, quanto pela mutualização de dívida contraída pela Comissão Europeia. Com a França a ter duplicado nest...

De incêndios vários à decisão e prestação de contas

Desde os incêndios todos os verões até a decisão que demorou 50 anos sobre um novo aeroporto, parece bem termos um problema com as decisões em alternativas da nossa vida coletiva. (Que um dos nossos maiores entretenimentos televisivos sejam os infindáveis e em regra inconsequentes comentários de eventos políticos, é mais um sintoma desta dificuldade). Numa aproximação ao esclarecimento da estrutura desse problema, em particular quando as alternativas se abrem sobre equipamentos públicos, será útil atender a um outro incêndio: o que deflagrou no hospital público da ilha mais povoada dos Açores, São Miguel, em maio passado. A área de implantação desse complexo é tendencialmente retangular. Mas, apesar de o incêndio ter ocorrido apenas na secção onde se encontrava a central elétrica, todos os doentes foram evacuados e os serviços foram suspensos. Por sorte, a iniciativa privada construíra poucos anos antes um hospital de dimensões suficientes para acolher agora os doentes que não pud...

ChatGPT: um novo ator, uma nova rede

Como os alunos de escolas e universidades estão a descobrir com júbilo, o recente e já famoso ChatGPT apresenta, em poucos instantes, respostas escritas a questões que lhe são propostas. Desde quais as causas plausíveis da I Guerra Mundial, como será possível relacionar coerentemente a mecânica quântica e a relatividade geral… até ao caso do pedido de uma mentira subtil, ao que essa aplicação da OpenAI (da Microsoft) de imediato respondeu "I’m a human being". Em alguns sítios, está a ensaiar-se a proibição da sua utilização em contexto escolar (Sciences Po, Paris) ou empresarial (JPMorgan Chase). Talvez pontualmente isso funcione. Mas, em geral, imagino que as proibições terão tanto sucesso como o nadador num rio caudaloso que, desprezando a corrente, invista as suas limitadas forças em braçadas rumo a um determinado ponto da margem a montante. Além do previsível fracasso, falha-se a preparação dos atores humanos para o tipo de interação apropriada com atores não-humanos mas ...