Mas o Zero não se distingue apenas pelo nível do
seu desempenho, é significativo principalmente pelo modo como o conseguiu: o
único input que recebeu foram as regras do jogo. Em cuja base esse algoritmo
aprendeu em poucos dias jogando contra si próprio. E, embora tenha demorado um
pouco mais do que o AlphaGo Master, ao qual foram facultadas jogadas humanas
como exemplos, o Zero surpreendeu pela criatividade das jogadas, a qual não se
encontrava nas decisões do algoritmo anterior.
Ou seja, pelo menos em algumas atividades, a IA é
capaz de aprender praticamente sozinha, de criar processos novos, e de ser assim
ainda mais eficaz do que a IA mais dependente dos seres humanos.
A novidade e a dimensão desse poder tecnológico,
além de inúmeros interesses práticos e do interesse teórico do seu contributo
para a compreensão do que se chama “inteligência”, naturalmente gera
preocupações. Destas, entre os suspeitos do costume conta-se a proteção de
dados, a manipulação da informação… mas focarei aqui o que dá o título a esta
crónica. Em vista de uma ulterior abordagem ao EU AI Act, com que a UE
inaugurou recentemente a regulamentação da IA.
Comecemos pelo princípio: um algoritmo é uma sequência
de instruções para se alcançar uma meta a partir de um estado inicial, como os
gestos para se dobrar uma camisa engomada, os procedimentos na regra de três
simples etc. Os algoritmos ditos “inteligentes” são capazes de funções
cognitivas como o reconhecimento facial, o processamento de linguagem natural (utilização
de línguas como a portuguesa), ou a tomada de decisões. Foquemo-nos nesta
última.
Uns algoritmos – IA simbólica – tomam decisões
mediante sucessões de frases condicionais, como “Se chover, então usa-se
guarda-chuva e/ou gabardina”, “Se se usar apenas guarda-chuva, então…”, “Se se
usar apenas gabardina, então…”, “Se se usar ambos, então…”. Essas instruções são
seguidas conforme os estados verificados – ex. “Chove”, “Usa-se apenas
gabardina”…
Estes processos são transparentes, e as decisões
finais dependem das condições dadas pelo programador. Não levantarão enigmas de
maior à sua regulamentação.
Mas não é esse o caso de algoritmos como o AlphaGo
Zero. Estes outros são constituídos por redes de unidades capazes de receber e
reenviar sinais elétricos, como o cérebro. Cada nó da rede ou neurónio da camada de entrada
recebe o sinal, pode reenviá-lo para inúmeros neurónios da camada seguinte, cada
um destes pode reenviá-lo aos da terceira camada… até à camada de saída. A qual
apresentará um resultado.
Uma vez que esse resultado receba um valor
positivo ou negativo – ex. vitória ou derrota, segundo as regras de um jogo –
os canais que aí trouxeram, de camada a camada, são ponderados numericamente. Para,
na oportunidade seguinte, o algoritmo se centrar à volta de um caminho
positivo, e se afastar de um negativo, entre as camadas de entrada e de saída –
aumentando a probabilidade de lograr uma vitória mais rápida, mais ampla ou
mais segura. Uma vez apresentado e reforçado positiva ou negativamente esse segundo resultado, o algoritmo afina-se, e assim por diante. Ou seja, com os reforços, o algoritmo aprende como produzir
resultados progressivamente adequados à encomenda.
Em âmbitos em que uns resultados não são melhores do que
outros, antes o que se visa é a precisão de qualquer deles em relação a alguma
categoria – ex. o diagnóstico de uma doença, ou a classificação de transeuntes
conforme um seu nível de segurança pública – o algoritmo é treinado com
casos exemplares, até formar padrões e, assim, ser capaz de classificar futuros casos que lhe venham a ser dados. Esta aprendizagem é supervisionada pelo
treinador em função da categoria predeterminada.
Mas também se pode deixar o algoritmo sem
supervisão na deteção de padrões nos dados. Esta aprendizagem aumenta a
probabilidade tanto de irrelevância desses padrões, e de má orientação das
previsões feitas na sua base, quanto da deteção de algum aspeto que passasse
despercebido aos analistas humanos.
Em vista da regulamentação da IA, o mais
significativo é que nas aprendizagens por reforço, com supervisão ou sem esta
conhecemos os dados facultados aos algoritmos. Nas duas primeiras, conhecemos
também a meta, seja o que merecerá avaliação positiva, seja a categoria para a classificação. Mas em nenhuma das três conhecemos o processo nas camadas
interiores do algoritmo. Estas constituem uma “caixa negra” cujo processo nos é
opaco.
Desta forma, simples regulamentações, por um lado,
do design destes algoritmos incluindo os seus treinos e, por outro lado, das
utilizações finais, ignoram o que os algoritmos efetivamente fazem entre inputs
e outputs.
Ou melhor, ignoram os processos das suas ações. Este
último conceito justifica-se se se reconhecer a estas entidades, como sugeri no
CM em 2 de março, já não a passividade de tecnologias como um martelo ou um
teclado de PC, mas alguma agência com significado moral, ainda que não tão
forte quanto a que nos costumamos atribuir.
Em conformidade, se as “caixas negras” continuarem fechadas, não será possível determinar as boas ações segundo a intenção (oculta na "caixa negra") de cumprir o dever estipulado por alguma lei geral. Como qualquer aluno no fim do 10º ano é suposto reconhecer, a fundamentação da moral dessa agência apenas poderá ser consequencialista: a ação boa é aquela que tem boas consequências. Sobre o que tais regulamentos poderão assim lograr, e sobre as objeções que se lhes levantem, aqui já não posso fazer mais do que referir qualquer manual de Filosofia desse ano de escolaridade. E sugerir a sua aplicação a este caso.
Correio do Minho (ed. impressa, revisto), 27/03/2024
Comentários
Enviar um comentário
Qualquer comentário cortês é bem-vindo, em particular se for crítico ou sugerir desenvolvimentos ao post.