Ética na IA (1): a moralidade dos artefactos e os algoritmos inteligentes
Num raro momento de perplexidade moral, 007, agente ao serviço de Sua Majestade, pergunta ao armeiro que lhe otimizara uma arma se essa profissão não o incomoda. Ao que o outro responde: “Mr. Bond, as balas não matam. É o dedo que puxa o gatilho.” Esta cena de O Homem da Pistola Dourada foi a minha introdução à tese da neutralidade moral da tecnologia. Ponderosa, mas, creio, errada.
Essa
tese implica que a moralidade se reporta à agência ou capacidade de fazer algo e
que os artefactos técnicos não têm agência. A primeira condição será pacífica,
mas a segunda não. Em sentido forte, “agência” significa a capacidade de, perante comportamentos alternativos que sejam possíveis, escolher os valores
para ponderar essas alternativas, aplicar os valores assumidos, decidir, e causar o comportamento correspondente. Se
essa agência se verifica, pelo menos por ora, será exclusivamente humana. Já no
sentido fraco de intervenção na determinação e promoção dos comportamentos, ainda
que porventura essa intervenção esteja, por sua vez, determinada geneticamente
e/ou por experiências e aprendizagens anteriores, nós temo-la bem como os
restantes animais. Porventura à diferença de balas, gatilhos e quaisquer ferramentas
intencionalmente produzidas para serem usadas em certas funções, ou de objetos
naturais que possam ser aproveitados como utensílios. Sobre essas coisas,
dir-se-á que apenas os respetivos utilizadores fazem propriamente algo, logo,
apenas estes ou os seus comportamentos terão valor moral.
![]() |
| Para escrever à mão, qual Livro de Bordo de med-itações da navegação na vida, bem med-idas como num navio para med-icina, med-iando do pior para o melhor (sânscrito med-, mediar, medir) |
Verbeek
reconheceu, assim, que quaisquer artefactos técnicos têm uma função de mediação
entre os seres humanos e o respetivo mundo. Com uma dimensão dita existencial – a da primeira comparação entre as duas escritas – e outra dita hermenêutica – a da
segunda comparação. O que carrega cada artefacto com o sentido moral da
contribuição para um modo de existirmos em detrimento de outros, e para uma
interpretação do mundo em vez de outras, uma vez que estas diferenças sejam
classificáveis entre um polo positivo e outro negativo.
Mas a
moralidade intrínseca à tecnologia torna-se ainda mais relevante no caso de
artefactos com capacidade de previsão, aprendizagem ou tomada de decisão. Estas
novas tecnologias não fazem apenas o que lhes é estruturalmente próprio nas
circunstâncias em que sejam utilizadas, elas também ajustam a respetiva
estrutura e podem escolher (ainda que não com agência forte) as circunstâncias
em que intervêm.
Alguns
autores atribuem-lhes uma “moralidade funcional”. Como os modelos
comportamentais facultados aos automóveis autónomos, conforme um registo das opções dos
condutores humanos, ou conforme a avaliação humana de situações que o algoritmo
preveja que possam resultar de cada comportamento alternativo. Outros, duvidando da legitimidade ou
propriedade de uma ética antropocêntrica, reconhecem às tecnologias
inteligentes uma “moralidade a-mental”. Que supõe algum grau de autonomia e de
adaptabilidade na implementação de ações moralmente significativas – como as de
um cão de salvação ou as de um robô social. Estes autores, em troca, comprometem-se com a tarefa de determinar aquele grau.
Qualquer
que seja a moralidade fraca própria desses artefactos inteligentes, parece
imprescindível uma abordagem ética ao que estas tecnologias fazem. O que
implica a mesma abordagem ao modo como o fazem – p. ex. sobre enviesamentos dos
dados de aprendizagem, ou transparência dos algoritmos. Bem como sobre os
recursos com que o fazem – da extração de minérios à de dados pessoais,
passando pelo trabalho humano envolvido na classificação de objetos.
Em
suma, com a IA, não poderíamos estar mais longe da nossa abertura cinéfila à
questão da moralidade e tecnologia.
in Tek Notícias, 21/04/2026 (revisto)

Comentários
Enviar um comentário
Qualquer comentário cortês é bem-vindo, em particular se for crítico ou sugerir desenvolvimentos ao post.