Ética na IA (1): a moralidade dos artefactos e os algoritmos inteligentes

Num raro momento de perplexidade moral, 007, agente ao serviço de Sua Majestade, pergunta ao armeiro que lhe otimizara uma arma se essa profissão não o incomoda. Ao que o outro responde: “Mr. Bond, as balas não matam. É o dedo que puxa o gatilho.” Esta cena de O Homem da Pistola Dourada foi a minha introdução à tese da neutralidade moral da tecnologia. Ponderosa, mas, creio, errada.

Essa tese implica que a moralidade se reporta à agência ou capacidade de fazer algo e que os artefactos técnicos não têm agência. A primeira condição será pacífica, mas a segunda não. Em sentido forte, “agência” significa a capacidade de, perante comportamentos alternativos que sejam possíveis, escolher os valores para ponderar essas alternativas, aplicar os valores assumidos, decidir, e causar o comportamento correspondente. Se essa agência se verifica, pelo menos por ora, será exclusivamente humana. Já no sentido fraco de intervenção na determinação e promoção dos comportamentos, ainda que porventura essa intervenção esteja, por sua vez, determinada geneticamente e/ou por experiências e aprendizagens anteriores, nós temo-la bem como os restantes animais. Porventura à diferença de balas, gatilhos e quaisquer ferramentas intencionalmente produzidas para serem usadas em certas funções, ou de objetos naturais que possam ser aproveitados como utensílios. Sobre essas coisas, dir-se-á que apenas os respetivos utilizadores fazem propriamente algo, logo, apenas estes ou os seus comportamentos terão valor moral.

Para escrever à mão, qual
Livro de Bordo de med-itações
da navegação na vida, bem med-idas
como num navio para med-icina,
med-iando do pior para o melhor
(sânscrito med-, mediar, medir)
Precisamente essa última premissa é denunciada pelo filósofo neerlandês P.P. Verbeek, numa obra com o título sugestivo: What Things Do. Ou seja, as coisas não são meramente manipuladas em ações de outrem, elas próprias já fazem algo. Designadamente, por um lado, não existimos da mesma forma no mundo conforme, ao desempenharmos uma função, usamos um tipo de artefacto ou outro equiparável. Por exemplo, ao escrever, se usamos um teclado, relacionamo-nos com uma maior parcela do mundo graças à libertação de tempo para outras ocupações e ao aumento da audiência potencial, do que num mundo em que usamos caneta e papel. Por outro lado, o mundo torna-se-nos mais significativo ao manipularmos a caneta (a motricidade fina parece convocar as mesmas áreas cerebrais da organização das ideias), tal como retemos melhor essas ideias (por implicação das mesmas ondas cerebrais na escrita manual e na memória).

Verbeek reconheceu, assim, que quaisquer artefactos técnicos têm uma função de mediação entre os seres humanos e o respetivo mundo. Com uma dimensão dita existencial – a da primeira comparação entre as duas escritas – e outra dita hermenêutica – a da segunda comparação. O que carrega cada artefacto com o sentido moral da contribuição para um modo de existirmos em detrimento de outros, e para uma interpretação do mundo em vez de outras, uma vez que estas diferenças sejam classificáveis entre um polo positivo e outro negativo.

Mas a moralidade intrínseca à tecnologia torna-se ainda mais relevante no caso de artefactos com capacidade de previsão, aprendizagem ou tomada de decisão. Estas novas tecnologias não fazem apenas o que lhes é estruturalmente próprio nas circunstâncias em que sejam utilizadas, elas também ajustam a respetiva estrutura e podem escolher (ainda que não com agência forte) as circunstâncias em que intervêm.

Alguns autores atribuem-lhes uma “moralidade funcional”. Como os modelos comportamentais facultados aos automóveis autónomos, conforme um registo das opções dos condutores humanos, ou conforme a avaliação humana de situações que o algoritmo preveja que possam resultar de cada comportamento alternativo.  Outros, duvidando da legitimidade ou propriedade de uma ética antropocêntrica, reconhecem às tecnologias inteligentes uma “moralidade a-mental”. Que supõe algum grau de autonomia e de adaptabilidade na implementação de ações moralmente significativas – como as de um cão de salvação ou as de um robô social. Estes autores, em troca, comprometem-se com a tarefa de determinar aquele grau.

Qualquer que seja a moralidade fraca própria desses artefactos inteligentes, parece imprescindível uma abordagem ética ao que estas tecnologias fazem. O que implica a mesma abordagem ao modo como o fazem – p. ex. sobre enviesamentos dos dados de aprendizagem, ou transparência dos algoritmos. Bem como sobre os recursos com que o fazem – da extração de minérios à de dados pessoais, passando pelo trabalho humano envolvido na classificação de objetos.

Em suma, com a IA, não poderíamos estar mais longe da nossa abertura cinéfila à questão da moralidade e tecnologia.

in Tek Notícias, 21/04/2026 (revisto)

Comentários

Mensagens populares deste blogue

2.º quartel do séc. XXI – que significado para “tecnologia”?

O pensamento técnico e os desafios ocidental e nacional

Incineradora, participação pública, e hipótese de uma "conferência de consenso"