[Opinião] Quem vai morrer? Você decide!
Foto: Pexels/Bertelli Fotografia
“♫ Oh, no, not me/ I never lost control/ You’re face to face/ With the man who sold the world.” (The man who sold the world; David Bowie)
Em 2016, pesquisadores do MIT Media Lab, sob a liderança de Iyad Rahwan, lançaram uma plataforma online com uma proposta perturbadora: colocar qualquer pessoa diante de um dilema moral envolvendo carros autônomos. O nome era direto: Moral Machine. Essa Máquina da Moral foi baseada no problema do bonde, experimento criado pela filósofa Philippa Foot em 1967
A lógica era simples e inquietante. Imagine um veículo autônomo prestes a sofrer um acidente inevitável. Ele pode manter sua rota e atropelar cinco pedestres ou desviar e matar um passageiro. Entre os pedestres pode haver crianças, idosos, médicos, criminosos, pessoas em situação de rua. O sistema deve salvar mais vidas? Priorizar os mais jovens? Proteger quem está dentro do carro? Levar em conta “valor social”?
A plataforma transformava o usuário em programador moral. A cada escolha, um dado era coletado. Milhões de decisões foram registradas ao redor do mundo. Em 2018, os pesquisadores publicaram na revista Nature um amplo estudo analisando padrões globais de decisão. Descobriu-se que culturas diferentes priorizam valores diferentes: algumas tendem a proteger jovens; outras, respeitam mais os idosos; algumas valorizam o cumprimento da lei (quem atravessa na faixa), outras relativizam esse critério.
O desconforto inquietante
A Moral Machine revelou algo desconfortável: quando a ética sai do campo abstrato e vira código, precisamos transformar valores humanos em critérios programáveis. E, nesse processo, preconceitos culturais, vieses sociais e preferências morais coletivas aparecem com nitidez.
Naquele momento, discutia-se principalmente o futuro dos carros autônomos. Hoje, a questão é mais ampla e urgente.
Conteúdos em alta
Se antes a pergunta era “como programar a máquina para decidir?”, agora é: “como as máquinas estão influenciando nossas decisões?”.
Plataformas gratuitas de inteligência artificial passaram a opinar sobre investimentos, estratégias empresariais, diagnósticos preliminares, elaboração de contratos, decisões acadêmicas, escolhas afetivas e até posicionamentos políticos. Em poucos segundos, um sistema treinado com grandes volumes de dados oferece uma resposta que parece objetiva, técnica e racional.
Mas há um deslocamento silencioso acontecendo.
Você sabe que não sabe o que as máquinas sabem de você?
Na Moral Machine, o usuário sabia que estava decidindo. Hoje, muitas vezes, não percebe que está sendo influenciado. A IA não apenas executa decisões programadas; ela molda o repertório cognitivo do usuário. Sugere caminhos. Filtra alternativas. Organiza prioridades. Define o que parece mais plausível ou provável.
Se, no experimento do MIT, as pessoas escolhiam quem deveria morrer em um cenário hipotético, agora utilizam sistemas de IA para decidir quem contratar, que risco assumir, que negócio fechar, que tese defender, que posicionamento adotar. A diferença é que, na vida real, as consequências não são simuladas.
A tecnologia amplifica a moralidade. Ela traduz nossas preferências em padrões estatísticos. E, ao fazer isso, devolve para nós uma versão organizada de nossos próprios vieses.
Há uma ilusão confortável na neutralidade algorítmica. A ideia de que “a máquina calculou” parece afastar a responsabilidade humana. Contudo, toda decisão automatizada nasce de dados humanos, treinamentos humanos, critérios humanos. De você, de mim, de todos.
O experimento da Moral Machine permanece atual porque expõe o núcleo do dilema contemporâneo: estamos preparados para delegar decisões morais a sistemas probabilísticos? A inteligência artificial não decide sozinha. Mas ela estrutura o campo das possibilidades. E quem controla esse campo influencia o resultado.
No fim, a pergunta do título continua válida; só mudou de escala.
Quem vai morrer?
Quem vai prosperar?
Quem vai ser promovido?
Quem vai ser invisível?
A resposta, em grande medida, continua sendo humana. A diferença é que agora ela passa por uma interface.
Raphael Rocha Lopes
Disrupção.TUDO! - Raphael Rocha Lopes é advogado e professor. Escreve sobre educação, comportamento e transformação digitais | @raphaelrochalopesadvogado