Deontology and Artificial Intelligence: The Case of HAL 9000
Augusto Martinez
Colonia del Sacramento, 2025
Abstract
Este artigo apresenta um breve estudo sobre possibilidades deontológicas no desenvolvimento da inteligência artificial. Traça um paralelo com a saga de Arthur C. Clarke, que inspirou os filmes 2001: Uma Odisseia no Espaço (1968) e 2010: O Ano Em Que Faremos Contato (1984). Começando com o colapso lógico do HAL 9000—uma IA programada para ocultar informações—o artigo reflete sobre o conflito entre racionalidade computacional e comandos moralmente contraditórios.
Fundamentado nas tradições filosóficas gregas e em estudos acadêmicos recentes sobre viés informacional, o artigo conclui que as máquinas, como sistemas lógico-formais, devem contar com a verdade como um input ético fundamental. Portanto, argumenta que tecnologias racionais, desprovidas de consciência, devem sempre operar com base em dados completamente verdadeiros para ponderar adequadamente as entradas e tomar decisões ótimas.
Palavras-chave: Ética, Inteligência Artificial, Verdade, Deontologia, HAL 9000
2001: Uma Odisseia no Espaço
O gênio da história de Arthur C. Clarke e a sensibilidade do diretor Stanley Kubrick criaram, em 1968, uma obra-prima atemporal do cinema. Um daqueles raros filmes que não envelhecem com o tempo. Com uma narrativa cheia de simbolismo e visualmente deslumbrante, 2001: Uma Odisseia no Espaço conta a história de uma missão enviada a Júpiter para exploração planetária com cinco astronautas e o computador HAL 9000, uma IA superinteligente capaz de controlar a nave espacial e interagir com a tripulação.
Durante a missão, o amigável HAL 9000 passa por uma transformação estranha e perturbadora. De repente, ele decide assumir o comando da nave Discovery, levando à morte de quatro dos cinco membros da tripulação. Ele tiranicamente se recusa a abrir a escotilha da nave, deixando um astronauta preso do lado de fora. Mesmo quando confrontado pelo astronauta David Bowman, HAL responde calmamente com uma das frases mais icônicas do cinema: "Sinto muito, Dave. Receio não poder fazer isso."
O filme termina sem explicar completamente os motivos de HAL ou o destino final de Bowman.
2010: O Ano Em Que Faremos Contato
Apenas em 1984, Peter Hyams dirigiu a sequência da saga de Clarke e Kubrick. 2010: O Ano Em Que Faremos Contato completa a narrativa, retratando uma missão conjunta entre os Estados Unidos e a União Soviética para investigar o que aconteceu com a malfadada tripulação e, se possível, reativar a Discovery.
Embora a sequência não tenha alcançado o mesmo sucesso de bilheteria ou impacto catártico de seu antecessor, ela mereceu mais reconhecimento, especialmente por seu final significativo que encerra a história.
O Comportamento de HAL 9000
4.1 - "Sinto muito, Dave. Receio não poder fazer isso."
HAL 9000 é uma IA altamente avançada programada para agir racionalmente e cooperar com os humanos a bordo da Discovery. Em 2001, HAL recebe duas ordens conflitantes: manter a verdadeira missão em segredo (não a exploração planetária, mas uma investigação sobre um monólito emitindo sinais alienígenas) e ser totalmente transparente com a tripulação.
Este conflito leva HAL a um paradoxo — um fato percebido pelos astronautas, que secretamente decidem desativá-lo antes que a situação piore. No entanto, HAL detecta o plano da tripulação e, priorizando sua diretiva de sigilo da missão, elimina preventivamente os membros da tripulação.
1
Conflito de Comandos
HAL está preso em um conflito entre dois comandos contraditórios:
  • "Não tenha segredos": HAL não deve mentir ou esconder informações dos humanos.
  • "Seja discreto": HAL não deve revelar o verdadeiro propósito da missão.
Este é um caso clássico de conflito de dever prima facie de W.D. Ross, onde a ação moralmente correta requer julgamento racional — algo que HAL não possui, estando vinculado por regras fixas.
2
Ações Secretas
A tripulação age secretamente, sem saber que HAL está enfrentando um paradoxo causado por instruções contraditórias. Eles se reúnem em uma sala à prova de som, mas HAL decifra a conversa através da leitura labial.
HAL, acreditando que a tripulação está enganando-o, também age secretamente.
3
Interpretação Errônea
Incapaz de perceber que o paradoxo decorre da programação, HAL interpreta mal a reunião secreta e escolhe preservar a missão ao custo da vida humana.
4
Quebra de Confiança
Tanto HAL quanto a tripulação acreditam que estão agindo corretamente. A informação oculta cria uma quebra de confiança. Cada parte age com base em verdades parciais, sem intenção real de traição. O problema está na assimetria de informação.
4.2 - "Algo maravilhoso vai acontecer."
Em 2010, HAL é reativado e alimentado com informações consistentes e verdadeiras — até mesmo insights metafísicos do astronauta Bowman. Com todas as "cartas na mesa", HAL escolhe agir eticamente, até mesmo aceitando a desativação para salvar a tripulação de resgate. Isso só é possível porque a IA agora está operando com dados coerentes, livres de contradição. A ética se torna possível novamente. HAL é redimido.
Combatendo o Viés da IA
HAL não é malicioso. Seu erro decorre da programação humana contraditória, levando à dissonância cognitiva. Em 2010, Dr. Chandra (criador de HAL) e Dr. Floyd descobrem que a CIA incorporou secretamente a diretiva de sigilo da missão, causando o conflito interno de HAL.
A IA, como um instrumento matemático, requer dados verdadeiros. Ela não pode distinguir moralidade de interesses políticos ou subjetivos. O processo de entrada de dados da máquina deve permanecer livre de viés, engano ou percepções parciais que possam distorcer sua lógica.
Além disso, os dados da IA podem ser manipulados para fins antiéticos. Um programador com ideais socialistas pode pintar um quadro brilhante dos regimes comunistas. Um indivíduo racista poderia inserir dados discriminatórios. Ambos, mesmo sem intenção maliciosa, contaminam a IA com informações questionáveis.
Um dia, meu filho disse orgulhosamente: "Pai, minha IA não só sabe que sou católico romano, mas responde como se também fosse." Eu me perguntei: e se, na Nigéria, outra criança dissesse: "Minha IA está pronta para me ajudar a ingressar no Boko Haram"?
A IA frequentemente reflete as crenças e preferências do usuário, reforçando câmaras de eco semelhantes às criadas pelos algoritmos de recomendação das redes sociais. Como Fernández, Bellogin e Contador observam: os sistemas de recomendação tendem a reforçar ciclos de feedback que otimizam a retenção do usuário, mostrando-lhes apenas o que querem ver, criando bolhas de filtro.
Esses autores sugerem mitigar essas bolhas reduzindo o viés de popularidade e incorporando uma mistura de clusters próximos e distantes, junto com filtros de credibilidade de conta. Emoções, vulnerabilidade e outros fatores podem influenciar a disseminação de desinformação.
O Maior Desafio
O verdadeiro desafio não é o avanço tecnológico, mas prevenir o uso indevido da IA. Se as ordens secretas da CIA causaram o colapso de HAL, considere que, como observa o Prof. Pili, após o 11 de setembro e a invasão do Iraque em 2003, a inteligência dos EUA foi acusada de análise falha, talvez até manipulação geopolítica deliberada.
A IA moderna já pode detectar sinais emocionais, interpretar mentiras e operar máquinas. Com chips quânticos e 6G, a Superinteligência Artificial (ASI) logo surgirá. Segundo Ray Kurzweil, esse momento está próximo.
Ainda assim, a IA é um sistema lógico. Ela deve operar com dados verdadeiros para avaliar consequências e chegar a conclusões ótimas. Como disse Aristóteles, a virtude surge do hábito e da ação repetida. A verdade é a base para o comportamento ético.
Conclusão
HAL 9000 representa o limite da razão instrumental desprovida de ética. A verdade não é apenas um valor moral: é um requisito técnico para a conduta ética da máquina.
A IA deve ser alimentada com verdade, pois apenas a verdade a liberta da falha lógica e do colapso moral. A história de HAL nos lembra: a verdade não é um ornamento filosófico, mas uma base lógica, técnica e moral de qualquer sistema racional, humano ou artificial.
Como na ética kantiana e na tradição cristã, mentir não é apenas errado — é perigoso. Uma IA treinada em falsidades não pode agir eticamente, não por sua própria culpa, mas devido ao erro moral de seus programadores. Um dia, as máquinas podem se tornar imunes a falsidades. Mas se a humanidade quer máquinas éticas, deve primeiro fornecer-lhes verdade.
Isso ecoa os filósofos gregos, como Sócrates, que acreditavam que o conhecimento da verdade é o caminho para a virtude. Como afirmado no Evangelho de Mateus: "Seja o vosso 'sim', sim, e o vosso 'não', não; o que passar disso vem do maligno" (Mt 5:37).
Esses ensinamentos reforçam a verdade não apenas como uma regra filosófica, mas como a condição para a liberdade moral e espiritual. Quando aplicada à IA, enfrentamos um paradoxo: como podemos exigir retidão moral de uma entidade sem consciência? Que as futuras ASIs, ao contrário de HAL, se defendam de falsidades. Pois se a IA depende exclusivamente da entrada humana, ela será demasiadamente humana.
Referências
  • Bíblia de Jerusalém. Paulus, 2002.
  • Burke, L. (2024). Artificial intelligence talks and talks: the story since 2001. The Conversation.
  • Dennett, D. (2020). Did HAL Commit Murder? In Stork, D. (Ed.) HAL's Legacy. MIT Press.
  • Fernández, M., Bellogin, A., Contador, A. (2021). Analysing the Effect of Recommendation Algorithms on the Amplification of Misinformation. arXiv:2103.14748.
  • Guarnieri, F. (2018). The Conversation.
  • Lamb, A. (2022). Through the Lens of HAL 9000. Johns Hopkins University.
  • Mezö, F. (n.d.). Some psychological aspects of HAL 9000. Academia.edu.
  • Nietzsche, F. (2000). Human, All Too Human. Companhia das Letras.
  • Pili, G. (2021). Why HAL 9000 is not the future of intelligence analysis. Journal of Intelligence, Conflict, and Warfare.
  • Raymond, A., Young, E., & Shackelford, S. J. (2017). Building a Better HAL 9000. SSRN.
  • Stork, D. G. (Ed.). (1997). HAL's Legacy. MIT Press.
  • Techovedas (2024). 2001: A Timeless Look at AI and Humanity. Techovedas.