Homem Morto “Fala” com o Próprio Assassino Durante Julgamento nos EUA com Uso de IA

Por Rafaela Paula

Um caso inédito nos Estados Unidos chamou a atenção recentemente. A família de Christopher Pelkey, vítima de homicídio em 2021, criou um vídeo com sua imagem usando inteligência artificial (IA) para se dirigir ao homem condenado por seu assassinato durante o julgamento.


Rosto de Christopher Pelkey, vítima de assassinato no Arizona — Foto: AP Photo/Matt York

O Vídeo de IA
O vídeo mostra uma versão de Pelkey feita com IA, que se dirige ao condenado, Gabriel Paul Horcasitas, expressando perdão e incentivando as pessoas a aproveitarem cada dia ao máximo e a se amar. A família de Pelkey acredita que o vídeo ajudou a transmitir a mensagem de que a vítima era uma pessoa que sabia perdoar.

O Caso
O crime ocorreu em novembro de 2021, quando Pelkey foi baleado após uma briga de trânsito. Horcasitas foi condenado por homicídio culposo e sentenciado a 10 anos e meio de prisão. A família de Pelkey havia pedido que Horcasitas recebesse a pena máxima.

Uso de IA no Sistema Judiciário
O uso de IA no sistema judiciário é cada vez mais comum, mas geralmente é limitado a tarefas administrativas e pesquisa jurídica. No entanto, o caso de Pelkey é um exemplo de como a IA pode ser usada de forma mais criativa e emocional para compartilhar informações com o tribunal.


Christopher Pelkey, vítima de assassinato no Arizona — Foto: Tim Wales via AP

Reações
O juiz responsável pelo caso, Todd Lang, afirmou que o vídeo dizia algo sobre a família de Pelkey e sua capacidade de perdoar. No entanto, o advogado de Horcasitas, Jason Lamm, disse que apelará da sentença, argumentando que o juiz pode ter se baseado indevidamente no vídeo de IA ao proferir a sentença.

Preocupações com Evidências Geradas por IA
Gary Marchant, professor de direito na Universidade Estadual do Arizona, alertou que o uso de evidências geradas por IA pode abrir caminho para que mais pessoas tentem introduzir esse tipo de evidência nos tribunais, o que pode ser problemático devido à facilidade de criar deepfakes convincentes.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *