Technology

Advogadas são multadas em mais de R$ 84 mil após suposta tentativa de manipular IA do TRT no Pará

Justiça do Trabalho identificou uso de “prompt injection” em petição eletrônica; caso reacende debate sobre ética, inteligência artificial e limites tecnológicos no Judiciário

Duas advogadas que atuam em Parauapebas foram condenadas pela Justiça do Trabalho ao pagamento de uma multa superior a R$ 84 mil após a identificação de um suposto mecanismo utilizado para interferir no funcionamento de uma ferramenta de inteligência artificial do Tribunal Regional do Trabalho da 8ª Região.

O episódio, considerado inédito e extremamente grave por especialistas da área jurídica, envolve o uso de uma técnica conhecida como “prompt injection”, ou “injeção de comando”, prática que consiste em inserir instruções ocultas em textos destinados a sistemas de IA para influenciar suas respostas ou comportamento.

Veja vídeo !

Segundo informações do processo, as advogadas Alcina Medeiros e Luanna Alves teriam incluído comandos escondidos dentro de uma petição judicial apresentada ao TRT-8. O objetivo, de acordo com a interpretação da Justiça, seria induzir o sistema de inteligência artificial utilizado pelo tribunal a realizar uma análise superficial do documento, sem questionar provas ou inconsistências apresentadas na ação.

A situação chamou atenção após manifestação do procurador da República Vladimir Aras, que comentou o caso publicamente e destacou os riscos crescentes do uso inadequado de ferramentas de IA dentro do sistema judicial brasileiro.

O juiz do trabalho Luis Carlos de Araujo Santos Júnior classificou a conduta como um “ato atentatório à dignidade da Justiça”. Na decisão, o magistrado determinou a aplicação de multa equivalente a 10% do valor da causa trabalhista, estimada em R$ 842.500,87, resultando em uma penalidade de R$ 84.250,08.

Como funciona a técnica de “prompt injection”

A chamada “prompt injection” tem se tornado um dos principais desafios relacionados à segurança em sistemas de inteligência artificial generativa. Em termos simples, trata-se de um método em que comandos ocultos são adicionados em textos, códigos ou documentos para alterar o comportamento da IA.

Na prática, é como se o autor da mensagem tentasse “dar ordens secretas” ao sistema automatizado, induzindo-o a ignorar critérios, alterar interpretações ou priorizar determinadas respostas.

Especialistas explicam que esses comandos podem ficar invisíveis ao leitor comum, mas ainda assim serem interpretados pela IA durante a leitura do documento digital. Em ambientes jurídicos, onde tribunais começam a utilizar inteligência artificial para auxiliar triagens, resumos processuais e organização de dados, o risco desse tipo de interferência preocupa magistrados e operadores do Direito.

O caso do TRT-8 ganhou repercussão justamente por envolver uma possível tentativa de influenciar um sistema utilizado em ambiente judicial oficial, o que pode abrir precedentes para novas discussões sobre segurança digital no Judiciário brasileiro.

Defesa nega tentativa de manipulação

Em nota, as advogadas negaram qualquer intenção de manipular decisão judicial ou fraudar o sistema do tribunal.

Segundo a defesa, o conteúdo inserido na petição tinha como objetivo apenas evitar que a inteligência artificial realizasse interpretações indevidas prejudiciais ao cliente representado no processo.

“Elas jamais inseriram comando para manipular magistrados ou decisões judiciais”, afirmou a nota. As profissionais sustentam que houve “um entendimento equivocado” por parte da Justiça e disseram acreditar na reversão da penalidade pelas instâncias superiores.

Ainda segundo as advogadas, o comando mencionado dizia respeito exclusivamente à contestação apresentada por advogados, e não a orientações dirigidas aos juízes.

Caso pode influenciar novas regras sobre IA no Judiciário

A repercussão do episódio ocorre em um momento em que tribunais brasileiros ampliam o uso de ferramentas de inteligência artificial para acelerar análises processuais e reduzir a sobrecarga do Judiciário.

Nos últimos anos, diferentes cortes passaram a utilizar sistemas automatizados para resumir documentos, identificar precedentes, organizar provas e auxiliar magistrados em atividades administrativas.

No entanto, o avanço tecnológico também trouxe preocupações sobre transparência, segurança, manipulação de sistemas e responsabilidade ética de advogados e servidores públicos diante das novas ferramentas digitais.

Juristas apontam que casos como o de Parauapebas podem acelerar a criação de protocolos mais rígidos sobre o uso de IA em processos judiciais, além de ampliar debates no Conselho Nacional de Justiça sobre fiscalização tecnológica e limites éticos na advocacia digital.

A situação também reacende a discussão sobre até que ponto a inteligência artificial pode participar da rotina do Judiciário sem comprometer princípios fundamentais como imparcialidade, segurança jurídica e ampla defesa.