quinta-feira, 16 de setembro de 2010

Estatística no Tribunal

Continuando na nossa série forense, li há alguns dias no (excelente) blog de estatística bayesiana do Christian Robert (http://xianblog.wordpress.com/ - às vezes técnico demais, mas pra quem gosta de "aventura" recomendo fortemente, hehe) um post sobre o papel da estatística no julgamento da enfermeira holandesa Lucia de Berk.


O caso, resumidamente, é o seguinte:

Após a morte de um bebê no Hospital da Criança Juliana, em Haia, outras nove mortes ou incidentes graves foram verificados no hospital, que também notou que a enfermeira Lucia estava sempre em seu turno de trabalho quando houve incidentes. Ela foi então considerada suspeita, e o caso teve ampla repercussão e causou enorme comoção no país - lembrem que estamos falando de um hospital infantil.

Em seu primeiro julgamento, em março de 2003, ela foi acusada de quatro homicídios e três tentativas de homicídio, e condenada à prisão perpétua. Lucia sempre negou os crimes. Um dos argumentos mais fortes da acusação consistiu em um modelo estatístico apresentado por um psicólogo forense que considerou que a probabilidade de que uma enfermeira estivesse, ao acaso, envolvida em tantos incidentes seria de apenas 1:342.000.000 (sim, não digitei errado. Um em trezentos e quarenta e dois milhões), que, de fato, é absurdamente pequena. Um analista forense, comentando o caso para a imprensa, afirma que seria impossível condenar a acusada sem a “prova estatística”.

Mas calma aí que fica pior.

Na apelação (Julho, 2004), Lucia foi acusada por novos casos ocorridos nos outros hospitais nos quais trabalhava (sendo dois por envenenamento), e condenada a prisão perpétua com tratamento psicológico forçado (embora os peritos em psicologia não tenham visto nada de anormal nela...), sentença que em março de 2006 foi novamente mudada para prisão perpétua "simples". Devido a problemas com a análise estatística do caso original (relatado acima), apontados por alguns especialistas, o tribunal retira a análise estatística do processo (lembram do nosso analista?). Ainda assim o novo veredito usa termos como “muito improvável”. Claramente, o raciocínio do juiz está baseado em estatística.

Bem, em outubro de 2008 o caso foi reaberto, em parte devido a um abaixo assinado, enviado à suprema corte, que continha a assinatura de vários cientistas. Alguns estatísticos, entre eles Richard Gill, Piet Groneboom, e Peter de Jong, tentam desenvolver um modelo estatístico alternativo, mais realista, para o caso de Lucia. Esse novo modelo, descrito num artigo espantosamente didático e inteligível para não-iniciados como eu, levava em consideração a heterogeneidade de “chances” entre enfermeiras (ou seja, o raciocínio de que há variação individual entre enfermeiras para o "risco" de incidentes graves), e um modelo de Poisson clássico para a probabilidade dos incidentes. Estão sentadinhos? Sério. É bem recomendável.

Lembram, né? 1:342.000.000 foi o cálculo original. Bom, o trabalho dos autores mencionados acima chega a uma chance de 1:7. Cara, 1:7!!!! É só um pouquinho pior do que tirar um "seis" atirando um dado!!! No pior caso para Lucia (dependendo de quais incidentes eram considerados) essa chance cai pra 1:26. Menor que o 1:7, mas cerca de 13 MILHÕES de vezes maior do que aquela probabilidade ridiculamente pequena sugerida no primeiro julgamento.

Vai dizer, chato ser condenado à prisão perpétua por uma chance de cerca de 4%, né? Os autores ainda fazem questão de ressaltar que tudo isso, claro, depende da qualidade dos dados, e isso é um outro ponto crítico. Dependendo de como uma investigação é conduzida, os dados coletados podem sofrer um grande viés de relato. Nesse caso, o impacto do viés de relato pode ser facilmente entendido da seguinte forma; os policiais foram aos hospitais nos quais Lucia trabalhava em busca de outros incidentes durante os turnos de Lucia. O mesmo esforço não foi usado para buscar incidentes nos turnos nos quais Lucia não trabalhava. Naturalmente, a investigação acabará representando em excesso qualquer tipo de evento ocorrido quando Lucia estava no hospital. Esse tipo de viés é muito conhecido também na pesquisa médica, onde eventos positivos tendem a ser reportados (e lembrados) com maior freqüência.

Após a reabertura do caso as acusações foram retiradas, e Lucia foi libertada em Março de 2010. Além da questão estatística, um novo exame químico foi feito que descartava a hipótese de envenenamento naqueles dois casos adicionais citados anteriormente. A questão da estatística aqui é importante porque não há dúvida de que argumentos estatísticos são sim importantes em casos forenses. Afinal, é complicado entender o mundo de uma forma independente de estatística (ou estou exagerando?). Toda a questão de reconhecimento de paternidade (viram o recente veto presidencial à obrigatoriedade de fazer teste de DNA?), por exemplo, se baseia em estatística. Por outro lado, é claro que a argumentação estatística pode estar mal aplicada em um tribunal. Aliás, QUALQUER ciência forense pode, em um determinado caso, representar má ciência.

Se a Ciência não nos dá certezas (por definição), as partes devem se perguntar “há diferentes interpretações para esses fatos?”. Aliás, os juízes devem se perguntar isso, ou ainda mais especificamente, os juízes têm que estar cientes das limitações tanto dos métodos quanto do próprio conhecimento científico. Na ciência publicada, a controvérsia é saudável, rende papers, joga a ciência prá frente. Porém, quando a vida de uma pessoa (do réu) está em jogo, as coisas se tornam mais sérias.

Bom, e aí? Lucia é inocente?

Eu não sei, e na verdade, só ela sabe. E com esse tipo de incerteza também temos que aprender a lidar: a tal Verdade assim com “V” maiúsculo, não pode ser revelada nem pela ciência nem por um tribunal... Justiça com incerteza... Viver com a incerteza... eis a questão.

3 comentários:

Karla Yotoko disse...

puts! É o que vivo dizendo para os meus alunos de filogenia molecular... Esse negócio de certeza e de verdades na ciência é pura falácia...

O que temos, no máximo, são boas hipóteses, mas mesmo estas deveriam ser exaustivamente testadas, só para saber se são realmente boas!

Carol disse...

"(...)chato ser condenado à prisão perpétua por uma chance de cerca de 4%, né?" Pô! Bota chato nisso!
(Essas historinhas de tribunal tão muito divertidas!)

Nicolás disse...

A questão, outra vez, é o referencial. Não vou entrar no mérito de que é considerado justo, ou não. Deixo isso com o pessoal do direito, que manja desses assuntos. Já sobre o poder da estatística, deveria ser consenso que ela é um parâmetro, ainda que numérico, extremamente abstrato. É só pensar no que significa o nível de confiança de uma análise. Como é que se pode medir algo que nem real é, como a confiança? Tenho um conhecido estatístico que diz: "a estatística é a ciência usada para mentir com números".

Tá, é lógico que trata-se de um método para tentar mensurar possíveis erros e incertezas, mas a questão me parece girar mais em função do peso que se dá para o método do que na sua precisão. A estatística tem algo quase que metafísico, como a Teoria de Cordas, da Física: tem toda base matemática muito bem fundamentada, mas praticamente é improvável de ser provada.

Enfim, essa ideia de que a ciência dá subsídios para a verdade universal depende, muitas vezes, mais do poder de arguição do que dos resultados em si. Trata-se de vender a ideia de que os dados são complicados, difíceis de serem obtidos e que tem alto valor. Ou alguém acha que a Teoria da Evolução do Darwin teria conseguido sobreviver aos seus primeiros anos de vida se não fosse pelo empenho de Thomas Huxley, conhecido como o buldogue do Darwin?

Lembrei da parábora da tese do coelho. Aqui está ela: http://memorizacao.blogspot.com/2007/04/tese-do-coelho.html

É, Karla, tens razão: "esse negócio de certeza e de verdades na ciência é pura falácia..."

Postar um comentário