Monday, October 03, 2016

Comparações múltiplas: como evitar conclusões erradas?

Quando fazemos uma análise de variância (ANOVA) para comparar grupos, o teste F nos diz se existe diferença entre médias — mas não   diz entre quais grupos está a diferença. Por isso, quando o teste F rejeita a hipótese de que todas as médias são iguais, o pesquisador quer um teste para comparar as médias, duas a duas, ou em grupos de seu interesse. É aí que entram os testes a posteriori (post hoc).

Mas para escolher o teste, o pesquisador precisa tomar uma decisão importante: o que ele quer?

🔺   Controlar o risco de erro em cada comparação de duas médias?
                                       (comparisonwise error rate)

🔺  Controlar o risco de erro no conjunto de comparações feitas?

(experimentwise error rate)

Vamos entender este dilema com exemplos.

                                         Exemplo: 3 grupos (A, B e C)

Imagine que queremos comparar três tratamentos(grupos). São possíveis 3 comparações de médias: A e B, A e C e B e C. Vamos repetir esse experimento 10 vezes. Então, no total, serão feitas 30 comparações, como mostra a Tabela 1.

Tabela 1

   

Vamos supor que todas as médias populacionais são iguais (não sabemos disso quando fazemos o experimento). Para comparar médias, podemos escolher:

🔺    Um teste que controle o risco de erro Tipo I em cada comparação de médias. Neste caso, se – para cada comparação de duas médias – for estabelecido um nível de significância de 10%, espera-se que cerca de 10% das 30 comparações (ou seja, 3) indiquem, erradamente (erro tipo I), diferença que não existe. Note bem: essas 3 comparações erradamente significantes podem estar em só. ou em 3 dos 10 experimentos.

🔺  Um teste que controle o risco de erro Tipo I por experimento. Neste caso, se – para cada experimento – for estabelecido o nível de significância de 10%, espera-se que apenas 1 dos 10 experimentos (ou seja, 10%) indique, erradamente (erro tipo I), diferença que não existe.

                                  Exemplo: 20 grupos

Vamos pensar agora em um cenário maior: vamos comparar 20 tratamentos (grupos) dois a dois. São possíveis combinação de 20, dois a dois, que é (20x19) /2 = 190 comparações de médias. Vamos repetir esse experimento 10 vezes. Então, no total, serão feitas 190 x 10 = 1.900 comparações de médias. Novamente, vamos supor que as médias são todas iguais. Não sabemos disso, mas podemos escolher:

🔺 Um teste que controle o erro tipo I em cada comparação de médias. Se for estabelecido o nível de 10% de significância podem ocorrer até 190 falsos positivos (10% das 1.900 comparações de médias). Então quase todo experimento teria erros. O nível de erro se aproximaria, portanto, de 100%!

🔺  Um teste que controle o risco de erro Tipo I por experimento. Se for estabelecido o nível de significância de 10%, espera-se que ocorra erro tipo I em apenas 1 experimento, mesmo com 1.900 comparações no total.

                                       Comparação entre os testes

O teste DMS de Fisher e o teste das amplitudes múltiplas de Duncan não controlam o nível de significância de experimentos. São testes liberais, pois apontam significância com muita facilidade. Mas têm grande poder, pois nível de significância e poder do teste crescem juntos. De qualquer modo, é preciso evitar o "fishing for significance". Comparar muitas médias sem controle aumenta o risco de achar diferenças que não existem.

 

Já o teste DHS de Tukey, o teste de Dunnet e o teste S de Scheffé são conservadores, pois controlam o nível de significância de experimentos. Se o nível de significância para experimentos for 5%, o nível de significância para comparação de médias será menor do que 5%. Conclusões baseadas em experimentwise α são mais confiáveis em estudos com múltiplos grupos.

 

No entanto, quando se comparam apenas dois grupos, o nível de significância para experimentos é igual ao nível de significância para comparação de médias. Mas é preciso cuidado quando se comparam vários grupos, pois pode haver diferença nas conclusões.

                                                     Conclusão

     🔺  Testes liberais (como DMS e Duncan) têm maior poder, mas também maior risco de erro tipo I.

     🔺  Testes conservadores (como Tukey, Dunnett e Scheffé) protegem melhor contra erros, mas podem deixar de detectar diferenças reais.

    🔺  Em poucas comparações, a diferença entre os erros é pequena.

  🔺 Em muitas comparações, o controle do erro por experimento é essencial.

   



2 comments:

Yasmin Noris said...

Boa noite professora.
Eu estou procurando esse livro a muito tempo e nao o encontro para compra.
A Sra. pode me informar aonde ainda posso encontra-lo
Fico no aguardo

Muito Obrigada!

Sonia Vieira said...

Análise de variância (ANOVA) está esgotado e a editora não pretende fazer nova edição, por conta das poucas vendas (crise?). Talvez seja encontrado na forma de e-book.