Sunday, January 22, 2017

Como Comparar Médias de Grupos de Tamanhos Diferentes? Use Tukey-Kramer!"

    

Resumo

Quando a ANOVA indica diferenças significativas entre grupos, o passo seguinte é descobrir quais grupos realmente diferem entre si. Se os grupos têm tamanhos desiguais, o teste de Tukey-Kramer é uma escolha confiável e robusta. Neste post, explicamos como aplicar esse teste passo a passo, com exemplo real e interpretação dos resultados.

Quando o pesquisador obtém um resultado significativo na ANOVA (Análise de Variância) e seu experimento envolve três ou mais grupos, surge a necessidade de realizar testes pós-hoc para comparar médias e identificar quais grupos diferem, em média, entre si.

Há diversos testes disponíveis para esse fim, alguns dos quais já discutimos em postagens anteriores. Neste texto, vamos abordar o teste de Tukey-Kramer, recomendado para as situações em que os grupos têm tamanhos desiguais. Nesses casos, é necessário ajustar o procedimento, substituindo o tamanho comum dos grupos (r) pelos tamanhos individuais ri e rj dos grupos em comparação.

Para aplicar o teste de Tukey-Kramer, é preciso pressupor que as populações possuem variâncias homogêneas. Assim, o quadrado médio do resíduo (QMR), obtido na ANOVA, serve como estimativa da variância comum da variável.

A diferença mínima significativa entre as médias de dois grupos de tamanhos ri e rj, denotada por di, é calculada pela fórmula:

                   

Onde:

·    q(k,gl,α) é o valor da amplitude estudentizada, obtido na tabela de valores críticos da distribuição q;

·  k é o número de grupos;

·  gl é o número de graus de liberdade do resíduo na ANOVA;

·  QMR é o quadrado médio do resíduo;

·  α é o nível de significância (por exemplo, 5%).

                                           Exemplo

A Tabela 1 apresenta os dados de um experimento com quatro grupos (quatro marcas de chá verde). As médias de cada grupo estão indicadas ao final da tabela. O objetivo é comparar essas médias utilizando o teste de Tukey-Kramer. Para isso, é necessário realizar, primeiramente, uma ANOVA, que está apresentada na Tabela 2.

Em seguida, realizam-se as comparações par a par das médias das marcas. Para aplicar o teste, utilizou-se o valor de q para nível de significância de 5%, com k=4 grupos e n−k=24−4=20 graus de liberdade do resíduo.

Tabela 1

Conteúdo de ácido fólico (vitamina B) em folhas de chá verde selecionadas aleatoriamente de quatro marcas (1)



Tabela 2

Análise de variância dos dados da Tabela 1


Por exemplo:

·  Para comparar a média da marca 1 com a da marca 2, com α=5%, é preciso calcular:

                  

·  Para comparar a média da marca 1 com a média da marca 3, com α=5%, procede-se de maneira análoga.

O mesmo procedimento é repetido para as demais combinações de marcas. A Tabela 3 apresenta as diferenças observadas entre as médias, bem como os respectivos valores de dij. Quando a diferença absoluta entre duas médias for maior que dij, rejeita-se a hipótese de igualdade entre essas médias.

Tabela 3

Comparação de médias pelo teste de Tukey-Kramer

Interpretação

A interpretação dos resultados da Tabela 3 indica, por exemplo, que a marca 1 apresenta, em média, maior teor de ácido fólico do que a marca 4, com diferença estatisticamente significante.

Aproximação com média harmônica

O cálculo de todas as diferenças mínimas significantes pelo teste de Tukey-Kramer pode ser trabalhoso, especialmente quando feito manualmente. Com o auxílio de softwares estatísticos, esse processo é automatizado, mas nem sempre foi assim. Em situações em que os tamanhos dos grupos são aproximadamente iguais, é possível adotar uma simplificação: utilizar a fórmula tradicional do teste de Tukey substituindo r pela média harmônica dos tamanhos amostrais, denotada por H. A fórmula fica:     

                            

Essa abordagem é uma aproximação, e o controle do nível de significância pode não ser exato. Mas você pode encontrar esse procedimento em trabalhos mais antigos.

Com os dados da Tabela 1, onde os tamanhos dos grupos são 7, 5, 6 e 6, a média harmônica H é calculada por:

                 

Então

                              

Substituindo esse valor na fórmula, obtém-se o valor de d a ser usado para todas as comparações. Neste exemplo, a interpretação dos resultados permanece coerente com a análise completa.

Veja a Tabela de amplitude estudentizada em

        table of the studentized range - David Lane                                                                    http://davidmlane.com/hyperstat/sr_table.html
         Veja também
         Multiple Comparisons With Unequal Sample Sizes                                                    https://www.uvm.edu/~dhowell/gradstat/.../labs/.../Multcomp.html
         ANOVA & Tukey-Kramer test. https://www.youtube.com/watch?   

     Chen, TS; Lui, CK; Smith, CH. Journal of the American Dietetic Association [1983,82(6):627-632]                  Apud Devore, JL. Probability and Statistics for engineering and the sciences. Brooks Cole                           2015.On line books.               

Thursday, January 12, 2017

ANOVA: erros são variáveis aleatórias independentes

    
Para fazer uma análise de variância, é preciso pressupor que os erros são variáveis aleatórias independentes. Em geral,  a independência é determinada apenas pela maneira como os dados são coletados 1.

    Por exemplo, se você observa cobaias da mesma gaiola ou  pessoas residentes na mesma casa, não pode considerar que os erros das observações são independentes. Outro exemplo: se você obtém durante diversas semanas medidas na mesma pessoa para estudar o efeito de uma droga terapêutica ao longo do tempo – também não pode considerar que os erros das medidas são independentes. 

   Qualquer medida obtida em uma unidade em determinado instante (yi+1) está, necessariamente, correlacionada com a medida feita anteriormente nessa mesma unidade (yi). Medidas feitas em unidades agrupadas também estão, muito frequentemente, correlacionadas. É o que se chama  correlação serial.

  Quando os erros são dependentes porque foram tomadas observações na mesma unidade ou em unidades agrupadas, o resultado da análise de variância fica comprometido 2

 Portanto, diante de qualquer suspeita de não independência dos erros – é essencial proceder à análise dos resíduos.  Desenha-se um gráfico dos resíduos padronizados contra a ordem (no tempo ou no espaço) em que as observações foram coletadas.  Se a pressuposição de independência estiver satisfeita, os resíduos padronizados devem ficar dispersos em torno de zero (sem um padrão definido).

EXEMPLO

     Veja a Tabela 1 onde, além dos dados, está a ordem em que eles foram tomados. As médias de grupos estão no rodapé da tabela e a análise de variância está na Tabela 2. O quadrado médio do resíduo é 7,00. Os resíduos padronizados são obtidos pela fórmula: 

Tabela 1 - Exemplo de independência

        

                   Tabela 2 - Análise de variância (ANOVA)


   Os resíduos padronizados dos dados apresentados na Tabela 1 estão na Tabela 3. Verifique que são os valores apresentados no diagrama de dispersão da Figura 1. 

             Tabela 3 - Resíduos padronizados

             Figura 1 - Exemplo de independência dos erros 




                                                EXEMPLO


Se os resíduos tiverem clara correlação com a ordem de tomada dos dados como é o caso do exemplo apresentado na Figura 2, não se pode pressupor independência.

Figura 2 - Exemplo de não-independência

    A análise de resíduos é extremamente útil, mas é gráfica. Isto significa que não se pode associar um nível de probabilidade à conclusão de que os erros não são independentes. Mas a pressuposição de independência pode ser transformada em hipótese e essa hipótese pode ser colocada em teste. Quando existe forte suspeita de não independência (de que, por exemplo, um aumento dos valores está correlacionado com a ordem em as observações foram feitas), pode-se aplicar um teste estatístico como, por exemplo, o teste de Durbin Watson.

                         
            Referências:

             1.    SCHEFFÉ, H. The analysis of variance. New York :
                   Wiley, 1959.
              2.  Does your data violate one –way ANOVA assumptions?

                          https://quality-control-plan.com/StatGuide/oneway_anova_ass_viol.htm



     












Sunday, January 08, 2017

Resíduos padronizados e outliers

Dado discrepante (outlier) é o valor muito diferente dos demais valores em uma amostra aleatória da população. Em outras palavras, dado discrepante (outlier) é o valor que não se encaixa no padrão geral dos valores dos dados coletados.
Que critério você pode utilizar para dizer que um valor é “muito diferente” dos demais? Um critério conveniente – pois nem necessita de teste estatístico – é considerar discrepante (outlier) o ponto que cai acima do terceiro quartil, ou abaixo do primeiro quartil mais de 1,5 vezes a distância interquartílica.

Como exemplo, veja o conjunto de números da Tabela 1. Usando o Excel você obtém a mediana 3, primeiro quartil igual a 2 e terceiro quartil igual a 5. A distância interquartílica é 5 - 2 = 3. Usando o critério apresentado, números maiores do que 5 + 1,5 x 3 = 9,5, ou menores do que 2 - 1,5 x 3 = -2,5 são discrepantes. Por esse critério, 12 é discrepante.
Tabela 1 – Um conjunto de números
Quando tratamos dados coletados de uma população, a presença de outlier geralmente indica algum tipo de problema. Mas não se pode descartar um valor discrepante com uma desculpa qualquer: é preciso discutir a causa da discrepância: pode ser informação coletada de um caso que não se encaixa no modelo em estudo, ou seja, de um caso de outra população, mas também pode ser um erro de medição ou de digitação, que podem ser corrigidos.

De qualquer forma, para fazer uma ANOVA com um critério de classificação é melhor que não haja outliers, pois eles tendem a aumentar a estimativa da variância da amostra. A estatística F calculada para a ANOVA fica, portanto, menor, o que significa menor probabilidade de rejeitar a hipótese de nulidade.

É preciso analisar a presença de outliers, antes de proceder à ANOVA. Os erros são desconhecidos, mas temos suas estimativas, os resíduos. A análise gráfica dos resíduos por meio de um boxplot (e seus quartis, máximos e mínimos) é uma opção, como descrevemos acima. Também pode ser feito um histograma, como o mostrado na Figura 1, com os resíduos padronizados. Espera-se que 68% dos resíduos padronizados caiam no intervalo -1 e +1 e 95% caiam no intervalo -2 e +2. Valores fora do intervalo -3 e +3 são suspeitos. Todo valor suspeito deve ser discutido e, se houver erros – de registro ou de medida – eles devem ser corrigidos, quando possível.
                                                           Figura 1

Mas o que são desvios padronizados (standardized residuals)? Para obter os resíduos padronizados, dividem-se os resíduos (ei) pela raiz quadrada do quadrado médio do resíduo (QMR) da análise de variância. Os resíduos padronizados, que indicaremos por zi, são, portanto, obtidos pela fórmula:
Veja como exemplo os dados de um ensaio fictício apresentados na Tabela 2 e as respectivas estimativas das médias m1, m2, m3 e m4 no rodapé dessa tabela.

Tabela 2 – Valores obtidos em um ensaio

A Tabela 3 apresenta a análise de variância desses dados. A raiz quadrada do quadrado médio do resíduo, que é QMR = 7,00 é 2,6458.
                   Tabela 3 – Análise de variância dos dados da Tabela 2
Para o grupo A, a média (veja a Tabela 2) é 23. Então o resíduo para a primeira observação do grupo A, que é 25  é:
                                           25 – 23 = 2
e o resíduo padronizado é
Os demais resíduos padronizados estão apresentados na Tabela 4 e na Figura 2.
           Tabela 4 -  Resíduos padronizados dos dados apresentados na Tabela 2

 

Figura 2

Grupo
O gráfico de resíduos padronizados apresentado na Figura 2 não exibe valor discrepante. Quando ocorre um outlier, é preciso verificar se esse valor não está errado. Se o pesquisador – avisado da suspeita – não constatar que houve erro de medida ou de registro do dado, deve considerar a possibilidade de comportamento errático do grupo ou do tratamento dado a esse grupo. Seria possível um efeito paradoxal desse tratamento?
Se ocorrerem vários resíduos muito grandes, convém verificar se eles não estão associados a um grupo em particular. Se isso ocorrer, ou os dados relativos a esse grupo estão errados ou a variância desse grupo é maior que a dos demais. Cabe, então, uma discussão. Em geral, o pesquisador espera mudança do valor  a média (para maior ou menor) de um grupo para outro, mas não espera aumento de variância.
De qualquer forma, é o pesquisador – e não o analista – quem deve decidir se inclui ou descarta dados discrepantes da análise de variância. Para tomar esta decisão, recomendam-se duas análises: uma com os dados discrepantes, outra sem eles. Se as duas análises chegarem às mesmas as conclusões, é razoável manter o dado discrepante. Se as análises chegarem a conclusões diferentes, convém avaliar bem a situação: pode ser adotado outro procedimento para a análise dos dados,  como um teste não paramétrico. Mas também pode ser uma oportunidade  de o pesquisador rever suas hipóteses e seus objetivos.

******************************************************************
Fórmulas de cálculo

                  Graus de liberdade
de tratamentos: 4 -1= 3 
do total: 20 -1 = 19 
do resíduo: 19 - 3 = 16 

                   

Monday, January 02, 2017

Meus dados são normais?


É comum as pessoas confundirem erros com resíduos. Mas erro (error) significa a diferença de um dado valor da variável com um parâmetro muitas vezes “teórico”, enquanto resíduo (residual) significa a diferença de um valor observado da variável e uma estatística (uma estimativa do parâmetro) obtida da amostra. Numa análise de variância com um critério de classificação, erros e resíduos são dados, respectivamente, por


 Ninguém conhece os erros eij porque os parâmetros, ou seja, as médias verdadeiras mi dos grupos são desconhecidas. No entanto, o pesquisador faz um ensaio exatamente para obter as estimativas dessas médias. Veja como exemplo os dados de um ensaio fictício, apresentados na Tabela 1. As estimativas das médias m1, m2, m3 e m4 estão no rodapé dessa tabela.

Tabela 1 - Valores obtidos em um ensaio


Podemos estimar os erros fazendo a diferença entre cada dado e a média (estimada) do grupo ao qual esse dado pertence. São os resíduos, apresentados na Tabela 2.

Tabela 2 - Resíduos (dados na Tabela 1)


O estudo das estimativas dos erros, ou seja, dos resíduos (residuals) é referido na literatura como análise de resíduos. Essa análise ajuda verificar se as pressuposições exigidas para proceder à análise de variância são plausíveis. Vamos discutir então a questão dos resíduos, dada à pressuposição de que, para proceder a uma ANOVA, os erros devem ter distribuição normal ou aproximadamente normal.

O gráfico da distribuição normal ou – como preferem os físicos, da curva de Gauss  tem aspecto típico: é uma curva em forma de sino, simétrica em torno da média como mostra a Figura 1. Mas como saber se os resíduos têm distribuição normal? Você pode recorrer à avaliação gráfica ou a um teste estatístico.

Figura 1- Distribuição normal

Os testes estatísticos apresentam a vantagem de serem objetivos. Você verifica a aderência (goodness off it) de seus dados à curva normal No entanto, os testes de normalidade são muito sensíveis ao tamanho da amostra 1: se a amostra for pequena, os testes de normalidade têm pouco poder de rejeitar a hipótese de nulidade (de que a distribuição é normal). Isso significa que amostras pequenas passam mais facilmente pelo teste de normalidade. Por outro lado, uma amostra grande terá resultado significante no teste, mesmo que o desvio da normalidade seja pequeno. No entanto, desvios pequenos da normalidade não afetam os resultados do teste F (na ANOVA, um critério) quando a amostra é grande. Mas é possível fazer testes estatísticos. Há vários, mas os mais comuns são o Shapiro-Wilks e o Kolmogorov-Smirnov. Este último foi aplicado aos dados apresentados na Tabela 1, usando o programa SPSS. O resultado foi não-significante (p-valor = 0,200).

De qualquer forma, é sempre recomendável olhar os dados em gráfico. Usando poucas ferramentas, você pode obter muita informação. E – quando se pensa em não-normalidade – é conveniente lembrar os coeficientes de assimetria e de curtose. A distribuição dos dados pode ser assimétrica, isto é, ter mais unidades de um lado do que do outro. Veja a Figura 2. Também pode ter curtose (é pior para a análise quando a curtose é negativa). Veja a Figura 3. 

     Figura 3- Curtose


Mas que gráficos você pode fazer? Pense primeiro em um histograma. Com os resíduos apresentados na Tabela 2, você pode construir o histograma da Figura 3. Tenha ou não experiência, é difícil ver aí uma distribuição normal. Por outro lado, salta aos olhos que a distribuição é simétrica. Lembre-se de que a ANOVA é bastante robusta a violações da normalidade, ou seja, mesmo que esta pressuposição não seja atendida completamente, os resultados ainda assim permanecem válidos. Mais importante é a distribuição dos erros seja simétrica, que é o caso do exemplo 2.

Figura 3 - Histograma
                         
Algumas estatísticas descritivas, como média, mediana, variância, desvio padrão, coeficiente de assimetria e coeficiente de curtose ajudam a entender a distribuição. A média dos resíduos é, evidentemente, zero e a mediana também é zero. O coeficiente de assimetria (no Excel está Distorção) é zero, porque a distribuição é perfeitamente simétrica. A curtose (no Excel está Curt), negativa, significa que a distribuição dos resíduos tem cauda mais leve e é mais achatada do que a distribuição normal. Mas o valor é pequeno. Então, nada indica ainda que não possamos aceitar a normalidade dos resíduos.

Tabela 3 – Estatísticas descritivas dos resíduos (dados na Tabela 1)

Você também pode desenhar o gráfico de ramo e folhas, que acaba sendo apenas um histograma colocado em posição horizontal. Mas um boxplot  (diagrama de caixa) é informativo. É um gráfico relativamente simples. Veja na Figura 4 o boxplot feito com os resíduos apresentados na Tabela 2. Você vê a simetria e a ausência de outliers, o que dá segurança para proceder a uma análise de variância. 

                                           Figura 4 - Boxplot

Dois outros gráficos também são muito úteis: P-P plot e Q-Q plot. Um gráfico Q-Q plot ou gráfico dos quartis-quartis (quantile-quantile plot) está apresentado na Figura 5. No eixo das abscissas estão os valores observados dos resíduos e no eixo das ordenadas estão os valores dos resíduos sob a hipótese de que a distribuição deles é normal. Quando os pontos estão sobre uma reta que faz 45º com o eixo das abscissas, a distribuição é normal. Pequenos desvios da normalidade são aceitáveis. Como não se ensina fazer esse gráfico em cursos introdutórios de estatística, será dado o procedimento em outra postagem.
 Figura 5

Referências

1.        Asghar Ghasemi and Saleh Zahedias. Normality Tests for Statistical Analysis: A Guide for Non-Statisticians.  Int J Endocrinol Metab. 2012 Spring; 10(2): 486–489

2.         SCHEFFÉ, H. The analysis of variance. New York : Wiley, 1959.

Veja Também:

*****************************************************************Um pouco mais:
Em um curso de análise de dados, a assimetria é informalmente definida em termos de comprimento da cauda ou da relação média, mediana, moda. Na ilustração clássica da relação entre assimetria, média, mediana e moda, a assimetria é à direita se a média está à direita da mediana e a mediana está à direita da moda. Veja a figura



Esta figura está em
Mean, Median, and Skew: Correcting a Textbook Rule
Paul T. von Hippel
The Ohio State University
Journal of Statistics Education Volume 13, Number 2 (2005),

ww2.amstat.org/publications/jse/v13n2/vonhippel.html

Mas há exceções.
De qualquer modo, a assimetria é definida em termos do 3º momento.

Stela me pergunta: Será que existe uma distribuição de dados em que a média é menor do que a mediana e o 1º momento está mais perto da mediana do que o 3º momento? Confira, por favor.