Sunday, September 04, 2016

Teste das amplitudes múltiplas de Duncan (Duncan's multiple range test)

Uma análise de variância (ANOVA) pode mostrar se existe diferença significante entre grupos, mas não diz quais grupos diferem entre si. É, portanto, um teste global. Então, logo após a ANOVA, é preciso comparar as médias.
Métodos usados para achar diferenças entre grupos, depois de um teste global, são chamados  a posteriori ou post hoc (post hoc comparisons). Existem diversos testes para a comparação de médias. Muito conhecidos dos pesquisadores e usuais nos pacotes de estatística são o teste de Tukey, já tratado em postagem anterior e o teste de Duncan, tratado aqui.
O teste de Duncan, referido na literatura em língua inglesa como teste de amplitudes múltiplas de Duncan (Duncan’s multiple range test) e – por conta disso – indicado por MRT, é um teste que se aplica após a análise de variância (ANOVA) para identificar os pares de médias (de pelo menos três) que difiram estatisticamente. É um teste trabalhoso porque exige o cálculo de diversas amplitudes (diferenças) mínimas significantes.
Vamos mostrar como se faz o teste de Duncan usando um exemplo. Considere os dados (fictícios) de diminuição da pressão arterial apresentados na Tabela 1. Esses dados foram submetidos à análise de variância apresentada na Tabela 2. Como o valor de F é significante ao nível de 5%, existe pelo menos uma média diferente das demais. As médias amostrais calculadas estão na Tabela 3.

                      Tabela 1 - Diminuição da pressão arterial,
                    em milímetros de mercúrio, segundo o grupo

 Tabela 2 - Análise de variância

Tabelas 3 - Médias de diminuição da pressão arterial, em milímetros
de mercúrio, segundo o grupo

Quais são as médias estatisticamente diferentes?  A pergunta pode ser respondida com a aplicação do teste de Duncan. Vamos entender, então, a racional do teste que, diferentemente do teste de Tukey, não compara médias duas a duas.

O teste de Duncan compara a amplitude de um conjunto de médias amostrais com uma amplitude mínima significante calculada. Se a amplitude das médias do conjunto exceder a amplitude mínima significante calculada, as médias da população são declaradas significantemente diferentes.

É importante notar que o teste de Duncan é sequencial porque procura, primeiramente, a significância do conjunto de médias amostrais com maior amplitude e, sequencialmente, a significância dos conjuntos de menor amplitude. Quando uma amplitude encontrada não for significante, não são feitos mais testes. Vamos entender isso por meio do exemplo.

Para proceder ao teste de Duncan, é preciso escrever as médias de grupos em ordem decrescente (ou crescente), como mostra a Tabela 4. 

 Tabelas 4 - Médias de diminuição da pressão arterial, em milímetros de mercúrio, na ordem decrescente, segundo o grupo

A amplitude mínima significante, Rm, para comparar médias que abrangem m medias da lista ordenada das  k médias em comparação é dada por

Nessa fórmula:
rm  é o valor da amplitude mínima estudentizada significante (least significant studentized range) ao  nível de significância a, encontrado em tabelas;  depende do número m de médias abrangidas na amplitude em comparação e do número de graus de liberdade do quadrado médio do resíduo da ANOVA;
QMR é o quadrado médio do resíduo da ANOVA;
r é o número de repetições em cada grupo.

A lista ordenada de k = 6 médias do nosso exemplo está na Tabela 4. Vamos calcular Rm para comparar a maior média amostral, que é a média do grupo D, com a menor, ou seja, a do controle. Já sabemos, da Tabela 2, que QMR = 36,00 e, da Tabela 1, que r = 5.

O valor de rm é obtido em uma tabela de valores críticos para o teste de Duncan, ou amplitude estudentizada significante mínima (least significant studentized range). O número de médias abrangidas no intervalo de médias, nessa primeira comparação, é m=6. o número de graus de liberdade do quadrado médio do resíduo da ANOVA (veja Tabela 2) é 24. Ao nível de significância de 5%, rm =3,276, como mostrado na Tabela 5

Talvez você se pergunte: onde acho essa tabela? A indicação é Harter, H. L. Critical values for Duncan´s new multiple range test. Biometrics (16):671-685,1960. Você encontra em Least Signficant Studentized Ranges For Duncan's Test - Springer
link.springer.com/chapter/10.1007%2F978-1-4613-9629-1_13.

Tabela 5 - Amplitude estudentizada mínima significante
 (nível de significância de 5%)

Voltemos ao exemplo dado na Tabela 1. A amplitude estudentizada mínima significante para um intervalo que abrange 6 médias é dada por:

Reveja as médias amostrais dadas na Tabela 4. A amplitude das médias amostrais dos grupos D e controle, isto é, 29-2=27, é maior do que a amplitude estudentizada mínima significante (27 > 8,79). Conclui-se que a o grupo D está associado a valores significantemente maiores do que o controle (a=0,05).

Para conjuntos com 5 médias, a amplitude estudentizada mínima significante é dada por:
Podem ser comparados os grupos D e B, A e controle.As amplitudes observadas são
                                      D e B:  29-8=21
                                      A e controle: 21-2=19.
Como as amplitudes observadas são maiores que R5, concluímos pela significância ao nível de 5%.

Para conjuntos com 4 médias, a amplitude estudentizada mínima significante é dada por:
Podem ser comparados os grupos D e C, A e B, E e controle.

                                   D e C: 29-10=19
                                   A e B: 21-8=13
                                   E e controle: 13-2=11.

Todas as comparações revelaram-se significantes ao nível de 5%. Podemos então continuar o teste.

A amplitude estudentizada mínima significante para conjuntos com 3 médias é:

Temos as comparações:
                                D e E: 29-13=16
                                A e C: 21-10=11
                                E e B: 13-8=5
                                C e controle: 10-2=8.
Note que D é significantemente maior que E; A é significantemente maior que C, mas E e B e C e controle não diferem estatisticamente. Então, podemos ainda comparar D com A e A com E.

Para conjuntos com 2 médias:
 
Temos, então, duas comparações, ambas significantes ao nível de 5%.

               D e A: 29-21=8
               A e E: 21-13=8

Podemos agora apresentar ois resultados na forma da saída de programas de computador.

                Tabela 6 – Comparação de médias pelo teste de Duncan 
                           Means that do not share a letter are significantly different.

É importante notar que não podem ser testadas diferenças de médias que estão dentro de um intervalo de médias  que não são estatisticamente diferentes.É comum apresentar as médias de grupos em ordem decrescente ou crescente. As médias são sublinhadas. Médias sublinhadas por uma mesma linha não têm diferença significante. Veja o exemplo.


       
Finalmente, quando os grupos são de tamanhos diferentes, substitua r é pela média harmônica dos tamanhos dos grupos.

VEJA :
1.            Montgomery DC. Design and Analysis of Experiments. 4ed. New York: Wiley; 1997.
3.            http://www.ncbi.nlm.nih.gov/pmc/articles/PMC420045/

Tuesday, July 26, 2016

Teste de Dunnett: compara médias de grupos tratados com a média do controle

A análise de variância é aplicada para determinar se existe diferença significante entre as médias de dois ou mais grupos independentes. Exige pressuposições que não serão apresentadas aqui. De qualquer forma, feita a análise de variância, o passo seguinte consiste no exame das médias e das diferenças entre elas. Por exemplo, quando a análise de variância mostra valor de F estatisticamente significante, é apenas lógico perguntar o que é diferente do quê.
Considere um experimento para comparar três grupos, A, B e C. Imagine que foram obtidas as médias 70, 90 e 100, respectivamente. Se o teste F mostrar que as médias de grupos são significantemente diferentes ao nível de 5%, o pesquisador irá perguntar onde está a diferença:
·         a média de A é diferente da média de B?
·         a média de A é diferente da média de C?
·         a média de B é diferente da média de C?
Para responder a estas perguntas, é preciso um teste para a comparação de médias. Foram propostos diversos testes que, em geral, levam o nome de seus autores. Mas todos os procedimentos para a comparação de médias têm vantagens e desvantagens.
Convém até lembrar que estatísticos teóricos consideram que os testes para comparação de médias devem ser vistos mais como indicadores da realidade do que como soluções exatas. Algumas revistas como o British Medical Journal não aceitam resultados de testes de médias: querem a exposição dos intervalos de confiança que, aliás, são fornecidos nos outputs de programas de computador. Mas ainda é mais comum buscar a “significância” dos resultados – ou seja, buscar um teste para a comparação de médias.
Um pesquisador pode decidir, antes de analisar seus dados, que só compara as médias se o valor de F for significante a determinado nível. Nesse caso, diz-se que o método usado para a comparação de médias é protegido. O pesquisador também pode decidir que compara as médias, qualquer que seja o resultado do teste F. Nesse caso, diz-se que o método usado para a comparação de médias é não-protegido. O recomendado é usar o método protegido.
Os testes para comparação de médias podem ser divididos em grandes grupos:

  1.  para comparação de médias, duas a duas (pairwise comparisons);
  2.  para comparação das médias de grupos tratados com o controle (comparisons with control);
  3.  para comparações múltiplas (multiple comparisons).
Em postagem anterior foi mostrado o teste de Tukey que é, provavelmente, o mais conhecido teste para comparação de médias duas a duas. Em futuras postagens serão apresentados outros testes. Está aqui o teste de Dunnett, menos usado porque é indicado para comparar grupos tratados apenas com o controle.
Para entender como se faz a comparação de médias de grupos tratados com o controle, imagine um ensaio clínico para comparar o efeito de cinco drogas na diminuição da pressão arterial. Para fazer esse ensaio, um médico convidou 30 pacientes, que decidiram participar. Dividiu então os participantes ao acaso em seis grupos, de cinco participantes cada um. O primeiro grupo recebeu placebo para servir de controle. Cada um dos outros cinco grupos recebeu uma das cinco drogas em teste. 
 A Tabela 1 apresenta a diminuição da pressão arterial no período do ensaio, isto é, a diferença entre a pressão arterial do início e do final. Esses dados foram submetidos à análise de variância. Os resultados da análise estão na Tabela 2.
Tabela 1. Diminuição da pressão arterial, em milímetros de mercúrio, segundo o tratamento


Tabela 2. Análise de variância 


Considere os dados apresentados na Tabela 1. As médias dos grupos tratados podem ser comparadas com a média do grupo controle, usando o teste de Dunnett. Para isso, primeiro estabeleça o nível de significância. Depois calcule:

Nessa fórmula:

  • d é um valor dado na tabela de valores críticos para o teste de Dunnett, ao nível de significância estabelecido;
  • QMR é o quadrado médio do resíduo da análise de variância;
  • r é o número de repetições.
A Tabela 3 reproduz parte da tabela de valores críticos para o teste de Dunnett, ao nível de significância de 5%. Está em negrito o valor que deve ser utilizado para comparar as médias de cinco grupos tratados com a média do controle com 24 graus de liberdade no resíduo na análise de variância.

 Tabela 3. Valor de d, para o nível de significância de 5%, grupos tratados e graus de liberdade no resíduo.
Para aplicar o teste de Dunnett, é preciso calcular:
As médias dos grupos tratados e as diferenças dessas médias com a média do grupo controle estão na Tabela 4. É fácil verificar que os tratamentos A, D e E apresentam, em média, resultados melhores que os do controle.
Tabela 4. Diferenças de médias dos grupos tratados com o controle


Nota: o asterisco indica significância ao nível de 5%.

Veja a saída do Minitab:
                Critical Values of the Dunnett Test -
              www.stat.ufl.edu/~winner/tables/dunnett-2side.pdf
This table is abridged from C.W. Dunnett, New tables for multiple comparisons with a control,
Biometrics, 1964, 482- 491.
Para 6 grupos, incluindo o controle, 24 graus de liberdade no resíduo, alfa= 5%, d =2,70




Thursday, June 30, 2016

O que significa a palavra paradigma?

Toda discussão sobre História e Filosofia da Ciência perpassa, obrigatoriamente, nos trabalhos de Thomas Samuel Kuhn (1922-1996) que escreveu, entre outros, o livro

Nesse livro Kuhn explica que a prática científica se alterna entre períodos de “ciência normal” baseada em um paradigma e períodos de “revolução científica”, quando ocorre mudança de paradigma. Vamos discutir um pouco o significado desses termos.

Ciência normal significa fazer pesquisa baseada em conquistas científicas consagradas por determinada comunidade de cientistas. Como os cientistas estão comprometidos com a mesma maneira de fazer ciência, compartilham conhecimentos e modos de pensar. Então os pesquisadores aprendem como solucionar problemas em cursos, laboratórios, livros, manuais.

Enigmas e exemplos modelares A busca de solução para problemas, que Kuhn chamou de enigmas (em inglês, puzzles) é feito por meio das técnicas aprendidas nos exemplos modelares. Exemplos modelares (em inglês, exemplars) são as teorias que ditam as maneiras de pesquisar e dão as diretrizes para o trabalho científico.

Paradigma A pesquisa científica é orientada não apenas por teorias, mas por algo mais amplo, o paradigma. O que é paradigma?

Um conjunto de práticas que definem o comportamento dos cientistas durante determinado período de tempo.

Em determinada ciência você tem um paradigma quando sabe:
·  As verdades estabelecidas.
·  O que pode ser observado e examinado.
·  Quais são os tipos de questões que podem ser feitas e      pesquisadas para obter respostas sobre o assunto.
·  Como essas questões devem ser estruturadas.
·  Como os resultados das pesquisas científicas devem ser interpretados.

Kuhn conceituou paradigma em 1970, como

“um conjunto inteiro de crenças, valores, técnicas e tudo o mais que é compartilhado pelos membros de uma dada comunidade”.

Mais adiante Kuhn explicou que

 “paradigmas (são) soluções reais de enigmas que, usadas como modelos ou exemplos, podem ser tratados como se fossem regras explícitas e servir de base para a solução dos demais enigmas da ciência normal”.

A palavra paradigma criou, porém, vida própria. Aliás, Kuhn reconheceu que o conceito de paradigma escapou ao que ele próprio havia, de início, pensado.
Na tradução brasileira, o conceito de paradigma está expresso de maneira inadequada. Diz: “paradigmas são realizações (sic) científicas universalmente reconhecidas que, durante algum tempo, fornecem (sic) problemas e soluções modelares para uma comunidade de praticantes de uma ciência”.

Mudança de paradigma Não se muda de paradigma facilmente. Mudar de paradigma significa “adquirir” novos valores (um esforço) e apagar valores antigos (um esforço maior).

Mudar de paradigma não é mudar a técnica, mudar de texto, mudar de aparelho, como pensam alguns – mas ter uma “nova visão do mundo”, que possa ser compartilhada por toda uma comunidade de cientistas.


De qualquer forma, o sucesso de um paradigma depende do espaço que cria para que ocorram novas descobertas. Se uma conquista científica consegue dar solução para enigmas que não tinham solução satisfatória e for suficientemente original para atrair um grupo de bons cientistas a ponto de fazê-los abandonar o paradigma que conheciam, então você está diante de uma “revolução”.

Revolução científica ocorre quando há mudança de paradigma. A partir dessa mudança, a ciência evolui normalmente por certo tempo, dentro do novo paradigma. Mas é grande a força de um paradigma.

Na maior parte do tempo, a ciência exibe aderência ao paradigma. Os enigmas propostos para os cientistas resolverem estão circunscritos ao paradigma. Isto explicaria porque as revoluções científicas são raras.

Casos anômalos a ciência entra em crise quando é perdida a confiança na capacidade de o paradigma resolver casos discrepantes – os chamados “casos anômalos”.  Abre-se, então, caminho para uma revolução científica e para a construção de um novo paradigma.

Um exemplo de mudança de paradigma

Quando Christian Barnard substituiu o coração de um homem pelo coração de outro, mostrou ao mundo que uma pessoa pode viver com o coração de outra. Exibiu não apenas um resultado – mas rompeu um paradigma – não é preciso morrer quando o coração morre – e, em seu lugar, surgiu outro: órgãos podem ser transplantados.

Quando emerge um novo paradigma, a estrutura de toda a comunidade de cientistas é afetada. A aceitação de um novo paradigma – pelo menos por algum tempo – não se deve apenas aos recursos lógicos ou às evidências, experimentais ou não. A verdade é que cientistas que aderem a paradigmas diferentes têm visões diferentes do mesmo fenômeno (enquanto um vê o Sol girando em torno da Terra, o outro vê a Terra girando em torno do Sol)

Às vezes, chega ser impossível justificar a preferência de um cientista, ou de um grupo de cientistas, por determinado paradigma. Os que defendem o novo paradigma podem fazer propaganda e buscar novos adeptos pela conversão ou, simplesmente, esperar que os mais renitentes morram. Mas sempre haverá um tempo de acomodação. Por outro lado, há quem reconheça uma mudança de imediato.

Um reconhecimento de mudança de paradigma

O dentista Horace Wells (1815-1848) foi, indubitavelmente, quem primeiro usou anestesia em intervenções cirúrgicas. Na época, não foi reconhecida a importância da proposta. Mas – para demonstrar o efeito anestésico do éter sulfúrico – um aluno de Medicina de Harvard pediu ao professor de Cirurgia para anestesiar um paciente que seria submetido a uma amputação da perna no Hospital Geral de Massachussets. Isto foi feito em 1846. O paciente não demonstrou qualquer sinal de dor durante a operação, mas o professor John Warren Collins (1778-1856) se emocionou até as lágrimas. Reconheceu de imediato a mudança de rumo na história da cirurgia.

Mas quando isto acontece – a mudança de um paradigma – muita coisa também muda: a forma de um cientista ver o mundo; os critérios para selecionar os problemas importantes; as técnicas de pesquisa; a maneira de interpretar fenômenos; os critérios para avaliar teorias.

A atividade científica é crítica. Ser crítico implica admitir a probabilidade de erro. Então, dado que é possível que estejamos errados, é preciso procurar evidências para nossos juízos acerca dos fatos. Mais ainda, é preciso saber que o que é considerando evidência hoje pode não ser evidência amanhã. Afinal de contas, estamos circunscritos dentro de um tempo e de um lugar, para dizer o mínimo.



 Referências

1.    Kuhn, T. S. The Structure of scientific revolutions. 3ª ed. The University Chicago Press, 1996.

2.    Kuhn, T S. The Structure of Scientific Revolutions. 2nd ed., University of Chicago Press, Chicago & London, 1970, p.175.

3.    KATZ, J.  Experimentation with human beings. New York: Russel Sage Foundation. 1973.

4.    VIEIRA, S. e HOSSNE, W. S. Experimentação com seres humanos. São Paulo: Moderna, 1986.
  



Wednesday, June 29, 2016

Distribuição de probabilidades

 
intenção é mostrar aqui o que é uma distribuição de probabilidades. Mas antes, vamos rever alguns conhecimentos que você já tem.

1.    Geralmente, os estatísticos usam letra maiúscula para representar a variável aleatória e letra minúscula para representar seus resultados. 

EXEMPLO
·       X é a variável aleatória que representa o número de moradores em uma residência.

·       P (X) representa a probabilidade de ocorrer um valor de X.

·        P (X = x) indica a probabilidade de a variável aleatória X ser igual a um valor x em particular. Logo, P (X = 1) indica a probabilidade de a variável aleatória X assumir o valor x = 1.

1.    Função é a relação de um conjunto de inputs com um conjunto de possíveis outputs, sendo cada input relacionado a exatamente um output.
2.    Domínio da função é o conjunto de inputs.
3.    Codomínio da função é o conjunto de outputs.

EXEMPLO
É dada a função f(X) = 2 X. O domínio da função é o conjunto de inteiros 1; 2 ; 3. Logo, o codomínio será 2; 4; 6. Veja abaixo.
                

A variável discreta é contável em determinado período de tempo. Não pode assumir qualquer valor em dado intervalo.

EXEMPLOS
Número de carros em um estacionamento; número de moedas que você tem no bolso; número de alunos na sala de aula; número de ovos em uma cesta; número de dias úteis na semana; número de chamadas telefônicas em um escritório.

Função de probabilidade é a função de uma variável aleatória discreta que fornece a probabilidade de ocorrer qualquer um dos valores que estão no domínio dessa variável. É indicada por P. A função de probabilidade tem as seguintes propriedades:

1.    A probabilidade de ocorrer qualquer um dos valores possíveis de X é maior do que zero.

P(X =x) ≥ 0

2.    A soma das probabilidades de ocorrência de todos os valores possíveis de X é, obrigatoriamente, igual a 1. 
    
                                                      para = 1; 2; ...;n


Distribuição de probabilidades é uma equação ou uma tabela que relaciona cada resultado possível de uma variável aleatória discreta com sua probabilidade de ocorrência.

EXEMPLO
Seja X o número de caras que podem ocorrer quando se joga uma moeda duas vezes.  Veja o diagrama de árvore abaixo. A função de probabilidade é dada por 

A mais simples distribuição de probabilidades é a chamada distribuição uniforme – em que todos os resultados possíveis ocorrem com a mesma probabilidade, isto é,


EXEMPLO
Seja X o resultado que pode ocorrer quando se joga um dado bem balanceado.  A distribuição de probabilidades é 

     para x =1; 2; 3; 4; 5; 6.

É importante saber que variável aleatória não significa variável que pode assumir qualquer valor (um número aleatório). Significa variável que tem um conjunto de resultados possíveis e cada resultado tem determinada probabilidade de acontecer. A palavra “aleatória” indica apenas que os resultados se sucedem ao acaso – sem que você saiba qual resultado irá ocorrer. 

VEJA TAMBÉM: