Thursday, June 30, 2016

Paradigma

Toda discussão sobre História e Filosofia da Ciência perpassa, obrigatoriamente, nos trabalhos de Thomas Samuel Kuhn (1922-1996) que escreveu, entre outros, o livro


Nesse livro Kuhn explica que a prática científica se alterna entre períodos de “ciência normal” baseada em um paradigma e períodos de “revolução científica”, quando ocorre mudança de paradigma. Vamos discutir um pouco o significado desses termos.

Ciência normal significa fazer pesquisa baseada em conquistas científicas consagradas por determinada comunidade de cientistas. Como os cientistas estão comprometidos com a mesma maneira de fazer ciência, compartilham conhecimentos e modos de pensar. Então os pesquisadores aprendem como solucionar problemas em cursos, laboratórios, livros, manuais.

Enigmas e exemplos modelares A busca de solução para problemas, que Kuhn chamou de enigmas (em inglês, puzzles) é feito por meio das técnicas aprendidas nos exemplos modelares. Exemplos modelares (em inglês, exemplars) são as teorias que ditam as maneiras de pesquisar e dão as diretrizes para o trabalho científico.

Paradigma A pesquisa científica é orientada não apenas por teorias, mas por algo mais amplo, o paradigma. O que é paradigma?

Um conjunto de práticas que definem o comportamento dos cientistas durante determinado período de tempo.

Em determinada ciência você tem um paradigma quando sabe:
·  As verdades estabelecidas.
·  O que pode ser observado e examinado.
·  Quais são os tipos de questões que podem ser feitas e      pesquisadas para obter respostas sobre o assunto.
·  Como essas questões devem ser estruturadas.
·  Como os resultados das pesquisas científicas devem ser interpretados.

Kuhn conceituou paradigma em 1970, como

“um conjunto inteiro de crenças, valores, técnicas e tudo o mais que é compartilhado pelos membros de uma dada comunidade”.

Mais adiante Kuhn explicou que

 “paradigmas (são) soluções reais de enigmas que, usadas como modelos ou exemplos, podem ser tratados como se fossem regras explícitas e servir de base para a solução dos demais enigmas da ciência normal”.

A palavra paradigma criou, porém, vida própria. Aliás, Kuhn reconheceu que o conceito de paradigma escapou ao que ele próprio havia, de início, pensado.
Na tradução brasileira, o conceito de paradigma está expresso de maneira inadequada. Diz: “paradigmas são realizações (sic) científicas universalmente reconhecidas que, durante algum tempo, fornecem (sic) problemas e soluções modelares para uma comunidade de praticantes de uma ciência”.

Mudança de paradigma Não se muda de paradigma facilmente. Mudar de paradigma significa “adquirir” novos valores (um esforço) e apagar valores antigos (um esforço maior).

Mudar de paradigma não é mudar a técnica, mudar de texto, mudar de aparelho, como pensam alguns – mas ter uma “nova visão do mundo”, que possa ser compartilhada por toda uma comunidade de cientistas.


De qualquer forma, o sucesso de um paradigma depende do espaço que cria para que ocorram novas descobertas. Se uma conquista científica consegue dar solução para enigmas que não tinham solução satisfatória e for suficientemente original para atrair um grupo de bons cientistas a ponto de fazê-los abandonar o paradigma que conheciam, então você está diante de uma “revolução”.

Revolução científica ocorre quando há mudança de paradigma. A partir dessa mudança, a ciência evolui normalmente por certo tempo, dentro do novo paradigma. Mas é grande a força de um paradigma.

Na maior parte do tempo, a ciência exibe aderência ao paradigma. Os enigmas propostos para os cientistas resolverem estão circunscritos ao paradigma. Isto explicaria porque as revoluções científicas são raras.

Casos anômalos a ciência entra em crise quando é perdida a confiança na capacidade de o paradigma resolver casos discrepantes – os chamados “casos anômalos”.  Abre-se, então, caminho para uma revolução científica e para a construção de um novo paradigma.

Um exemplo de mudança de paradigma

Quando Christian Barnard substituiu o coração de um homem pelo coração de outro, mostrou ao mundo que uma pessoa pode viver com o coração de outra. Exibiu não apenas um resultado – mas rompeu um paradigma – não é preciso morrer quando o coração morre – e, em seu lugar, surgiu outro: órgãos podem ser transplantados.

Quando emerge um novo paradigma, a estrutura de toda a comunidade de cientistas é afetada. A aceitação de um novo paradigma – pelo menos por algum tempo – não se deve apenas aos recursos lógicos ou às evidências, experimentais ou não. A verdade é que cientistas que aderem a paradigmas diferentes têm visões diferentes do mesmo fenômeno (enquanto um vê o Sol girando em torno da Terra, o outro vê a Terra girando em torno do Sol)

Às vezes, chega ser impossível justificar a preferência de um cientista, ou de um grupo de cientistas, por determinado paradigma. Os que defendem o novo paradigma podem fazer propaganda e buscar novos adeptos pela conversão ou, simplesmente, esperar que os mais renitentes morram. Mas sempre haverá um tempo de acomodação. Por outro lado, há quem reconheça uma mudança de imediato.

Um reconhecimento de mudança de paradigma

O dentista Horace Wells (1815-1848) foi, indubitavelmente, quem primeiro usou anestesia em intervenções cirúrgicas. Na época, não foi reconhecida a importância da proposta. Mas – para demonstrar o efeito anestésico do éter sulfúrico – um aluno de Medicina de Harvard pediu ao professor de Cirurgia para anestesiar um paciente que seria submetido a uma amputação da perna no Hospital Geral de Massachussets. Isto foi feito em 1846. O paciente não demonstrou qualquer sinal de dor durante a operação, mas o professor John Warren Collins (1778-1856) se emocionou até as lágrimas. Reconheceu de imediato a mudança de rumo na história da cirurgia.

Mas quando isto acontece – a mudança de um paradigma – muita coisa também muda: a forma de um cientista ver o mundo; os critérios para selecionar os problemas importantes; as técnicas de pesquisa; a maneira de interpretar fenômenos; os critérios para avaliar teorias.

A atividade científica é crítica. Ser crítico implica admitir a probabilidade de erro. Então, dado que é possível que estejamos errados, é preciso procurar evidências para nossos juízos acerca dos fatos. Mais ainda, é preciso saber que o que é considerando evidência hoje pode não ser evidência amanhã. Afinal de contas, estamos circunscritos dentro de um tempo e de um lugar, para dizer o mínimo.



 Referências

1.    Kuhn, T. S. The Structure of scientific revolutions. 3ª ed. The University Chicago Press, 1996.

2.    Kuhn, T S. The Structure of Scientific Revolutions. 2nd ed., University of Chicago Press, Chicago & London, 1970, p.175.

3.    KATZ, J.  Experimentation with human beings. New York: Russel Sage Foundation. 1973.

4.    VIEIRA, S. e HOSSNE, W. S. Experimentação com seres humanos. São Paulo: Moderna, 1986.
  



Wednesday, June 29, 2016

Distribuição de probabilidades


Absorver o conceito de aleatoriedade é muito mais importante do que absorver o conceito de causa e efeito. Mas como você sabe que é o acaso que determina o resultado do jogo de uma moeda, você tem consciência do que é casual ou aleatório.

A variável aleatória quando o acaso tem influência em seus valores.

Função é uma relação matemática que associa cada elemento de um conjunto chamado domínio a um elemento de outro conjunto chamado codomínio (ou contradomínio): 

                                              f:AB

                       em que:

·  A: é o domínio da função.

·  B: é o codomínio da função.

·  Para cada x  Ax, a função f associa um único y  By

EXEMPLO

É dada a função f(X) = 2 X. O domínio da função é o conjunto de inteiros 1; 2; 3. Logo, o codomínio será 2; 4; 6. Veja abaixo.

A variável discreta é contável em determinado período de tempo. Não pode assumir qualquer valor em dado intervalo.

                                                       EXEMPLOS

Número de carros em um estacionamento; número de moedas que você tem no bolso; número de alunos na sala de aula; número de ovos em uma cesta; número de dias úteis na semana; número de chamadas telefônicas em um escritório. 

A variável discreta é contável em determinado período de tempo. Não pode assumir qualquer valor em dado intervalo.                                          

Função de probabilidade é a função de uma variável aleatória discreta que fornece a probabilidade de ocorrer qualquer um dos valores que estão no domínio dessa variável. É indicada por P. A função de probabilidade tem as seguintes propriedades:

1.    A probabilidade de ocorrer qualquer um dos valores possíveis de X é maior do que zero.

                               P (X =x) ≥ 0

 2.    A soma das probabilidades de ocorrência de todos os valores possíveis de X é, obrigatoriamente, igual a 1. 

                             

Distribuição de probabilidades é uma equação ou uma tabela que relaciona cada resultado possível de uma variável aleatória discreta com sua probabilidade de ocorrência.

                                                   EXEMPLO

Seja X o número de caras que podem ocorrer quando se joga uma moeda duas vezes.  Veja o diagrama de árvore e a função de probabilidade  por abaixo. 

                                                                   



A mais simples distribuição de probabilidades é a chamada distribuição uniforme – em que todos os resultados possíveis ocorrem com a mesma probabilidade, isto é,

EXEMPLO

Seja X o resultado que pode ocorrer quando se joga um dado bem balanceado.  A distribuição de probabilidades para x = 1; 2; 3; 4; 5; 6 é 

                                          

É importante saber que variável aleatória não significa variável que pode assumir qualquer valor (um número aleatório). Significa variável que tem um conjunto de resultados possíveis e cada resultado tem determinada probabilidade de acontecer. A palavra “aleatória” indica apenas que os resultados se sucedem ao acaso – sem que você saiba qual resultado irá ocorrer. 

EXEMPLO

Seja X o resultado que pode ocorrer quando se joga um dado bem balanceado.  A distribuição de probabilidades é 

 

         VEJA TAMBÉM:





Thursday, June 23, 2016

Distribuição normal (para não-matemáticos)

Uma variável aleatória contínua pode assumir qualquer valor entre seu máximo e seu mínimo. Uma função de densidade de probabilidades ou função de densidade descreve a distribuição de probabilidades de uma variável aleatória contínua. Tem as seguintes propriedades:

 

1.   O gráfico da função de densidade é contínuo considerado todo o domínio da variável, uma vez que a variável aleatória é contínua.

2.  A área delimitada pela curva da função de densidade e o eixo das abscissas, considerado todo o domínio da variável, é igual a 1.

3.    A probabilidade de a variável aleatória contínua assumir valor entre a e b é igual à área delimitada por a e b sob a função de densidade.

 

EXEMPLO

 

       Seja X uma variável aleatória contínua. Qual é a probabilidade de assumir valor entre b, dado que a função de densidade de probabilidade é 

A função de densidade de probabilidade, com a área pedida, pode ser apresentada graficamente como mostra a figura abaixo.




As características da distribuição normal são conhecidas. 


·     A área total sob a curva é 1.

·     A média, a mediana e a moda coincidem e estão no centro da distribuição.

·     A curva é simétrica em torno da média. Logo, 50% dos valores são iguais ou maiores do que a média e 50% dos valores são iguais ou menores do que a média.


O gráfico tem aspecto típico, como pode ser visto abaixo. 

 

Gráfico da distribuição normal

 

     A distribuição normal fica definida quando são dados dois parâmetros: a média, que se representa pela letra grega (lê-se mi) e o desvio padrão, que se representa pela letra grega s (lê-se sigma). Então, não existe “uma” distribuição normal porque, quando mudam a média e o desvio padrão da variável que estamos estudando, muda o aspecto do gráfico. Veja a figura:


 Gráfico de três distribuições normais

 

função de densidade é

                                                                                                       -∞ ≤ x ≤ ∞

Como a intenção, aqui, é tratar a estatística sem muita matemática, não se preocupe com a “fórmula”, porque vamos explicar a distribuição normal de maneira intuitiva. Como se chegou a essa distribuição? A equação já era conhecida, mas foi Gauss, o grande matemático e astrônomo do século XIX, quem usou a distribuição normal para estudar erros de medida. Os astrônomos passaram então a usar a “lei dos erros” para estudar medidas do mundo físico.

 

Quetelet, um matemático e sociólogo do mesmo século XIX achou que poderia aplicar a “lei dos erros” ao ser humano. Desenvolveu a ideia de que poderia determinar o “homem médio” por meio do chamou “fatos da vida”. Não chegou a isso, obviamente, mas foi quem primeiro estudou a distribuição das medidas biométricas.

 

Fez muitas medições em nada menos do que 5732 soldados escoceses. A tabela dada abaixo apresenta a distribuição de frequências para o perímetro torácico dos soldados.

 

Distribuição de frequências para perímetro torácico de homens adultos, em polegadas

 

Veja a tabela: a proporção de soldados escoceses com 38 polegadas de perímetro torácico (ou seja, entre 37,5 e 38,5 polegadas), por exemplo, era 0,07135, ou seja, praticamente 7%. Agora, olhe o histograma apresentado na figura abaixo: na base do retângulo é dado o intervalo de 37,5 a 38,5 polegadas; a proporção de soldados escoceses com perímetro torácico entre 37,5 e 38,5 polegadas deve ser lida no eixo das ordenadas (aproximadamente 0,07, ou 7%).



Histograma para a distribuição de frequências do perímetro torácico de homens adultos, em polegadas

 

Toda distribuição de frequências é construída com os dados de uma amostra. Se a variável for contínua, você pode construir um histograma que tem, muitas vezes, a aparência da figura acima. Nesses casos, a distribuição normal se ajusta ao histograma, como você pode ver na figura dada abaixo.

                  

            Curva normal ajustada ao histograma para 

           perímetro torácico de homens adultos, em polegadas

 

Mas por que será que medidas biológicas, medidas de produtos fabricados em série, erros de medida têm distribuição aproximadamente normal? Porque sobre todas essas variáveis atuam muitos fatores, às vezes de forma positiva, às vezes de forma negativa. Para compreender isso, um ótimo exemplo, apresentado abaixo, é de Mlodinov.

 

Imagine que vamos fazer 150 pães um a um, seguindo uma receita que produz pães com 500 gramas. Por simples acaso, poderemos colocar mais, ou menos, farinha e/ou leite e/ou açúcar em alguns pães. O forno pode estar mais quente, ou menos quente quando assarmos alguns dos pães. Pode haver um pouco mais, e às vezes um pouco menos de umidade no ar enquanto alguns pães crescem; a temperatura ambiente pode estar um pouco mais alta, ou um pouco mais baixa e assim por diante. O fato é que, no final, teremos alguns pães com mais do que 500 gramas, outros com menos e a maioria com pesos muito próximos de 500 gramas. 

 

O peso de nossos pães irá variar de acordo com a distribuição normal. Por quê? Porque sobre o peso de nossos pães atuou grande número de variáveis aleatórias independentes – algumas atuaram para aumentar o peso dos pães, outras para diminuir. Cada variável tem efeito pequeno, mas os efeitos se somam. É pouco comum que um pão só sofra efeitos positivos, ou só sofra efeitos negativos – esses seriam as caudas da curva. A maior parte dos pães sofre efeitos positivos e negativos em quantidade que dão surgimento a uma distribuição normal

 

As variáveis que estudamos sofrem o efeito de uma soma de fatores (variáveis aleatórias independentes). Cada fator afeta as medidas do que estamos estudando de uma forma, às vezes positiva (por exemplo, colocamos mais farinha no pão) ou negativa (colocamos menos farinha no pão). O efeito da soma de todas essas variáveis aleatórias (quantidade de açúcar, farinha, calor, umidade etc.) sobre o que estamos medindo (peso dos pães) produz uma distribuição normal.

 

              VEJA


Mlodinow, L. O andar do bêbado. Rio de Janeiro: Zahar, 2009.
Daly, F.; Hand, D; Jones, C; Lunn, AD: Elements of Statistics: Addison Wesley, 1995.
onlinestatbook.com/2/normal_distribution/intro.htmlProbability Density Functions https://onlinecourses.science.psu.edu/stat414/node/97
stattrek.com/.../dictionary.aspx?...Probability%20density%20func...





Monday, June 06, 2016

Teste de Tukey para comparação de médias

Uma análise de variância (ANOVA) rejeita ou não a hipótese de igualdade de médias populacionais de diversos grupos, mas não determina quais grupos têm médias estatisticamente diferentes. Por essa razão, o teste F feito na análise de variância é considerado um teste global (omnibus test). Terminada a análise de variância, o pesquisador busca um novo teste para  comparar as médias de grupos.
Vamos tratar aqui o teste de Tukey, muito conhecido dos pesquisadores brasileiros. Você aplica o teste de Tukey para comparar médias duas a duas (pairwise comparison). Veja isso como uma vantagem do teste: você compara todos os pares de médias que tiver.
O teste de Tukey é, portanto, um teste a posteriori ou post-hoc. Faz comparações não planejadas (unplanned comparisons), ou seja, o pesquisador não precisa estabelecer as comparações de médias que irá fazer sem ter visto os dados. Veja isto como vantagem do teste.
Para proceder ao teste de Tukey, é preciso calcular a diferença mínima que deve haver entre duas médias para que elas possam ser consideradas diferentes no nível de significância a. No Brasil, essa diferença é conhecida como diferença mínima significante e, em geral, indicada pela letra grega ∆ (lê-se delta). No entanto, na língua inglesa, diferença mínima significante, ou seja, Least Significant Difference (LSD) é a terminologia específica para  teste de Fisher. John W. Tukey, autor do teste de Tukey, chamou a diferença mínima que deve haver entre duas médias para que elas possam ser consideradas diferentes ao nível de significância a de honestly significant difference (HSD), ou seja, diferença honestamente significante.
De qualquer forma, para obter o valor da diferença honestamente significante (∆ ou HSD) pelo teste de Tukey é preciso calcular:
Nessa fórmula:
  • q(k,gl,a) é denominado amplitude estudentizada e é encontrado na tabela de amplitude estudentizada q, ao nível de significância a, para k tratamentos e gl graus de liberdade do resíduo da ANOVA.
  • QMR é o quadrado médio do resíduo da análise de variância;
  • r é o número de repetições de cada um dos grupos. 

Antes de mostrar como se usa a fórmula, convém frisar que nos softwares, e na literatura em língua inglesa, não se usa ∆, mas HDS, que não é diferença mínima significante.  

Para entender como se usa a tabela de amplitude estudentizada q, observe uma parte dela, dada abaixo. O valor em negrito deve ser utilizado para comparar as médias de um experimento com seis tratamentos e 24 graus de liberdade no resíduo, ao nível de significância de 5%.
Valor de q para o nível de significância de 5%


De acordo com o teste, duas médias são estatisticamente diferentes no nível de significância a toda vez que o valor absoluto da diferença entre elas for igual ou maior do que a diferença honestamente significante, ou seja, igual ou maior do que o valor HSD.
                                               EXEMPLO
Considere os dados de diminuição da pressão arterial segundo o grupo, apresentados na Tabela 1. Esses dados foram submetidos à análise de variância apresentada na Tabela 2. Como o valor de F é significante no nível de 5%, existe pelo menos uma média diferente das demais. As médias de grupos estão apresentadas na Tabela 3.

Tabela 1 - Diminuição da pressão arterial, em milímetros de mercúrio, segundo o grupo

Tabela 2 - Análise de variância 

Tabela 3 - Médias da diminuição de pressão arterial, em milímetros de mercúrio, segundo o grupo

Quais são as médias estatisticamente diferentes? A pergunta pode ser respondida com a aplicação do teste de Tukey. Vamos então calcular a HSD, considerando um nível de significância de 5%:
q = 4,3727 é o valor dado na tabela de amplitude estudentizada q no nível de significância de 5%, associado a k = 6 grupos e gl = 24 graus de liberdade de resíduo; QMR = 36,00 é o quadrado médio de  resíduo da ANOVA; r = 5 é o número de repetições.

Agora é preciso calcular as diferenças de médias, duas a duas e compará-las com a diferença honestamente significante. Veja a Tabela 4: os tratamentos e as médias estão nas duas primeiras linhas e nas duas primeiras colunas, em negrito. As diferenças significantes ao nível de 5% estão assinaladas com um asterisco. 

Tabela 4 - Diferenças de médias de diminuição da pressão arterial
 
Pode ser mais fácil ver as comparações como mostra a tabela dada em seguida.

Tabela 5 - Diferenças de médias de diminuição da pressão arterial 
 

De acordo com o teste de Tukey, no nível de 5% de significância:
  • a média do tratamento A é maior do que a de B e a do controle;
  • a média do tratamento D é maior do que as médias de B, C, E e controle. 
Estes resultados também podem ser indicados por letras, como é dado em seguida e é usual nas “saídas” de programas de computador: 
  • quando letras diferentes aparecem em frente a duas médias, a diferença entre essas médias é estatisticamente significante; 
  • quando a mesma letra aparece em frente a duas médias, a diferença entre essas médias não é estatisticamente significante.
Tabela 6 - Comparação das médias de diminuição da pressão arterial

**************************************************************
"Saída" do Minitab
Tukey Pairwise Comparisons 
 Grouping Information Using the Tukey Method and 95% Confidence

  Treatment  N   Mean  Grouping
  D                5   29,00     A
  A                5   21,00     A  B
  E                5   13,00         B  C
  C                5   10,00         B  C
  B                5     8,00              C
  Control      5     2,00              C

Means that do not share a letter are significantly different.

**************************************************************
Saída do SAS

                          Error Mean Square                         36
                          Critical Value of Studentized Range  4.37265
                          Minimum Significant Difference        11.733

                  Means with the same letter are not significantly different.

                      Tukey Grouping          Mean      N    trat

                                     A                29.000        5     4
                                     A 
                              B    A               21.000         5     1
                              B
                              B    C               13.000         5    5
                              B    C
                              B    C               10.000         5    3
                                     C
                                     C                 8.000        5    2                                  

                                     C                 2.000        5    6

************************************************
Também se pode calcular estatística q para cada comparação de médias. Veja o exemplo: 

                             ZAR, J. H. BIOSTATISTICAL ANALYSIS, 4th. ed. P. 210


       Calcule: 


************************************************
"Saída" do Minitab