Os
povos primitivos atribuíam aos deuses os fenômenos naturais. E achavam não
haver maneira de prever o que eles fariam porque entendiam ser próprio dos
deuses comportarem-se de forma caprichosa e errática. Parecia aos povos
primitivos que uma boa colheita ou uma doença aconteciam sem que para isso
houvesse qualquer motivo. Nada tinha explicação. Aos poucos, no entanto,
certas regularidades no comportamento da natureza começaram a ser
percebidas.
Buscar
padrões de comportamento – das plantas, dos animais, das pessoas – não está
errado. Ao contrário, é importante conhecer as ações que os organismos
manifestam sempre, ou eventualmente, em resposta ao ambiente em que vivem ou em
que são colocados. A agricultura, por exemplo, só pôde ser desenvolvida graças
à capacidade dos humanos para encontrar padrões. Nossos longínquos antepassados
perceberam que as plantas mais bem se desenvolvem quando a terra está úmida e
assim associaram o tempo das chuvas à hora de plantar. Também aprenderam que
nos invernos rigorosos há pouco o que colher e aprenderam a armazenar.
O desejo de compreender a natureza e buscar uma
explicação causal para todos os eventos provavelmente estiveram entre as forças
motrizes da evolução dos seres humanos, há centenas de milhares de anos. Assim, não é nenhuma surpresa que o debate
filosófico sobre a causalidade remonte a tempos antigos. Mas foi só a partir do
século 17 que a ciência estabeleceu a física clássica, graças principalmente
aos trabalhos de Galileu Galilei e Isaac Newton. Chegou-se
então à ideia do determinismo científico 1.
Hoje
sabemos que alguns eventos são determinísticos, mas outros são probabilísticos,
no sentido de que sabemos que ocorrerão, embora não saibamos identificar o que,
ou quem, será atingido. No entanto, ainda existem
pessoas que desejam atribuir causas a todos os acontecimentos, a ponto de
criarem teorias sem sentido para respaldar sua ânsia de explicar tudo. Nossa
capacidade de perceber padrões não pode, porém, tornar-se obsessiva.
Nem
sempre recebemos a mesma resposta para os mesmos por quês. Às vezes acontece,
às vezes não acontece o que esperávamos que acontecesse. Mas queremos ter
sucesso em nossas previsões. Precisamos, portanto, da estatística para
explicar muitos fenômenos e encontrar alguma ordem, onde ordem houver. Vamos aos fatos.
Parece
que foi Karl Pearson quem primeiro percebeu ser necessário mudar o paradigma da ciência, de
determinista para probabilística 2. Uma história dá suporte a
essa hipótese. Em 1905 Pearson fez um desafio na revista Nature, pedindo que
alguém inventasse uma fórmula matemática para prever quão longe do local de
origem (presumivelmente um bar) iria um bêbado, se ele andasse um metro em
linha reta, depois "virasse em qualquer direção", caminhasse outro
metro, virasse novamente “em qualquer direção", e assim por diante, n
vezes. Estudando as respostas, Pearson concluiu que, em campo aberto, o mais
provável seria encontrar o bêbado – se ele tivesse permanecido em pé e andando
– próximo do ponto de partida 3. Mas não achou a tal “fórmula
matemática”.
Esse caminhar errático, conhecido como “o andar do
bêbado”, posteriormente recebeu o nome mais respeitável de passeio aleatório, proposto
pelo próprio Karl Pearson. Dizemos que um ponto faz um passeio aleatório no
espaço quando se move em passos e a direção de cada novo passo é determinada
apenas pelo acaso. Foi também em 1905 que Albert Einstein publicou seu mais
citado trabalho – embora menos conhecido do grande público do que a teoria da
relatividade 4 – que acabou por convencer os cientistas da
época sobre a necessidade de uma abordagem estatística para a física. Einstein
explicou o fenômeno conhecido como movimento browniano, que é o movimento
aleatório das partículas que estão em suspensão em um fluido 5.
O movimento browniano recebeu esse nome em honra ao botânico escocês Robert
Brown, que estudou o fenômeno na segunda década do século XIX.
Brown
colocou minúsculos grãos de pólen de uma flor na água, e observou ao
microscópio. Viu que os grãos de pólen ziguezagueavam continuamente, apesar de
a água estar parada. Não conseguiu, porém, explicar o fenômeno. Nas décadas
seguintes pesquisadores aplicaram conhecimentos de estatística e explicaram que
o movimento era causado pelo impacto de átomos do fluido nas partículas
suspensas. Mas não convenceram a sociedade científica da época porque, até
então, átomo era apenas uma hipótese e muitos consideravam que jamais seria
visto. Foi preciso um Einstein para explicar o mecanismo exato do movimento
browniano – com estatística pesada. O movimento browniano é um passeio
aleatório, aquele aventado por Pearson. E a necessidade de estatística na
física nunca mais foi questionada.
O
movimento browniano explica, por exemplo, o caminho que uma partícula de poeira
faz no ar devido às muitas colisões com as moléculas de gás. Toda criança gosta
de observar os movimentos de partículas de pó em uma réstia de sol. Aliás,
muitos adultos também. Mas os cientistas, que estão sempre atrás de
descobertas, mostraram que o movimento browniano explica outros fenômenos que
têm trajetos aleatórios, além dos grãos de poeira que volteiam no ar. É o
acaso que determina o sucesso de músicas, os preços das ações, a segurança de
um reator nuclear 6, a infestação de pernilongos (“mosquitos”)
em uma floresta 7 e até mesmo a variação da inteligência
dos homens ao longo das eras.8
Einstein foi quem primeiro apontou a aplicação prática para a chamada
física estatística. De acordo com o físico Mlodinow,9 “isso
representou o triunfo de uma regra de ouro: grande parte da ordem que
percebemos na natureza esconde um distúrbio, profundo e invisível, que só pode
ser entendido por meio das regras do acaso". Colocando essa frase e o
movimento browniano em termos de nós mesmos, talvez seja certo dizer que os
esbarrões que levamos na vida – e nos fazem mudar de rumo para o bem ou para o
mal – não foram premeditados ou estavam estabelecidos a priori: aconteceram por
acaso.
De qualquer modo, foi no início do século XX que conhecimentos de matemática, probabilidade e estatística começaram a ser aplicados não apenas na física, mas também em outras ciências. Foi nessa época que a estatística mostrou ser ferramenta preciosa para as ciências agrícolas. Um grupo de pesquisadores que trabalhou na Estação Experimental de Agricultura de Rothamstead, na Inglaterra 10 desenvolveu técnicas experimentais que hoje são aplicadas a muitas outras áreas de conhecimento – as chamadas ciências físicas e naturais. No entanto, a origem agrícola das ciências experimentais é incontestável.
O
grupo de estatísticos de Rothamstead era capitaneado por sir Ronald Fisher, que
desenvolveu a análise da variância. A lógica dessa análise estatística é
separar a variação que pode ser atribuída ao acaso da variação devida a causas
ou fatores conhecidos (que, grande parte das vezes, podem ser entendidos como
determinísticos). Ainda, em 1935 Fisher publicou o clássico “The Design of
Experiments”. Esse livro foi extremamente importante para a revolução que
aconteceu em muitas áreas da ciência na primeira metade do século XX. Fisher
não inventou a experimentação, mas foi quem pôs ordem na casa.
Os
cientistas faziam “experiências” sem o necessário planejamento e, muitas vezes,
apresentavam apenas pequenas partes de seus resultados à sociedade científica
da época ou, até mesmo, nem sequer publicavam os dados. Não apresentavam
análises. O notável monge cientista Gregor Mendel, cognominado o “Pai da
Genética” porque, no século XIX, mostrou os princípios básicos da
hereditariedade cruzando ervilhas em seu jardim, publicou apenas parte de seus
dados, seguindo o costume da época 11.
Mesmo
assim, Fisher escreveu um artigo 12 em que diz que os
dados de Mendel são “bons demais para serem verdadeiros”. Esse trabalho ficou
muito conhecido e é discutido até hoje porque alguns experimentos relatados por
Mendel dão resultados muito próximos da expectativa que o cientista tinha em
mente 13. Embora a seriedade e a importância do trabalho de
Mendel não tenham sido postas em dúvida, o fato sugere que o geneticista sofria
a influência do determinismo científico vigente no século XIX, que levava
os cientistas a apresentar só os “melhores” resultados das experiências
científicas – sem apontar perdas e sem apontar a variação aleatória que, hoje
sabemos, precisa ser destacada nas estatísticas.
Mas
os conhecimentos de estatística – embora tenham sido incorporados de maneira
definitiva à ciência e à tecnologia, difundiram-se de forma gradativa. De
qualquer modo, o controle de qualidade na produção industrial é consequência da
maneira estatística de pensar – isto é, da ideia de que é preciso separar o que
é aleatório do que é determinístico. Foi a Companhia de Telefones BELL que, por
volta de 1920, quis melhorar a qualidade de seu sistema de transmissão e
chamou, para isso, Walter Shewhart, um engenheiro com doutorado em física.
Depois de idas e vindas, sempre trabalhando em diferentes problemas da
companhia, Shewhart apresentou, em 1924, o seu gráfico de controle.
Para
criar o gráfico de controle, Shewhart precisou reconhecer que todo
processo de produção sofre o efeito de diferentes causas de
variação, mas que a variação de natureza aleatória não pode,
evidentemente, ser controlada. Não é fácil entender isso.
Mas, imagine que você vai fazer 150 pães um a um, seguindo uma receita que
produz pães com 500 gramas 14. Existem muitas causas de
variação para o peso dos pães. Por simples acaso, você pode colocar mais, ou
menos farinha e/ou leite em alguns pães. O forno pode estar mais quente, ou
menos quente quando assar alguns dos pães. Pode haver um pouco mais, e às vezes
um pouco menos de umidade no ar enquanto alguns pães crescem; a temperatura
ambiente pode ficar um pouco mais alta, ou um pouco mais baixa e assim por
diante. O resultado desses efeitos todos é o de que, no final, alguns pães
terão mais do que 500 gramas, outros menos e a grande maioria terá
peso muito perto de 500 gramas.
A pequena
variação de peso dos seus pães ocorreu porque a produção não pôde ser
totalmente controlada: houve pequenas variações nas quantidades dos
ingredientes e nas condições do ambiente, que aconteceram por acaso. Como as
variações foram pequenas, você considerou que tudo esteve “sob controle”. No
entanto, você há de reconhecer que a situação ficaria “fora de controle” se
ocorresse quebra da balança, queima de um termostato, queda de
energia elétrica etc.. Esses eventos são, de certa forma, imprevisíveis. O gráfico
de controle idealizado por Shewhart mostra se os resultados do processo de
produção estão sendo significativamente alterados por uma causa especial de
variação – como quebra de balança, no caso do exemplo.
No
campo da saúde, o pensamento estatístico demorou a se difundir porque muitos
profissionais alegavam que medicina é uma arte – que não poderia se submeter
aos ditames da matemática. O primeiro experimento conduzido com delineamento
planejado conforme a proposta de Fisher só aconteceu no final da década de 40
(Medical Research Council, 1948)15. Dada à dúvida sobre o efeito da
estreptomicina no tratamento da tuberculose pulmonar – e respaldado pelo fato
de ser reduzida sua disponibilidade no pós-guerra – o médico Sir Austin
Bradford Hill convenceu médicos ingleses a designarem seus pacientes aleatoriamente
para um de dois grupos: o grupo tratado, formado pelos doentes que receberiam a
droga e o grupo controle, formado pelos doentes que não receberiam medicação. A
distribuição aleatória de estreptomicina foi, na ocasião, amplamente
justificada pelas quantidades limitadas da droga, mas possibilitou a avaliação
dos fatos: a variabilidade natural da doença havia sido modificada por um fator
não aleatório, a estreptomicina. Comprovou-se, assim, a eficácia do tratamento.
Após
a Segunda Grande Guerra, outros estudos clínicos começaram a ser feitos na
Inglaterra e trouxeram muitas das melhorias que ocorreram nos serviços médicos
nas décadas seguintes. Por causa do sucesso, os ensaios se multiplicaram e
fizeram surgir novas questões, tanto de ética como de metodologia. Mas foi só
em 1990 que Alvan Feinstein e Ralph Horowitz propuseram regras rígidas para a
metodologia da condução desses ensaios 16. Hoje, por razões de
ética, diretrizes nacionais e internacionais impõem normas aos ensaios com
seres humanos e com animais, que precisam ser rigorosamente obedecidas.
A
estatística se tornou um apoio fundamental para os estudos no século XX e
adentrou impávida pelo século XXI. Afinal, é a ciência que estuda o acaso – sem
procurar domesticá-lo. Como escreveu o físico Prêmio Nobel Max Born, “acaso é
conceito mais fundamental que causalidade”. Mas a questão de medir quanto, e
como, uma coisa causa outra, continua de pé. Buscamos sempre identificar as
causas de tudo que nos acontece de ruim. “Minha amiga tem câncer de pulmão
porque sempre foi fumante. Minha irmã tem péssimo temperamento porque nasceu
sob o signo de Áries”. A estatística mede o grau de verdade dessas informações,
mas nem sempre é convincente. Vejamos a questão do hábito de fumar que é, sem
dúvida, a maior fonte de estatísticas de todos os tempos.
Fisher,
o cultuado estatístico, sempre rejeitou a possibilidade de o tabagismo ser o
fator causal de varas doenças. Essa insistência em não aceitar que fumar faz
mal à saúde talvez fosse uma idiossincrasia do velho sábio, muitas vezes
fotografado fumando seu cachimbo. Ele alegava que fatores sociais, genéticos,
de personalidade poderiam levar tanto ao hábito de fumar como causar
determinadas doenças. Mas Alvan Feinstein diz que esses argumentos nunca foram
convincentes – e aponta um fato que pode explicar a relutância de Fisher em
admitir que o tabagismo é fator de risco para diversas doenças: ele era
consultor da indústria britânica de tabaco 17. Seria o que hoje
chamamos eufemisticamente de conflito de interesses.
Mas
em 1950 Richard Doll e Austin B Hill, dois pesquisadores ingleses, conduziram o
primeiro estudo retrospectivo na área de medicina, associando câncer do pulmão
ao hábito de fumar 18. Eles perguntaram os hábitos de fumar dos
649 pacientes que tinham câncer do pulmão e os hábitos de fumar de outros 649
pacientes internados por outros motivos no mesmo hospital. Não foi possível
estimar riscos porque os fatos já haviam acontecido (probabilidades referem-se
a eventos futuros – nunca a eventos do passado). Mas os pesquisadores
verificaram que a chance de ter câncer de pulmão é 14 vezes maior para fumantes
do que para não fumantes, ou seja, para cada 14 fumantes com câncer de pulmão,
há um não fumante na mesma condição.
Esse
estudo não é convincente porque se baseou em uma amostra pequena e é
retrospectivo. Mas em 1956 Richard Doll e Austin B Hill conduziram o primeiro
estudo coorte 19. Para saber se fumantes têm maior risco de ter
câncer do pulmão do que quem não fuma, enviaram um questionário para
aproximadamente sessenta mil médicos do Reino Unido perguntando sobre seus
dados demográficos (nome, endereço, sexo, idade etc.) e os hábitos de fumar
deles próprios. Receberam aproximadamente quarenta mil respostas. Os
pesquisadores acompanharam a sobrevivência dos médicos durante 53 meses, por
meio de um registro geral. Entre as pessoas que tinham o hábito de fumar,
ocorreram mais mortes por câncer no pulmão.
Os
estudos de Doll e Hill não “provam” que fumar é determinante para câncer de
pulmão, mas são excelentes indicadores de que o tabagismo leva a esse desfecho.
De qualquer forma, com base em muitos outros estudos, sabemos hoje que fumar é
o fator de risco mais importante para o câncer de pulmão, embora existam outros
fatores (inalação de certos agentes químicos, poluição do ar, doença pulmonar
crônica, fatores genéticos e outros).
De
qualquer modo, forte correlação ou forte associação entre duas variáveis não descreve
a maneira como as duas se relacionam. Não significa,
portanto, que uma cause a outra. A palavra “correlação” deveria remeter
apenas ao que significa o coeficiente de correlação calculado na estatística –
é o grau da variação conjunta de duas variáveis aleatórias. A pesquisa por
associações estatísticas entre variáveis é necessária – mas não se prova,
rapidamente, relação de causa e efeito, principalmente quando só são possíveis
estudos observacionais. É preciso grande quantidade de pesquisa, ao longo de um
bom tempo.
Por
exemplo, já se comprovou que a presença de certos genes é determinante
para certas doenças – como é o caso da fenilcetonúria. No entanto, o genoma
humano tem cerca de 27.000 genes. A simples associação estatística entre a
presença de um gene ou de uma sequência deles com uma doença não é suficiente
para estabelecer relação causal – a associação estatística deixa espaço para o
casual – além de outras explicações. Para produzir evidências, são
necessárias muitas pesquisas e por muito tempo. Afinal, a suscetibilidade
à maioria das doenças comuns é multifatorial, isto é, as pessoas ficam ou não
doentes em função de fatores genéticos e de ambiente. Uma meta análise 20,
que levantou mais de 600 associações positivas relatadas entre a variação
genética no DNA e variação na susceptibilidade às doenças levou os autores a
concluir que é preciso mais cautela nesse assunto – às vezes, parece haver
muita pressa para publicar uns poucos dados.
O
acaso faz parte de nossas vidas. Como coloca o físico Mlodinow 21, “entender o papel do acaso em nossas vidas é um grande
desafio: embora as premissas do acaso estejam presentes no dia a dia, muitas
das consequências que advém dessas premissas não são intuitivas”. Muito
do que pensamos que sabemos, não sabemos: é wishfull thinking.
E
convém lembrar que muita lenha foi juntada na fogueira em que ardia o
determinismo científico pelo físico Werner Heisenberg quando, em 1926, afirmou
que não se pode medir, simultaneamente, tanto a posição como a velocidade de um
elétron 22. Para ver onde está o elétron, é preciso fazer
incidir luz sobre ele. Mas a luz, embora não nos pareça, é um fluxo de
fótons. Os fótons não possuem massa, mas,
segundo a teoria quântica, transmitem força eletromagnética. E ao colidir
com o elétron, os fótons imprimem
velocidade a ele. Então, quando iluminamos o elétron, ganhamos informação sobre sua posição, mas perdemos
a possibilidade de medir sua velocidade. É, portanto, luta inglória
buscar saber tanto a posição como a velocidade de um elétron em determinado
momento, embora exista uma relação matemática que, como mostrou Heisenberg,
permite saber o valor delas em conjunto. Então, quanto mais precisamente insistirmos
em medir a posição do elétron, menos
precisamente saberemos sua velocidade, e vice-versa. O que está explicado
aqui é, digamos, um pouco do que nós leigos podemos entender sobre o Princípio
da Incerteza de Heisenberg. Ficamos assim sabendo que não podemos determinar a
velocidade e a posição futuras de um elétron porque, para isso, seria preciso
conhecer a velocidade e a posição atuais – o que é impossível 23.
Embora os efeitos dos fótons sobre nós não tenham qualquer significância, a
incerteza também faz parte de nossas vidas: podemos saber agora onde estamos,
mas não a velocidade com que nos deslocamos.
Este mundo que tanto roda é muito complicado. Como
acreditava Thomas Kuhn, a mente humana talvez não seja, mesmo, capaz de
estruturar ideias que expliquem o mundo. As tentativas de explicação redundam
em tantos erros que logo precisam ser substituídas por novas tentativas, mais
engenhosas e perspicazes, mas que continuam sendo meras tentativas e serão,
também, substituídas por outras.
Em 1970 Kuhn 24 conceituou
paradigma – palavra muito usada hoje em dia – como “um conjunto inteiro de
crenças, valores, técnicas e tudo o mais que é compartilhado pelos membros de
uma dada comunidade”. Mais adiante, explicou que “paradigmas (são) soluções
reais de enigmas que, usadas como modelos ou exemplos, podem ser tratadas como
regras explícitas e assim servir de base para a solução dos demais enigmas da
ciência normal”. No entanto, quando um paradigma não consegue mais dar solução
para os enigmas novos, bons cientistas abandonam esse paradigma. Acontece então
uma mudança de paradigma – que Kuhn chamou de “revolução”.
A
estatística, que carrega dentro de si a matemática e a probabilidade, dominou a
ciência do século XX e entrou pelo século XXI exibindo todo seu potencial.
Entretanto, alguns cientistas consideram que o uso de estatística possa ser
apenas o substituto temporário para o determinismo científico que imperou até o
século XIX. Podemos esperar então que a
revolução estatística, como novo paradigma para o determinismo, percorra seu
caminho, mas seja substituída por outro paradigma.
Lembre-se
do problema de fazer pães seguindo uma receita que produz pães
com 500 gramas. Você pode controlar muitas causas de variação, como usar
apenas balanças de alta precisão, controlar a temperatura e a umidade do forno
e do ambiente, até usar robôs. A variação diminui, mas chegará ao zero de
variação? Em outras palavras, queremos saber mais e queremos ter maior
domínio sobre a natureza. Mas saberemos tudo? E até que ponto isso seria bom?
A
famosa frase de Einstein “Deus não joga dados” sugere que o cientista estava
descontente com a aparente aleatoriedade na natureza e talvez achasse que
a incerteza é apenas provisória. O fato é que nem tudo ocorre ao acaso
como pensavam os pré-socráticos e nem tudo está tão determinado como pensavam
os malthusianos. “O futuro a Deus pertence” diz o ditado popular ou, como
brincou Stephen Hawkings 25, “Deus não joga dados, mas tem umas
cartas na manga...”
O
fato é que boa parte dos avanços científicos e tecnológicos que
conseguimos até agora estão fundamentados na matemática, na probabilidade, na
estatística. Queiramos ou não, estamos vivendo nesse paradigma. De qualquer
modo, a ideia de que o aleatório e a incerteza deixarão de nos afligir está
muito além do nosso horizonte. Não sei se isso explica nossos muitos erros. Não
somos os paladinos da razão. Nossas decisões são tomadas com um pé no passado.
Decidimos hoje com o conhecimento de ontem para o que faremos amanhã. E, muitas
vezes, o inesperado intervém sobre o comportamento humano. E o comportamento
humano é, muitas vezes, inesperado. Ou não?
1. Hawking,
S. Does God play dice? Disponível
em www.hawking.org.uk/does-god-play-dice.html
. Acesso em 20 de abril de 2015.
2. Salsburg,
D. Uma senhora toma chá: como a estatística revolucionou a ciência do século
XX. Tradução de José Maurício Gradel. Rio de Janeiro, Zahar. 2009.p 24.
3. Ehrhardt,
G. The Not-so-Random Drunkard's Walk. Journal of Statistics Education Volume
21, Number 2 .2013.
4. Mlodinov.
L. O Andar do bêbado. Rio de Janeiro. Zahar. 2009. Tradução de Diego Alfaro,
consultoria de Samuel Jurkiewicz.p.176.
5. Encyclopaedia
Britannica, Inc. 2015 Disponível em www.britannica.com/EBchecked/.../Brownian-motion. Acesso em 20 de abril de 2015.
6. Mlodinov
L. O Andar do bêbado. Rio de Janeiro. Zahar. Tradução de Diego Alfaro,
consultoria de Samuel Jurkiewicz. 2009.
7. Ehrhardt,
G. The Not-so-Random Drunkard's Walk. Journal of Statistics
Education Volume 21, Number 2 .2013
8. Lecture
1: Introduction to Random Walks and Diffusion Scribe: Chris H. Rycroft (and
Martin Z. Bazant) Department of Mathematics, MIT. Disponível em ocw.mit.edu/courses/...random-walks...Acesso
em 22 de abril de 2015.
9. Mlodinow,
L. O Andar do bêbado. Rio de Janeiro. Zahar.. Tradução de Diego Alfaro,
consultoria de Samuel Jurkiewicz 2009. P. 178
10. COX,
J. F. R.A. Fisher: the life of a scientist. New York: Wiley, 1978.
11. Gregor
Mendel - Biography - Botanist, Scientist - Biography www.biography.com/people/gregor-mendel-39282.
12. Fisher, R. A. Has
Mendel’s work been rediscovered? Annals of Science 1, 1936. P.115-137.
13. Novitski, CE. Revision of Fisher's
Analysis of Mendel's Garden Pea Experiments Genetics March 1, 2004 vol. 166 no. 3 1139-1140
14. Mlodnow, L. O Andar do
bêbado. Rio de Janeiro. Zahar. 2009. Tradução de Diego Alfaro, consultoria de
Samuel Jurkiewicz p.153
15. Yoshioka, A. Use of randomisation in the Medical Research Council's clinical
trial of streptomycin in pulmonary tuberculosis in the 1940s. BMJ 1998;317:1220
16. Salsburg, D. Uma
senhora toma chá: como a estatística revolucionou a ciência do século XX.
Tradução de José Maurício Gradel. Rio de Janeiro, Zahar. 2009 p. 158.
17. Salsburg, D. Uma
senhora toma chá: como a estatística revolucionou a ciência do século XX.
Tradução de José Maurício Gradel. Rio de Janeiro, Zahar. 2009 p. 158.
18. Feinstein,
A. R. Clinical Biostatistics Saint Louis, Mosby, 1977. P 148.
19. DOLL, R. e HILL, A.B. Smoking and carcinoma of the lung. Br Med
J 1950 (2): 739-48.
20. Hirschhorn,
JN; Lohmueller,K; Byrne, E; Hirschhorn, K. A comprehensive review of
genetic association studies Genetics in Medicine (2002) 4,
45–61.
21. Mlodinow, L. O
andar do bêbado. Rio de Janeiro: Zahar, 2009.
22. Hawking, S. Does God
play dice? Disponível em www.hawking.org.uk/does-god-play-dice.html
. Acesso em 20 de abril de 2015.
23. Explicação didática do
Princípio da Incerteza de Karl Heinsenberg. Disponível em www.youtube.com/watch?v=Z7wyTd1pLc0. Acesso em 17
de abril de 2015.
24. Kuhn,
T S. The Structure of Scientific Revolutions. 2nd Ed., Univ.
of Chicago Press, Chicago & London, 1970, p.175.
25. Hawking,
S. Does God play dice? Disponível
em www.hawking.org.uk/does-god-play-dice.html
. Acesso em 20 de abril de 2015.
No comments:
Post a Comment