PPG EcoTAV
Tipo de optativa: Métodos de Investigação em Ecologia e sua Interface com a Aplicação
Nome da optativa: Testes de hipótese nula e produção de conhecimento confiável em ecologia
Professor: Pedro Rocha
Carga horária: 30 horas
Período:
29/set (sala 2A),
01/out (sala 2A),
03/out (sala 2A),
06/out (sala 2A),
08/out (sala 2A),
10/out (sala 2A),
13/out (sala 2A) e
15/out (sala 2A)
Horário: 08:50h às 12:30h

EMENTA:
Produção de conhecimento científico confiável através de testes de hipótese; Teste de hipótese como um dos elementos do argumento de relevância de projetos de pesquisa; Operacionalização de grandezas conceituais em variáveis mensuráveis; Distribuições de frequência como objetos de interesse empírico no experimento; Tipos de experimentos e critérios para um adequado planejamento amostral; Lógica e mecânica do teste de hipótese nula; Logica e mecânica da partição de variâncias em testes unifatoriais univariados e diferentes planejamentos amostrais; Lógica e mecânica em testes multifatoriais e multivariados.

DESCRIÇÃO:
O componente curricular discute o papel dos testes de hipótese nula no processo de produção de conhecimento confiável, particularmente no campo da ecologia, procurando estabelecer conexões com os projetos de mestrado e doutorado dos estudantes. Para tanto, discutiremos os seguintes temas:
(a) Os testes de hipótese nula pretendem construir conhecimento confiável a partir do processo de refutação de hipóteses. Há um argumento epistemológico sólido de que é possível aprender a partir dos erros (i.e., de refutação de hipóteses), apesar das importantes críticas à epistemologia de Popper? Discutiremos a contribuição de Popper, as críticas a ele e os argumentos de Deborah Mayo de que é possível construir conhecimento experimental confiável a partir do emprego de testes severos (i.e., com alta capacidade de encontrar erro quando este existe), de experimentos adequadamente controlados (i.e., capazes de manter a cláusula ceteris paribus) e do uso de testes
estatísticos de hipótese nula;
(b) Um projeto de pesquisa em ecologia deveria procurar não apenas construir conhecimento confiável, mas conhecimento relevante. Discutiremos os possíveis significados de “relevância”, resgatando os conteúdos abordados na disciplina “Introdução à Teoria Ecológica, Aplicação e Valores” para então refletir sobre a construção de argumentos fortes (usando linguagem natural) sobre relevância do projeto. Discutiremos, a partir de elementos do campo da lógica informal e da literatura sobre “rational thinking”, estratégias para o desenvolvimento e apreciação desses argumentos, de modo a concluir que um teste estatístico de hipótese nula em um projeto de pesquisa
é apenas uma das peças que devem estar bem integradas em um argumento mais amplo de que o projeto deu uma contribuição de qualidade a um problema;
(c) Assim como os processos de generalização e de explicação causal, a realização de testes empíricos são componentes da produção de “compreensão” pela ciência. O processo de teste empírico depende do contraste entre uma construção conceitual (usualmente formulada uma como hipótese sobre relação entre duas ou mais grandezas) e fenômenos observáveis (evidências), e esse contraste depende de um conjunto de decisões sobre como acessar (medir) essas grandezas. Discutiremos esse processo de operacionalização (definição de variáveis a serem mensuradas e sua escalas), refletindo sobre seu impacto sobre a qualidade da compreensão gerada no processo;
(d) A avaliação empírica está, desde a revolução científica, na base da decisão sobre a qualidade do conhecimento científico gerado. Contudo, desde a migração da ciência de uma perspectiva determinística para uma perspectiva probabilística, no final do Século XIX, houve uma mudança de ênfase sobre o fenômeno de interesse na natureza, que deixou de ser o dado empírico propriamente dito e passou a ser a distribuição de frequência da qual o dado representa uma expressão randômica. Discutiremos como esses marcos da história da ciência geram naturalizações na nossa compreensão
sobre a natureza para então apresentar um repertório mínimo de conceitos relacionados a distribuições de frequências necessário para a compreensão da lógica e mecânica dos testes de hipótese nula e de seu papel na produção de conhecimento confiável;
(e) A produção de conhecimento através de teste de hipótese nula depende da coleta de dados empíricos através de uma estratégia definida em um experimento. Contudo, há diferentes tipos de experimentos (e.g., mensurativos, manipulativos) e vários modos possíveis para coleta dos dados empíricos (planejamentos amostrais), muitos dos quais afastam o pesquisador do teste adequado de sua hipótese de interesse e, assim, da produção de conhecimento confiável. Discutiremos o tema a partir dos conceitos de repetições, controle, randomização e intercalamento nos planejamentos amostrais;
(f) O uso de teste estatístico de hipótese nula representa, de acordo com o argumento de Deborah Mayo, uma das ferramentas para superar uma das críticas à epistemologia de aprendizagem a partir dos erros, de Popper. Discutiremos, conceitual e graficamente, a lógica e a mecânica dos testes de hipótese nula (Fisher; Pearson e Neyman), de modo a compreender os conceitos de estatística de interesse, distribuição nula, nível de significância, erros do tipo I e II e custos associados, e valor de probabilidade (p-value), ressaltando a incorporação de valores epistêmicos e sociais no âmago dessa
metodologia. Discutiremos ainda conceitualmente a diferença entre testes baseados em
randomização (testes verdadeiramente não paramétricos) e aqueles baseados em álgebra estatística (testes paramétricos);
(g) As hipóteses de interesse do pesquisador podem se referir à relação de causalidade (ou associação) entre duas ou mais grandezas, uma ou mais delas (fatores ou variáveis dependentes) causando efeitos em outra(s) (variáveis dependentes). Essas grandezas podem ser operacionalizadas a partir de variáveis medidas em diferentes tipos de escala (e.g., categórica, quantitativa). Discutiremos, conceitual e graficamente, como a estratégia de partição de variâncias desenvolvida por Fisher é capaz de lidar com testes com um fator (categórico ou quantitativos) e uma variável dependente quantitativa, contrastando os testes de Análise de Variância (ANOVA) e Regressão unifatoriais e univariados, discutindo o motivo pelo qual ANOVA é considerado um teste forte com
variável (fator) fraca e como é possível planejar teste de regressão experimental, tornando-o um teste forte com variável forte;
(h) Os problemas de interesse do ecólogo normalmente não envolvem a relação entre apenas duas grandezas. Discutiremos como a lógica de partição de variâncias é aplicada a testes com mais de um fator categórico (ANOVA com 2 ou mais fatores; regressão múltipla), ilustrando como diferentes modelos de ANOVA se adéquam a diferentes tipos de delineamentos amostrais, e citando estratégias de análise para os casos em que as hipóteses de interesse incluem uma rede de relações de causalidade.