Saturday 8 July 2017

Perform F Test In Stata Forex


Análise de regressão 13 Para encontrar o erro padrão da estimativa, tomamos a soma de todos os termos residuais quadrados e dividimos por (n - 2) e, em seguida, retire a raiz quadrada do resultado. Nesse caso, a soma dos resíduos quadrados é 0.090.160.642.250.04 3.18. Com cinco observações, n - 2 3, e SEE (3.183) 12 1.03. A computação para erro padrão é relativamente semelhante à do desvio padrão para uma amostra (n - 2 é usado em vez de n - 1). Dá alguma indicação da qualidade preditiva de um modelo de regressão, com números SEE mais baixos indicando que possíveis previsões são possíveis. No entanto, a medida de erro padrão não indica a medida em que a variável independente explica variações no modelo dependente. Coeficiente de Determinação Como o erro padrão, esta estatística dá uma indicação de quão bem um modelo de regressão linear serve como um estimador de valores para a variável dependente. Ele funciona medindo a fração da variação total na variável dependente que pode ser explicada pela variação na variável independente. Neste contexto, a variação total é constituída por duas frações: Variação total variação explicada variação inexplicável variação total variação total O coeficiente de determinação. Ou variação explicada como porcentagem da variação total, é o primeiro desses dois termos. Às vezes é expresso como 1 - (variação total de variação inexplicada). Para uma regressão linear simples com uma variável independente, o método simples para calcular o coeficiente de determinação é a quadratura do coeficiente de correlação entre as variáveis ​​dependente e independente. Uma vez que o coeficiente de correlação é dado por r, o coeficiente de determinação é popularmente conhecido como R 2. ou R-quadrado. Por exemplo, se o coeficiente de correlação for 0.76, o R-quadrado é (0.76) 2 0.578. Os termos R-quadrados são geralmente expressos em porcentagens, portanto 0,578 seria 57,8. Um segundo método de computação deste número seria encontrar a variação total na variável dependente Y como a soma dos desvios quadrados da média da amostra. Em seguida, calcule o erro padrão da estimativa seguindo o processo descrito na seção anterior. O coeficiente de determinação é então calculado por (variação total na variação Y inexplicável em Y) variação total em Y. Este segundo método é necessário para regressões múltiplas, onde há mais de uma variável independente, mas para nosso contexto, seremos fornecidos O r (coeficiente de correlação) para calcular um R-quadrado. O que R 2 nos diz são as mudanças na variável dependente Y que são explicadas por mudanças na variável independente X. R 2 de 57.8 nos diz que 57.8 das mudanças no resultado Y de X também significa que 1 - 57.8 ou 42.2 de As mudanças em Y são inexplicadas por X e são o resultado de outros fatores. Assim, quanto maior o R-quadrado, melhor a natureza preditiva do modelo de regressão linear. Coeficientes de regressão Para um coeficiente de regressão (interceptar a, ou inclinação b), um intervalo de confiança pode ser determinado com as seguintes informações: 13 Um valor de parâmetro estimado de uma amostra 13 Erro padrão da estimativa (SEE) 13 Nível de significância para o t - Distribuição 13 Graus de liberdade (que é tamanho de amostra - 2) 13 Para um coeficiente de inclinação, a fórmula para o intervalo de confiança é dada por btc SEE, onde tc é o valor t crítico no nosso nível significativo escolhido. Para ilustrar, faça uma regressão linear com retornos de fundos mútuos como variável dependente e índice SampP 500 como variável independente. Durante cinco anos de retornos trimestrais, o coeficiente de inclinação b é de 1,18, com um erro padrão da estimativa de 0,147. A distribuição t dos alunos para 18 graus de liberdade (20 trimestres - 2) com um nível de significância de 0,05 é 2.101. Estes dados nos fornecem um intervalo de confiança de 1,18 (0,147) (2,101), ou uma faixa de 0,87 a 1,49. Nossa interpretação é que há apenas uma chance de que a inclinação da população seja inferior a 0,87 ou superior a 1,49 - estamos confiantes de que esse fundo é pelo menos 87 tão volátil quanto o SampP 500, mas não mais de 149 como Volátil, com base em nossa amostra de cinco anos. Teste de hipóteses e coeficientes de regressão Os coeficientes de regressão são freqüentemente testados usando o procedimento de teste de hipóteses. Dependendo do que o analista pretenda provar, podemos testar um coeficiente de inclinação para determinar se explica chances na variável dependente e na medida em que explica as mudanças. Os Betas (coeficientes de inclinação) podem ser determinados acima ou abaixo de 1 (mais voláteis ou menos voláteis do que o mercado). Alphas (o coeficiente de intercepção) pode ser testado em uma regressão entre um fundo mútuo e o índice de mercado relevante para determinar se há evidência de um alfa suficientemente positivo (sugerindo valor agregado pelo gerente do fundo). A mecânica do teste de hipóteses é semelhante aos exemplos que usamos anteriormente. Uma hipótese nula é escolhida com base em um valor não igual a maior ou menor do que o caso, com a alternativa que satisfaz todos os valores não cobertos no caso nulo. Suponha que, em nosso exemplo anterior, regredimos um retorno de fundos mútuos no SampP 500 por 20 trimestres, nossa hipótese é que esse fundo mútuo é mais volátil do que o mercado. Um fundo igual em volatilidade para o mercado terá declive b de 1,0, portanto, para este teste de hipóteses, apresentamos a hipótese nula (H 0), caso o declive seja menor ou maior a 1,0 (ou seja, H 0: l 1,0 ). A hipótese alternativa H a tem b gt 1.0. Sabemos que este é um caso maior do que o caso (ou seja, um atinente) - se assumimos um nível de significância de 0,05, t é igual a 1,734 em graus de liberdade n - 2 18. Exemplo: Interpretando um teste de hipótese De nossa amostra, nós Tinha estimado b de 1,18 e erro padrão de 0,147. Nossa estatística de teste é calculada com esta fórmula: t coeficiente estimado - coeficiente de hipótese. Erro padrão (1.18 - 1.0) 0.147 0.180.147, ou t 1.224. Para este exemplo, nossa estatística de teste calculada está abaixo do nível de rejeição de 1.734, portanto não podemos rejeitar a hipótese nula de que o fundo é mais volátil do que o mercado. Interpretação: a hipótese de que b gt 1 para este fundo provavelmente precisa de mais observações (graus de liberdade) para ser comprovada com significância estatística. Além disso, com 1,18 apenas um pouco acima de 1,0, é bem possível que este fundo não seja tão volátil quanto o mercado, e estávamos corretos para não rejeitar a hipótese nula. Exemplo: Interpretação de um coeficiente de regressão O exame CFA provavelmente dará as estatísticas resumidas de uma regressão linear e pedirá interpretação. Para ilustrar, assuma as seguintes estatísticas para uma regressão entre um fundo de crescimento de pequena capitalização e o índice Russell 2000: 13 Coeficiente de correlação 13 As duas abreviaturas a entender são RSS e SSE: 13 RSS. Ou a soma de regressão dos quadrados, é a quantidade de variação total na variável dependente Y que é explicada na equação de regressão. O RSS é calculado calculando cada desvio entre um valor Y predito e o valor Y médio, esquadrinhando o desvio e somando todos os termos. Se uma variável independente explica nenhuma das variações em uma variável dependente, então os valores previstos de Y são iguais ao valor médio e RSS 0. 13 SSE. Ou a soma do erro quadrado dos resíduos, é calculado ao encontrar o desvio entre um Y predito e um Y real, o quadrado do resultado e a adição de todos os termos. 13 TSS, ou variação total, é a soma de RSS e SSE. Em outras palavras, esse processo ANOVA quebra a variância em duas partes: uma que é explicada pelo modelo e um que não é. Essencialmente, para que uma equação de regressão tenha alta qualidade preditiva, precisamos ver um RSS elevado e um SSE baixo, o que tornará a relação (RSS1) SSE (n - 2) alta e (com base em uma comparação com um F - Valor estatisticamente significativo. O valor crítico é retirado da distribuição F e é baseado em graus de liberdade. Por exemplo, com 20 observações, os graus de liberdade seriam n - 2 ou 18, resultando em um valor crítico (da tabela) de 2.19. Se o RSS fosse 2,5 e a SSE fosse 1,8, então a estatística de teste calculada seria F (2,5 (1,818) 25, que está acima do valor crítico, o que indica que a equação de regressão possui qualidade preditiva (b é diferente de 0) Estimativa de estatísticas econômicas Com modelos de regressão Os modelos de regressão são freqüentemente utilizados para estimar as estatísticas econômicas, como a inflação e o crescimento do PIB. Suponha que a seguinte regressão seja feita entre a inflação anual estimada (X ou variável independente) eo número real (Y ou variável dependente): Usando isso Modelo, o número de inflação previsto seria calculado com base no modelo para os seguintes cenários de inflação: 13 Estimativa de inflação 13 Inflação baseada no modelo 13 As previsões baseadas neste modelo parecem funcionar melhor para estimativas de inflação típicas e sugerem que estimativas extremas tendem a Supera a inflação - por exemplo, uma inflação real de apenas 4,46 quando a estimativa foi de 4,7. O modelo parece sugerir que as estimativas são altamente preditivas. Embora para avaliar melhor este modelo, precisamos ver o erro padrão eo número de observações em que se baseia. Se conhecemos o valor verdadeiro dos parâmetros de regressão (inclinação e interceptação), a variância de qualquer valor previsto de Y seria igual ao quadrado do erro padrão. Na prática, devemos estimar os parâmetros de regressão, portanto nosso valor previsto para Y é uma estimativa baseada em um modelo estimado. Quão confiável podemos estar em tal processo. Para determinar um intervalo de predição, use as seguintes etapas: 1. Preditar o valor da variável dependente Y com base na observação independente X. 2. Calcular a variância do erro de predição, usando o Seguinte equação: 13 Onde: s 2 é o erro padrão quadrado da estimativa, n é o número de observações, X é o valor da variável independente usada para fazer a predição, X é o valor médio estimado da variável independente e sx 2 é a variância de X. 3. Escolha um nível de significância para o intervalo de confiança. 4. Construa um intervalo de confiança de (1 -), usando a estrutura Y t c s f. Este é outro caso em que o material se torna muito mais técnico do que o necessário e pode-se ficar atolado na preparação, quando na realidade a fórmula para a variação de um erro de previsão provavelmente não será coberta. Priorize - não desperdice horas preciosas de estudo memorizando. Se o conceito for testado, provavelmente será dada a resposta para a Parte 2. Simplesmente sabe como usar a estrutura na Parte 4 para responder a uma pergunta. Por exemplo, se a observação X prevista for 2 para a regressão Y 1.5 2.5X, teríamos um Y predito de 1.5 2.5 (2), ou 6.5. Nosso intervalo de confiança é 6.5 t c s f. O t-stat é baseado em um intervalo de confiança escolhido e graus de liberdade, enquanto sf é a raiz quadrada da equação acima (para variância do erro de predição. Se esses números são tc 2.10 para confiança 95 e sf 0.443, o intervalo É 6.5 (2.1) (0.443), ou 5.57 a 7.43. Limitações da análise de regressão Concentre-se em três limitações principais: 1. Instabilidade de parâmetros - Esta é a tendência para que as relações entre as variáveis ​​mudem ao longo do tempo devido a mudanças na economia ou nos mercados , Entre outras incertezas. Se um fundo mútuo produzisse um histórico de retorno em um mercado onde a tecnologia era um setor de liderança, o modelo pode não funcionar quando os mercados estrangeiros e de capitais pequenos são líderes. 2. Divulgação pública do relacionamento - Em um mercado eficiente , Isso pode limitar a eficácia desse relacionamento em períodos futuros. Por exemplo, a descoberta de que os valores baixos de preço a valor de estoque superam o alto valor de preço por valor significa que esses estoques podem ser mais elevados e baseados em valores As abordagens de vestuário não manterão o mesmo relacionamento que no passado. 3. Violação dos relacionamentos de regressão - Anteriormente, resumimos os seis pressupostos clássicos de uma regressão linear. No mundo real, essas premissas são muitas vezes pouco realistas - por ex. Supondo que a variável independente X não seja aleatória. NOTICE: O grupo de consultoria estatística IDRE estará migrando o site para o WordPress CMS em fevereiro para facilitar a manutenção e criação de novos conteúdos. Algumas de nossas páginas antigas serão removidas ou arquivadas de modo que elas não serão mais mantidas. Vamos tentar manter os redirecionamentos para que os URLs antigos continuem a funcionar da melhor maneira possível. Bem-vindo ao Instituto de Pesquisa e Educação Digital, ajudando o Grupo de Consultoria Stat, oferecendo um teste de teste de saída anotada da Stata. O comando ttest realiza testes t para uma amostra, duas amostras e observações pareadas. O teste t de amostra única compara a média da amostra com um determinado número (que você fornece). O teste t de amostras independentes compara a diferença nos meios dos dois grupos com um determinado valor (geralmente 0). Em outras palavras, ele prova se a diferença nos meios é 0. O teste de amostra dependente ou pareado compara a diferença nos meios das duas variáveis ​​medidas no mesmo conjunto de assuntos para um número dado (geralmente 0), Enquanto leva em conta o fato de que as pontuações não são independentes. Em nossos exemplos, usaremos o conjunto de dados hsb2. Prova simples de t-teste O teste t de amostra única testa a hipótese nula de que a média da população é igual ao número especificado especificado usando a opção de escrita. Para este exemplo, compararemos a média da variável escrevendo com um valor pré-selecionado de 50. Na prática, o valor contra o qual a média é comparada deve basear-se em considerações teóricas e pesquisas anteriores. Stata calcula a estatística t e seu p-valor sob o pressuposto de que a amostra vem de uma distribuição aproximadamente normal. Se o valor p associado à t-test for pequeno (0,05 é freqüentemente usado como o limite), há evidências de que a média é diferente do valor da hipótese. Se o valor p associado à t-test não for pequeno (p gt 0.05), a hipótese nula não é rejeitada e você pode concluir que a média não é diferente do valor da hipótese. Neste exemplo, a estatística t é 4.1403 com 199 graus de liberdade. O correspondente valor de pata de duas colunas é .0001, que é inferior a 0,05. Concluímos que a média de escrita variável é diferente de 50. Estatísticas de resumo a. Variável - Esta é a variável para a qual o teste foi conduzido. B. Obs - O número de observações válidas (ou seja, não faltantes) utilizadas no cálculo da prova t. C. Média - Esta é a média da variável. D. Std. Errar. - Este é o desvio padrão estimado da média da amostra. Se extraímos amostras repetidas de tamanho 200, esperamos que o desvio padrão da amostra seja próximo do erro padrão. O desvio padrão da distribuição da média da amostra é estimado como o desvio padrão da amostra dividido pela raiz quadrada do tamanho da amostra: 9.478586 (sqrt (200)) .6702372. E. Std. Dev. - Este é o desvio padrão da variável. F. 95 Intervalo de Confiança - Estes são o limite inferior e superior do intervalo de confiança para a média. Um intervalo de confiança para a média especifica uma gama de valores dentro dos quais o parâmetro de população desconhecida, neste caso a média, pode mentir. É dado por onde s é o desvio de amostra das observações e N é o número de observações válidas. O valor t na fórmula pode ser calculado ou encontrado em qualquer livro de estatísticas com os graus de liberdade sendo N-1 eo valor p é 1- alpha 2, onde alpha é o nível de confiança e, por padrão, é .95. Estatísticas de teste g. Significa - este é o meio que está sendo testado. Neste exemplo, é o meio de escrever. H. T - Esta é a estatística t de Student. É a proporção da diferença entre a média da amostra e o número dado para o erro padrão da média: (52.775 - 50) .6702372 4.1403. Uma vez que o erro padrão das médias mede a variabilidade da amostra significa, quanto menor for o erro padrão da média, mais provável a nossa média da amostra é próxima da população real. Isto é ilustrado pelas três figuras a seguir. Nos três casos, a diferença entre a população significa é a mesma. Mas com grande variabilidade de meios de amostra, segundo gráfico, duas populações se sobrepõem muito. Portanto, a diferença pode vir por acaso. Por outro lado, com pequena variabilidade, a diferença é mais clara como no terceiro gráfico. Quanto menor o erro padrão da média, maior a magnitude do valor t e, portanto, menor o valor p. Eu. Ho - Esta é a hipótese nula que está sendo testada. O teste t de amostra única avalia a hipótese nula de que a média da população é igual ao número dado. J. Graus de liberdade - Os graus de liberdade para o teste t de amostra simples são simplesmente o número de observações válidas menos 1. Perdemos um grau de liberdade porque estimamos a média da amostra. Utilizamos algumas das informações dos dados para estimar a média, portanto, não está disponível para uso para o teste e as contas de graus de liberdade para isso. K. Pr (T lt t), Pr (Tgt t) - Estes são os valores p de unilatação avaliando o nulo contra as alternativas que a média é inferior a 50 (teste à esquerda) e superior a 50 (teste correto). Essas probabilidades são computadas usando a distribuição t. Novamente, se o valor p for menor do que o nível alfa pré-especificado (geralmente .05 ou .01), concluiremos que a média é significativamente maior ou menor do que o valor hipotético nulo. eu. Pr (Tgt t) - Este é o valor p de duas colas avaliando o nulo contra uma alternativa que a média não é igual a 50. É igual à probabilidade de observar um valor absoluto maior de t sob a hipótese nula. Se o valor p for menor do que o nível alfa pré-especificado (geralmente .05 ou .01, aqui o primeiro), concluiremos que a média é estatisticamente significativamente diferente de zero. Por exemplo, o valor de p para gravação é menor do que 0,05. Então, concluímos que a média para escrever é diferente de 50. Teste t pareado Um teste t pareado (ou quotdependentquot) é usado quando as observações não são independentes uma da outra. No exemplo abaixo, os mesmos alunos tomaram o teste de escrita e de leitura. Assim, você esperaria que houvesse uma relação entre as pontuações fornecidas por cada aluno. O teste de t pareado é responsável por isso. Para cada aluno, estamos essencialmente analisando as diferenças nos valores das duas variáveis ​​e testando se a média dessas diferenças é igual a zero. Neste exemplo, a estatística t é 0.8673 com 199 graus de liberdade. O correspondente valor p de duas colunas é 0.3868, que é superior a 0,05. Concluímos que a diferença média de escrita e leitura não é diferente de 0. Estatísticas resumidas a. Variável - Esta é a lista de variáveis ​​utilizadas no teste. B. Obs - O número de observações válidas (ou seja, não faltantes) utilizadas no cálculo da prova t. C. Média - Esta é a lista dos meios das variáveis. A última linha mostra a diferença simples entre os dois meios. D. Std. Errar. - Este é o desvio padrão estimado da média da amostra. Se extraímos amostras repetidas de tamanho 200, esperamos que o desvio padrão da amostra seja próximo do erro padrão. O desvio padrão da distribuição da média da amostra é estimado como o desvio padrão da amostra dividido pela raiz quadrada do tamanho da amostra. Isso fornece uma medida da variabilidade da média da amostra. O Teorema do Limite Central nos diz que os meios da amostra são aproximadamente distribuídos normalmente quando o tamanho da amostra é 30 ou maior. E. Std. Dev. - Este é o desvio padrão da variável. A última linha exibe o desvio padrão para a diferença que não é igual à diferença de desvios padrão para cada grupo. F. 95 Intervalo de Confiança - Estes são o limite inferior e superior do intervalo de confiança para a média. Um intervalo de confiança para a média especifica uma gama de valores dentro dos quais o parâmetro de população desconhecida, neste caso a média, pode mentir. É dado por onde s é o desvio de amostra das observações e N é o número de observações válidas. O valor t na fórmula pode ser calculado ou encontrado em qualquer livro de estatísticas com os graus de liberdade sendo N-1 eo valor p é 1- alpha 2, onde alpha é o nível de confiança e, por padrão, é .95. Teste de estatísticas significa (diff) mean (write-read) gt 0.8673 h Ho: média (diff) 0 graus de liberdade 199 i Ha: média (diff) lt 0 k Ha: média (diff) 0 j Ha: média (diff) Gt 0 k Pr (T lt t) 0,8066 Pr (T gt t) 0,3868 Pr (T gt t) 0,1934 g. Média (diff) mean (var1 - var2) - A prova t para grupos dependentes forma uma única amostra aleatória da diferença emparelhada, que funciona como um teste de amostra aleatória simples. A interpretação do valor t e do valor p é a mesma que no caso da amostra aleatória simples. H. T - Esta é a estatística t. É a proporção da média da diferença para o erro padrão da diferença (.545.6283822). Eu. Graus de liberdade - Os graus de liberdade para as observações pareadas são simplesmente o número de observações menos 1. Isso ocorre porque o teste é conduzido na amostra de uma das diferenças emparelhadas. J. Pr (Tgt t) - Este é o p-valor de duas caudas calculado usando a distribuição t. É a probabilidade de observar um valor absoluto maior de t sob a hipótese nula. Se o valor p for menor que o nível alfa pré-especificado (geralmente .05 ou .01, aqui o primeiro), concluiremos que a diferença média entre escrever e ler é estatisticamente significativamente diferente de zero. Por exemplo, o valor de p para a diferença entre escrever e ler é superior a 0,05, portanto, concluímos que a diferença média não é estatisticamente significativamente diferente de 0. k. Pr (T lt t), Pr (Tgt t) - Estes são os valores de pata unilateral para avaliar as alternativas (valor médio de lt H0) e (valor médio de gt H0), respectivamente. Como Pr (Tgt t). Eles são computados usando a distribuição t. Novamente, se o valor p for menor do que o nível alfa pré-especificado (geralmente .05 ou .01), concluiremos que a diferença média é estatisticamente significantemente maior ou menor que zero. Teste de grupo independente t Este teste t é projetado para comparar meios da mesma variável entre dois grupos. No nosso exemplo, comparamos o escore médio de escrita entre o grupo de estudantes do sexo feminino e o grupo de estudantes do sexo masculino. Idealmente, esses assuntos são selecionados aleatoriamente de uma população maior de assuntos. O teste pressupõe que as variâncias para as duas populações são as mesmas. A interpretação para p-value é a mesma que em outros tipos de t-tests. Neste exemplo, a estatística t é -3.7341 com 198 graus de liberdade. O correspondente valor p de duas colunas é 0.0002, que é inferior a 0.05. Concluímos que a diferença de meios na escrita entre homens e mulheres é diferente de 0. Estatísticas resumidas a. Grupo - Esta coluna fornece categorias da variável independente, no nosso caso feminino. Essa variável é especificada pela declaração by (female). B. Obs - Este é o número de observações válidas (ou seja, não faltando) em cada grupo. C. Média - Esta é a média da variável dependente para cada nível da variável independente. Na última linha, a diferença entre os meios é dada. D. Std Err - Este é o erro padrão da média para cada nível da variável independente. E. Std Dev - Este é o desvio padrão da variável dependente para cada um dos níveis da variável independente. Na última linha, o desvio padrão para a diferença é dado. F. 95 Conf. Intervalo - Estes são os limites de confiança inferior e superior dos meios. Test Statistics diff mean (masculino) - média (feminino) gt -3.7341 h Ho: diff 0 graus de liberdade 198 i Ha: diff lt 0 k Ha: diff 0 j Ha: diff gt 0 k Pr (T lt t) 0.0001 Pr (T gt t) 0,0002 Pr (T gt t) 0,9999 g. Diferença média (masculino) - média (feminino) - O teste t compara os meios entre os dois grupos, sendo a hipótese nula que a diferença entre os meios é zero. H. T - Esta é a estatística t. É a razão da média da diferença para o erro padrão da diferença: (-4.8699471.304191). Eu. Graus de liberdade - Os graus de liberdade para as observações emparelhadas é simplesmente o número de observações menos 2. Usamos um grau de liberdade para estimar a média de cada grupo e, por haver dois grupos, subtrai dois graus de liberdade. J. Pr (Tgt t) - Este é o p-valor de duas caudas calculado usando a distribuição t. É a probabilidade de observar um valor absoluto maior de t sob a hipótese nula. Se o valor p for menor do que o nível alfa pré-especificado (geralmente .05 ou .01, aqui o primeiro), concluiremos que a média é estatisticamente significativamente diferente de zero. Por exemplo, o valor de p para a diferença entre fêmeas e machos é inferior a 0,05, portanto, concluímos que a diferença nos meios é estatisticamente significantemente diferente de 0. k. Pr (T lt t), Pr (Tgtt) - Estes são os valores de pata unilateral para as hipóteses alternativas (diferença média lt 0) e (diferença média gt 0), respectivamente. Como Pr (Tgt t). Eles são computados usando a distribuição t. Como de costume, se o valor p for menor do que o nível alfa pré-especificado (geralmente .05 ou .01), concluiremos que a média é estatisticamente significantemente maior ou menor do que zero. Prova independente de T de amostra assumindo variâncias desiguais Vamos novamente a comparar médias da mesma variável entre dois grupos. No nosso exemplo, comparamos o escore médio de escrita entre o grupo de estudantes do sexo feminino e o grupo de estudantes do sexo masculino. Idealmente, esses assuntos são selecionados aleatoriamente de uma população maior de assuntos. Nós assumimos anteriormente que as variações para as duas populações são as mesmas. Aqui, vamos permitir variações desiguais em nossas amostras. A interpretação para p-value é a mesma que em outros tipos de t-tests. Neste exemplo, a estatística t é -3.6564 com 169.707 graus de liberdade. O correspondente valor de pata de duas colunas é 0.0003, que é inferior a 0.05. Concluímos que a diferença de significados na escrita entre homens e mulheres é diferente de 0, permitindo diferenças em variâncias entre grupos. Estatística de resumo a. Grupo - A lista de grupos cujos meios estão sendo comparados. B. Obs. - Este é o número de observações válidas (ou seja, não faltam) de cada grupo, bem como o combinado. C. Média - Esta é a média da variável de interesse para cada grupo que estamos comparando. Na terceira linha, a média combinada é dada e, na última linha, a diferença entre os meios é dada. D. Std. Errar. - Este é o erro padrão da média. E. Std. Dev. - Este é o desvio padrão da variável dependente para cada um dos grupos. F. 95 Intervalo de confiança - Estes são os limites inferior e superior para o intervalo de confiança 95 da média para cada um dos grupos. Estatísticas de teste g. Diff - Esse é o valor que estamos testando: a diferença nos meios do grupo masculino e do grupo feminino. H. T - Esta é a estatística t. É a estatística de teste que usaremos para avaliar nossa hipótese. É a relação entre a média e o erro padrão da diferença dos dois grupos: (-4.8699471.331894). Eu. Satterthwaites graus de liberdade - Satterthwaites é uma maneira alternativa de calcular os graus de liberdade que leva em consideração que as variâncias são assumidas como desiguais. É uma abordagem mais conservadora do que usar os tradicionais graus de liberdade. Estes são os graus de liberdade sob este cálculo. J. Pr (Tgt t) - Este é o p-valor de duas caudas calculado usando a distribuição t. É a probabilidade de observar um valor absoluto maior de t sob a hipótese nula. Se o valor de p for menor do que o nível alfa pré-especificado (geralmente .05 ou .01, aqui o primeiro), concluiremos que a diferença nos meios é estatisticamente significativamente diferente de zero. Por exemplo, o valor de p para a diferença entre fêmeas e machos é inferior a 0,05, portanto, concluímos que a diferença nos meios é estatisticamente significativamente diferente de 0. l. Pr (T lt t), Pr (Tgt t) - Estes são os valores p de uma união para as hipóteses alternativas (diferença lt 0) e (diferença gt 0), respectivamente. Como Pr (Tgt t). Eles são computados usando a distribuição t. Como de costume, se o valor p for menor do que o nível alfa pré-especificado (geralmente .05 ou .01), concluiremos que a média é estatisticamente significantemente maior ou menor do que zero. O conteúdo deste site não deve ser interpretado como um endosso de qualquer site, livro ou produto de software específico da Universidade da Califórnia.

No comments:

Post a Comment