Sharpe Ratio Qual é o Índice de Sharpe O Índice de Sharpe é uma medida para calcular o retorno ajustado ao risco, e este rácio tornou-se o padrão da indústria para tais cálculos. Foi desenvolvido pelo prêmio Nobel William F. Sharpe. A taxa de Sharpe é o retorno médio obtido em excesso da taxa livre de risco por unidade de volatilidade ou risco total. Subtraindo a taxa livre de risco do retorno médio. O desempenho associado com atividades de risco pode ser isolado. Uma intuição desse cálculo é que uma carteira envolvida em investimento de risco zero, como a compra de letras do Tesouro dos EUA (cujo retorno esperado é a taxa livre de risco), tem um índice de Sharpe exatamente zero. Geralmente, quanto maior o valor da relação de Sharpe, mais atrativo é o retorno ajustado ao risco. VIDEO Carregar o leitor. BREAKING DOWN Sharpe Ratio A relação de Sharpe tornou-se o método mais utilizado para calcular o retorno ajustado ao risco no entanto, pode ser impreciso quando aplicado a carteiras ou ativos que não têm uma distribuição normal de retornos esperados. Muitos ativos têm um alto grau de kurtosis (gordura caudas) ou negativo skewness. A relação Sharp também tende a falhar ao analisar carteiras com riscos não lineares significativos, como opções ou warrants. Ao longo dos anos surgiram metodologias alternativas de retorno ajustadas ao risco, incluindo a Rácio Sortino. Return Over Maximum Drawdown (RoMaD) e o Índice de Treynor. A Modern Portfolio Theory afirma que adicionar ativos a um portfólio diversificado que tenha correlações de menos de um com o outro pode diminuir o risco da carteira sem sacrificar o retorno. Essa diversificação servirá para aumentar a proporção de Sharpe de uma carteira. Rácio de Sharpe (Rendimento médio da carteira Taxa livre de risco) / Desvio-padrão do rendimento da carteira A fórmula de rácio de Sharpe ex-ante utiliza rendimentos esperados, enquanto a taxa de Sharpe ex post utiliza rendimentos realizados. Aplicações da relação de Sharpe A relação de Sharpe é usada frequentemente comparar a mudança em características de risco-retorno gerais das carteiras quando um novo recurso ou classe de recurso é adicionado a ele. Por exemplo, um gerente de carteira está considerando adicionar uma alocação do fundo do hedge a sua carteira de investimento 50/50 existente dos estoques que tem uma relação de Sharpe de 0.67. Se a alocação de novos portfólios é 40/40/20 ações, títulos e uma alocação diversificada fundo de hedge (talvez um fundo de fundos), a proporção de Sharpe aumenta para 0,87. Isso indica que, embora o investimento em fundos de hedge seja arriscado como uma exposição independente, ele realmente melhora a característica risco-retorno da carteira combinada e, assim, acrescenta um benefício de diversificação. Se a adição do novo investimento reduziu a proporção de Sharpe, não deve ser adicionado à carteira. A relação de Sharpe também pode ajudar a explicar se os retornos de excesso de carteiras são devido a decisões de investimento inteligente ou um resultado de muito risco. Embora uma carteira ou fundo possa desfrutar de retornos mais elevados do que os seus pares, é apenas um bom investimento se esses retornos mais elevados não vêm com um excesso de risco adicional. Quanto maior a relação Sharpe carteiras, melhor o seu desempenho ajustado pelo risco tem sido. Uma relação negativa de Sharpe indica que um ativo sem risco apresentaria melhor desempenho do que a segurança analisada. Crítica e Alternativas A relação de Sharpe utiliza o desvio padrão dos retornos no denominador como sua proxy do risco total da carteira, o que pressupõe que os retornos são normalmente distribuídos. A evidência mostrou que os retornos sobre os ativos financeiros tendem a desviar-se de uma distribuição normal e pode fazer interpretações da razão Sharpe enganosa. Uma variação da razão de Sharpe é a relação de Sortino. Que elimina os efeitos dos movimentos ascendentes dos preços sobre o desvio padrão para medir apenas o retorno contra a volatilidade dos preços descendentes e utiliza a semivariância no denominador. A relação de Treynor utiliza risco sistemático. Ou beta () em vez do desvio padrão como medida de risco no denominador. A relação de Sharpe pode também ser jogada por fundos de hedge ou por gerentes de carteira que procuram impulsionar seu history aparentemente aparentemente ajustado risco-ajustado. Isto pode ser feito por: Alongamento do intervalo de medição: Isto resultará numa estimativa mais baixa da volatilidade. Por exemplo, o desvio padrão anualizado dos retornos diários é geralmente superior ao dos retornos semanais, que é, por sua vez, superior ao dos retornos mensais. Composição dos retornos mensais, mas cálculo do desvio padrão dos retornos mensais não compostos. Escrever out-of-the-money põe e chama em um portfólio: Esta estratégia pode potencialmente aumentar o retorno por cobrar o prémio da opção sem pagar por vários anos. Estratégias que envolvem assumir risco de inadimplência. risco de liquidez. Ou outras formas de risco de catástrofe têm a mesma capacidade de relatar uma proporção de Sharpe inclinada para cima. Suavização de retornos: Usando certas estruturas de derivativos, a marcação infreqüente no mercado de ativos ilíquidos ou o uso de modelos de preços que subestimam ganhos ou perdas mensais podem ser reduzidos (p. ex., os rácios de Sharpe de hedge funds neutros para o mercado antes e depois da crise de liquidez de 1998) Reduzir a volatilidade relatada. Eliminando retornos extremos: Como esses retornos aumentam o desvio padrão relatado de um fundo de hedge, um gerente pode optar por tentar eliminar os melhores e piores retornos mensais a cada ano para reduzir o desvio padrão. Bem-vindo ao Instituto de Pesquisa Digital e Educação Stata Análise de regressão de saída anotada Esta página mostra um exemplo de análise de regressão com notas de rodapé explicando o resultado. Esses dados foram coletados em 200 alunos de escolas de ensino médio e são pontuações em vários testes, incluindo ciência, matemática, leitura e estudos sociais (socst). A variável fêmea é uma variável dicotômica codificada 1 se o estudante era do sexo feminino e 0 se masculino. Tabela de Anova a. Fonte - Analisando a desagregação da variância na variável de resultado, estas são as categorias que vamos examinar: Modelo, Residual e Total. A Variância Total é dividida na variância que pode ser explicada pelas variáveis independentes (Modelo) ea variância que não é explicada pelas variáveis independentes (Residual, às vezes chamado de Erro). B. SS - São a Soma dos Quadrados associados às três fontes de variância, Total, Modelo e Residual. C. Df - Esses são os graus de liberdade associados às fontes de variância. A variância total tem N-1 graus de liberdade. O modelo graus de liberdade corresponde ao número de coeficientes estimados menos 1. Incluindo o intercepto, existem 5 coeficientes, de modo que o modelo tem 5-14 graus de liberdade. Os graus residuais de liberdade são o total DF menos o modelo DF, 199 - 4 195. d. MS - Estes são os quadrados médios, a soma dos quadrados divididos pelo respectivo DF. Ajuste geral do modelo e. Número de obs - Este é o número de observações utilizadas na análise de regressão. F. F (4, 195) - Esta é a estatística F é o modelo quadrático médio (2385.93019) dividido pelo residual quadrático médio (51.0963039), obtendo F46.69. Os números entre parênteses são os graus de liberdade Modelo e Residual são da tabela ANOVA acima. G. Prob gt F - Este é o p-valor associado com a F-estatística acima. É utilizado para testar a hipótese nula de que todos os coeficientes do modelo são 0. h. R-quadrado - R-quadrado é a proporção de variância na variável dependente (ciência), que pode ser explicada pelas variáveis independentes (matemática, feminino socst e ler). Esta é uma medida geral da força da associação e não reflete a extensão em que qualquer variável independente particular está associada à variável dependente. Eu. Adj R-squared - Este é um ajuste do R-quadrado que penaliza a adição de preditores estranhos ao modelo. O R-quadrado ajustado é calculado usando a fórmula 1 - ((1 - Rsq) ((N - 1) / (N - k - 1)) onde k é o número de preditores J. Root MSE - Root MSE é o padrão Desvio do termo de erro e é a raiz quadrada do Residual Quadrado Médio (ou Erro) Parâmetro Estimativa k ciência - Esta coluna mostra a variável dependente no topo (ciência) com as variáveis preditoras abaixo dela (matemática, feminino. Socst read e cons) A última variável (cons) representa a constante ou intercepto l. Coef.- São os valores da equação de regressão para predizer a variável dependente a partir da variável independente A equação de regressão é apresentada em muitos diferentes A coluna de estimativas fornece os valores de b0, b1, b2, b3 e b4 para esta equação math - O coeficiente é .3893102. Assim, para cada aumento de unidade em matemática. 3893102 aumento da unidade na ciência é previsto, mantendo todas as outras variáveis constante feminino - Para cada aumento de unidade feminina. Esperamos uma diminuição de 2,009765 unidades no escore científico, mantendo todas as outras variáveis constantes. Uma vez que a fêmea é codificada 0/1 (0male, 1female), a interpretação é mais simples: para as mulheres, a pontuação da ciência prevista seria 2 pontos menor do que para os homens. Socst - O coeficiente para socst é .0498443. Assim, para cada aumento de unidade no socst. Esperamos um aumento de aproximadamente 0,05 pontos no escore científico, mantendo todas as outras variáveis constantes. Read - O coeficiente de leitura é .3352998. Assim, para cada aumento de unidade em leitura. Esperamos um aumento de 0,34 pontos no escore científico. M. Std. Errar. - Estes são os erros padrão associados aos coeficientes. N. T - Estas são as estatísticas t usadas para testar se um determinado coeficiente é significativamente diferente de zero. O. Pgtt - Esta coluna mostra os p-valores de 2 colas usados para testar a hipótese nula de que o coeficiente (parâmetro) é 0. Usando um alfa de 0,05: O coeficiente para matemática é significativamente diferente de 0 porque seu valor de p é de 0,000, Que é menor do que 0,05. O coeficiente para fêmeas (-2,01) não é estáticamente significativo ao nível de 0,05 desde que o valor de p é maior que 0,05. O coeficiente para socst (.0498443) não é estatisticamente significativamente diferente de 0 porque seu valor de p é definitivamente maior que 0,05. O coeficiente de leitura (.3352998) é estatisticamente significativo porque seu valor p de 0,000 é menor que 0,05. A constante (contras) é significativamente diferente de 0 no nível alfa 0,05. P. 95 Conf. Intervalo - Estes são os 95 intervalos de confiança para os coeficientes. Os intervalos de confiança estão relacionados com os valores de p tais que o coeficiente não será estatisticamente significativo em alfa 0,05 se o intervalo de confiança 95 incluir zero. Esses intervalos de confiança podem ajudá-lo a colocar a estimativa do coeficiente em perspectiva, vendo o quanto o valor pode variar. O conteúdo deste site não deve ser interpretado como um endosso de qualquer site particular, livro ou produto de software pela Universidade da Califórnia. Bem-vindo ao Instituto de Pesquisa Digital e Educação Stata Anotada Saída T-teste O comando ttest executa t - testes para uma amostra, duas amostras e observações emparelhadas. O teste t de amostra única compara a média da amostra com um dado número (que você fornece). O teste t de amostras independentes compara a diferença nas médias dos dois grupos com um dado valor (normalmente 0). Em outras palavras, ele testa se a diferença na média é 0. A amostra dependente ou teste t pareado compara a diferença nas médias das duas variáveis medidas sobre o mesmo conjunto de sujeitos para um dado número (normalmente 0), Tendo em conta o facto de os resultados não serem independentes. Em nossos exemplos, usaremos o conjunto de dados hsb2. Teste t de amostra simples O teste t de amostra simples testa a hipótese nula de que a média da população é igual ao número especificado especificado utilizando a opção write. Para este exemplo, vamos comparar a média da variável write com um valor pré-selecionado de 50. Na prática, o valor contra o qual a média é comparada deve ser baseado em considerações teóricas e / ou pesquisa anterior. Stata calcula a estatística t e seu valor p sob o pressuposto de que a amostra vem de uma distribuição aproximadamente normal. Se o valor p associado ao teste t é pequeno (0,05 é frequentemente usado como o limiar), há evidências de que a média é diferente do valor da hipótese. Se o valor p associado ao teste t não é pequeno (p gt 0,05), então a hipótese nula não é rejeitada e você pode concluir que a média não é diferente do valor da hipótese. Neste exemplo, a estatística t é 4.1403 com 199 graus de liberdade. O valor de p de duas colunas correspondente é .0001, que é inferior a 0,05. Concluímos que a média da variável write é diferente de 50. Resumo Estatísticas a. Variável - Esta é a variável para a qual o teste foi conduzido. B. Obs - O número de observações válidas (isto é, não faltantes) usadas no cálculo do teste t. C. Média - Esta é a média da variável. D. Std. Errar. - Este é o desvio padrão estimado da média da amostra. Se extraíssemos amostras repetidas de tamanho 200, seria de esperar que o desvio padrão das médias da amostra fosse próximo do erro padrão. O desvio padrão da distribuição da média da amostra é estimado como o desvio padrão da amostra dividido pela raiz quadrada do tamanho da amostra: 9,478586 / (sqrt (200)) .6702372. E. Std. Dev. - Este é o desvio padrão da variável. F. 95 Intervalo de Confiança - Estes são o limite inferior e superior do intervalo de confiança para a média. Um intervalo de confiança para a média especifica um intervalo de valores dentro do qual o parâmetro de população desconhecida, neste caso a média, pode estar. É dado por onde s é o desvio da amostra das observações e N é o número de observações válidas. O valor de t na fórmula pode ser calculado ou encontrado em qualquer livro de estatísticas com os graus de liberdade sendo N-1 eo valor de p sendo 1- alpha / 2, onde alfa é o nível de confiança e por padrão é .95. Estatísticas de Teste g. Mean - Esta é a média que está sendo testada. Neste exemplo, é a média de escrita. H. T - Esta é a estatística t de Student. É a proporção da diferença entre a média da amostra eo número dado para o erro padrão da média: (52.775 - 50) / .6702372 4.1403. Como o erro padrão da média mede a variabilidade da média da amostra, quanto menor o erro padrão da média, maior a probabilidade de que nossa média da amostra esteja próxima da média da população real. Isto é ilustrado pelos seguintes três números. Nos três casos, a diferença entre as médias da população é a mesma. Mas com grande variabilidade das médias da amostra, segundo gráfico, duas populações sobrepõem-se muito. Portanto, a diferença pode muito bem vir por acaso. Por outro lado, com pequena variabilidade, a diferença é mais clara como no terceiro gráfico. Quanto menor o erro padrão da média, maior a magnitude do valor t e, portanto, menor o valor p. Eu. Ho - Esta é a hipótese nula que está sendo testada. O teste t de amostra simples avalia a hipótese nula de que a média da população é igual ao número dado. J. Graus de liberdade - Os graus de liberdade para o teste t de amostra única são simplesmente o número de observações válidas menos 1. Perdemos um grau de liberdade porque estimamos a média da amostra. Usamos algumas das informações dos dados para estimar a média, portanto não está disponível para uso para o teste e os graus de liberdade explicam isso. K. Pr (T t t t), Pr (T gt t) - Estes são os p-valores unidimensionais avaliando o nulo contra as alternativas que a média é menor que 50 (teste à esquerda) e maior que 50 (teste à direita). Essas probabilidades são calculadas usando a distribuição t. Novamente, se o valor de p é menor que o nível alfa pré-especificado (normalmente .05 ou .01) concluiremos que a média é estatisticamente significativa maior ou menor que o valor hipotético nulo. eu. Pr (T gt t) - Este é o valor p de duas colunas avaliando o nulo contra uma alternativa de que a média não é igual a 50. É igual à probabilidade de observar um maior valor absoluto de t sob a hipótese nula. Se o valor de p é menor que o nível alfa pré-especificado (normalmente 0,05 ou 0,01, aqui o primeiro), concluiremos que a média é estatisticamente significativamente diferente de zero. Por exemplo, o valor de p para escrita é menor que 0,05. Assim, concluímos que a média para escrita é diferente de 50. Teste t pareado Um teste t pareado (ou quotdependente) é usado quando as observações não são independentes uma da outra. No exemplo abaixo, os mesmos alunos tomaram tanto a escrita quanto o teste de leitura. Assim, você esperaria que houvesse uma relação entre as pontuações fornecidas por cada aluno. O teste t pareado é responsável por isso. Para cada estudante, nós estamos olhando essencialmente as diferenças nos valores das duas variáveis e testando se a média destas diferenças é igual a zero. Neste exemplo, a estatística t é 0,8673 com 199 graus de liberdade. O valor p correspondente de duas colas é 0,3868, que é superior a 0,05. Conclui-se que a diferença média de leitura e escrita não é diferente de 0. Estatísticas resumidas a. Variável - Esta é a lista de variáveis usadas no teste. B. Obs - O número de observações válidas (isto é, não faltantes) usadas no cálculo do teste t. C. Média - Esta é a lista das médias das variáveis. A última linha exibe a diferença simples entre os dois meios. D. Std. Errar. - Este é o desvio padrão estimado da média da amostra. Se extraíssemos amostras repetidas de tamanho 200, seria de esperar que o desvio padrão das médias da amostra fosse próximo do erro padrão. O desvio padrão da distribuição da média da amostra é estimado como o desvio padrão da amostra dividido pela raiz quadrada do tamanho da amostra. Isto fornece uma medida da variabilidade da média da amostra. O Teorema do Limite Central nos diz que os meios da amostra são aproximadamente distribuídos normalmente quando o tamanho da amostra é 30 ou maior. E. Std. Dev. - Este é o desvio padrão da variável. A última linha exibe o desvio padrão para a diferença que não é igual à diferença de desvios padrão para cada grupo. F. 95 Intervalo de Confiança - Estes são o limite inferior e superior do intervalo de confiança para a média. Um intervalo de confiança para a média especifica um intervalo de valores dentro do qual o parâmetro de população desconhecida, neste caso a média, pode estar. É dado por onde s é o desvio da amostra das observações e N é o número de observações válidas. O valor de t na fórmula pode ser calculado ou encontrado em qualquer livro de estatísticas com os graus de liberdade sendo N-1 eo valor de p sendo 1- alpha / 2, onde alfa é o nível de confiança e por padrão é .95. Estatística de teste média (leitura) gt 0.8673 h Ho: média (dif) 0 grau de liberdade 199 i Ha: média (dif) lt 0 k Ha: média (dif) 0 j Ha: média (dif) Gt 0 k Pr (T lt t) 0,8066 Pr (T gt t) 0,3868 Pr (T gt t) 0,1934 g. Média (diff) média (var1 - var2) - O teste t para grupos dependentes forma uma única amostra aleatória a partir da diferença de pares, que funciona como um teste simples de amostra aleatória. A interpretação para o valor t e o valor p é a mesma que no caso da amostra aleatória simples. H. T - Esta é a estatística t. É a relação entre a média da diferença eo erro padrão da diferença (.545 / .6283822). Eu. Graus de liberdade - Os graus de liberdade para as observações emparelhadas é simplesmente o número de observações menos 1. Isto é porque o teste é conduzido sobre uma amostra das diferenças emparelhadas. J. Pr (T gt t) - Este é o valor p de duas caudas calculado usando a distribuição t. É a probabilidade de observar um maior valor absoluto de t sob a hipótese nula. Se o valor de p é menor que o nível alfa pré-especificado (geralmente 0,05 ou 0,01, aqui o primeiro) concluiremos que a diferença média entre escrever e ler é estatisticamente significativamente diferente de zero. Por exemplo, o valor p para a diferença entre escrever e ler é maior que 0,05, portanto, concluímos que a diferença média não é estatisticamente significativamente diferente de 0. k. Pr (T lt t), Pr (T gt t) - Estes são os p-valores unidimensionais para avaliar as alternativas (valor médio lt H0) e (valor médio gt H0), respectivamente. Como Pr (T gt t). Eles são calculados usando a distribuição t. Novamente, se o valor de p é menor que o nível alfa pré-especificado (normalmente 0,05 ou 0,01), concluiremos que a diferença média é estatisticamente significativa maior ou menor que zero. Teste de grupo independente t Este teste t foi concebido para comparar médias de mesma variável entre dois grupos. No nosso exemplo, comparamos a pontuação média de escrita entre o grupo de estudantes do sexo feminino e o grupo de estudantes do sexo masculino. Idealmente, estes sujeitos são seleccionados aleatoriamente a partir de uma população maior de indivíduos. O teste assume que as variâncias para as duas populações são as mesmas. A interpretação para o p-valor é a mesma que em outro tipo de t-testes. Neste exemplo, a estatística t é -3,7341 com 198 graus de liberdade. O valor p correspondente de duas colunas é 0,0002, que é inferior a 0,05. Conclui-se que a diferença de médias na escrita entre homens e mulheres é diferente de 0. Estatísticas Recentes a. Grupo - Esta coluna dá categorias da variável independente, no nosso caso feminino. Esta variável é especificada pela instrução by (female). B. Obs - Este é o número de observações válidas (isto é, não faltantes) em cada grupo. C. Média - Esta é a média da variável dependente para cada nível da variável independente. Na última linha é dada a diferença entre os meios. D. Std Err - Este é o erro padrão da média para cada nível da variável independente. E. Std Dev - Este é o desvio padrão da variável dependente para cada um dos níveis da variável independente. Na última linha é dado o desvio padrão para a diferença. F. 95 Conf. Intervalo - Estes são os limites de confiança inferior e superior dos meios. Diferença 0 graus de liberdade 198 i Ha: diff lt 0 k Ha: dif 0 j Ha: dif gt 0 k Pr (T t tt) 0,0001 Pr (T gt t) 0,0002 Pr (T gt t) 0,9999 g. Diff mean (male) - mean (female) - O teste t compara as médias entre os dois grupos, sendo a hipótese nula que a diferença entre as médias é zero. H. T - Esta é a estatística t. É a relação entre a média da diferença eo erro padrão da diferença: (-4.869947 / 1.304191). Eu. Graus de liberdade - Os graus de liberdade para as observações emparelhadas é simplesmente o número de observações menos 2. Usamos um grau de liberdade para estimar a média de cada grupo, e porque há dois grupos, subtrai dois graus de liberdade. J. Pr (T gt t) - Este é o valor p de duas caudas calculado usando a distribuição t. É a probabilidade de observar um maior valor absoluto de t sob a hipótese nula. Se o valor de p é menor que o nível alfa pré-especificado (normalmente 0,05 ou 0,01, aqui o primeiro), concluiremos que a média é estatisticamente significativamente diferente de zero. Por exemplo, o p-valor para a diferença entre fêmeas e machos é inferior a 0,05, portanto, concluímos que a diferença de médias é estatisticamente significativa diferente de 0. k. Pr (T lt t), Pr (Tgtt) - Estes são os p-valores unidimensionais para as hipóteses alternativas (diferença média lt 0) e (diferença média gt 0), respectivamente. Como Pr (T gt t). Eles são calculados usando a distribuição t. Como de costume, se o valor de p for menor que o nível alfa pré-especificado (normalmente 0,05 ou 0,01), concluiremos que a média é estatisticamente significativa maior ou menor que zero. Teste T de amostra independente, assumindo variâncias desiguais Vamos novamente comparar as médias da mesma variável entre dois grupos. No nosso exemplo, comparamos a pontuação média de escrita entre o grupo de estudantes do sexo feminino eo grupo de estudantes do sexo masculino. Idealmente, estes sujeitos são seleccionados aleatoriamente a partir de uma população maior de indivíduos. Anteriormente, assumimos que as variâncias para as duas populações são as mesmas. Aqui, vamos permitir variações desiguais em nossas amostras. A interpretação para o p-valor é a mesma que em outro tipo de t-testes. Neste exemplo, a estatística t é -3.6564 com 169.707 graus de liberdade. O valor de p correspondente de duas colunas é 0,0003, que é inferior a 0,05. Concluímos que a diferença de médias na escrita entre machos e fêmeas é diferente de 0, permitindo diferenças nas variâncias entre os grupos. Estatísticas resumidas a. Grupo - A lista dos grupos cujos meios estão sendo comparados. B. Obs. - Este é o número de observações válidas (ou seja, não-ausente) de cada grupo, bem como o combinado. C. Média - Esta é a média da variável de interesse para cada grupo que estamos comparando. Na terceira linha é dada a média combinada e na última linha é dada a diferença entre as médias. D. Std. Errar. - Este é o erro padrão da média. E. Std. Dev. - Este é o desvio padrão da variável dependente para cada um dos grupos. F. Intervalo de Confiança - Estes são os limites inferior e superior para o intervalo de confiança de 95 da média para cada um dos grupos. Estatísticas de Teste g. Diff - Este é o valor que estamos testando: a diferença nas médias do grupo masculino e do grupo feminino. H. T - Esta é a estatística t. É a estatística de teste que usaremos para avaliar nossa hipótese. É a razão entre a média eo erro padrão da diferença dos dois grupos: (-4.869947 / 1.331894). Eu. Satterthwaites graus de liberdade - Satterthwaites é uma forma alternativa de calcular os graus de liberdade que leva em conta que as variâncias são assumidas como desiguais. É uma abordagem mais conservadora do que usar os graus tradicionais de liberdade. Este é o grau de liberdade sob este cálculo. J. Pr (T gt t) - Este é o valor p de duas caudas calculado usando a distribuição t. É a probabilidade de observar um maior valor absoluto de t sob a hipótese nula. Se o valor de p é menor que o nível alfa pré-especificado (geralmente 0,05 ou 0,01, aqui o primeiro), concluiremos que a diferença de médias é estatisticamente significativamente diferente de zero. Por exemplo, o p-valor para a diferença entre fêmeas e machos é inferior a 0,05, portanto, concluímos que a diferença de médias é estatisticamente significativamente diferente de 0. l. Pr (T lt t), Pr (T gt t) - Estes são os p-valores unidimensionais para as hipóteses alternativas (diferença lt 0) e (diferença gt 0), respectivamente. Como Pr (T gt t). Eles são calculados usando a distribuição t. Como de costume, se o valor de p for menor que o nível alfa pré-especificado (normalmente 0,05 ou 0,01), concluiremos que a média é estatisticamente significativa maior ou menor que zero. O conteúdo deste site não deve ser interpretado como um endosso de qualquer site, livro ou produto de software específico pela Universidade da Califórnia.
No comments:
Post a Comment