Programação

  • Programa da Disciplina

    FMM5005 - Conceitos e Instrumentos Fundamentais de Formação em Pesquisa Biomédica - Módulo 2

      

    10/08     - Conceito de Evidência e Análise Sistemática dos Resultados

    17/08    - Definição dos Tipos de Variáveis e Estatísticas Descritivas

    24/08    - Conceitos de Erro Sistemático e Randômico / Formulação de Testes de Hipóteses

    31/08    - Métodos Paramétricos e Não Paramétricos de Comparação de Variáveis

    14/09    - Comparação de Variáveis em Modelos de Observações Múltiplas

    21/09    - Conceitos de Associação entre Variáveis e de Regressão Matemática

    28/09    - Construção de Tabelas e Curvas de Eventos e de Sobrevivência

    05/10    - Avaliação de Modelos de Predição e de Análise de Risco

    19/10    - Terminologia e Linguagem Científica / Conteúdo da Introdução e Definição dos Objetivos

    26/10    - Apresentação Sistemática dos Resultados / Aspectos Relevantes da Discussão e da Elaboração das Conclusões

    09/11   - Emprego de Softwares de Gerenciamento de Dados e de Análise de Dados

    16/11    - Tipos de Publicações Científicas / Características do Processo de Revisão nos Periódicos Científicos

    23/11    - Critérios de Qualificação dos Periódicos Científicos e do Pesquisador / Impacto das Publicações Científicas

    30/11    - Seminário

    07/12    - Seminário



    Bibliografia de Estatística Sugerida:

    Basic & Clinical Biostatistics: Fifth Edition (English Edition), eBook Kindle


  • Características e Estrutura dos Projetos de Pesquisa Científica

  • Gerenciamento de Banco de Dados na Pesquisa Científica

  • Processamento de Dados e Análise Sistemática dos Resultados

    CONCEITOS ATUAIS DE EVIDÊNCIA CIENTÍFICA


     O Lugar do Pesquisador é a Fronteira entre o Conhecido e o Desconhecido, buscando as Lacunas para Ampliar o Conhecimento Científico.

      

    Processo de Análise Crítica: (Princípios de Aristóteles)

    • Credibilidade - As Conclusões são Substanciadas pelos Dados?

    • Validade - A Metodologia Empregada é Adequada?

    • Probabilidade - A Análise Estatística Mostra Significância?

      

    ANÁLISE SISTEMÁTICA DOS DADOS

     

    Conceito de Validade Interna e Externa 

    A Validade Externa é Dependente da Validade Interna.

    Resultados que não são válidos para a População Selecionada não são válidos para a População Externa.

     

    Validade Interna

    Ø Depende da Inexistência de Vieses de Análise:

    •  Vieses de Distorção da Amostra

    •  Vieses de Mensuração

    •  Vieses de Interferência

    •  Vieses de Análise

     

    Vieses de Distorção da Amostra:

    Ø Viés de Admissão

    Ø Viés de Participação (Efeito Voluntário)

    Ø Viés de Grupos Pré-Existentes

    Ø Viés de Seleção do Procedimento (Diferença na Composição de Grupos não Randomizados)


    Vieses de Mensuração

    Ø Viés de Detecção

    •  Informação Baseada na Memória / Arquivos não Padronizados

    •  Métodos Diagnósticos Diferentes

    Ø Viés de Seguimento


    Vieses de Interferência

    Ø Variáveis Antecedentes

    Ø Variáveis Intervenientes

     Métodos de Controle de Variáveis Antecedentes ou Intervenientes

    •  Fatores de Restrição

    •  Uso de Variáveis Pareadas ou de Medidas Repetidas

    •  Estratificação das Variáveis e Técnicas de Análise Multivariada  

     

    Vieses de Análise

    Ø Indefinição de Objetivos (Pescaria ou Tortura dos Dados)

    Ø Existência de Múltiplos Testes

    Ø Viés de Migração (Crossover)

    Ø Viés de Tempo de Entrada


    ANÁLISE ESTATÍSTICA NA PESQUISA CIENTÍFICA

     

    Ø Avaliar a Existência de Diferenças entre Variáveis

    Ø Analisar a Ocorrência de Associações entre Variáveis

    Ø Estimar a Prevalência ou a Incidência de Eventos

    Ø Identificar Fatores que Alteram ou Sejam Preditores de Respostas / Eventos

      



  • Definição dos Tipos de Variáveis e Estatísticas Descritivas

    Definição dos Tipos de Variáveis / Estatísticas Descritivas


    As variáveis analisadas em um estudo científico podem, inicialmente, ser identificadas como variáveis determinantes ou variáveis dependentes.  As variáveis determinantes são aquelas que caracterizam o material ou a casuística estudada, enquanto que as variáveis dependentes correspondem aos diversos aspectos em análise no material coletado.

    O modo de apresentação e o tipo de análise a ser realizada, tanto em relação às variáveis determinantes, como em relação às variáveis dependentes, dependem fundamentalmente das características próprias de cada variável.

     

    Classificação dos tipos de variáveis

    As variáveis observadas em um estudo científico podem ser de caráter qualitativo ou quantitativo, sendo expressas por meio de escalas que dependem do tipo de informação apresentada.

    Escalas nominais: São empregadas para variáveis que discriminam ou definem parâmetros qualitativos relativos a uma determinada amostra populacional, sem apresentarem qualquer caráter de progressividade ou expressarem nível de quantidade ou de qualificação.

                    Podem ser divididas em:

    Observações binárias (presença/ausência; vivo/óbito; masculino/feminino; etc.)

    Categorias não relacionadas (diferentes etnias; lista de afecções; regiões geográficas; etc.)

    Escalas ordinais: São empregadas para variáveis que discriminam ou definem parâmetros qualitativos relativos a uma determinada amostra populacional, procurando demonstrar caráter de progressividade ou expressar nível de quantidade ou de qualificação.

                    Podem ser divididas em:

    Classificações progressivas (grau de alteração; nível de acometimento; classificação funcional; faixa etária; etc.)

    Escores ou Índices (escore de risco; escore de qualidade de vida; índice de Apagar; escala de Glasgow; etc.)

    Escalas numéricas: São empregadas para variáveis que expressam de forma objetiva medidas de quantidade relativas a uma determinada amostra populacional.

                    Podem ser divididas em:

    Variáveis contínuas – parâmetros cuja variação é contínua e cuja expressão pode incluir frações da unidade de medida (idade; freqüência cardíaca; pressão arterial; dosagem de nível hormonal, etc.)

    Variáveis discretas – parâmetros que exprimem quantidade em números absolutos, cuja variação não inclui frações da unidade de medida (número de eventos; número de observações; número de procedimentos, etc.)

     

    Apresentação de Variáveis

    A apresentação dos resultados obtidos em relação a uma variável estudada depende do tipo de escala empregada na sua aferição.

    Escalas Nominais: Resultados sempre apresentados na forma de percentagens ou proporções.

    Escalas Ordinais: Resultados geralmente apresentados na forma de percentagens ou proporções; podendo ser também apresentados em medidas de tendência central e de dispersão a partir de seus valores numéricos absolutos.

    Escalas Numéricas: Resultados normalmente apresentados em medidas de tendência central e de dispersão. Eventualmente, os valores numéricos podem ser agrupados em faixas, passando a ser apresentados na forma de percentagens ou proporções.

     

    Percentagens ou Proporções

                    As percentagens ou proporções relativas a variáveis nominais ou ordinais podem ser facilmente identificadas a partir da construção de uma tabela de contingência, como exemplificado a seguir para uma variável de expressão binária:

     

    Sucesso

    Falha

     

    Tratamento A

    6

    6

    12

    Tratamento B

    2

    13

    15

     

    8

    19

    N = 27

     

    A apresentação dos resultados na forma de percentagens ou proporções pode ser realizada através da própria tabela de contingência, dos valores numéricos encontrados ou de gráficos em formato de pizza ou de colunas.

                     Nas variáveis de expressão binária, as percentagens ou proporções podem ainda ser apresentadas na forma de índices, cuja definição também caracteriza a sistemática empregada na obtenção da própria variável.

    Índice de incidência (probabilidade; risco): definido como o número de indivíduos que apresentam um evento, dividido pelo total da população observada.

    Quantidade de eventos /

    Total da população em estudo

     

    Exemplo: 100 casos operados com 5 óbitos  - Risco de mortalidade = 5/100 = 0,05

                    Este índice pressupõe o conhecimento do número total da população em estudo e que todos os indivíduos tenham sido expostos ao risco ou probabilidade do evento durante um determinado período de tempo. Em conseqüência, este índice pode apena ser empregado em estudos de observação longitudinal.

     

    Indice de prevalência (chance; “odds”): definido como o número de indivíduos que apresentam um evento, dividido pelo número de indivíduos que não apresentam o evento.

    Quantidade de eventos /

    Quantidade livre de eventos

     

    Exemplo: 100 casos operados com 5 óbitos  - Chance (“odds”) = 5/95 = 0,0526

                    Este índice inclui os indivíduos identificados na situação estabelecida de forma binária em um momento de observação definido. Ele pode, portanto, ser empregado tanto em estudos de observação longitunal, como em estudos de corte transversal.

     

    Intervalo de Confiança para Percentagens ou Proporções

    A apresentação completa de um resultado em percentagem ou proporção inclui a definição de sua faixa de confiabilidade, que é determinada pelo cálculo de seu intervalo de confiança. Este intervalo representa o erro randômico relacionado ao valor encontrado para a percentagem ou proporção, que é diretamente influenciado pelo tamanho da amostra analisado na sua composição.

    O cálculo do erro randômico (Erro padrão) se faz a partir da própria percentagem ou proporção (P) e do tamanho da amostra (N).

    A partir deste cálculo, a definição do intervalo de confiança depende do grau de confiabilidade que desejamos assumir para o valor da percentagem ou proporção analisada. Esta confiabilidade será tanto maior, quanto maior for o intervalo estabelecido a partir do valor da percentagem ou proporção (P) ± Erro padrão (EP)

    O intervalo de confiança (IC) normalmente empregado é o de 95%, que corresponde a P ± 2 EP e que representa uma probabilidade menor ou igual a 5% de erro na determinação da percentagem ou proporção analisada.

    Exemplo: 100 casos operados com 5 óbitos  - Risco de mortalidade = 0,05 ± 0,0097 (IC 95%).


    Variáveis de Expressão Numérica

     

    Medidas de Tendência Central e de Dispersão

                    As variáveis de expressão numérica são apresentadas a partir de medidas de tendência central, cuja função é definir os valores que melhor representam os dados analisados. Em conjunto com as medidas de tendência central, as medidas de dispersão definem a variabilidade observada para cada variável no conjunto de dados observados, estabelecendo também a faixa de confiabilidade da medida de tendência central.

    A maioria das variáveis biológicas de expressão numérica apresenta uma dispersão simétrica em relação à medida de tendência central, situação que define uma distribuição normal ou Gausiana. Existem porém variáveis e situações nas quais uma variável apresenta uma dispersão assimétrica em relação à medida de tendência central, sendo esta ocorrência definida como distribuição assimétrica ou não Gausiana.

     

    Medidas de Tendência Central

    É a representação por meio de um valor único ou central de um determinado conjunto de informações que variam.

    Média

    Média é a somatória de todos os valores observados dividida pelo número total de observações. É uma representação da média aritmetica das observações. Utiliza todos os valores da amostra, mas apresenta como ponto negativo ser muito sensível a valores extremos, por esta razão deve ser empregada apenas quando a distribuição de dados é normal ou Gausiana.

    Mediana

    Divide fisicamente a distribuição em duas partes. Depende do ponto central também denominada percentil 50 ou quartil mediana. Na distribuição normal ou Gausiana apresenta valores semelhantes à média. É a representação da medida central empregada para caracterizar valores que apresentam uma distribuição de dados assimétrica ou não Gausiana.

     

    Medidas de Dispersão

    Quando os dados se distribuem de maneira simétrica em torno da média, o grau de dispersão de um conjunto de dados pode ser medido pelos desvios em relação à média. Desvio de dados em relação à média é a diferença entre cada dado e a média do conjunto.

    Variância

    Como cada dado tem um desvio em relação á média, para julgar o grau de dispersão de uma amostra é preciso observar todos os desvios.  No entanto, qualquer que seja o conjunto de dados, a soma dos desvios é sempre zero por que os valores positivos e negativos se anulam. Então para medir a dispersão dos dados em torno da média, os estatísticos usam a soma dos quadrados dos desvios.

    Desvio Padrão (DP)

    Como medida de dispersão, a variância tem a desvantagem de apresentar unidade de medida igual ao quadrado da unidade de medida dos dados . Existe uma medida de dispersão que apresenta as propiedades da variância e tem a mesma unidade dos dados que é o desvio padrão, definido como a raiz quadrada da variância, com o sinal positivo.

    Intervalo de Confiança para Média

    A apresentação completa de um resultado em média inclui a definição de sua faixa de confiabilidade, que é determinada pelo cálculo de seu intervalo de confiança. Este intervalo representa o erro randômico relacionado ao valor encontrado para a média, que é diretamente influenciado pelo tamanho da amostra analisado na sua composição.

    O cálculo do erro randômico (Erro padrão) se faz a partir da medida de dispersão da média (DP) e do tamanho da amostra (N), através da fórmula:  Erro padrão=DP×√N

    A partir deste cálculo, a definição do intervalo de confiança depende do grau de confiabilidade que desejamos assumir para o valor da percentagem ou proporção analisada. Esta confiabilidade será tanto maior, quanto maior for o intervalo estabelecido a partir do valor da Média ± Erro padrão (EP). O intervalo de confiança (IC) normalmente empregado é o de 95%, que corresponde a P ± 2 EP e que representa uma probabilidade menor ou igual a 5% de erro na determinação da percentagem ou proporção analisada.


    Medidas de Dispersão com Base em Percentis

    Os percentis, os quais chamados agumas vezes de quantis, são as porcentagens das observações abaixo do ponto indicado, quando todas as observações são ordenadas de maneira decrescente. A mediana, discutida anteriormente, é o percentil 50. O percentil 75 é o ponto abaixo do qual estão 75% das observações, ou acima dele estão 25% dos dados (quartil Q3), enquanto que o 25 é o ponto abaixo do qual estão 25% das observações (quartil Q1). A vantagem dos percentis é que eles podem ser aplicados a qualquer conjunto de dados contínuos.

     

    Distribuição Normal ou Gausiana

    A distribuição normal conhecida também como distribuição Gaussiana é sem dúvida a mais importante distribuição contínua. Sua importância se deve a vários fatores, entre eles o fato de que a maioria das medidas e variáveis biológicas apresenta uma distribuição de dados de comportamento simétrico em relação ao ponto de tendência central. A distribuição normal pode ser portanto inteiramente descrita por seus parâmetros de média e desvio padrão, ou seja, conhecendo-se estes valores consegue-se determinar a real distribuição dos dados e qualquer probabilidade relacionada a esta distribuição.


    Distribuição Assimétrica ou Não Gausiana

    Na distribuição assimétrica os dados não apresentam um comportamento simétrico em relação ao ponto de tendência central, podendo se concentrar em diferentes percentuais nos pontos extremos da amplitude de distribuição. Neste tipo de distribuição, os dados devem ser apresentados na forma de percentis ou de amplitude.

     

     Análise Descritiva

    Ø Variáveis Qualitativas

    •     Percentagens ou Proporções

     

    Ø  Variáveis Quantitativas

    •      Distribuição Normal (Gausiana)

    –    Média / Desvio Padrão / Intervalo de Confiança / Valores Máximos e Mínimos

    •      Distribuição Assimétrica (não Gausiana)

    –     Mediana / Variação (Valor Máximo / Mínimo) / Quartis



  • Conceitos de Erro Sistemático e Randômico / Formulação de Testes de Hipóteses

    ANÁLISE ESTATÍSTICA NA PESQUISA CIENTÍFICA

     

    Ø Avaliar a Existência de Diferenças entre Variáveis

    Ø Analisar a Ocorrência de Associações entre Variáveis

    Ø Estimar a Prevalência ou a Incidência de Eventos

    Ø Identificar Fatores que Alteram ou Sejam Preditores de Respostas / Eventos

      

    Análise Estatística tem como Objetivo a Quantificação do Erro Randômico

     

     Hipótese de Nulidade

    Os Dados são Provenientes da Mesma População, não Existindo Diferença Entre Eles.


    •  Erro Tipo I ou alfa (Valor de p)

    Probabilidade de Erro ao Rejeitar a Hipótese de Nulidade 

    (Estimativa da probabilidade da ocorrência do acaso)

    Influenciado pelo Número de Testes Realizados em Relação a uma Mesma Amostra

     

    •  Erro Tipo II ou  beta (Poder Estatístico)

    Probabilidade de que a Hipótese de Nulidade Esteja Errada, Mesmo não Tendo Sido Rejeitada

    Influenciado por:        Grau de Associação entre as Variáveis

    Grau de Variação Intrínseca das Variáveis (Contínuas)


     Valorização da significância estatística (Valor de p)

    Time to say goodbye to “statistically significant” and embrace uncertainty, say statisticians

    Ø Proper Inference Requires Full Reporting and Transparency;
    Ø Scientific Conclusions Should not be Defined only When a p-Value Passed a Specific Threshold;
    Ø A p-Value, or Statistical Significance, does not Measure the Size of an Effect or the Importance of a Result;
    Ø By itself, a p-Value does not Provide a Good Measure of Evidence Regarding a Model or Hypothesis.


    Emprego dos Testes Estatísticos na Pesquisa em Medicina

     

    Análise Descritiva

    Ø Variáveis Qualitativas

    •     Percentagens ou Proporções

     

    Ø  Variáveis Quantitativas

    •      Distribuição Normal (Gausiana)

    –    Média / Desvio Padrão / Intervalo de Confiança / Valores Máximos e Mínimos

    •      Distribuição Assimétrica (não Gausiana)

    –     Mediana / Variação (Valor Máximo / Mínimo) / Quartis

     

    Análise do Comportamento de Variáveis

    Ø  Avaliar a Existência de Diferença de Grandeza entre Variáveis

    Ø   Analisar a Ocorrência de Associações entre Variáveis

    Ø   Estimar a Prevalência ou a Incidência de Eventos

    Ø   Identificar Fatores que Alteram ou Sejam Preditores de Respostas / Eventos

     

    Avaliação da Diferença entre Variáveis

    Ø  Definir o Tipo de Variável

    Ø  Definir o Número de Grupos de Amostras

    Ø  Definir a Relação entre os Grupos

    •           Pareados / Medidas Repetidas

    •           Não Pareados / Não Relacionados

    Ø  Definir o Tipo de Distribuição no caso de Varáveis Quantitativas

    •           Distribuição Normal (Gausiana)

    •           Distribuição Assimétrica

     

    Avaliaçao da Diferença entre Variáveis Qualitativas  

    Ø Variável Binária (Pres./Aus.)

    Ø Variáveis Pareadas ou Não Relacionadas

    •      Comparação de Dois Proporções

    •     Comparação de Três ou Mais Proporções


    Avaliação da Diferença entre Variáveis Quantitativas

    Ø  Segundo o Tipo de Distribuição

    •      Distribuição Normal (Gausiana) - Testes Paramétricos

    •      Distribuição Não Gausiana - Testes Não Paramétricos

    Ø  Segundo o Número de Grupos

    •      Comparação de Dois Grupos

    –      Pareados

    –      Não Pareados

    •      Comparação de Três ou Mais Grupos

    –      Medidas Repetidas

    –      Não Relacionados

    Ø   Comparação de Grupos Oriundos de Duas Variáveis Determinantes            

            (Tratamento; Tempo)

     

    Avaliação da Ocorrência de Associação entre Variáveis

    Ø Definição dos Índices de Correlação e Determinação

     

    Ø Identificação da Relação entre Duas Variáveis

    •       Correlação Entre Variáveis Numéricas de Distribuição Normal 
    •       Correlação Entre Variáveis Ordinais ou Numéricas de Distribuição Assimétrica

     

    A Importância Clínica de uma Associação ou Diferença Estatisticamente Significante é uma Decisão Clínica e não Estatística.


  • Calculo Amostral - Comparação de proporções

    Cálculo do Tamanho da Amostra


    Fatores relacionados ao Cálculo Amostral

     

    Ø  Comparação entre Proporções (Variáveis Nominais / Ordinais)

    •          Nível de Significância Estabelecido

    •          Uni ou Bidirecional

    •          Proporção Esperada no Controle

    •          Diferença Esperada entre as Proporções

    Ø  Comparação entre Curvas de Eventos

    •          Nível de Significância Estabelecido

    •          Uni ou Bidirecional

    •          Proporção Livre de Eventos Esperada no Controle

    •          Diferença Esperada Entre Proporções ao Final do Seguimento

    Ø  Comparação entre Variáveis Quantitativas

    •          Relação Entre as Variáveis

    •          Nível de Significância Estabelecido

    •          Uni ou Bidirecional

    •          Diferença Esperada entre as Médias

    •          Grau de Dispersão das Variáveis

    Ø  Pequena Diferença -  < 20% DP

    Ø   Média Diferença -  50% DP

    Ø  Grande Diferença - > 80% DP


    Comparação de Variáveis Nominais e Ordinais

     

    Escalas Nominais: Resultados sempre apresentados na forma de percentagens ou proporções.

    Escalas Ordinais: Resultados geralmente apresentados na forma de percentagens ou proporções; podendo ser também apresentados em medidas de tendência central e de dispersão a partir de seus valores numéricos absolutos.

    Escalas Numéricas: Resultados normalmente apresentados em medidas de tendência central e de dispersão. Eventualmente, os valores numéricos podem ser agrupados em faixas, passando a ser apresentados na forma de percentagens ou proporções.

     

    Percentagens ou Proporções

                    As percentagens ou proporções relativas a variáveis nominais ou ordinais podem ser facilmente identificadas a partir da construção de uma tabela de contingência, como exemplificado a seguir para uma variável de expressão binária:

     

    Sucesso

    Falha

     

    Tratamento A

    6

    6

    12

    Tratamento B

    2

    13

    15

     

    8

    19

    N = 27

     

    A apresentação completa de um resultado em percentagem ou proporção inclui a definição de sua faixa de confiabilidade, que é determinada pelo cálculo de seu intervalo de confiança.

    O intervalo de confiança (IC) normalmente empregado é o de 95%, que corresponde a P ± 2 EP e que representa uma probabilidade menor ou igual a 5% de erro na determinação da percentagem ou proporção analisada.

    Exemplo: 100 casos operados com 5 óbitos - Risco de mortalidade = 0,05 ± 0,0097 (IC 95%).

     

    Índices Binários Comparativos

       Nas variáveis de expressão binária, já vimos que as percentagens ou proporções podem ainda ser apresentadas na forma de índices, cuja definição também caracteriza a sistemática empregada na obtenção da própria variável.

    Índice de incidência (probabilidade; risco): definido como o número de indivíduos que apresentam um evento, dividido pelo total da população observada.

    Indice de prevalência (chance; “odds”): definido como o número de indivíduos que apresentam um evento, dividido pelo número de indivíduos que não apresentam o evento.

     

    A comparação destes índices entre grupos de indivíduos expostos ou não expostos a um determinado fator em avaliação, pode ser feita por meio da razão entre o índice de um grupo e o índice observado no outro grupo de estudo. Neste caso, a igualdade entre os grupos é expressa por valores da razão que se aproximem da unidade, sendo facilmente definida a existência ou não de diferenças entre os grupos quando empregamos o intervalo de confiança de 95% para a expressão da razão mencionada.

    Com base na tabela de contingência

     

    Sucesso

    Falha

     

    Tratamento A

    a

    b

    Tratamento B

    c

    d

     

    N = a+b+c+d

     

    Risco Relativo       = [a/ (a+b)]  / [c / (c+d)]

    Odds Ratio (Razão de Chances) = [a / b]  /  [c / d]

    Diferença de Risco     = [a / (a+b)] – [c / (c+d)]


    Comparação entre Proporções

    O princípio básico da comparação entre proporções é avaliar as possíveis divergências entre as frequências observadas e esperadas para um certo evento em cada amostra.

    Evidentemente, pode-se dizer que dois grupos de amostras se comportam de forma semelhante se as diferenças entre as frequências observadas entre os grupos forem muito pequenas, próximas a zero.

    A comparação de proporções também é utilizada para verificar se a frequência com que um determinado acontecimento observado em uma amostra se desvia significativamente ou não da frequência com que ele é esperado.

    Baseia-se na distribuição numérica de Qui-quadrado, que tem como base a probabilidade de uma dada proporção conhecida se repetir em amostras subsequentes ou apresentar variações cada vez maiores e de menor probabilidade. Quanto maior o valor observado do Qui-quadrado, menor a probabilidade da ocorrência daquela observação ao acaso.

    Ø  Escalas Binárias / Ordinais

    •         Comparação entre Duas Proporções

    –        Pareadas: Teste de McNemar

    –        Não Pareadas: Teste Exato de Fisher / Teste de Qui-quadrado (χ 2)

    O Teste de Qui-quadrado (χ 2) apresenta um valor de cálculo aproximado, cuja confiabilidade é menor, quando existem freqüências esperadas muito pequenas (<5), devendo ser substituído sempre que possível pelo Teste Exato de Fisher.

     

    •        Comparação entre Três ou Mais Proporções

    –       Teste de Qui-quadrado (c 2)

     

    Avaliação de Estudos Diagnósticos

    As características de um teste diagnóstico tem como base a comparação da proporção em que os resultados do teste em avaliação são coincidentes com o diagnóstico a ser estabelecido.  

    Neste sentido, o diagnóstico da Doença deve ser baseado na ideia de que o paciente esteja com certeza doente. Esta certeza deve ser obtida por algum procedimento conhecido como padrão-ouro.

    •         Observação do Evento

    •         Testes Diagnósticos de Acurácia Máxima (≡ 100%)

     

    Os índices que caracterizam um teste diagnóstico se baseiam nas proporções dos chamados verdadeiros positivos, verdadeiros negativos, falsos positivos e falsos negativos.

     

    Ø     Sensibilidade

    •        VP / Com Doença (VP+ FN)

    Ø     Especificidade

    •        VN / Sem Doença (VN + FP)

    Ø     Valor Preditivo Positivo

    •        VP / Teste Positivo (VP + FP)

    Ø     Valor Preditivo Negativo

    •        VN / Teste Negativo (VN + FN)

    Ø  Acurácia Global

    •         Sensibilidade x Especificidade

     

    Curva ROC (Receiver-operator)

    Geralmente, a sensibilidade e a especificidade são características difíceis de conciliar, isto é, é complicado aumentar a sensibilidade e a especificidade de um teste ao mesmo tempo. As curvas ROC (receiver operator characteristic curve) são uma forma de representar a relação, normalmente antagónica, entre a sensibilidade e a especificidade de um teste diagnóstico quantitativo, ao longo de um contínuo de valores de "cutoff point".

    Para construir uma curva ROC traça-se um diagrama que represente a sensibilidade em função da proporção de falsos positivos (1- Especificidade) para um conjunto de valores de "cutoff point". 

    A Curva ROC permite comparar dois ou mais exames diagnósticos e o cálculo da área sob a curva é um parâmetro relacionado à acurácia do teste em avaliação.

     

    Teorema de Bayes

                Chance (Odds) Pós = Chance (Odds)Pré x Razão de Probabilidade

     

    Ser / Não Ser (Pós) = Ser / Não Ser (Pré) x Razão de Probabilidade

     Razão de Probabilidade (likelihood ratio) =  Sensibilidade / (1 – Especificidade)



  • Métodos Paramétricos e Não Paramétricos de Comparação de Variáveis Numéricas

    Comparação de Variáveis Quantitativas – Hipótese Binária

     

    Ø  Definir o Tipo de Distribuição

     Distribuição Normal (Gausiana)

     Distribuição Assimétrica

    Definir a Relação entre as Amostras

     Pareadas

    Comparação entre Variáveis Obtidas nos Mesmos Indivíduos, em Situações Diferentes.

    Vantagens:

    Controle de Vieses de Seleção

    Controle de Vieses de Medida

    Controle de Vieses Intervenientes

     Não Pareadas

    Comparação entre Variáveis Obtidas de Maneira Independente (Grupos Diferentes)

     

    Distribuição Normal (Gausiana) – Testes Paramétricos

    Na distribuição normal ou Gausiana, a avaliação da probabilidade de duas médias serem diferentes ou estarem ocorrendo ao acaso se baseia na relação entre as diferenças das médias e o grau de dispersão das amostras.

    Para uma mesma diferença entre as médias de dois grupos, a probabilidade do acaso é tanto maior quanto maior for a dispersão dos dados, situação que corresponde a valores cada vez menores da relação numérica t que é definida como:

     =     X  -  m0  ( Diferença Observada) /   SD/ √ n     (Erro padrão)

     

    Na comparação de Dois Grupos

     Pareados - Teste de Student para Valores Pareados

    O cálculo do valor de t trabalha no numerador com a média das diferenças encontradas entre as duas situações analisadas em cada indivíduo estudado, sendo o denominador o erro padrão estimado para a própria média calculada.

     Não Pareados- Teste de Student para Valores Não Pareados

    O cálculo do valor de t trabalha no numerador a diferenças entre as médias encontradas nos dois grupos de indivíduos estudados, sendo o denominador a estimativa de erro ponderada em função do número de casos de cada amostra.

               

    A partir do valor de t encontrado pela relação apresentada e do número de casos estudados, temos a probabilidade de erro tipo I (valor de p) indicada pela distribuição numérica t de Student.

    O formato da distribuição t de Student depende do número de graus de liberdade (número de amostras). Quanto maior o número de graus de liberdade, mais "concentrada" é a distribuição.

    Para o teste pareado, utilizamos os valores de t obtidos com n-1 graus de liberdade.

    Para o teste não pareado, utilizamos os valores de t obtidos com n1+n2-2 graus de liberdade.

     

    Distribuição Assimétrica – Testes Não Paramétricos

    Nas distribuições assimétricas, a comparação entre os grupos tem como base a diferença observada entre os valores das medianas destes grupos. A mediana, bem como os percentis definem a posição que cada parâmetro ocupa em determinada amostra, deixando de lado o seu valor absoluto.

    Por este motivo, a chave para se avaliar os dados em uma estrutura não-paramétrica é comparar observações com base em seus postos no interior da amostra, ao invés de seus valores absolutos, procurando-se avaliar em que grupo se concentram valores mais elevados das amostras em comparação ao outro grupo de estudo.


    Testes Não Paramétricos tem como base:

    Transformação das Observações em Escores (Ranks) Progressivos

    Cálculo das Médias e Desvios-Padrão dos Escores (Ranks)

    Cálculo de Probabilidade com Base na Distribuição t de Student


    Na comparação de Dois Grupos

    Pareados - Teste de Wilcoxon (Signed-Ranks)

    Determinação das Diferenças Individuais

    Transformação em Valores Absolutos

    Definição da Ordem Sequencial dos Valores Absolutos

    Atribuição dos Índices das Diferenças Individuais aos Números da Ordem Sequencial

    Cálculo da Média e Desvio-Padrão dos Valores da Ordem Sequencial 


    Não Pareados - Teste de Mann-Whitney

    (Wilcoxon Rank-Sum Test)

     Definição da Ordem Sequencial dos Valores Individuais dos Dois Grupos

     Cálculo das Médias e Desvios-Padrão dos Números da Ordem Sequencial para cada Grupo.



  • Comparação de Variáveis em Modelos de Observações Múltiplas

    Comparação de Três ou mais Grupos de Variáveis


    Definir o Tipo de Distribuição

    -  Distribuição Normal (Gausiana)

    -  Distribuição Assimétrica

     

    Distribuição Normal (Gausiana)

    A Análise de Variância (ANOVA) é um procedimento utilizado para comparar as médias de três ou mais grupos de variáveis.

    Baseia-se no Teste de Igualdade entre as Médias:

    H0 :      Variância das Médias ≤  Variância dos Valores Individuais nos Grupos

    Utiliza a distribuição numérica F para a definição do valor do erro tipo I (valor de p), que define a probabilidade dos três ou mais grupos de variáveis pertencerem a mesma população de dados.

    Comparação de Três ou Mais Grupos

     Medidas Repetidas

    Análise de Variância de Medidas Repetidas

     Independentes

    Análise de Variância de Um Fator Independente

    Após concluirmos que existe diferença significativa entre os grupos de variáveis, por meio do teste F, podemos estar interessados em avaliar a magnitude destas diferenças utilizando um teste complementar.

    Análise de Variância com H: Rejeitada

    Testes Complementares

     Comparações Múltiplas

    -  Teste t de Bonferoni

    Usa a distribuição t de Student e modula o valor de t de acordo com Nº de Comparações e Tamanho da Amostra (Graus de Liberdade)

     Situações Específicas

    Teste de Tukey

    Geralmente Aplicável a Comparações Pontuais Específicas

    Teste de Dunnett (Bonferoni)

    Aplicável a Comparações Realizadas em Relação a Um Controle

    Teste de Newman-Keuls

                       Aplicável a Múltiplas Comparações Realizadas em Degraus

     

    Distribuição Assimétrica

    Testes Não Paramétricos tem como base:

    Transformação das Observações em Escores (Ranks) Progressivos

    Cálculo das Médias e Desvios-Padrão dos Escores (Ranks)

    Cálculo de Probabilidade com Base na Distribuição F

     

    Comparação de Três ou Mais Grupos

    Medidas Repetidas

    -    Teste de Friedman

     Não Relacionados

                       -    Teste de Kruskal-Wallis

     

    Testes Complementares

    Teste de Dunn para Mútiplas Comparações

     

    Modelos de Análise de Múltiplos Fatores

    Modelos estatísticos empregados na avaliação do efeito de duas variáveis determinantes distintas.

    (Exemplo: Análise de Diferentes Tratamentos em Diferentes Tempos)

    Modelos de Análise de Duplo Fator

     Análise de Variância de Duplo Fator

    Modelos de Comportamento Linear Múltiplo

     Análise de Perfil Linear

     

    Hipóteses de Nulidade:

     Existem Diferenças entre as Variáveis em Relação ao Determinante 1

     Existem Diferenças entre as Variáveis em Relação ao Determinante 2

     Existem Diferenças entre as Variáveis Resultantes da Interação entre os Determinantes

     

    Modelo de Duplo Fator

    Grupos independentes de variáveis com relação aos dois fatores

    Presença de Um dos Fatores com Medidas Repetidas

     

    Teste Complementar:

     Teste t  de Bonferoni para múltiplas comparações

     

    Limitações conceituais da Análise de Medidas Repetidas:

    Informações Perdidas

     Falta de Dados em Períodos Específicos (Perda de até 5%)

     Interpolação de Valores Ponderados

    Falta de Seguimento Padronizado

    Impossibilita o Emprego da Análise



  • Associação entre Variáveis / Regressão Matemática - Construção de Curvas de Eventos e de Sobrevivência

    Avaliação de Associações entre Variáveis


    Correlação de Variáveis

    Na avaliação da Correlação entre Variáveis procuramos definir se:

    Uma Variável Determina a Outra  

     Uma Variável Afeta a Outra de Alguma Maneira

     As Duas Variáveis são Determinadas por Algum Outro Fator

     

    Na Correlação de Variáveis se assume um comportamento de relação sempre linear

    Correlação Positiva  

                As Variáveis Variam Proporcionalmente na Mesma Direção

    Correlação Negativa

    As Variáveis Apresentam Variação Inversamente Proporcional

     

    Correlação Entre Variáveis Numéricas de Distribuição Normal 

     Cálculo do Coeficiente de Correlação de Pearson

     Correlação Entre Variáveis Ordinais ou Numéricas de Distribuição Assimétrica

     Cálculo do Coeficiente de Correlação de Spearman (Rank)

     

    Coeficiente de Correlação   (r) - Representa % de Variabilidade Definido pela Associação entre as  Variáveis.

    Coeficiente de Determinação (r2) - Representa a Força da Correlação

     

    Grau de Significância da Correlação

    Para a obtenção de valor de p < 0,05   -   r > 0,88 , n=5

                                                                         -  r > 0,63 , n=10

                                                                         -  r > 0,44 , n=20

                                                                         -  r > 0,20 , n= 100


    Modelos de Regressão Matemática

    Abstrações Matemáticas (Equações) que Apresentam Analogia com Eventos Reais

    São empregados para:

    Definir uma Tendência de Comportamento

     Definir uma Curva de Comportamento

     Auxiliar na Previsão de Eventos

     Proporcionar o Ajuste de Variáveis de Confusão (Vieses Intervenientes)

     

    Índices de Qualificação do Modelo:

    Coeficiente de Determinação (r2)

                Grau de Significância do Modelo (p)

     Grau de Confiabilidade do Modelo (Goodness of fit)

     

    Principais Modelos de Comportamento

     Regressão Linear Simples

    Y = Intersecção + “Slope” . X ± Erro Randômico (Variabilidade)

                                       a   +  b . X ± e

     Modelos de Regressão Não Linear

    Exponencial

    Sigmoide

    Logarítmico

     

     Modelos de Regressão Múltipla      

    Empregados para explorar a relação entre Múltiplas Variáveis na Definição da Variável Dependente

    Definem uma Equação de Predição

    Exploram a relação entre Múltiplas Variáveis para Definir quais Variáveis X Influenciam Y de Maneira Independente

    Proporcionam o ajuste de Variáveis de Confusão

    Regressão Linear Múltipla

    Y = a + b1 . X1 + b2 . X2 + b3 . X3 ± e

    Regressão Logística

    Regressão de Risco Proporcional

     

    Método de Escolha de Variáveis Independentes que Participam do Modelo:

    Análise de Todos os Modelos Possíveis

    Análise dos Modelos em Degraus


    CÁLCULO DE ESTIMATIVA DE EVENTOS
     

    Prevalência de Eventos

     Número de Indivíduos que Apresentam um Evento em um Determinado Momento Dividido pela População em Risco Naquele Momento.

     Incidência de Eventos

    Número de Casos Novos de um Evento que Ocorreram em um Determinado Intervalo de Tempo Dividido pela População em Risco Naquele Período.

     

      Cálculo de Índices de Mortalidade / Morbidade

     Incidência do Evento em um Período Específico de Tempo

    Índice de incidência (probabilidade; risco): definido como o número de indivíduos que apresentam um evento, dividido pelo total da população observada.

    Quantidade de eventos / Total da população em estudo

     Exemplo: 100 casos operados com 5 óbitos - Risco de mortalidade = 5/100 = 0,05

                    Este índice pressupõe o conhecimento do número total da população em estudo e que todos os indivíduos tenham sido expostos ao risco ou probabilidade do evento durante um determinado período de tempo. Em consequência, este índice pode apenas ser empregado em estudos de observação longitudinal com seguimento completo da amostra até o final do período de avaliação.

    Cálculo Incidência Estimada do Evento ao Longo do Tempo

    • Estimativa de Sobrevivência
    • Estimativa de Ocorrência de Eventos  (Livre da Ocorrência de Eventos)

    O cálculo da incidência estimada de eventos é realizado a partir do número de indivíduos em seguimento ao longo do período de seguimento, sendo considerados a cada momento aqueles que atingiram o seguimento correspondente especificamente àquele período em análise. (Indivíduos em risco do evento a cada momento de avaliação dos risco estimado).

     

    Método Paramétrico

     Cálculo do Risco Estimado

                   (Hazard Function)

     A Diminuição da Sobrevivência de uma População Ocorre de Maneira Exponencial e Baseia-se em um Índice Constante de Queda.

    Cálculo Freqüência Linearizada de Eventos (Óbito)

                                           λ =     ne  (nº Eventos) /  Σti   (Σ Tempo de Seguim. Total)

     


    Ocorrência de 13 Eventos em 40 pacientes com Seguimento Médio de 2,4 anos

    Freq. Linearizada = 13 / 96 pacientes-ano

    =  13,5 eventos / 100 pacientes-ano

     

      Métodos Não Paramétricos

    Estimativa Proporcional de Risco  

    • Indivíduos Selecionados de Maneira Aleatória e Independente
    •  Definição Consistente do Evento Final
    •  Baixo Percentual de Pacientes Perdidos no Seguimento
    •  Incidência Média do Evento Constante Durante o Tempo do Estudo

     

    Curvas de Sobrevivência

     

    • Método Atuarial

    Índices de Sobrevivência Calculados em Intervalos Regulares

    • Método de Kaplan-Meier

    Índices de Sobrevivência Recalculados nos Momentos em que Ocorreram os Óbitos


     

    Curvas de Ocorrência de Eventos (Livre de Eventos)

     

    Estimativa de Eventos

     Método de Kaplan-Meier

     Método de Estimativa Real

     

    Comparação de Curvas de Eventos

     

      Métodos Paramétricos

     Comparação do Risco Estimado (Freqüências Linearizadas)

      Métodos Não Paramétricos

     Comparação da Estimativa Proporcional de Risco

    Teste de Log-Rank

     Teste de Mantel-Haenszel





  • Modelos de Análise de Risco

    MODELOS DE ANÁLISE DE RISCO

     

    Os Modelos de Análise de Risco podem ser elaborados em função de dois tipos de situação:

    Ø  Relacionados à Incidência de um Evento em um Período Definido de Seguimento

    Ø   Relacionados à Estimativa de Incidência de um Evento

    •           Curvas de Sobrevivência

    •           Curvas de Eventos (Livre de Eventos)

     

    Os Modelos de Risco podem ser conduzidos como:

    Ø  Análise Univariada

    •           Identificação Individual de Variáveis Associadas ao Risco de um Evento

    Ø  Análise Multivariada

    •           Identificação de Múltiplas Variáveis Determinantes Independentes de Risco de um Evento

    (Cada Variável Contribui de Maneira Independente para o Resultado)

     

    Modelo Baseado na Incidência de Eventos em Períodos Definidos

     

    Ø  Seguimento Completo da Amostra

    Ø  Número Suficiente de Eventos (>5) relacionados a cada Variável Investigada

     

    Ø  Análise Univariada

    •           Comparação entre Proporções nos Grupos Evento / Não Evento

    •           Comparação entre Variáveis Numéricas dos Grupos Evento / Não Evento

    •          Regressão Logística (Análise Logit)

    Ø   Análise Multivariada

    •           Regressão Logística (Análise Logit)

     

    Objetivos da Regressão Logística:

    ·         Definir uma Equação para Predizer o Resultado de uma Variável Binária (Doença ou Não Doença) a Partir de Várias Variáveis X.

    ·          Explorar a relação entre Múltiplas Variáveis para Definir quais Variáveis X Influenciam a Variável Binária de Maneira Independente

     

    •          Curva Sigmóide (em S)

    Baseada no Cálculo da Razão de Chances (Odds Ratio)

    Probabilidade de x =       1             /              1+exp[-( constante + LnOR1.x1 + LnOR2.x2 + ....)]

     

    Ø  Método de Escolha de Variáveis Independentes que Participam do Modelo:

    ·         Análise de Todos os Modelos Possíveis

    ·         Análise dos Modelos em Degraus

     

    Limitação do Modelo de Regressão Múltipla:

     Pessoas Diferentes Analisando os Mesmos Dados Podem Gerar Equações Constituídas por Fatores Diferentes

    •          Modelos Estatísticos Diferentes

    •          Abordagem Diversa em Relação a Dados Perdidos

    •          Manejo de Variáveis com Pouca Informação

    •          Tratamento de Dados Correlatos

    •          Critérios diferentes na Seleção de Variáveis

     

    Modelo Baseado na Estimativa da Incidência de um Evento

    Relacionados ao Comportamento de

    ·         Curvas de Sobrevivência

    ·         Curvas de Eventos (Livre de Eventos)

    Regressão Proporcional de Cox

    Permite Avaliar a Influência de Covariáveis que Podem se Modificar em Função do Tempo

     

    Premissas Fundamentais:

    •          Analisa Incidência do Evento Constante ao Longo de toda a Curva (Exponencial) 

    •          Número Suficiente de Eventos (>5) Relacionados a cada Variável Investigada

    •          Cada Variável Contribui de Maneira Independente para o Resultado

    •          Estudo Mais Apropriado para Gerar Hipóteses do que para Comprová-las

     

    Ø  Análise Univariada

    Seleção de Possíveis Variáveis (p<0,1)

    Ø  Análise Multivariada

     Escolha de Variáveis Independentes que Participam do Modelo

    •          Análise de Todos os Modelos Possíveis

    •           Análise dos Modelos em Degraus

     

    Diferentes Modelos de Risco Podem ser Decorrentes de:

    ·         Modelos Estatísticos Diferentes

    ·         Abordagem Diversa em Relação a Dados Perdidos

    ·         Manejo de Variáveis com Pouca Informação

    ·         Tratamento de Dados Correlatos

    ·         Critérios diferentes na Seleção de Variáveis

     

    Conceitos de Redução de Risco

     

    Ø  Redução do Risco Relativo (RRR)

    Inc. Ev. Controle – Inc. Ev. Tratam.          /              Inc. Ev. Controle

    Ø   Redução do Risco Absoluto (RRA)

    Inc. Ev. Controle – Inc. Ev. Tratam.

    Ø   Número Necessário para Tratar (NNT)

    NNT = 1 / RRA