EN | PT | TR | RO | BG | SR
;
Marcar como lida
Marcar como não lida


NEXT TOPIC

Parte II. Métodos de Condução de uma Meta-Análise




Realizar uma pesquisa completa


A realização de uma pesquisa inicial é uma etapa crucial que valida o conceito proposto, evita a duplicação de tópicos previamente discutidos e confirma um número adequado de artigos para análise. Este processo não é apenas uma formalidade, mas uma contribuição significativa para o campo (Tawfik et al., 2019).

Estabelecido o protocolo e o escopo, o próximo passo é uma pesquisa meticulosa e completa. Irá gerar inúmeros estudos, mas muitos serão descartados como irrelevantes usando critérios baseados no título, resumo ou local de publicação do estudo. Os restantes estudos «potencialmente relevantes» devem ser lidos mais atentamente e divididos em relevantes e irrelevantes. Este processo pode levar a uma redução significativa no número de artigos em cada etapa. Esteja preparado para um grande número (muitas vezes a maioria) de estudos que você inicialmente identifica como relevantes para serem inadequados para a meta-análise. A etapa final é extrair as informações necessárias (tamanhos de efeitos e moderadores) de artigos relevantes. Uma planilha de dados finalizada é crucial, garantindo que todas as informações que você deseja extrair sejam incluídas.

Entender o compromisso entre construir uma pilha de papéis relevantes e retornar a eles para extrair o tamanho do efeito depois de ter uma planilha de dados finalizada versus extrair dados de um papel enquanto você lê é essencial. A vantagem do primeiro é que você pode ter mais certeza de que sua planilha contém todas as informações que você deseja extrair. A vantagem deste último é que você pode ler um artigo em profundidade uma vez.

Entender exatamente como um estudo foi projetado e quais dados relevantes são necessários para extrair um tamanho de efeito pode ser surpreendentemente complexo. Uma boa tomada de notas é essencial neste processo e, muitas vezes, não é mais fácil numa segunda leitura. Se estiver confiante de que tem uma boa compreensão das principais características dos estudos relevantes, pode considerar a criação de uma base de dados e a extração de dados assim que classificar um artigo como relevante. A ressalva, é claro, é que você ainda pode ter que retornar a esses artigos se descobrir mais tarde que precisa codificar um termo moderador adicional ou ajustar seus critérios de inclusão no estudo. A extração de informações sobre a leitura inicial é mais viável quando se trata de estudos que seguem de perto um desenho experimental específico e comum.

Papakostidis e Giannoudis (2023) chamam a atenção para o facto de, apesar da última tendência para a melhoria da qualidade nos últimos anos, terem sido encontradas deficiências metodológicas nas meta-análises atualmente publicadas. As revisões sistemáticas e meta-análises devem obedecer a regras rigorosas e transparentes, tais como as orientações PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses) (ver Fig. 4), garantindo a reprodutibilidade e robustez do processo de pesquisa, a fiabilidade e validade das suas conclusões e a clareza dos relatórios. Estas diretrizes descrevem as etapas básicas para garantir que todos os requisitos mencionados acima sejam atendidos, incluindo o relatório transparente da estratégia de pesquisa, o processo de seleção do estudo, a extração de dados e a síntese de dados:

  1. Um protocolo de estudo prospetivo é a pedra angular de uma revisão sistemática e meta-análise. O seu papel na redução de enviesamentos e na garantia da transparência não pode ser sobrestimado. Este documento bem estruturado e sucinto deve descrever adequadamente todas as etapas do processo de investigação, incluindo potenciais alterações na metodologia de revisão sistemática. Ao fazê-lo, justifica estas alterações e evita a introdução de enviesamentos na seleção dos dados para a revisão.
  2. O processo de pesquisa não é apenas uma etapa, mas a espinha dorsal de uma revisão sistemática e meta-análise. A sua robustez e reprodutibilidade garante a inclusão de todos os dados relevantes de estudos elegíveis. Isto envolve a pesquisa de várias bases de dados electrónicas e listas de referência, sendo essenciais bases de dados como PubMed, EMBASE ou SCOPUS. Bases de dados adicionais como Cochrane, Web of Science e ProQuest também devem ser consideradas. Também vale a pena identificar literatura cinzenta potencialmente relevante pesquisando resumos de anais de conferências. No entanto, estratégias de pesquisa inadequadas e restrições linguísticas podem limitar o número de estudos elegíveis, introduzindo uma quantidade significativa de viés de publicação. Esse viés é possível até mesmo com a estratégia de busca mais abrangente, pois espera-se a não publicação de estudos inteiros ou de todos os resultados de um estudo.
  3. Validade interna dos estudos primários: O termo "validade interna" refere-se à capacidade de um estudo estabelecer uma relação fiável de causa-efeito entre um tratamento e um resultado, limitando vários fatores de confusão. Trata-se de um aspeto crucial intimamente ligado ao risco de enviesamento e à qualidade metodológica dos estudos incluídos. Várias ferramentas têm sido desenvolvidas para avaliar o risco de viés em estudos primários, tanto para ECRs (ensaios clínicos randomizados e controlados) quanto para estudos observacionais.
  4. A última edição da ferramenta Cochrane Collaboration Risk-of-Bias (RoB-2) [1] fornece uma estrutura para avaliar o risco de viés nos resultados de ECRs. Está estruturado em cinco domínios de potencial introdução de enviesamentos nos resultados do estudo: (1) processo de aleatorização; (2) desvios das intervenções previstas; (3) dados de resultados em falta; (4) medição do resultado; (5) seleção dos resultados reportados (Sterne et al., 2019). Dentro de cada domínio de enviesamento, as perguntas de sinalização específicas visam obter informações relevantes para a avaliação do risco de enviesamento[2]. A ferramenta inclui algoritmos que mapeiam as respostas a essas perguntas de sinalização em uma proposta de julgamento de risco de viés para cada domínio. Os possíveis julgamentos de risco de viés são (1) Baixo risco de viés, (2) Algumas preocupações e (3) Alto risco de viés. A ferramenta é descrita como um visor de "semáforos". A ferramenta Risk of Bias in Non-randomized Studies of Interventions (ROBINS-I) descreve sete domínios de potencial ocorrência de enviesamentos (ver Tabela 3): dois na fase "pré-intervenção", um na fase "na intervenção" e quatro na fase "pós-intervenção".
  5. Análise de dados e relatórios: Embora a combinação de dados de estudos individuais aumente o tamanho da amostra e o poder estatístico, é crucial explorar a presença de heterogeneidade estatística. Esta inconsistência no efeito do tratamento nos estudos incluídos pode induzir em erro e reduzir a confiança nas conclusões. A quantificação da heterogeneidade estatística é geralmente baseada em testes estatísticos específicos (Higgins-I, teste Q de Cochran). Os autores de meta-análises devem explorar a presença de heterogeneidade estatística, desenhando e realizando adequadamente análises de subgrupos e sensibilidade com base em hipóteses a priori no início do protocolo do estudo. Tais hipóteses envolvem a exploração dos resultados da análise agrupada em subconjuntos de dados potencialmente mais homogêneos (subgrupos) com base, por exemplo, nas características clínicas das amostras, questões metodológicas, desenho do estudo e origem geográfica dos estudos. Dois modelos estatísticos diferentes são usados para produzir estimativas de efeitos combinados. A seleção do modelo estatístico adequado para o agrupamento de dados depende da presença de heterogeneidade entre os estudos. No entanto, não foram definidos valores de corte claros do grau de heterogeneidade que ditaria a seleção de um modelo em detrimento do outro. Por outro lado, os testes estatísticos para heterogeneidade são muitas vezes insuficientes para detetar heterogeneidade significativa:
  6. O modelo de efeitos fixos assume um único tamanho de efeito real em todos os estudos, representado pela estimativa de efeito agrupado. Este modelo é normalmente usado quando não há heterogeneidade em uma meta-análise e quando há muitos estudos com grandes tamanhos amostrais. Nesses casos, há confiança de que o teste de heterogeneidade é poderoso o suficiente para detetar diferenças significativas. Os resultados obtidos com este modelo tendem a ter intervalos de confiança mais estreitos. Se houver preocupações com a heterogeneidade, o modelo de efeitos aleatórios (DerSimonian & Kacker, 2007) é considerada uma escolha melhor. Produz intervalos de confiança mais amplos em torno das estimativas pontuais e é uma opção mais cautelosa para a análise. No campo médico, onde se espera que o efeito real varie entre diferentes populações, usar o modelo de efeitos aleatórios com mais frequência é mais apropriado. A utilização do modelo de efeitos fixos é razoável em meta-análises que incluam um número suficientemente grande de estudos com amostras adequadas e em que a heterogeneidade estatística ainda não tenha sido detetada. Finalmente, a qualidade da evidência resumida obtida a partir de uma meta-análise deve ser avaliada usando a estrutura transparente da ferramenta GRADE, AMSTAR ou PRISMA (ver Fig. 4). Eles avaliam a confiança na estimativa de efeito para cada resultado de interesse. A sua não utilização em meta-análises pode resultar numa falta de transparência e conduzir potencialmente a conclusões enganosas.
  7. O modelo de efeitos aleatórios assume que a estimativa do efeito real difere entre os estudos originais devido a diferenças em suas características clínicas. Portanto, a estimativa do tamanho do efeito combinado gerada com base neste modelo representa uma estimativa média de todas as estimativas dos estudos individuais.
  8. Análise dos resultados de uma meta-análise. É essencial analisar os resultados de uma meta-análise, considerando o seu significado. Uma variância estatisticamente significativa não é significativa se não tiver relevância. Além disso, qualquer diferença pode alcançar significância estatística com um tamanho amostral suficientemente grande. Inversamente, quando é calculada uma estimativa de efeitos globais não significativa, é essencial avaliar cuidadosamente se o que é considerado relevante se enquadra no intervalo de confiança dessa estimativa.
  9. A validação dos resultados é um passo significativo. Centros de evidência como o CEBM da Universidade de Oxford, uma instituição de renome na área, desenvolvem importantes ferramentas de avaliação. Eles são fundamentais para estabelecer a confiabilidade, o significado científico e a aplicabilidade das evidências coletadas a partir de uma meta-análise. Com cinco questões-chave, o CEBM é um método confiável para determinar a validade dos resultados do estudo.

 

 

[1] https://methods.cochrane.org/bias/resources/rob-2-revised-cochrane-risk-bias-tool-randomized-trials

[2] Ver quadro 1, em https://www.bmj.com/content/366/bmj.l4898.long