PLOS ONE: Intra-examinador e Inter-Rater Reliability de um Estudo Abstraction Medical Record sobre a Transição dos Cuidados após o cancro da infância

Abstract

Fundo

A abstração de dados dos registos médicos é uma prática generalizada na investigação epidemiológica. No entanto, estudos que utilizam este meio de coleta de dados raramente relatam confiabilidade. Dentro da transição após estudo do cancro da infância (TACC) que se baseia em uma abstração registro médico, foi realizada uma segunda abstração independente dos dados, com o objectivo de avaliar a) confiabilidade intra-avaliador de um avaliador em dois momentos; b) os possíveis efeitos de aprendizagem entre estes dois pontos de tempo em comparação com um padrão-ouro; e c) a confiabilidade entre avaliadores.

Método

Dentro do estudo TACC foi realizada uma abstração registro médico sistemática nos 9 clínicas suíços com enfermarias de oncologia pediátrica. Numa segunda fase foi selecionada uma subamostra de registros médicos em 3 clínicas para realizar uma segunda abstração independente. Em seguida, avaliou a confiabilidade intra-avaliador em dois momentos, o efeito de aprendizagem ao longo do tempo (comparando cada avaliador em dois pontos de tempo com um padrão-ouro) e a confiabilidade entre avaliadores de um número selecionado de variáveis. Calculamos acordo porcentagem e kappa de Cohen

Achados

Para a avaliação da confiabilidade intra-avaliador incluímos 154 registros (80 para examinador 1; 74 para avaliador 2).. Para a confiabilidade entre avaliadores poderíamos incluir 70 registros. confiabilidade intra-avaliador foi muito boa a excelente (de Cohen 0-6-0.8 kappa) com um acordo percentagem observada de 75% -95%. Em todas as variáveis ​​foram observados efeitos de aprendizagem. confiabilidade entre avaliadores foi muito boa a excelente (kappa de Cohen 0,70-0,83) com acordo elevada, variando de 86% a 100%.

Conclusões

O nosso estudo mostrou que os dados de prontuários médicos são confiáveis . Investigando intra-examinador e confiabilidade entre avaliadores pode dar confiança para tirar conclusões a partir dos dados abstraídos e aumentar a qualidade dos dados, minimizando erros sistemáticos

Citation:. Gianinazzi ME, Rueegg CS, Zimmerman K, Kuehni CE, Michel G , a Oncologia pediátrica Grupo Swiss (SPOG) (2015) intra-examinador e Inter-Rater Reliability de um Estudo Abstraction Medical Record sobre a Transição dos Cuidados após o cancro da infância. PLoS ONE 10 (5): e0124290. doi: 10.1371 /journal.pone.0124290

Editor do Academic: Keitaro Matsuo, Kyushu University Faculdade de Ciências Médicas, JAPÃO

Recebido: 02 de dezembro de 2014; Aceito: 05 de março de 2015; Publicado em: 22 de maio de 2015

Direitos de autor: © 2015 Gianinazzi et al. Este é um artigo de acesso aberto distribuído sob os termos da Licença Creative Commons Attribution, que permite uso irrestrito, distribuição e reprodução em qualquer meio, desde que o autor original ea fonte sejam creditados

Disponibilidade de dados: Todos os dados relevantes estão dentro do papel

Financiamento:. Este trabalho foi apoiado pela Swiss National Science Foundation (Ambizione concessão PZ00P3_121682 /1 e PZ00P3-141722 para GM); Cancer League suíça (concessão KLS-01605-10-2004, KLS-2215-02-2008, KFS-02631-08-2010, KLS-02783-02-2011); Cancer League Berna; e Stiftung zur Krebsbekämpfung. O trabalho do Registro de Câncer Infância Swiss é apoiada pela Oncologia Pediátrica Grupo Swiss (www.spog.ch), Schweizerische Konferenz der kantonalen Gesundheitsdirektorinnen und -direktoren (www.gdk-cds.ch), Cancer Research Swiss (www.krebsforschung. ch), Kinderkrebshilfe Schweiz (www.kinderkrebshilfe.ch), Ernst-GÖHNER Stiftung, Stiftung Domarena, e do Instituto Nacional de Câncer Epidemiology and Registration (www.nicer.ch). Os financiadores não tiveram nenhum papel no desenho do estudo, coleta de dados e análise, decisão de publicar ou preparação do manuscrito

CONFLITO DE INTERESSES:.. Os autores declararam que não existem interesses conflitantes

Introdução

A captação de dados de prontuários dos pacientes (MR) é uma prática generalizada na investigação epidemiológica, especialmente em estudos retrospectivos [1-3]. Muitas vezes, porém, a confiabilidade ea validade interna desses dados é questionável. Isto tem várias razões. Em primeiro lugar, os dados escritos em MR não foram produzidos para fins de pesquisa e a adequação desses dados para questão de pesquisa do estudo precisa ser tratada [2]. Em segundo lugar, a baixa confiabilidade devido ao potencial intra e inter-avaliadores variância limita a validade interna dos resultados. Isto é particularmente verdadeiro para os estudos multicêntricos em que vários avaliadores estão envolvidos, as condições de recolha de dados variam, formatos MR diferem, os dados vêm de diferentes períodos de tempo ea coleta de dados deixa margem para interpretação [1]. Por estas razões, é importante relatar fiabilidade desses estudos. Além disso, isso pode ajudar a melhorar o processo de recolha, para reduzir e corrigir problemas ou discrepâncias, e, posteriormente, para ganhar confiança nas conclusões que serão tiradas [4]. Apesar da importância da notificação de tais medidas, poucos estudos, na verdade, fazê-lo [2,4-8]. Em geral, publicada retrospectivos gráfico comentários que avaliaram relatório confiabilidade bons níveis de confiabilidade para os seus dados abstraídos, mas temos que lembrar que o viés de publicação pode ser um problema neste tipo de estudo, com apenas estudos com resultados positivos sendo publicados.

o “Transition após o cancro da infância (TACC)” projeto visa avaliar a transição da pediatria para atendimento de adultos de câncer infantil sobreviventes na Suíça através da recolha de dados de MR em nove clínicas e em três regiões linguísticas. Porque nenhuma transição estudo avaliou anterior, através de uma revisão dos prontuários sistemática de coleta de dados, tivemos que desenvolver e piloto de um formulário de captação com base na literatura e do projeto disponível visa. Por estas razões descobrimos que é importante avaliar a confiabilidade dos dados coletados por investigar a) confiabilidade intra-avaliador de dois avaliadores em dois momentos; b) os possíveis efeitos de aprendizagem ao longo do tempo, comparando cada avaliador a um padrão-ouro em dois momentos; e c) a confiabilidade entre avaliadores.

Métodos

declaração

Ética

aprovação

Ética foi fornecido através da permissão geral registro de câncer da Cancer Registry Infância Swiss (A Comissão Federal Suíça de Peritos do sigilo profissional em Pesquisa médica) e uma declaração não obstat foi obtido a partir da comissão de ética do cantão de Berna, informando que a permissão ética adicional e sem consentimento informado adicional era necessário. Todas as informações sobre indivíduos foi feita anônima a investigadores antes da análise.

População do estudo

A «transição após o cancro da infância (TACC)» é um estudo multicêntrico retrospectivo realizado dentro da Swiss base populacional Registro de Câncer Infantil (SCCR). Por quase quatro décadas, a SCCR tem vindo a recolher dados sobre todos os pacientes diagnosticados com leucemia, linfoma, tumores centrais do sistema nervoso (CNS), tumores sólidos malignos ou células de Langerhans antes da idade de 21 anos [9,10]. O estudo TACC incluiu uma amostra estratificada (por diagnóstico e clínica de tratamento) selecionados aleatoriamente de pacientes registrados no SCCR, que foram diagnosticadas com cancro da infância em uma idade entre 0 e 15 anos, que sobreviveu ≥ 5 anos e tinham idade ≥16 anos no o tempo do estudo.

coleta de dados inicial para o estudo

TACC

Dentro do estudo TACC foi realizada uma abstração MR sistemática aos 9 clínicas com enfermarias de oncologia pediátrica em toda a Suíça (todas as clínicas eram filiados à Oncologia pediátrica grupo suíço). A coleta de dados teve início em Março de 2012 e terminou em Abril de 2013. Para a coleta de dados utilizamos uma forma de abstração padronizado em cópia impressa, que nós desenvolvemos utilizando a literatura disponível sobre gráfico comentários [11]. Como sugerido pelas diretrizes, pilotado a forma de abstração em três das nove clínicas, antes da abstração de dados real começou. Foram coletados dados sobre as seguintes categorias principais: freqüência de visitas de acompanhamento após a idade de 16 anos, os profissionais médicos envolvidos, descarga (paciente descarregado da oncologia pediátrica sem ser transferido), data da alta, descarga planejado, data de alta planeada, a transferência (paciente transferido de oncologia pediátrica para um profissional médico adulto), destino da transferência, data da transferência, perdeu consultas de acompanhamento (o paciente não ir para uma visita). Nós fotografadas digitalmente todos os documentos relevantes como “back up” e salvou-los em servidores seguros. Após a coleta dos dados, utilizou Epidata 3.1 para entrar em nossos dados em um banco de dados. Todas as informações demográficas ou clínicas de linha de base foram extraídos diretamente o banco de dados SCCR.

amostra para avaliação da confiabilidade

O número de re-abstrações realizamos foi baseada no número de prontuários disponíveis informações contendo sobre as variáveis ​​a serem extraídos, bem como sobre os cálculos do tamanho da amostra formais para a estatística kappa [12]. Usando alfa e as taxas de erro beta de 0,05 e 0,2, respectivamente, no ensaio de uma diferença estatística entre moderada (isto é, 0,40) e alta (isto é, 0,75) kappa valores, as estimativas do tamanho da amostra variou de 77 a 28 ao a prevalência traço foi variado entre 10% e 50%. Assim, os nossos tamanhos de amostra para a confiabilidade intra-examinador e inter-avaliador, desde que o poder necessário para detectar diferenças. Foram selecionados todos os registros médicos que não têm quaisquer valores em falta nas variáveis ​​sob investigação. Foi realizado o re-captação nos primeiros três clínicas da mesma região linguagem

Re-abstração

Para a re-captação estamos focados exclusivamente nas variáveis ​​mais importantes, a saber:. As variáveis “ainda em acompanhamento pediátrico (sim, não)”, “transferidos (sim, não)”, “descarregada (sim, não)”, “destino de transferência” (clínico geral, oncologista adulto, outro especialista), ea data variáveis ​​”data de transferência”, “data de alta” e “data da próxima visita em oncologia pediátrica” ​​(Tabela 1).

Medical record

avaliadores

Três avaliadores do estudo foram escolhidos para realizar a captação nas diversas clínicas com base em seus conhecimentos linguísticos (eles tinham que ser proficiente em todas as línguas nacionais) e do seu nível de educação. Todos os avaliadores realizou um grau no nível de Mestre, um em pedagogia /psicologia, a segunda em ciências sociais e o terceiro em biologia. Nenhum dos avaliadores tinham experiência clínica, que acreditava não era necessário para os fins do presente abstração. Um desses três avaliadores (Mestrado em Biologia) se juntou à equipe de pesquisa mais tarde e, portanto, foi excluído do estudo de confiabilidade.

Ambos os avaliadores incluídos no estudo de confiabilidade foram treinados antes da coleta de dados para os conceitos mais importantes avaliadas no estudo TACC. Para medir a confiabilidade intra-avaliador os 2 avaliadores abstraída uma amostra selecionada de registros médicos em dois pontos no tempo. Ambos os avaliadores não têm acesso aos resultados recolhidos no momento 1.

Para investigar possíveis efeitos de aprendizagem entre o ponto de tempo 1 e no ponto 2 tempo, o gerente de projeto (MEG) também abstraída os dados dos mesmos pacientes. Estes dados foram considerados o padrão-ouro e os resultados dos dois avaliadores no ponto 1 hora e 2 eram do que em comparação com o padrão ouro. Para avaliar a confiabilidade entre avaliadores os 2 avaliadores independentemente os dados abstraídos dos mesmos temas de estudo no ponto de tempo 2.

A análise estatística

Foram realizadas todas as análises usando Stata 12.0 (StataCorp, College Station, TX ). Calculamos primeiro acordo percentual, ou seja, a proporção de avaliações em que as duas observações acordados, kappa de Cohen e Prevalência-Ajustado de Bias-Ajustado Kappa (KA) para todas as variáveis ​​em intra-avaliador e comparação entre avaliadores [13]. Para a análise da confiabilidade intra-avaliador apresentamos resultados por avaliador quando possível. Para avaliar os possíveis efeitos entre o ponto no tempo 1 e ponto no tempo 2 aprendizagem, calculou-kappa de Cohen entre os dados recolhidos por cada examinador para os dois pontos no tempo e os dados recolhidos pelo gerente de projeto MEG (padrão ouro).

Kappa e de Cohen kappa ajustado

Kappa indica uma classificação numérica do grau de concordância entre dois avaliadores, tendo em conta o grau de concordância que seria esperado pelo acaso. O cálculo do kappa de Cohen é baseado na diferença entre o acordo que está realmente presente (Pr

a) eo acordo obtido por acaso (Pr

e) (Fórmula 1) [14]. Os valores de Kappa variam de 0 a 1, com 0 significando “menos de acordo oportunidade” e 1 “concordância quase perfeita”.

(Fórmula 1)

Fórmula 1, no entanto, não leva em conta a polarização entre os observadores (o ponto de desacordo) ou distribuição de dados entre as categorias que são utilizados (prevalência). O exemplo a seguir irá mostrar como acordo idêntico pode levar a diferentes coeficientes de kappa, devido à diferente prevalência de dados entre as categorias

Em ambos os quadros 2 e 3 não é igual acordo (60 de sim e não:. 25 35 e 45 + 15). No entanto, se aplicarmos a Fórmula 1 para calcular kappa de Cohen que vai acabar com resultados diferentes (K

1 = 0,1304 e K

2 = 0,2593). Esta diferença de resultados ocorre por causa da diferente distribuição de dados nas células 2×2 (o chamado prevalência) [12].

A interpretação dos sozinha kappa sem qualquer indicação de prevalência ou preconceito pode ser imprecisa. Para ultrapassar este problema foi proposta uma forma alternativa de kappa que leva em consideração tanto polarização e prevalência [15]. Isto é resumido pelo Prevalência-kappa ajustado de Bias-Ajustado (KA). KA dá a proporção de concordância além do acordo oportunidade esperada, independentemente de padrões de dados desequilibradas. A interpretação de KA é o mesmo que para kapa. Se considerarmos uma tabela 2×2 como o que na Tabela 4, KA é calculado como na Fórmula 2.

(Fórmula 2)

Interpretação dos Cohen kappa

Para interpretar o nosso resultado usamos como referência o ponto de corte proposto por Landis e Koch [16] segundo o qual kappas de Cohen ≥ 0,80 representam concordância excelente, os coeficientes entre 0,61 e 0,80 representam concordância substancial, os coeficientes entre 0,41 e 0,61 concordância moderada e 0,41 justo pobres acordo.

resultados

Amostra

a análise final incluiu 154 registros para a avaliação da confiabilidade intra-avaliador. Destes, 80 tinham sido vistos pelos avaliadores 1 e 74 por avaliador 2. A média de tempo entre a primeira (momento 1) e segunda abstração (momento 2) foi de 7,6 meses (DP = 2,2), alcance (2.1-10.3 meses ). Para a avaliação da confiabilidade entre avaliadores foram incluídos 70 registros (Fig 1).

Figura 1 mostra o fluxograma da nossa população de estudo a partir de todos os elegíveis para os incluídos na análise.

intra-avaliador confiabilidade

no geral, todas as variáveis ​​avaliadas apresentaram substancial (de Cohen kappa ≥ 0,6) a excelente acordo (de Cohen kappa ≥ 0,8) com um acordo percentagem observada variando de 75% (data da próxima visita em oncologia pediátrica) a 95% (data de transferência) (Fig 2).

Figura 2 mostra os valores de kappa para intra-avaliador (azul escuro) e para a inter-avaliador (azul claro) confiabilidade com sua confiança intervalos T para cada variável sob investigação

Depois de levar em conta a prevalência e polarização, KA foi maior para todas as variáveis ​​e variou ,64-0,81 do que os valores de kappa não ajustados (Tabela 5; Fig 3)..

Figura 3A e 3B mostram os valores de kappa em comparação com os valores obtidos pelo cálculo do kappa de bias-ajustado Prevalência ajustada para a confiabilidade intra-avaliador (a) e confiabilidade entre avaliadores (b).

a variável “no follow-up” teve o maior de Cohen kappa (k = 0,76), enquanto a transferência e descarga teve a menor (k = 0,62 ek = 0,63) (Figura 2).

data variáveis ​​tiveram kappas de Cohen (k) acima de 0,9, exceto “data da próxima visita” foram k foi de 0,7.

ao olhar para os resultados estratificados por dois avaliadores, pudemos ver que Cohen kappas foram consistentemente mais elevada para examinador 1 do que para examinador 2. Especialmente para a transferência de variáveis ​​e avaliador de descarga 2 teve kappas 0.5 (Tabela 5).

Aprender efeitos

Ao olhar para os efeitos entre o ponto de aprendizagem em tempo 1 e ponto no tempo 2 contra os dados recolhidos pelo gerente de projeto MEG, podemos ver que os valores de kappa muito melhorada para ambos os avaliadores (todos p

s 0,001). (Fig 4)

Figura 4a e 4b mostram a comparação da abstração em dois pontos no tempo do examinador 1 (a) e avaliador 2 (b) em relação ao padrão-ouro escolhido (abstração do gerente de projeto).

Inter-avaliador confiabilidade

para a transferência variáveis, descarga, no acompanhamento e destino de transferência a concordância observada foi elevada, variando de 86% para 91% (Tabela 6)

kappas de Cohen chegou a um acordo substancial ou excelente variando entre 0,70 (descarga) para 0,83 (destino da transferência) (Tabela 6; a Fig. 2). Após o ajuste para prevalência e polarização, a verdadeira proporção de concordância (KA) foi maior para todas as variáveis ​​e variou 0,71-0,84 (Tabela 6). Entre as variáveis ​​categóricas “, em follow-up” teve o maior de Cohen kappa (k = 0,76), enquanto a transferência e descarga teve a menor (k = 0,62 ek = 0,63). Acordo e kappa eram perfeitos. (100%; k = 1) para as três variáveis ​​de data avaliada

Discussão

Os resultados do nosso estudo mostraram que, para tanto intra-examinador e inter-avaliador tivemos muito boa a excelente acordo. Como esperado, as variáveis ​​para as quais nenhuma interpretação era necessário (por exemplo variáveis ​​de data), maior e muitas vezes perfeita concordância estava presente. Descobrimos que um avaliador consistentemente tiveram menor concordância intra-avaliador, mas uma análise mais aprofundada mostrou uma melhoria de julgamento entre o ponto no tempo 1 e ponto no tempo 2 para ambos os avaliadores, quando comparado ao padrão-ouro escolhido. Inesperadamente, kappas de Cohen foram maiores para confiabilidade entre avaliadores do que para a confiabilidade intra-avaliador.

pontos fortes e limitações

Este é o primeiro estudo que avalia transição da pediatria para atendimento de adultos com os registros médicos que testaram para intra-examinador e confiabilidade entre avaliadores dos dados recolhidos. Porque as variáveis ​​analisadas não foram sempre fáceis de encontrar nos registros médicos, nem fácil de taxa, estes resultados nos dão a confiança necessária para interpretar os dados recolhidos. Porque a coleta de dados ainda estava em curso, avaliando a confiabilidade também nos deu a oportunidade de identificar possíveis problemas relacionados com a compreensão do avaliador e intervir no caso, tivemos a impressão de erros sistemáticos foram ocorrendo. Para dados que já tínhamos recolhido foi realizado um duplo controlo para garantir que os possíveis erros da primeira fase poderia ser corrigido.

O estudo tem no entanto limitações. Em primeiro lugar, o tamanho da amostra não permitiu a detecção de diferenças inter-hospitalares ou diferenças entre os diferentes tipos de registros médicos (papel ou seja, versos micro filme) ou períodos de arquivamento, o que poderia explicar um pouco da variabilidade avaliador. Nós também incluiu três clínicas única, enquanto que todo o estudo foi realizado em um total de nove, em três regiões linguísticas diferentes. O cuidado é necessário, portanto, na generalização dos resultados. Em nosso estudo, apenas olhou para documentos de oncologia pediátrica e, mesmo que eles contêm correspondência com os outros especialistas envolvidos no follow-up, muitas vezes era difícil de entender completamente a história médica do paciente. Esta situação foi ainda agravada pelo fato de que nenhum dos avaliadores tinha experiência na prática clínica e estava familiarizado com os sistemas de documentação locais. Finalmente, kappa tem conhecido limitações que nós tentamos superar relatando o kappa ajustado pela polarização ajustada pela prevalência como proposto por diversos autores [12,15].

A comparação com outros estudos

Nenhum dos os estudos que analisaram a avaliar transição da pediatria para atendimento de adultos fez investigar a confiabilidade dos dados abstraídos. Encontramos vários estudos avaliando principalmente a confiabilidade entre avaliadores dos testes de diagnóstico (triagem e detecção de eventos adversos) que não eram directamente comparáveis ​​aos nossos. Dois estudos [4, 8] foram mais similares em metodologia e escopo para o nosso: no primeiro os autores encontraram que o acordo era mais pobre para as variáveis ​​para as quais foi necessário um grau de interpretabilidade (dados de julgamento), enquanto foi maior para os dados de tais como características demográficas ou numéricos [8]. O mesmo foi encontrado no segundo estudo multicêntrico usando abstração registro médico em um estudo sobre o programa de base comunitária cuidados com a asma [4]. Neste estudo, eles descobriram que a abstração multicêntrico de dados dos registos médicos é confiável e conclusões podem ser extraídas dos resultados. Eles encontraram kappa de um Cohen global de confiabilidade intra-avaliador de 0,81 (excelente) e um kappa geral de Cohen de 0,75 (substancial) na análise entre avaliadores.

Interpretação dos resultados

Mesmo que nós não poderia alcançar a perfeição na abstração dos dados, os nossos resultados são tranquilizadores e mostrou níveis satisfatórios de acordo. Além disso, a melhoria dos avaliadores no julgamento entre a hora 1 e a hora 2, provavelmente devido a um efeito de aprendizagem, permite supor que a abstração nos restantes 6 clínicas não incluídos no presente estudo, é de qualidade e fiabilidade, pelo menos, igual ou superior . Como era de se esperar, o acordo foi maior para as variáveis ​​não-julgamento, como datas. Tais informações na sua maioria não necessita de interpretação. Outros dados, como as variáveis ​​”transferência” ou “destino de transferência” estavam a ser procurado em textos livres, tais como cartas ou relatórios médicos e que muitas vezes exigia um grau diferente de atenção e interpretação. Na verdade, abstração de dados foi difícil porque na oncologia pediátrica definindo vários outros especialistas estão freqüentemente envolvidos em o seguimento dos doentes (por exemplo, neurologistas, endocrinologistas). Documentos encontrados eram muitas vezes a partir de vários especialistas e os avaliadores tinham que decidir se, por exemplo, um paciente foi transferido de oncologia pediátrica, ou se o paciente realmente foi transferido de outro especialista. Um paciente pode saber ainda estar no seguimento em oncologia pediátrica, mas poderia ter sido transferido de endocrinologia pediátrica para endocrinologia adulto. Este foi muitas vezes uma fonte de confusão quando abstrair dados.

Em contraste com outros estudos [4,7], encontramos maior confiabilidade entre avaliadores do que intra-avaliador. Porque confiabilidade entre avaliadores foi avaliada no momento 2 só que desta maior confiabilidade pode ser devido ao efeito de aprendizagem pudéssemos mostrar.

Implicações para a prática

Apesar das limitações conhecidas da retrospectiva estudos utilizando MR ou outros dados secundários, um número cada vez maior de estudos têm mostrado que uma tal abordagem pode produzir resultados fiáveis ​​se o procedimento é consistente e padronizada, e se avaliadores devidamente formado. Seria interessante investigar se os arquivos ‘organização, os documentos’ idade e o formato desses documentos (por exemplo, microfilmes, eletrônico, em papel) influenciam a qualidade dos dados recuperados. Finalmente, essa análise poderia ajudar a detectar possíveis problemas como dificuldades de compreensão do avaliador ou discrepâncias e melhorar a qualidade geral dos estudos retrospectivos.

Conclusão

Nosso estudo mostrou que, apesar de várias limitações atribuídas aos dados abstraídos do MR, os nossos dados parece ser confiável. Graças à avaliação dos efeitos de aprendizagem, erros sistemáticos pode ser corrigida e qualidade dos dados gerais melhorado. Com boa formação e uma boa confiabilidade procedimento padronizado pode ser alcançado.

Reconhecimentos

Agradecemos à equipe de estudo da Transição após estudo do cancro da infância (Isabelle Brunner, Eliane Rupp e Samuel Wittwer) eo gestores de dados do Grupo de Oncologia pediátrica Swiss

Swiss Paediatric Oncology Group (SPOG) Comité Científico:. Prof. Dr. med. R. Ammann, Berna; Dr. med. R. Angst, Aarau; Prof. Dr. med. M. Ansari, Genebra; PD Dr. med. M. Popovic Beck, Lausanne; Dr. med. E. Bergstraesser, Zurique; Dr. med. P. Brazzola, Bellinzona; Dr. med. J. Greiner, St. Gallen; Prof. Dr. med. M. Grotzer, Zurique; Dr. med. H. Hengartner, St. Gallen; Prof. Dr. med. T. Kuehne, Basel; Prof. Dr. med. C. Kuehni, Berna; Prof. Dr. med. K. Leibundgut, Berna; Prof. Dr. med. F. Niggli, Zurique; PD Dr. med. J. Rischewski, Lucerna; Prof. Dr. med. N. von der Weid, Basileia.

Deixe uma resposta