首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 0 毫秒
1.
《Biometrics》2008,64(4):1318-1320
  相似文献   

2.
《Biometrics》2008,64(3):1007-1008
Y. K. Cheung 940 Simple Sequential Boundaries for Treatment Selection in Multi‐Armed Randomized Clinical Trials with a Control Dans une situation où, avec des ressources trop limitées pour réaliser des comparaisons systématiques avec un standard, on veut étudier un grand nombre de traitements, il peut être utile de conduire un essai à plusieurs bras pour éliminer précocement les traitements inintéressants. Quand l’étude a des critères de jugement dont l’évaluation est relativement rapide, comme l’évaluation d’un volume de lésion à partir d’une image chez les patients victimes d’une attaque, des analyses intermédiaires fréquentes sont éthiquement et pratiquement souhaitables pour les cliniciens. Dans cet article je propose une classe de frontières pour les essais à plusieurs bras, dans lesquels l’objectif est soit la sélection d’un traitement donnant une amélioration significative par rapport au groupe contrôle, soit la déclaration de la futilité de la recherche si il n’existe pas de tel traitement. Les limites proposées sont faciles àétablir en aveugle et peuvent être appliquées à un calendrier d’examens évolutif. Il est simple de calibrer l’essai par rapport à un niveau de confiance fixéà l’avance et cela peut être fait quand le taux de réponse dans le groupe contrôle n’est que connu que par intervalle. Une des méthodes proposées est appliquée pour redéfinir un essai de sélection avec un critère de jugement fourni par imagerie chez des patients avec une attaque aiguë, on le compare par simulations à un dispositif optimal à deux étapes. En moyenne, la méthode proposée emploie des échantillons de taille plus faible que la méthode en deux étapes, cet avantage devient substantiel quand il existe un traitement supérieur au contrôle. L. Liu, X. Huang, and J. O'Quigley 950 Analysis of Longitudinal Data in the Presence of Informative Observational Times and a Dependent Terminal Event, with Application to Medical Cost Data Dans les études observationnelles longitudinales, les mesures répétées sont souvent recueillies à des temps d’observation informatifs. De plus, il peut exister un événement terminal dépendant tel que le décès qui interrompt le suivi. Par exemple les patients en moins bonne santé chercheront plus à se faire soigner et les coûts pour chaque visite ont tendance àêtre plus élevés. Ils ont aussi des taux de mortalité plus élevés. Dans cet article, nous proposons un modèle à effets aléatoires de mesures répétées en présence à la fois de délais d’observation informatifs et d’un événement terminal dépendant. Trois sous‐modèles sont utilisés respectivement pour (1) l’intensité des temps d’observation récurrents, (2) la quantité d’observations répétées à chaque temps d’observation et (3) le risque instantané de décès. Des effets aléatoires corrélés sont inclus pour lier les trois sous modèles. L’estimation peut s’effectuer facilement par des techniques de quadrature gaussiennes, par exemple avec la procédure NLMIXED de SAS. La méthode proposée est illustrée par une analyse du processus de coûts générés chez des patients souffrant d’insuffisance cardiaque chronique. Les données sont extraites de la base de données cliniques CDR du système de santé de l’Université de Virginie. J. Cao, G. F. Fussmann, and J. O. Ramsay 959 Estimating a Predator‐Prey Dynamical Model with the Parameter Cascades Method Les équations différentielles ordinaires (EDO) sont largement utilisées pour décrire le comportement dynamique des populations en interaction, Cependant les systèmes EDO donnent rarement des solutions quantitatives proches des observations réelles de terrain ou des résultats expérimentaux, parce que les systèmes naturels sont soumis à un bruit environnemental ou démographique et que les écologistes sont dans l’incertitude pour paramétrer correctement leurs données. Dans cet article nous introduisons les « cascades de paramètres » pour améliorer l’estimation des paramètres EDO de manière à bien ajuster les solutions aux données réelles. Cette méthode est basée sur le lissage pénalisé modifié en définissant la pénalité par les EDO et en généralisant l’estimation profilée pour aboutir à une estimation rapide et à une bonne précision des paramètres EDO sur des données affectées de bruit. Cette méthode est appliquée à un ensemble d’EDO prévues à l’origine pour décrire un système prédateur‐proie expérimental soumis à des oscillations. Le nouveau paramétrage améliore considérablement l’ajustement du modèle EDO aux données expérimentales. La méthode révèle en outre que d’importantes hypothèses structurales sous‐jacentes au modèle EDO originel sont essentiellement correctes. La formulation mathématique des deux termes d’interaction non linéaire (réponses fonctionnelles) qui lient les EDO dans le modèle prédateur‐proie est validée par un estimateur non paramétrique des réponses fonctionnelles à partir des données réelles. Nous suggérons deux applications importantes des « cascades de paramètres »à la modélisation écologique. La méthode peut servir à estimer des paramètres quand les données sont soumises à des bruits ou manquantes, ou quand aucune estimée a priori fiable n’est disponible. La méthode peut par ailleurs aider à valider la qualité structurelle du modèle mathématique. D. S. Johnson, D. L. Thomas, J. M. Ver Hoef, and A. Christ 968 A General Framework for the Analysis of Animal Resource Selection from Telemetry Data Nous proposons un cadre général pour analyser des données télémétriques animales en utilisant des distributions pondérées. On montre que plusieurs interprétations du choix des ressources se présentent quand on compare la ressource utilisée à la ressource disponible. Le cadre général proposé permet de montrer que les modèles habituels de choix des ressources sont des cas particuliers du modèle général avec des hypothèses sur les déplacements et le comportement des animaux. On montre que le cadre des distributions pondérées permet de prendre facilement en compte des données télémétriques fortement autocorrélées, comme c’est typiquement le cas avec la technologie GPS assurant le suivi des animaux. Une analyse de données simulées utilisant plusieurs modèles construits dans le cadre proposé est présentée pour illustrer les gains possibles apportés par cette modélisation flexible. Le modèle est appliquéà des données sur l’ours brun du sud‐est de l’Alaska.  相似文献   

3.
《Biometrics》2008,64(1):326-327
The Skill Plot: A Graphical Technique for Evaluating Continuous Diagnostic Tests
Nous présentons ici le ≪ Skill Plot ≫ (graphe d'aptitude), une méthode d'aide à la décision, immédiatement exploitable, conçue pour les tests diagnostiques. Contrairement aux courbes ROC, une telle courbe d'aptitude permet un examen visuel aisé du seuil ou de la règle de décision optimal pour un test diagnostique. Le ≪ Skill Plot ≫ et le test qui lui est associé permettent également de juger si les diagnostics basés sur le seuil ainsi obtenu sont meilleurs qu'une imputation naïve (diagnostics tous estimés positifs ou tous négatifs). La mesure d'aptitude facilite ici la comparaison directe de l'utilité prédictive de deux classifications, comme l'aire sous la courbe est la statistique d'intérêt dans l'analyse ROC. Nous démontrons par ailleurs que le seuil issu du ≪ Skill Plot ≫ est équivalent au seuil obtenu par optimisation des rapports de cotes a posteriori dans le cadre de la théorie bayésienne de la décision. Enfin, nous présentons et discutons brièvement une méthode permettant de construire l'intervalle de confiance de ce seuil optimal.  相似文献   

4.
《Biometrics》2008,64(3):1000-1007
I. Lobach, R. J. Carroll, C. Spinka, M. H. Gail, and N. Chatterjee 673 Haplotype‐Based Regression Analysis and Inference of Case‐‐Control Studies with Unphased Genotypes and Measurement Errors in Environmental Exposures Il est maintenant établi que le risque de développer une maladie dite complexe est sous l’influence conjointe de facteurs de susceptibilité génétiques, de facteurs d’exposition environnementaux et de leurs interactions potentielles. Chatterjee et caroll (2005) ont développé une méthode efficace de maximum de vraisemblance rétrospectif pour l’analyse des études cas‐témoins qui fait l’hypothèse d’indépendance des effets génétiques et environnementaux et qui autorise une distribution totalement non paramétriques des covariables environnementales. Spinka et al (2005) ont étendu cette approche aux études où certains types d’information, comme les phases haplotypiques, sont manquantes chez certains individus. Nous étendons cette approche aux situations où certaines exposition environnementales sont mesurées avec erreur. A l’aide d’un modèle de régression logistique polychotomique, nous permettons au statut maladie d’avoir K+1 niveaux. Nous proposons d’utiliser une pseudo‐vraisemblance and un algorithme EM associé pour l’estimation des paramètres. Nous démontrons leur consistance et dérivons la matrice de covariance asymptotique des estimations des paramètres lorsque la variance de l’erreur de mesure est connue et lorsqu’elle est estimée à l’aide de réplications. Les inférences avec des corrections de l’erreur de mesure sont compliquées par le fait que le test de Wald à des propriétés non satisfaisantes en présence d’un large nombre d’erreurs de mesure. Les techniques du rapport de vraisemblance sont connues pour être une alternative satisfaisante. Cependant, les tests du rapport de vraisemblance ne sont pas techniquement corrects dans cette situation car la fonction de vraisemblance est fondée sur un modèle incorrect, i.e. un modèle prospectif dans un schéma d’échantillonnage rétrospectif. Nous corrigeons les résultats asymptotiques standards pour prendre en compte le fait que le test du rapport de vraisemblance est fondé sur une fonction apparentéà la vraisemblance. Les performances de la méthode proposée sont illustrées avec des études de simulation dans le cas où l’information génétique est de type haplotypique et que les données manquantes viennent d’une ambigüité de phase lors de la reconstruction de ces haplotypes. Enfin, nous appliquons notre méthode à une étude d’association cas‐témoins entre la prise de calcium et le risque d’adénome colorectal. B. Mukherjee and N. Chatterjee 685 Exploiting Gene‐Environment Independence for Analysis of Case‐‐Control Studies: An Empirical Bayes‐Type Shrinkage Estimator to Trade‐Off between Bias and Efficiency L’analyse prospective habituelle de données de type cas‐témoin par la régression logistique conduit souvent à des estimateurs très imprécis des interactions gènes‐environnement, en raison du faible nombre de cas ou de témoins pour des croisements génotype‐exposition. Par contraste, sous l’hypothèse d’indépendance gène‐environnement, par les méthodes actuelles rétrospectives, y compris l’approche «cas seulement », on peut estimer les paramètres d’interaction de manière beaucoup plus précise, mais on peut avoir un biais important lorsque l’hypothèse sous‐jacente d’indépendance gène‐environnement n’est pas respectée. Dans cet article, nous proposons un nouvel estimateur de type Bayésien empirique pour analyser des données cas‐témoin, permettant d’assouplir l’hypothèse d’indépendance gène‐environnement en s’appuyant sur les données. Dans le cas particulier d’un gène binaire et d’une exposition binaire, la méthode conduit à un estimateur du paramètre log odds‐ratio de l’interaction sous forme simple explicite, correspondant à une moyenne pondérée des estimateurs usuels « cas seulement » et cas‐témoin. Nous décrivons également une méthode générale pour l’obtention du nouvel estimateur et de sa variance dans le schéma rétrospectif au maximum de vraisemblance proposé par Chatterjee et Carroll (2005). Des simulations et des exemples sur données réelles montrent que l’estimateur proposé marque bien l’équilibre entre le biais et l’efficacité selon la réelle association gène‐environnement et la taille d’échantillon pour une étude donnée. Z. Cai, M. Kuroki, J. Pearl, and J. Tian 695 Bounds on Direct Effects in the Presence of Confounded Intermediate Variables Cet article traite le problème de l’estimation de l’effet directement attribuable au traitement (average controlled direct effect : ACDE) dans l’analyse d’un critère final, lorsque des facteurs de confusion non mesurés adviennent entre la mesure d’une variable intermédiaire et ce critère final. En effet, même lorsque ces facteurs de confusion ne perturbent pas l’estimation de l’effet total (qui est alors identifiable), ils rendent non identifiable l’effet direct attribuable au traitement. Kaufman et coll. (2005) ont utilisé un logiciel de programmation linéaire pour trouver les minimum et maximum des valeurs possibles de l’ACDE pour des données numériques particulières. En utilisant la méthode de programmation linéaire symbolique de Balke–Pearl (1997), nous dérivons ici des formules analytiques pour les limites supérieure et inférieure de l’ACDE sous diverses hypothèses de monotonie. Ces valeurs‐limites sont toujours valides. Dans le domaine de la recherche clinique, elles permettent d’évaluer, de façon abordable en termes de calcul, l’effet directement attribuable au traitement. Elles permettent ainsi d’éclairer l’expérimentateur sur le sens dans lequel s’exerce l’effet attribuable au traitement, ainsi que sur la précision des estimations. T. J. VanderWeele 702 The Sign of the Bias of Unmeasured Confounding Les variables de confusion non mesurées constituent un problème fréquent lorsqu’on veut faire de l’inférence dans des études observationnelles. Nous proposons un théorème qui permet, dans certaines circonstances, de tirer des conclusions sur le signe du biais généré par une variable de confusion non mesurée. Plus précisément, il est possible de déterminer le signe du biais quand il existe des relations monotones d’une part entre la variable de confusion non mesurée et le traitement et, d’autre part, entre la variable de confusion non mesurée et le critère de jugement. Les conditions d’application du théorème sont discutées ainsi que les avantages et les inconvénients liés à son utilisation pour déterminer le sens du biais de la confusion non mesurée. M. Zhang, A. A. Tsiatis, and M. Davidian 707 Improving Efficiency of Inferences in Randomized Clinical Trials Using Auxiliary Covariates L’objectif premier d’un essai clinique randomisé est de comparer deux traitements ou plus. Par exemple, dans un essai à deux bras avec une réponse continue, on peut s’intéresser à la différence des moyennes; avec plus de deux traitements, la comparaison peut être basée sur des différences appariées. Avec des réponses binaires, des odds ratio appariés ou des log odds ratio peuvent être utilisés. En général, les comparaisons peuvent être basées sur des paramètres ayant un sens, dans un modèle statistique pertinent. Des analyses standards pour l’estimation et les tests dans ce contexte, sont typiquement basées sur les données collectées de la réponse et du traitement seulement. Dans beaucoup d’essais, une information sur une covariable auxiliaire peut également être disponible et il est intéressant d’exploiter ces données pour améliorer l’efficacité des inférences. En prenant une perspective de théorie semi‐paramétrique, nous proposons une approche largement applicable à l’ajustement de covariables auxiliaires pour obtenir des estimateurs plus efficaces et des tests pour les paramètres de traitement dans l’analyse d’essais cliniques randomisés. Des simulations et des applications démontrent la performance des ces méthodes. C. J. Lloyd 716 A New Exact and More Powerful Unconditional Test of No Treatment Effect from Binary Matched Pairs Nous considérons le problème du test de la différence des probabilités du succès de paires binaires couplées. Commençant par trois tests standard inexacts, le paramètre de nuisance est d’abord estimé et ensuite la dépendance résiduelle éliminée par maximisation, produisant ce que j’appelle la p‐valeur de E+M. On montre que cette p‐valeur, basée sur la statistique de McNemar, est numériquement supérieure aux suggestions précédentes, y compris les p‐valeurs partiellement maximisées telles qu’elles sont décrites dans Berger et Sidik (2003). La dernière méthode cependant peut avoir des avantages du point de vue des calculs pour de grands échantillons. G. Wei and D. E. Schaubel 724 Estimating Cumulative Treatment Effects in the Presence of Nonproportional Hazards Souvent, dans les études médicales portant sur le délai d’apparition d’un événement, l’effet traitement n’est pas constant au cours du temps. Dans le cas du modèle de Cox, la solution la plus fréquente est d’utiliser un modèle qui suppose que soit l’effet traitement est constant par intervalle, soit qu’il varie lentement au cours du temps (le modèle de Cox à risques non proportionnels). Cette approche a au moins deux limitations majeures. Premièrement, il est généralement difficile d’évaluer si la forme du paramètre choisi pour l’effet traitement est correct. Deuxièmement, en présence de risques non proportionnels, les investigateurs sont habituellement plus intéressés par l’effet traitement cumulé plutôt que par l’effet traitement instantané (c’est‐à‐dire déterminer si et quand les fonctions de survie se croisent). Par conséquent, nous proposons un estimateur pour l’effet global du traitement en présence de risques non proportionnels. Notre estimateur est fondé sur le risque de base cumulé estimé sous un modèle de Cox stratifié. Aucune hypothèse n’est nécessaire quant à la forme de la fonction concernant l’absence de proportionnalité. Les propriétés asymptotiques des estimateurs proposés sont déduites, et les propriétés dans le cas d’échantillons de taille finie sont évaluées par des simulations. L’estimation et les intervalles de confiance de l’estimateur peuvent être calculés simultanément. La méthode proposée est appliquée à des données provenant du registre national des rejets d’organes canadien. B. R. Logan, J. P. Klein, and M.‐J. Zhang 733 Comparing Treatments in the Presence of Crossing Survival Curves: An Application to Bone Marrow Transplantation Dans certaines études cliniques comparant des traitements en terme de courbes de survie, les chercheurs peuvent anticiper que les courbes de survie se croiseront à un certain point, aboutissant à s’intéresser à la comparaison de la survie à long terme. Cependant, la simple comparaison des courbes de survie à un point donné peut être inefficace, et l’utilisation d’un test du log‐rank pondéré peut être trop sensible aux différences initiales dans la survie. Nous formulons le problème comme celui de tester les différences des courbes de survie après un temps pré‐spécifié, et proposons une variété de techniques pour tester cette hypothèse. Nous étudions ces méthodes en utilisant des simulations et les illustrons sur une étude comparant la survie pour des transplantations autologues et allogéniques de moelle. R. Song, M. R. Kosorok, and J. Cai 741 Robust Covariate‐Adjusted Log‐Rank Statistics and Corresponding Sample Size Formula for Recurrent Events Data Des évènements récurrents se rencontrent fréquemment dans les essais cliniques. Cet article développe des statistiques robustes du log‐rank ajustées pour des covariables, appliquées à des évènements récurrents en nombre arbitraire avec censure indépendante et la formule de taille d’échantillon correspondante. Les tests du log‐rank proposés sont robustes pour différents procédés de génération de données et ajustés pour des covariables prédictives. Ils se ramènent au cadre développé par Kong et Slud (1997) dans le cas d’un événement unique. La formule de taille d’échantillon repose sur la normalité asymptotique des statistiques du log‐rank ajustées pour des covariables sous certaines alternatives locales et sous un modèle pour les covariables au baseline dans le contexte d’évènements récurrents. Quand la taille de l’effet est petite et quand les covariables au baseline n’apportent pas une information significative sur les temps de survenue, elle se ramène à la même forme que celle de Schoenfeld (1983) dans les cas d’un événement unique ou de temps de survenue indépendants pour un sujet. Nous réalisons des simulations pour étudier le contrôle de l’erreur de type I et pour comparer la puissance de plusieurs méthodes sur des échantillons finis. La formule de taille d’échantillon proposée est illustrée à partir des données d’un essai de la rhDNase. J. D. Nielsen and C. B. Dean 751 Clustered Mixed Nonhomogeneous Poisson Process Spline Models for the Analysis of Recurrent Event Panel Data Un modèle semi paramétrique flexible pour analyser des données de comptage longitudinales provenant de mélanges est présenté. Les données de comptage en panel se réfèrent ici à des données de comptage sur des évènements récurrents collectés comme le nombre d’évènements qui sont arrivés durant une période de suivi spécifique. Le modèle suppose que les comptages pour chaque sujet sont générés par des mélanges de processus de Poisson non homogènes avec des fonctions d’intensité lissées modélisées par des splines pénalisés. Les effets des covariables dépendant du temps sont aussi incorporés dans le modèle dans l’intensité du processus en utilisant les fonctions splines. Des mélanges discrets de ces modèles splines de processus non homogènes de Poisson extraient l’information fonctionnelle provenant des grappes sous‐jacentes représentant les sous populations cachées. La motivation de ce travail est une expérience pour tester l’efficacité de phéromones en interrompant le processus d’accouplement de papillons tortriciae de l’écorce du cerisier. Les papillons matures proviennent de sous populations cachées mais distinctes et on s’intéressait au contrôle des réponses des sous populations. Des effets aléatoires intra‐grappes sont utilisés pour prendre en compte les structures de corrélation et l’hétérogénéité communes à ce genre de données. Une approche pour faire de l’inférence par équations d’estimation, requérant seulement des hypothèses faibles, est développée et les propriétés à distance finie des fonctions d’estimation proposées sont étudiées empiriquement par simulation. R. M. Elashoff, G. Li, and N. Li 762 A Joint Model for Longitudinal Measurements and Survival Data in the Presence of Multiple Failure Types Dans ce papier, nous étudions un modèle conjoint pour des mesures longitudinales et des données de survie à risques compétitifs. Notre modèle conjoint fournit une approche souple pour prendre en compte les données manquantes possiblement non ignorables dans les mesures longitudinales dues aux sorties d’étude. Il s’agit aussi d’une extension des modèles conjoints précédents avec un seul type d’événements, offrant une voie possible pour modéliser les événements censurés informativement comme un risque compétitif. Notre modèle consiste en un sous‐modèle linéaire à effets mixtes pour le critère longitudinal et un sous‐modèle de fragilitéà risques proportionnels cause spécifique (Prentice et al., 1978, Biometrics 34, 541–554) pour les données de survie à risques compétitifs, liés l’un à l’autre par des effets aléatoires latents. Nous proposons d’obtenir les estimations du maximum de vraisemblance des paramètres par un algorithme EM et d’estimer leurs écarts‐types en utilisant une méthode de vraisemblance profilée. La méthode développée fonctionne bien dans nos études de simulation et est appliquée à un essai clinique sur les atteintes pulmonaires de la sclérodermie. S. Goetgeluk and S. Vansteelandt 772 Conditional Generalized Estimating Equations for the Analysis of Clustered and Longitudinal Data Un problème commun et important dans des plans d’échantillonnage en grappes est que l’effet des expositions intra‐grappes (c’est‐à‐dire des expositions qui varient dans les grappes) sur le résultat peut être confondu avec des facteurs mesurés ou non des facteurs du niveau de la grappe (c’est‐à‐dire des mesures qui ne changent pas à l’intérieur des grappes). Quand certains résultats sont malades/non expliqués, l’estimation de cet effet par l’intermédiaire de modèles de moyenne de la population ou de modèles à effets aléatoires peut introduire un biais. Nous adaptons ce fait en développant une théorie générale de l’analyse de données en grappes qui permet une estimation convergente et asymptotiquement normale des effets (CAN) des expositions intra‐grappes en présence des niveaux de confusion du niveau de grappe. Des estimateurs efficaces semi‐paramétriques sont obtenus en résolvant les équations d’estimation conditionnelles généralisées (CGEE). Nous comparons cette approche à une proposition populaire de Neuhaus et Kalbfleisch (1998) qui séparent l’effet d’exposition en composantes intra‐grappes ou entre grappes à l’intérieur d’un modèle aléatoire avec une constante. Nous constatons que cette dernière approche fournit des estimateurs convergents et efficaces quand le modèle est linéaire, mais qu’elle est moins flexible en termes de spécification de modèles. Avec des modèles non‐linéaires, cette approche peut aboutir à des estimateurs non convergents et inefficaces, bien que le biais reste faible dans la majorité des cas pratiques. Y. Ma, W. Tang, C. Feng, and X. M. Tu 781 Inference for Kappas for Longitudinal Study Data: Applications to Sexual Health Research De nombreuses recherches comportementales, médicales, psycho‐sociales ou de santé utilisent des mesures de la fiabilité des instruments ou de la concordance entre juges pour évaluer les propriétés psychométriques de leurs instruments, le niveau de consensus en matière de diagnostic médical, ou la fiabilité d’une variable de substitution. L’indice de concordance le plus fréquemment utilisé pour des réponses catégorielles est le coefficient kappa de Cohen. Aujourd’hui, dans de nombreuses études, on observe des réponses corrélées, ce qui complique ou invalide l’inférence à partir des méthodes antérieures. En outre, les problèmes posés par les observations incomplètes sont particulièrement gênants dans les études longitudinales, de plus en plus nombreuses, et l’absence de méthodes adaptées entrave le développement des recherches. L’approche que nous présentons repose sur une nouvelle classe d’estimateurs des coefficients kappa qui prend en compte les difficultés que l’on rencontre dans les études longitudinales où interviennent plusieurs évaluateurs, en particulier celles liées aux observations incomplètes. Nous illustrons la méthode à partir de données réelles concernant le sexe et la santé. B. J. Reich and J. S. Hodges 790 Modeling Longitudinal Spatial Periodontal Data: A Spatially Adaptive Model with Tools for Specifying Priors and Checking Fit La perte d’attachement (AL) ou longueur sous la racine dentaire qui n’est plus attachée à l’os par le ligament parodontal est une mesure habituelle de la maladie parodontale. Dans cet article, nous développons un modèle spatio‐temporel de surveillance de la progression de l’AL. Notre modèle est une extension de l’a‐priori conditionnel autorégressif (CAR), qui lisse spatialement les estimations vers leurs voisins. Cependant, puisque l’AL présente souvent des accès de grandes valeurs dans l’espace et dans le temps, nous proposons un modèle spatiotemporel CAR non‐stationnaire qui permet au degré de lissage temporel et spatial de varier dans les différentes régions de la bouche. Pour celà, nous attribuons à chaque site de mesure d’AL son propre ensemble de paramètres de variance, et lissons les variances avec des a‐priori spatiaux. Nous suggérons une heuristique pour mesurer la complexité des variances site‐spécifiques, et nous l’utilisons pour sélectionner les a‐priori qui garantissent que les paramètres du modèle sont bien identifiés. Sur des données d’un essai clinique, le modèle améliore la qualité de l’ajustement par rapport au modèle usuel dynamique CAR pour 90 des 99 mesures d’AL. Y. Guan 800 A KPSS Test for Stationarity for Spatial Point Processes Nous proposons une méthode formelle pour tester la stationnarité d’un processus spatial ponctuel. La statistique de test proposée est basée sur l’intégrale des carrés des écarts entre les nombres d’événements observés et leur moyenne sous l’hypothèse de stationnarité. Nous montrons que la statistique de test obtenue converge en loi vers une fonctionnelle d’un mouvement brownien bidimensionnel. Pour appliquer le test, nous comparons la statistique calculée aux valeurs critiques à l’extrémité supérieure de cette fonctionnelle. Notre méthode suppose seulement une condition de dépendance faible pour le processus, mais ne requiert aucun modèle paramétrique pour cela. De la sorte, elle peut être appliquée à une large classe de modèles de processus spatiaux ponctuels. Nous étudions l’efficacité du test à la fois par des simulations et des applications à deux exemples sur données réelles où la non stationnaritéétait préalablement envisagée en se basant sur des aspects graphiques. Notre test confirme cette non stationnarité suspectée dans les deux cas. W. Zucchini, D. Raubenheimer, and I. L. MacDonald 807 Modeling Time Series of Animal Behavior by Means of a Latent‐State Model with Feedback Nous décrivons une famille de modèles adaptés aux séries temporelles de comportement nutritionnel animal. Les modèles incluent un état non observé pouvant être interprété comme l’état de motivation de l’animal, et un mécanisme pour donner cet état en retour du comportement observé. Nous discutons des méthodes d’évaluation et de maximisation de la vraisemblance d’une série observée de comportements, de l’estimation des paramètres, et de l’inférence pour la plus probable séquence d’états sous‐jacents. Nous indiquons plusieurs extensions de ces modèles, incorporant des effets aléatoires. Nous appliquons ces méthodes à l’analyse du comportement nutritionnel des chenilles Helicoverpa armigera, et nous démontrons ainsi le potentiel de cette famille de modèles dans l’étude des comportements. R. King and S. P. Brooks 816 On the Bayesian Estimation of a Closed Population Size in the Presence of Heterogeneity and Model Uncertainty Nous considérons l’estimation de la taille d’une population fermée, qui présente souvent un intérêt pour des populations animales sauvages, en utilisant une étude de capture‐recapture. L’estimation de la taille totale de population peut être très sensible au choix du modèle utilisé pour l’ajuster aux données. Nous considérons une approche bayésienne, dans laquelle nous considérons chacun des huit modèles plausibles originellement décrits par Otis et al. (1978) dans un contexte simple, incluant des modèles avec une composante individuelle d’hétérogénéité. Nous montrons comment nous pouvons obtenir une estimation moyenne de la population totale, incluant simultanément le paramètre et l’incertitude du modèle. Pour illustrer la méthodologie nous effectuons d’abord une étude de simulation et nous analysons deux ensembles de données où la taille de population est connue, avant de considérer un exemple réel concernant une population de dauphins du nord‐est de l’Ecosse. A. J. Branscum and T. E. Hanson 825 Bayesian Nonparametric Meta‐Analysis Using Polya Tree Mixture Models Un objectif habituel dans une méta‐analyse est l’estimation d’une mesure d’effet unique en utilisant les données de plusieurs études qui sont toutes dessinées pour traiter la même question scientifique. Parce que les études sont typiquement réalisées dans des lieux géographiquement dispersés, les développements récents dans l’analyse statistique des données de méta‐analyses impliquent l’utilisation de modèles avec effets aléatoires qui tiennent compte de la variabilité entre études attribuable aux différences d’environnement, de démographie, de génétique, et d’autres sources d’hétérogeneïté entre les populations. En se fondant sur la théorie asymptotique, les statistiques résumées propres à chaque étude sont modélisées selon des distributions normales représentant les vraies mesures d’effets latents. Dans un deuxième temps une approche paramétrique modélise ces mesures latentes au moyen d’une distribution normale, qui est uniquement une supposition commode dénuée de justification théorique. Pour éliminer l’influence de modèles paramétriques par trop restrictifs sur l’inférence, nous considérons une classe plus large de distributions pour les effets aléatoires. Nous développons un nouveau modèle de mélange d’arbres de Polya Bayesien non paramétrique et hiérarchique. Nous présentons une méthodologie pour tester un modèle de mélange d’arbre de Polya contre un modèle avec effets aléatoires normaux. Ces méthodes fournissent aux chercheurs une approche immédiate pour conduire une analyse de sensibilité de la normalité des effets aléatoires. Une application impliquant une méta‐analyse d’études épidémiologiques pour caractériser l’association entre la consommation d’alcool et le cancer du sein est présentée qui, alliée à des résultats issus de données simulées, met en lumière la performance des mélanges d’arbre de Polya en présence de non‐normalité des mesures d’effet dans la population d’origine. G. Massonnet, P. Janssen, and T. Burzykowski 834 Fitting Conditional Survival Models to Meta‐Analytic Data by Using a Transformation Toward Mixed‐Effects Models Les modèles à fragilité sont communément utilisés pour modéliser des survies sur données en ‘clusters’. Les approches classiques pour ajuster des modèles de fragilité sont basées sur la vraisemblance. Nous proposons une approche alternative dans laquelle le problème initial d'« ajustement d’un modèle de fragilité» est reformulé en le problème d’« ajustement d’un modèle linéaire mixte » grâce à l’utilisation d’un modèle de transformation. Nous montrons que le principe de transformation s’applique aussi aux modèles multivariés à odds proportionnels ainsi qu’aux modèles de risques additifs multivariés. Il permet de plus de faire le lien entre des méthodes séparées en ce sens qu’il fournit un moyen général d’ajuster des modèles conditionnels pour des données de survie multivariées en utilisant la méthodologie des modèles mixtes. Nous nous centrons sur les modèles à fragilité afin d’étudier les caractéristiques spécifiques de la méthode proposée. En nous basant sur une étude de simulation nous montrons que la méthode proposée produit une alternative correcte et simple pour l’ajustement de modèles à fragilité sur des données présentant un nombre suffisamment grand de classes et des tailles d’échantillons modérées à grande à l’intérieur de niveaux de sous‐groupes de covariables. La méthode proposée est appliquée à des données provenant de 27 essais randomisés sur des cancers colorectaux avancés, disponibles par l’intermédiaire du groupe de Meta‐Analyse du Cancer. R. A. Hubbard, L. Y. T. Inoue, and J. R. Fann 843 Modeling Nonhomogeneous Markov Processes via Time Transformation Les études longitudinales constituent un outil puissant pour représenter la progression des maladies chroniques. Ces études sont habituellement menées avec des patients examinés lors de visites périodiques, donnant ainsi des données de type panel. Dans ce schéma d’observation, les temps exacts de transitions entre les états de la maladie, et la séquence suivie des états de la maladie sont inconnus, et les modèles à base de processus de Markov sont souvent utilisés pour décrire la progression. La plupart des applications reposant sur les processus markoviens supposent l’homogénéité par rapport au temps, autrement dit que les taux de transition sont constants au cours du temps. Cette hypothèse n’est pas satisfaite lorsque les taux de transition dépendent du temps à compter du début de la maladie. Cependant, peu d’outils statistiques existent pour prendre en compte cette non‐homogénéité. Nous proposons des modèles dans lesquels l’échelle de temps d’un processus de Markov non‐homogène est transformée en une échelle de temps opérationnelle par rapport à laquelle le processus est homogène. Nous développons une méthode pour l’estimation jointe de la transformation de temps et de la matrice d’intensité de transition pour le processus homogène transformé. Nous établissons une estimation au maximum de vraisemblance utilisant l’algorithme du score de Fisher par des études de simulation, et nous comparons la performance de notre méthode par rapport à des modèles homogènes et des modèles homogènes par morceaux. Nous appliquons notre méthodologie à une étude sur la progression du délire dans une cohorte de receveurs de transplantation de cellules souche, et nous montrons que notre méthode identifie les tendances temporelles dans l’incidence du délire et dans la récupération. C. C. Drovandi and A. N. Pettitt 851 Multivariate Markov Process Models for the Transmission of Methicillin‐Resistant Staphylococcus Aureus in a Hospital Ward L’Aureus Staphylococcus résistant à la méthicilline (SARM) est un pathogène qui continue d’être un problème majeur à l’hôpital. Nous développons des modèles et des algorithmes de calcul basés sur des données observées d’incidences hebdomadaires pour estimer les paramètres de transmission du MRSA. Nous étendons le modèle déterministe de McBryde, Pettitt et McElwain (2007) impliquant une population sous‐jacente de patients colonisés par MRSA et de personnels soignants qui décrit, parmi d’autres processus, la transmission entre patients non colonisés et personnels soignants colonisés et vice‐versa. Nous développons de nouveaux modèles de Markov bivariés et trivariés pour inclure l’incidence de telle façon que les taux de transmission estimés puissent être basés directement sur de nouvelles colonisations plutôt qu’indirectement sur la prévalence. La sensibilité imparfaite de la détection du pathogène est modélisée en utilisant un processus markovien caché. Les avantages de notre approche incluent (i) l’hypothèse d’une valeur discrète pour le nombre de personnels soignants colonisés, (ii) deux paramètres de transmission pouvant être incorporés dans la vraisemblance, (iii) la vraisemblance dépend du nombre de nouveaux cas pour améliorer la précision de l’inférence, (iv) les enregistrements individuels des patients ne sont pas requis, et (v) la possibilité d’une détection imparfaite de la colonisation est incorporée. Nous comparons notre approche avec celle utilisée par McBryde et al (2007), basée sur une approximation qui élimine les personnels soignants du modèle, utilisant une chaîne de Markov par Monte Carlo et des données individuelles des patients. Nous appliquons ces modèles à des données de colonisation de SARM, collectées dans de petites unités de soins intensifs (ICU) à l’hôpital Princesse Alexandra, Brisbane, Australie. A. R. Cook, G. J. Gibson, and C. A. Gilligan 860 Optimal Observation Times in Experimental Epidemic Processes Cet article décrit une méthode de choix de temps d’observation de processus stochastiques destinés à maximiser les espérances des informations de leurs paramètres. On considère deux modèles généralement utilisés pour des processus épidémiologiques: un processus simple de mort et un processus épidémique de susceptibilité d’infection (SI) avec des sources doubles d’infection se développant de l’intérieur ou de l’extérieur de la population. La recherche du plan optimal emploie des méthodes bayésiennes de calcul pour explorer l’espace expérimental commun paramètre‐donnée, combinéà une méthode connue sous le nom de fermeture de moment d’approximation de la vraisemblance pour rendre efficace l’étape d’acceptation. Pour les processus considérés, on montre que choisir un petit nombre d’observations de façon optimale est presqu’aussi bon que collecter des observations de manière plus intensive, pratique générale dans nombre d’expériences épidémiologiques. L’analyse du processus simple de mort permet une comparaison entre l’approche bayésienne intégrale et des dispositifs localement optimaux autour d’une estimation ponctuelle d’a priori basée sur des résultats asymptotiques. On démontre la robustesse de l’approche pour des a priori mal spécifiés du processus épidémique SI, pour lequel le problème de la faisabilité informatique du calcul de la vraisemblance exclut des plans optimaux. Nous montrons que des plans optimaux déduits d’une approche bayésienne sont semblables à des études d’observations d’une épidémie simple et à des études impliquant des épidémies répétées dans des sous‐populations indépendantes. Un optimum différent existe, cependant, quand l’objectif est de maximiser le gain de l’information basée sur des a priori informatifs ou non: ceci a des implications quand une expérience est conçue pour convaincre un observateur naïf ou sceptique plutôt que pour consolider la connaissance d’un observateur mieux informé. On présente quelques prolongements de ces méthodes, comprenant le choix de critères d’information et l’extension à d’autres processus épidémiologiques avec des probabilités de transition. K. F. Lam, J. V. Deshpande, E. H. Y. Lau, U. V. Naik‐Nimbalkar, P. S. F. Yip, and Ying Xu 869 A Test for Constant Fatality Rate of an Emerging Epidemic: With Applications to Severe Acute Respiratory Syndrome in Hong Kong and Beijing L’étiologie, la pathogénie et le pronostic d’une maladie récemment émergente sont généralement inconnus aux cliniciens. Des interventions et des traitements efficaces aussi précoces que possible garantissent la réduction du caractère fatal de la maladie à un minimum, et la suppression de traitements inadéquats. Dans ce contexte, la capacitéà extraire le plus d’informations hors des données disponibles est critique à la possibilité d’importantes prises de décision. L’inefficacité d’un traitement peut être reflétée par une mortalité constante avec le temps tandis qu’un traitement efficace mène normalement à un taux de décès décroissant. Un test statistique pour une mortalité constante avec le temps est proposé dans cet article. La statistique proposée converge vers un mouvement Brownien sous l’hypothèse nulle. Les caractéristiques spécifiques du mouvement Brownien permettent d’analyser également la distribution des premiers temps de passage à partir de tests séquentiels. Ceci permet à l’hypothèse nulle du taux de décès constant d’être rejetée le plus rapidement possible dès que l’évidence statistique devient suffisante. Les études de simulation montrent que les performances du test proposé sont bonnes et qu’il est très sensible pour trouver un taux de mortalité décroissant. Le test proposé est appliqué aux données du syndrome respiratoire aigu sévère (SARS) à Hong Kong et Beijing. J. Peng, C.‐I. C. Lee, K. A. Davis, and W. Wang 877 Stepwise Confidence Intervals for Monotone Dose–Response Studies Dans les études de dose‐réponse un des points les plus importants est l’identification de la dose minimum efficace (minimum effective dose – MED), qui est définie comme la plus petite dose pour laquelle la réponse moyenne est meilleure que celle obtenue pour une dose nulle de contrôle, en terme de différence clinique significative. Les courbes doses‐réponses sont parfois monotones. Pour trouver la MED plusieurs auteurs ont proposé des procédures de test du genre up and down, basées sur des contrastes entre les moyennes. Dans cet article, pour identifier la MED, on propose une amélioration de la méthode de Marcus et Peritz (1976, Journal of the Royal Statistical Society, Series B 38, 157–161) et on développe une application de la méthode DR de Hsu et Berger (1999, Journal of the American Statistical Society 94, 468–482) pour construire, sous des hypothèses de monotonicité, la borne inférieure de l’intervalle de confiance pour la différence entre la réponse à une dose quelconque non nulle et celle du contrôle. La méthode proposée est illustrée par des exemples numériques et on présente des comparaisons de puissance obtenues par simulations. M. Ding, G. L. Rosner, and P. Müller 886 Bayesian Optimal Design for Phase II Screening Trials Dans la littérature, la plupart des plans de screening en phase 2 considèrent un traitement à la fois. Chaque étude est considérée isolément. Nous proposons une approche décisionnelle plus systématique pour le processus de screening de phase 2. Le plan séquentiel permet une plus grande efficacité et un meilleur apprentissage sur les traitements. L’approche incorpore un modèle Bayesien hiérarchique qui permet d’une façon formelle la combinaison d’information entre différentes études reliées entre elles, et améliore l’estimation dans de petits échantillons en exploitant l’information venant des autres traitements. Le plan incorpore une fonction d’utilité qui prend en compte le coût d’échantillonnage et le possible retour sur investissement. Des simulations par ordinateur montrent que cette méthode a une forte probabilité d’écarter des traitements à faible taux de succès et de faire évoluer en phase 3 des traitements à fort taux de succès. A. Vexler, A. Liu, E. Eliseeva, and E. F. Schisterman 895 Maximum Likelihood Ratio Tests for Comparing the Discriminatory Ability of Biomarkers Subject to Limit of Detection Dans cet article, nous étudions la comparaison des aires sous courbes ROC (Receiver Operating Characteristic) corrélées, des biomarqueurs diagnostiques dont les mesures sont soumises à une limite de détection (LOD), source d’erreur de mesure issue de la sensibilité instrumentale en épidémiologie. Nous proposons et nous examinons les tests du rapport des vraisemblances avec des caractéristiques opérationnelles qui sont aisément obtenues sous méthodologie classique du maximum de vraisemblance. R. Li and L. Nie 904 Efficient Statistical Inference Procedures for Partially Nonlinear Models and their Applications Motivés par une analyse d’un jeu de données réelles dans le domaine de l’écologie, nous sommes amenés à considérer une classe de modèles partiellement non linéaires où l’on note à la fois la présence d’une composante non paramétrique et d’une composante paramétrique. Nous développons deux nouvelles procédures d’estimation pour l’estimation des paramètres de la composante paramétrique. La consistance et la normalité asymptotique des estimateurs sont établies. Puis nous proposons ensuite une procédure d’estimation et une procédure de test F généralisé pour la composante non paramétrique dans les modèles partiellement non linéaires. Des propriétés asymptotiques de la nouvelle procédure d’estimation et le test statistique s’en déduisent. Les qualités des échantillons finis des procédures d’inférence proposées sont évaluées par des études de simulations de Monte Carlo. Une application dans le domaine de l’écologie est utilisée pour illustrer la méthode proposée E. Deschepper, O. Thas, and J. P. Ottoy 912 Tests and Diagnostic Plots for Detecting Lack‐of‐Fit for Circular‐Linear Regression Models Les diagnostics pour la régression et les tests de défaut d’ajustement sont principalement focalisés sur les modèles linéaires de régression linéaire. Lorsque les points sont distribués sur la circonférence d’un cercle, des difficultés apparaissent car il n’existe pas de point de départ ou d’origine. La plupart des tests classiques de défauts d’ajustement exigent de choisir arbitrairement une origine, mais des choix différents peuvent conduire à des conclusions différentes. Nous proposons un outil graphique d’ajustement et un test de défaut d’ajustement qui n’exige pas de point naturel initial. La méthode est basée sur des « résidus régionaux » qui sont définis sur des arcs de cercle. La méthode graphique localise formellement et visualise des sous ensembles d’observations dont l’ajustement n’est pas satisfaisant sur le cercle. Un exemple de données issues du domaine alimentaire est utilisé pour exhiber les problèmes mentionnés auparavant avec les tests classiques d’ajustement et pour illustrer la force de la méthode basée sur les « résidus régionaux » pour détecter et localiser les points de départ d’hypothèse de non effet. Une petite étude de simulation montre la bonne performance du test des « résidus régionaux » dans les deux cas d’écart global ou local du modèle. Puis ces idées sont étendues au cas ou il y a plus d’une variable explicative. B. Xie, W. Pan, and X. Shen 921 Variable Selection in Penalized Model‐Based Clustering Via Regularization on Grouped Parameters L’analyse en grappes modèle‐dépendante pénalisée a été proposée dans le cadre de données de haute dimension mais de petite taille d’échantillon comme celles rencontrées dans les études génomiques. En particulier, elle peut être utilisée pour la sélection de variables. Un nouveau schéma de régularisation est proposé pour regrouper ensemble plusieurs paramètres associés à la même variable au sein des grappes. Nous montrons analytiquement et numériquement que ce schéma est plus efficace que la conventionnelle pénalité L1 pour la sélection de variable. De plus, nous développons une stratégie pour combiner ce schéma de groupement avec le groupement de variables structurées. Des études de simulation et des applications aux données d’expression des micropuces pour la découverte de sous‐types cancéreux illustrent les avantages de notre nouvelle approche par rapport à plusieurs méthodes existantes. S. H. Lee, J. Lim, M. Vannucci, E. Petkova, M. Preter, and D. F. Klein 931 Order‐Preserving Dimension Reduction Procedure for the Dominance of Two Mean Curves with Application to Tidal Volume Curves Le travail présenté ici est issu d’une étude de cas reposant sur des tracés, à dimension et fréquence élevées, de capacité vitale respiratoire effectués pendant des bouffées d’angoisse provoquées. L’objectif est de développer une procédure pour évaluer la significativité de la supériorité d’une courbe moyenne par rapport à une autre. L’idée essentielle de la méthode suggérée est de préserver l’ordre sur les moyennes tout en réduisant la dimensionnalité des données. La matrice des données observées est projetée sur un ensemble de matrices de rang inférieur sous une contrainte de positivité. Une procédure de test multivarié est alors appliquée dans cette dimension inférieure. Nous utilisons des données simulées pour illustrer les propriétés statistiques de la méthode de test proposée. Les résultats obtenus sur l’étude de cas confirment l’hypothèse préliminaire des investigateurs et fournit un support à leur objectif de construction d’un modèle expérimental pour la bouffée d’angoisse clinique chez les sujets normaux.  相似文献   

5.
《Biometrics》2008,64(1):320-326
Matching in Studies of Classification Accuracy: Implications for Analysis, Efficiency, and Assessment of Incremental Value
Dans les études cas-témoins qui visent àévaluer une classification effectuée à partir d'un marqueur, il est courant d'apparier les témoins aux cas sur des facteurs liés à la maladie et au marqueur. Dans ce type d'études, par opposition aux études étiologiques, l'appariement n'a pas fait l'objet de travaux rigoureux. Nous étudions les implications de l'appariement sur le choix d'un modèle d'analyse statistique, sur l'efficacité et sur l'évaluation de l'apport supplémentaire du marqueur par rapport aux variables d'appariement. Nous observons que l'ajustement sur les variables d'appariement est essentiel car les mesures non ajustées des qualités du marqueur peuvent être biaisées. Dans de nombreuses situations, l'appariement est la plus efficace des méthodes d'échantillonnage en fonction des covariables et nous donnons une expression du rapport optimal nombre de cas/nombre de témoins. En revanche, nous montrons également que l'appariement complique sérieusement l'évaluation de l'apport supplémentaire du marqueur. Nous recommandons d'envisager l'intérêt d'un appariement à la lumière de ces résultats.  相似文献   

6.
《Biometrics》2008,64(2):663-669
  相似文献   

7.
《Biometrics》2008,64(4):1312-1318
  相似文献   

8.
9.
BIOMETRIC ANALYSIS OF GEOGRAPHIC VARIATION AND RACIAL AFFINITIES   总被引:7,自引:0,他引:7  
1. The study of geographic variation and the racial affinities between populations is of central importance to systematics and evolutionary theory. When using phenotypic variation to measure the similarity between the populations of a species one should analyse the variation in several characters simultaneously. This is a statistical procedure and is known as multivariate analysis. Multivariate analysis of phenotypic variation, unlike some other methods, has the advantage of not being dependent on living specimens. 2. To obtain an adequate sample at each locality, and an adequate distribution of localities within a given geographic area, can be a major problem. The pooling of data from adjacent localities is discussed. 3. There are several sources of phenotypic variation within a species, e.g. sexual and ontogenetic variation. Failure to eliminate the non-geographic sources of variation can confuse the assessment of the similarity between populations. 4. Correlation between characters can reflect similar genetic control and/or similar patterns of geographic variation, the biological interpretation being influenced by whether the data come from one locality or many. 5. The influences of environmental induction and genetic control cannot easily be separated. Also, some characters may not be entirely homologous throughout the range of the species. 6. Most studies rely on far too few characters of a too restricted type to give an ‘overall’ assessment of the phenotypic similarity. This is one of the most neglected aspects of the study of geographic variation. 7. The various forms of clinal and categorical variation, the precise nature and position of sharp transition (hybrid) zones, the relationship between non-adjacent as well as adjacent populations and the phenotypic divergence between island populations, etc., all come under the heading of geographic variation. The ideal technique should be able to elucidate all types of geographic variation but some techniques can only be used effectively with a few of them. Moreover, techniques may be limited in their application because they require the data to conform to certain models, e.g. normal distribution. 8. The degree of phenotypic similarity between populations can be measured by a wide range of similarity coefficients. Comparison between even a small series of populations produces a large set (or matrix) of similarity coefficients that is difficult to interpret. However, the relationships between populations can be summarized in several ways and these may be loosely grouped into four categories; (i) network diagrams, (ii) contours and isometric plots, (iii) hierarchical clusters, and (iv) ordination methods. These methods are explained and their advantages and limitations discussed. 9. The hierarchical (dendritic) model of cluster analysis is unsuitable for analysing all but a few types of geographic variation. 10. There are several types of ordination technique. They all aim to summarize the variation of many characters in a reduced number of axes. One can either emphasize the biological interpretation of each separate axis, or treat the analysis as a classifying technique and assess the grouping of the populations in the space defined by the axes. Considerable care is needed in interpreting the results of both of these approaches. If correctly applied, ordination techniques generally can be used to analyse all the forms of geographical variation and are therefore recommended. Contrary to current practice they can be used with a large number of characters. The advantages and limitations of the various ordination techniques are discussed. 11. Contours and their three-dimensional isometric plots can be used to portray geographic variations in the information obtained from a multivariate analysis. However, contours and isometric plots are limited in their applicability and the amount of information they can convey. 12. The sophistication of some multivariate methods should not be allowed to cloak the scientific inadequacies of a study. The use of more than one technique and variety in the choice of pertinent parameters may be of value in indicating the reliability of the results.  相似文献   

10.
11.
12.
13.
14.
GENERAL PRACTICE     
《CMAJ》1955,72(8):615-617
  相似文献   

15.
GENERAL PRACTICE     
《CMAJ》1955,73(1):62-63
  相似文献   

16.
GENERAL PRACTICE     
《CMAJ》1958,78(5):361-364
  相似文献   

17.
GENERAL PRACTICE     
《CMAJ》1957,76(4):317-323
  相似文献   

18.
GENERAL PRACTICE     
《CMAJ》1954,70(3):330-335
  相似文献   

19.
GENERAL PRACTICE     
《CMAJ》1956,75(3):238-240
  相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号