首页 | 本学科首页   官方微博 | 高级检索  
   检索      


REGULAR ARTICLES
Abstract:L. Cowen and C. J. Schwarz 657 Les Radio‐tags, en raison de leur détectabilitéélevée, sont souvent employés dans les études de capture re‐capture. Une qualité essentielle requise est que les Radio tags ne cessent pas de fonctionner pendant l'étude. Le dysfonctionnement d'un Radio tag avant la fin d'une étude peut conduire à sous‐estimer le taux de survie. Nous développons ici un modèle pour incorporer des données issues de radio tags déficients. Ce modèle a été appliqué aux smolts chinook (tshawytscha d'Oncorhynchus) sur la Colombia river WA. Les estimations des taux de survie obtenus à partir de ce modèle sont beaucoup plus grandes que celles observées dans l'analyse standard de Cormack‐Gaie‐Seber. M. A. Suchard , R. E. Weiss , and J. S. Sinsheimer 665 Les facteurs de Bayes pour comparer deux hypothèses ou plus en compétition sont souvent estimés en construisant un échantillon de chaînes de Markov (MCMC) pour explorer l'espace joint des hypothèses. Pour obtenir des estimations efficaces des facteurs de Bayes, Carlin et Chibb (1995) ont suggéré d'ajuster les odds a priori des hypothèses en compétition de telle sorte que les odds a posteriori soient approximativement un et d'estimer alors les facteurs de Bayes par simple division. Un sous‐produit est que l'on produit souvent plusieurs chaînes MCMC indépendantes, une seulement étant utilisée pour l'estimation. Nous étendons cette approche en proposant trois tests statistiques qui incorporent les résultats des différentes chaînes. Le premier suppose des tirages indépendants dans une chaîne et modélise la fonction indicatrice de l'hypothèse en utilisant une régression logistique pour différents choix des odds a priori. Les deux autres modèles plus complexes abandonnent l'hypothèse d'indépendance en permettant des dépendances retard dans les résultats des différentes chaînes. Ces modèles nous permettent d'estimer l'incertitude dans nos calculs des facteurs de Bayes et d'utiliser pleinement les différentes chaînes MCMC, même si les a priori des odds varient de chaîne à chaîne. Nous appliquons ces méthodes de calcul des facteurs de Bayes pour tester la monophyllie dans deux exemples de phylogénie. Le premier exemple explore la relation d'un pathogène inconnu à un ensemble de pathogènes connus. L'identification de la relation monophyllique du pathogène inconnu peut influer sur le choix de l'antibiotique dans une perspective clinique. Le second exemple se concentre sur la détection des recombinaisons du virus VIH. Pour une application clinique potentielle, ces types d'analyse devraient être achevés aussi efficacement que possible. J. Zhu , J. C. Eickhoff , and P. Yan 674 Des observations de réponses spatio‐temporelles multiples se présentent souvent dans les études environnementales et écologiques. Alors que les modèles purement spatiaux de réponses univariées dans les familles exponentielles de distribution ont progressé au cours des dernières années (e.g. Diggle et al., 1998; Zhang, 2002), peu d'outils statistiques sont disponibles pour des réponse multivariées qui ne sont pas nécessairement Gaussiennes. Une exception cependant est le modèle à facteur commun développé pour des données spatiales multivariées par Wang et Wall (2003). Le but de cet article est d'étendre ce modèle multivarié uniquement spatial et de proposer une classe flexible de modèles linéaires généralisés de variables latentes appliqués à des données multivariées spatio‐temporelles. L'inférence statistique repose sur des estimées du maximum de vraisemblance et de leurs écarts‐type obtenues par l'algorithme EM de Monte Carlo. Nous proposons aussi une nouvelle méthode d'ajustement automatique de la taille de l'échantillon Monte Carlo, qui facilite la convergence de l'algorithme EM et présente ainsi quelque intérêt indépendant. La méthodologie est illustrée par une étude écologique du pin rouge en réponse à des attaques de charançon de l'écorce dans une forêt du Wisconsin. Y.‐G. Wang , X. Lin , and M. Zhu 684 Les méthodes robustes sont utiles pour assurer des inférences statistiques fiables en cas de légers écarts aux hypothèses du modèle. La méthode très largement utilisée des équations d'estimation peut être “robustifiée” en remplaçant les résidus standardisés par les M‐résidus. Si les résidus de Pearson sont supposés centrés sans biais, les estimations des paramètres par l'approche robuste sont asymptotiquement biaisés lorsque les distributions des erreurs ne sont pas symétriques. Nous proposons une méthode pour corriger ce biais. Nos études numériques extensives montrent que la méthode proposée peut réduire ce biais substantiellement. On donne des exemples d'illustration. R. J. Cook , W. Wei , and G. Y. Yi 692 Nous proposons des méthodes semi‐paramétriques pour estimer et tester l'effet d'un traitement en présence d'un événement récurrent observé sur des périodes multiples, avec prise en compte de la censure. Ces méthodes reposent sur l'estimation de fonctions avec pour hypothèse de travail un modèle de Poisson mixte sous lequel les effets aléatoires individuels peuvent être éliminés par conditionnement. Des tests statistiques robustes dérivés de pseudo‐scores sont obtenus par estimation “sandwich” de la variance. L' efficacité relative des analyses conditionnelle et marginale est évaluée de façon analytique sous un modèle mixte de Poisson à temps homogènes. La robustesse et la puissance empirique de l'approche semi‐paramétrique sont étudiées au moyen de simulations. Des adaptations pour prendre en compte les événements récurrents survenant dans des essais en cross‐over sont décrites et ces méthodes sont appliquées aux données d'un essai en cross‐over sur deux périodes chez des patients souffrant d'asthme bronchique. X. Song and Y. Huang 702 Plusieurs méthodes de modélisation fonctionnelle ont été proposées, en présence d'erreur de mesure des covariables avec le modèle de taux proportionnels. Sont inclus dans ces méthodes, l'estimateur du score conditionnel (Tsiatis and Davidian, 2001, Biometrika 88, 447–458) l'estimateur avec correction paramétrique (Nakamura, 1992, Biometrics 48, 829–838) et l'estimateur avec correction non paramétrique (Huang and Wang, 2000, Journal of the American Statistical Association 95, 1209–1219) dans l'ordre d'hypothèses de plus en plus faible sur l'erreur. Bien qu'ils soient tous consistants, chacun de ces estimateurs souffre de possibles difficultés en présence de petits échantillons ou d'erreurs de mesure substantielles. Dans cet article, ayant observé que les estimateurs du score conditionnel ou avec corrections paramétriques étaient asymptotiquement équivalents pour une erreur normale, nous avons cherché quelle était leur performance relative pour des échantillons de taille finie et remarqué que le premier était le meilleur. Ceci signifie une approche générale affinée des méthodes de correction paramétriques et non paramétriques. Les corrections affinées des estimateurs sont asymptotiquement équivalentes à leurs correspondantes standards, mais ont des propriétés numériques améliorées et sont plus performantes lorsque les estimations standards n'existent pas ou sont extrêmes. Nous présentons des résultats de simulations et une application de ces méthodes à un essai clinique sur le HIV. A.‐C. Andrei and S. Murray 715 Ce travail étudie l'analyse séquentielle de données de survie appariées en utilisant une nouvelle classe de tests non‐paramétriques, fondés sur un log‐rank pondéré apparié (PWLR), et les tests à partir de Kaplan‐Meier pondérés appariés (PWKM). Pendant le déroulement d'un essai chacun de ces tests peut alternativement être considéré comme la statistique la plus extrême. En suivant l'évolution de PEMAX, le maximum des différences absolues du PWLR standardisé et du PWKM, on a, à la fois, les avantages des tests de rangs et les avantages des autres tests. Par des simulations on montre que l'utilisation de PEMAX contrôle le risque de type I et est quasiment aussi puissant que l'utilisation du meilleur des deux tests. Ceci, que l'hypothèse des hasards proportionnels soit respectée ou non. Désormais, PEMAX préserve la puissance de façon plus robuste que chacun des deux tests pris individuellement, tout en restant relativement simple à mettre en place et à utiliser dans une analyse. Un exemple, à partir de l'étude “Early Treatment Diabetic Retinopathy Study” (ETDRS), est donné. B. Lu 721 Dans les études d'observation avec un traitement dépendant du temps et des covariables dépendant du temps, il est souhaitable d'équilibrer la distribution des covariables à chaque instant. Un score de propension (“propensity score”) dépendant du temps basé sur le modèle de Cox à risques proportionnels est proposé et utilisé pour apparier les sujets exposés au risque. Il est montré que l'appariement sur ce score de propension permet d'obtenir une distribution équilibrée des covariables dans les groupes traité et non traité. Un appariement optimal avec divers plans est mis en place et comparé dans une étude de traitement chirurgical, cytoscopie et hydrodistention, pour une maladie chronique de la vessie, la cystite interstitielle. Des simulations suggèrent aussi que l'analyse statistique après appariement est plus performante que l'analyse sans appariement en terme d'estimation et d'intervalle de confiance. M. Naskar , K. Das , and J. G. Ibrahim 729 Une classe très générale de distributions de survie multivariées est utilisée pour analyser des données groupées de défaillance, sujettes à la censure et à des modes multiples de défaillance. Conditionnellement à des quantités spécifiques au groupe, la distribution jointe du temps de défaillance et de la variable indicatrice de l'évènement peuvent s'exprimer comme un mélange de la distribution des temps de défaillance dûs à un certain type (ou spécifique d'une cause) et de la distribution marginale du type de défaillance. Nous supposons ici que les distributions marginales des différents types de défaillance sont de fonctions logistiques de certaines covariables. Les quantités spécifiques au groupe sont soumises à une certaine distribution inconnue qui cause la fragilité. La distribution de fragilité est modélisée non paramétriquement par un processus de Dirichlet (DP). Dans une telle approche semi paramétrique une méthode hybride d'estimation est proposée basée sur l'algorithme pondéré du restaurant chinois (WCR) qui nous aide à générer des observations à partir de la distribution prédictive de la fragilité. L'algorithme de Monte‐Carlo ECM (MCEMC) joue un rôle vital pour obtenir des estimations des paramètres qui établissent l'importance des effets des facteurs causaux pour les défaillances d'un certain type. Une étude de simulation est conduite pour étudier la consistance de notre méthodologie. La méthodologie proposée est utilisée pour analyser des données réelles de contamination par le virus VIH sur une cohorte de femmes prostituées du Sénégal. F. Bretz , J. C. Pinheiro , and M. Branson 738 Traditionnellement, les stratégies d'analyse de données issues d'études dose‐réponse se partagent en deux grandes catégories : les procédures de comparaisons multiples et la modélisation. L'approche par modélisation suppose une relation fonctionnelle entre la réponse et la dose – celle‐ci est ici considérée comme un facteur quantitatif –, selon un modèle paramétrique spécifiéà l'avance. On utilise alors ce modèle pour estimer la dose permettant d'obtenir un niveau donné de réponse, mais la validité des conclusions dépend fortement de la pertinence du modèle de dose‐réponse, le vrai modèle étant a priori inconnu. A l'inverse, les procédures de comparaisons multiples considèrent la dose comme un facteur qualitatif et font très peu d'hypothèses – voire aucune – sur le modèle de dose‐réponse sous‐jacent. Avec ces procédures, il s'agira souvent d'identifier la dose minimale efficace, statistiquement significative et susceptible de produire un effet biologique considéré comme intéressant. Une des approches possibles est de tester la significativité de contrastes comparant différents niveaux de dose, tout en contrôlant le risque global de Type I. Ce type de procédure est relativement robuste ; cependant, l'inférence ne peut bien sûr pas sélectionner d'autres doses que celles utilisées dans l'étude. Dans cet article, nous décrivons une stratégie unifiée d'analyse de données issues d'études dose‐réponse, stratégie qui combine les techniques de comparaisons multiples et de modélisation. Nous supposons en fait l'existence de plusieurs modèles candidats, tous paramétriques, et utilisons des techniques de comparaisons multiples pour choisir le modèle le plus vraisemblable vis‐à‐vis de la vraie courbe dose‐réponse sous‐jacente, tout en contrôlant le risque global de Type I. On utilise alors le modèle ainsi sélectionné pour cerner, à l'aide d'une approche inférentielle, les doses les mieux appropriées. J. O'Quigley 749 La méthode de ré‐évaluation séquentielle (CRM) est un algorithme pour la recherche de dose qui s'appuie sur une remise à jour dynamique. Comme d'autres méthodes dynamiques, la CRM fournit une estimation de la dose courante qui correspond à un percentile cible. Cette dose, calculée à partir de tous les sujets inclus, sera utilisée pour la prochaine expérience. La mise en oeuvre de cette ré‐évaluation est possible grâce à l'utilisation d'un modèle simple. Dans l'état actuel des choses ni la CRM ni toute autre méthode dynamique permet d'estimer un percentile cible à partir de données rétrospectives, sauf dans le cas exceptionnel où le modèle simplifié génère les données. Dans cet article notre attention se porte sur un problème spécifique, à savoir l'analyse rétrospective par la CRM de données générées par un mécanisme arbitraire. Nous montrons comment procéder de façon cohérente. La méthodologie proposée n'est pas limitée à ce schéma particulier et s'applique à d'autres plans expérimentaux où l'estimation de la dose est faite par une mise à jour dynamique. L'analyse rétrospective pose un certain nombre de difficultés pour ces plans, en particulier la CRM, car ces plans ont la propriété d'exploiter un modèle de travail sous paramétré. On ne peut répondre à la question ‐ quel aurait été le résultat si on avait utilisé un autre plan expérimental. Néanmoins on peut fournir une estimation de ce résultat. Ceci a de nombreuses applications. Z.‐F. Yu and P. J. Catalano 757 Les effets neurotoxiques d'agents chimiques sont souvent analysés dans le cadre d'études contrôlées sur des rongeurs, pour de multiples variables (binaires et continues) collectées en routine. L'un des objectifs est d'évaluer le risque afin de déterminer les doses optimales non toxiques. De telles études sont cependant confrontées à deux problèmes majeurs concernant les variables continues. Premièrement, il est difficile, pour de telles variables, d'évaluer le risque et de définir une dose de référence. Lorsque le risque est associéà la survenue d'un événement, il peut clairement être défini de façon binaire par la survenue ou non de l'événement. Définir le risque de façon similaire pour des variables continues est moins évident. Dans ce cas, l'événement est souvent défini par un ensemble de valeurs inférieures à un certain seuil, la distribution de ces valeurs étant supposée normale ou log normale. Deuxièmement, alors que, pour de telles études, les variables continues sont traditionnellement analysées séparément, des travaux récents conseillent plutôt d'utiliser des modèles multivariés. Nous proposons une méthode pour modéliser et quantifier le risque associéà des variables continues bivariées. Il s'agit d'une extension des méthodes existantes de régression par quantiles. L'approche basée sur une vraisemblance, permet de dissocier les modèles dose‐réponse de chaque variable, tout en tenant compte de la corrélation bivariée et de la caractérisation globale du risque. L'approche utilisée pour estimer une dose de référence est analogue à celle utilisée pour des variables binaires, sans qu'il soit nécessaire de spécifier un seuil arbitraire. Nous illustrons nos méthodes avec des données issues d'une étude de neurotoxicité de l'exposition de rats au triethyltin. L. Huang , M.‐H. Chen , and J. G. Ibrahim 767 Nous proposons des méthodes bayésiennes pour estimer les paramètres de modèles linéaires généralisés (GLM) avec des données de covariables manquantes qu'on ne peut pas négliger. Nous montrons que lorsqu'une distribution uniforme a priori impropre est employée pour les coefficients de régression, ? , du modèle multinomial de sélection du mécanisme d'obtention des données manquantes, la distribution jointe a posteriori sera toujours impropre si (i) toutes les covariables manquantes sont discrètes et si un coefficient constant est inclus dans le modèle de sélection du mécanisme d'obtention de données manquantes, ou (ii) au moins une covariable est continue et non bornée. Ce caractère impropre se manifestera indifféremment que les a priori propres ou non soient spécifiés pour les paramètres de régression, β , du GLM ou des paramètres, α , de la distribution de la covariable. Pour résoudre ce problème, nous proposons une nouvelle classe d'a priori propres pour les coefficients de régression, ? , dans le modèle de sélection du mécanisme de données manquantes. Ces a priori sont robustes et intéressants pour le calcul au sens où les inférences concernant les β ne sont pas sensibles au choix des hyperparamètres des a priori de ? et qu'ils facilitent un schéma d'échantillonnage de Gibbs qui conduit à une convergence accélérée. De surplus, nous étendons le critère d'évaluation du modèle de Chen, Dey et Ibrahim (2004), appelémesure L pondérée, au GLM et aux problèmes des données manquantes de même que nous étendons le Critère d'Information de Déviance (DIC) de Spiegelhalter et al. (2002) pour évaluer si le mécanisme d'obtention des données manquantes peut être ignoré ou non. Un nouvel algorithme de Monte Carlo de chaîne de Markov est aussi développé pour mener à bien les calculs des a posteriori. Plusieurs simulations sont faites pour étudier la performance des critères bayésiens proposés et la sensibilité aux spécifications a priori. Des ensembles de données provenant d'un essai clinique sur une tumeur mélanique et d'une étude sur le cancer du foie sont présentés pour mieux illustrer las méthodes proposées. A. Golightly and D. J. Wilkinson 781 Cet article traite de l'estimation de constantes de taux dans des modèles stochastiques de processus intra‐cellulaire. Le modèle stochastique discret de cinétique sous jacent est remplacé par une approximation (par équation différentielle stochastique) où le bruit blanc modélise le comportement stochastique et on identifie le modèle utilise sur des intervalles de temps réguliers. L'estimation implique l'utilisation de m‐1 observations latentes entre chaque couples de dates d'observation. Les méthodes MCMC sont alors utilisées pour échantillonner la distribution a posteriori du processus latent et les paramètres du modèle. La méthodologie est appliquée à l'estimation des paramètres d'un processus d'auto régulation des gènes chez un procaryote. G. Diao and D. Y. Lin 789 Les méthodes statistiques pour détecter les gènes qui influencent des caractères quantitatifs à l'aide de marqueurs génétiques sont bien développées pour des phénotypes distribués normalement et complètement observés. De nombreuses expériences impliquent des phénotypes liés à un temps d'échec, qui ont des distributions asymétriques, et qui sont habituellement sujets à censure à cause des perdus de vue aléatoire, des échecs pour des causes en compétition ou de la limitation de la durée de l'expérience. Dans cet article nous développons des méthodes statistiques semi‐paramétriques pour cartographier des Locus de Caractères Quantitatifs (LCQ) basés sur des phénotypes à temps d'échec avec censure. Nous formulons les effets du génotype LCQ sur le temps d'échec au moyen du modèle à risques proportionnels de Cox (1972) et dérivons des procédures d'inférence efficaces basées sur la vraisemblance. De plus, nous montrons comment évaluer la signification statistique quand on recherche les LCQ dans plusieurs régions du génome complet. Des études extensives par simulation démontrent que les méthodes proposées ont de bonnes performances en pratique. Les applications à deux études animales sont présentées. W. Briggs and D. Ruppert 799 Doit‐on pratiquer des mammographies de précaution chez des femmes d'âge moyen en bonne santé? Les chirurgiens doivent‐ils utiliser le score TRISS bien connu pour prédire la chance de survie de leurs patients? Ce sont des exemples de questions auxquelles on est confronté lorsqu'on décide d'utiliser une prédiction de type Oui/Non. Pour retenir une prédiction nous devons montrer qu'elle est qu'elle est plus intéressante que serait notre meilleure vision en absence de prédiction. Le calcul d'une mesure permet d'identifier l'erreur lorsque la prédiction est erronée et d'examiner les performances passées de la prédiction compte tenu de cette erreur. On développe un test statistique dans ce but. Les prédictions qui seront acceptées par ce test seront dites avoir de la compétence. Seules les prédictions compétentes devraient être utilisées. On montrera des méthodes graphiques et numériques pour montrer la compétence. L'utilité des mammographies est étudiée par cette voie. O. Thas and J. C. W. Rayner 808 Dans cet article, nous construisons trois tests d'ajustement lissés pour tester une distribution ZIP contre des alternatives générales lisses au sens de Neyman. Nous appliquons nos tests à un ensemble de données auparavant présenté comme ZIP‐distribué, et nous montrons que le modèle ZIP ne décrit pas correctement les données. En cas de rejet de l'hypothèse nulle de modèle ZIP, les composantes individuelles de la statistique de test, qui sont directement liées à des paramètres interprétables dans un modèle lissé, peuvent être utilisées pour l'examen d'une distribution alternative.
Keywords:
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号