首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 391 毫秒
1.
REGULAR ARTICLES     
《Biometrics》2006,62(3):952-958
  相似文献   

2.
REGULAR ARTICLES     
《Biometrics》2006,62(2):636-643
  相似文献   

3.
REGULAR ARTICLES     
《Biometrics》2005,61(3):891-895
L. Cowen and C. J. Schwarz 657 Les Radio‐tags, en raison de leur détectabilitéélevée, sont souvent employés dans les études de capture re‐capture. Une qualité essentielle requise est que les Radio tags ne cessent pas de fonctionner pendant l'étude. Le dysfonctionnement d'un Radio tag avant la fin d'une étude peut conduire à sous‐estimer le taux de survie. Nous développons ici un modèle pour incorporer des données issues de radio tags déficients. Ce modèle a été appliqué aux smolts chinook (tshawytscha d'Oncorhynchus) sur la Colombia river WA. Les estimations des taux de survie obtenus à partir de ce modèle sont beaucoup plus grandes que celles observées dans l'analyse standard de Cormack‐Gaie‐Seber. M. A. Suchard , R. E. Weiss , and J. S. Sinsheimer 665 Les facteurs de Bayes pour comparer deux hypothèses ou plus en compétition sont souvent estimés en construisant un échantillon de chaînes de Markov (MCMC) pour explorer l'espace joint des hypothèses. Pour obtenir des estimations efficaces des facteurs de Bayes, Carlin et Chibb (1995) ont suggéré d'ajuster les odds a priori des hypothèses en compétition de telle sorte que les odds a posteriori soient approximativement un et d'estimer alors les facteurs de Bayes par simple division. Un sous‐produit est que l'on produit souvent plusieurs chaînes MCMC indépendantes, une seulement étant utilisée pour l'estimation. Nous étendons cette approche en proposant trois tests statistiques qui incorporent les résultats des différentes chaînes. Le premier suppose des tirages indépendants dans une chaîne et modélise la fonction indicatrice de l'hypothèse en utilisant une régression logistique pour différents choix des odds a priori. Les deux autres modèles plus complexes abandonnent l'hypothèse d'indépendance en permettant des dépendances retard dans les résultats des différentes chaînes. Ces modèles nous permettent d'estimer l'incertitude dans nos calculs des facteurs de Bayes et d'utiliser pleinement les différentes chaînes MCMC, même si les a priori des odds varient de chaîne à chaîne. Nous appliquons ces méthodes de calcul des facteurs de Bayes pour tester la monophyllie dans deux exemples de phylogénie. Le premier exemple explore la relation d'un pathogène inconnu à un ensemble de pathogènes connus. L'identification de la relation monophyllique du pathogène inconnu peut influer sur le choix de l'antibiotique dans une perspective clinique. Le second exemple se concentre sur la détection des recombinaisons du virus VIH. Pour une application clinique potentielle, ces types d'analyse devraient être achevés aussi efficacement que possible. J. Zhu , J. C. Eickhoff , and P. Yan 674 Des observations de réponses spatio‐temporelles multiples se présentent souvent dans les études environnementales et écologiques. Alors que les modèles purement spatiaux de réponses univariées dans les familles exponentielles de distribution ont progressé au cours des dernières années (e.g. Diggle et al., 1998; Zhang, 2002), peu d'outils statistiques sont disponibles pour des réponse multivariées qui ne sont pas nécessairement Gaussiennes. Une exception cependant est le modèle à facteur commun développé pour des données spatiales multivariées par Wang et Wall (2003). Le but de cet article est d'étendre ce modèle multivarié uniquement spatial et de proposer une classe flexible de modèles linéaires généralisés de variables latentes appliqués à des données multivariées spatio‐temporelles. L'inférence statistique repose sur des estimées du maximum de vraisemblance et de leurs écarts‐type obtenues par l'algorithme EM de Monte Carlo. Nous proposons aussi une nouvelle méthode d'ajustement automatique de la taille de l'échantillon Monte Carlo, qui facilite la convergence de l'algorithme EM et présente ainsi quelque intérêt indépendant. La méthodologie est illustrée par une étude écologique du pin rouge en réponse à des attaques de charançon de l'écorce dans une forêt du Wisconsin. Y.‐G. Wang , X. Lin , and M. Zhu 684 Les méthodes robustes sont utiles pour assurer des inférences statistiques fiables en cas de légers écarts aux hypothèses du modèle. La méthode très largement utilisée des équations d'estimation peut être “robustifiée” en remplaçant les résidus standardisés par les M‐résidus. Si les résidus de Pearson sont supposés centrés sans biais, les estimations des paramètres par l'approche robuste sont asymptotiquement biaisés lorsque les distributions des erreurs ne sont pas symétriques. Nous proposons une méthode pour corriger ce biais. Nos études numériques extensives montrent que la méthode proposée peut réduire ce biais substantiellement. On donne des exemples d'illustration. R. J. Cook , W. Wei , and G. Y. Yi 692 Nous proposons des méthodes semi‐paramétriques pour estimer et tester l'effet d'un traitement en présence d'un événement récurrent observé sur des périodes multiples, avec prise en compte de la censure. Ces méthodes reposent sur l'estimation de fonctions avec pour hypothèse de travail un modèle de Poisson mixte sous lequel les effets aléatoires individuels peuvent être éliminés par conditionnement. Des tests statistiques robustes dérivés de pseudo‐scores sont obtenus par estimation “sandwich” de la variance. L' efficacité relative des analyses conditionnelle et marginale est évaluée de façon analytique sous un modèle mixte de Poisson à temps homogènes. La robustesse et la puissance empirique de l'approche semi‐paramétrique sont étudiées au moyen de simulations. Des adaptations pour prendre en compte les événements récurrents survenant dans des essais en cross‐over sont décrites et ces méthodes sont appliquées aux données d'un essai en cross‐over sur deux périodes chez des patients souffrant d'asthme bronchique. X. Song and Y. Huang 702 Plusieurs méthodes de modélisation fonctionnelle ont été proposées, en présence d'erreur de mesure des covariables avec le modèle de taux proportionnels. Sont inclus dans ces méthodes, l'estimateur du score conditionnel (Tsiatis and Davidian, 2001, Biometrika 88, 447–458) l'estimateur avec correction paramétrique (Nakamura, 1992, Biometrics 48, 829–838) et l'estimateur avec correction non paramétrique (Huang and Wang, 2000, Journal of the American Statistical Association 95, 1209–1219) dans l'ordre d'hypothèses de plus en plus faible sur l'erreur. Bien qu'ils soient tous consistants, chacun de ces estimateurs souffre de possibles difficultés en présence de petits échantillons ou d'erreurs de mesure substantielles. Dans cet article, ayant observé que les estimateurs du score conditionnel ou avec corrections paramétriques étaient asymptotiquement équivalents pour une erreur normale, nous avons cherché quelle était leur performance relative pour des échantillons de taille finie et remarqué que le premier était le meilleur. Ceci signifie une approche générale affinée des méthodes de correction paramétriques et non paramétriques. Les corrections affinées des estimateurs sont asymptotiquement équivalentes à leurs correspondantes standards, mais ont des propriétés numériques améliorées et sont plus performantes lorsque les estimations standards n'existent pas ou sont extrêmes. Nous présentons des résultats de simulations et une application de ces méthodes à un essai clinique sur le HIV. A.‐C. Andrei and S. Murray 715 Ce travail étudie l'analyse séquentielle de données de survie appariées en utilisant une nouvelle classe de tests non‐paramétriques, fondés sur un log‐rank pondéré apparié (PWLR), et les tests à partir de Kaplan‐Meier pondérés appariés (PWKM). Pendant le déroulement d'un essai chacun de ces tests peut alternativement être considéré comme la statistique la plus extrême. En suivant l'évolution de PEMAX, le maximum des différences absolues du PWLR standardisé et du PWKM, on a, à la fois, les avantages des tests de rangs et les avantages des autres tests. Par des simulations on montre que l'utilisation de PEMAX contrôle le risque de type I et est quasiment aussi puissant que l'utilisation du meilleur des deux tests. Ceci, que l'hypothèse des hasards proportionnels soit respectée ou non. Désormais, PEMAX préserve la puissance de façon plus robuste que chacun des deux tests pris individuellement, tout en restant relativement simple à mettre en place et à utiliser dans une analyse. Un exemple, à partir de l'étude “Early Treatment Diabetic Retinopathy Study” (ETDRS), est donné. B. Lu 721 Dans les études d'observation avec un traitement dépendant du temps et des covariables dépendant du temps, il est souhaitable d'équilibrer la distribution des covariables à chaque instant. Un score de propension (“propensity score”) dépendant du temps basé sur le modèle de Cox à risques proportionnels est proposé et utilisé pour apparier les sujets exposés au risque. Il est montré que l'appariement sur ce score de propension permet d'obtenir une distribution équilibrée des covariables dans les groupes traité et non traité. Un appariement optimal avec divers plans est mis en place et comparé dans une étude de traitement chirurgical, cytoscopie et hydrodistention, pour une maladie chronique de la vessie, la cystite interstitielle. Des simulations suggèrent aussi que l'analyse statistique après appariement est plus performante que l'analyse sans appariement en terme d'estimation et d'intervalle de confiance. M. Naskar , K. Das , and J. G. Ibrahim 729 Une classe très générale de distributions de survie multivariées est utilisée pour analyser des données groupées de défaillance, sujettes à la censure et à des modes multiples de défaillance. Conditionnellement à des quantités spécifiques au groupe, la distribution jointe du temps de défaillance et de la variable indicatrice de l'évènement peuvent s'exprimer comme un mélange de la distribution des temps de défaillance dûs à un certain type (ou spécifique d'une cause) et de la distribution marginale du type de défaillance. Nous supposons ici que les distributions marginales des différents types de défaillance sont de fonctions logistiques de certaines covariables. Les quantités spécifiques au groupe sont soumises à une certaine distribution inconnue qui cause la fragilité. La distribution de fragilité est modélisée non paramétriquement par un processus de Dirichlet (DP). Dans une telle approche semi paramétrique une méthode hybride d'estimation est proposée basée sur l'algorithme pondéré du restaurant chinois (WCR) qui nous aide à générer des observations à partir de la distribution prédictive de la fragilité. L'algorithme de Monte‐Carlo ECM (MCEMC) joue un rôle vital pour obtenir des estimations des paramètres qui établissent l'importance des effets des facteurs causaux pour les défaillances d'un certain type. Une étude de simulation est conduite pour étudier la consistance de notre méthodologie. La méthodologie proposée est utilisée pour analyser des données réelles de contamination par le virus VIH sur une cohorte de femmes prostituées du Sénégal. F. Bretz , J. C. Pinheiro , and M. Branson 738 Traditionnellement, les stratégies d'analyse de données issues d'études dose‐réponse se partagent en deux grandes catégories : les procédures de comparaisons multiples et la modélisation. L'approche par modélisation suppose une relation fonctionnelle entre la réponse et la dose – celle‐ci est ici considérée comme un facteur quantitatif –, selon un modèle paramétrique spécifiéà l'avance. On utilise alors ce modèle pour estimer la dose permettant d'obtenir un niveau donné de réponse, mais la validité des conclusions dépend fortement de la pertinence du modèle de dose‐réponse, le vrai modèle étant a priori inconnu. A l'inverse, les procédures de comparaisons multiples considèrent la dose comme un facteur qualitatif et font très peu d'hypothèses – voire aucune – sur le modèle de dose‐réponse sous‐jacent. Avec ces procédures, il s'agira souvent d'identifier la dose minimale efficace, statistiquement significative et susceptible de produire un effet biologique considéré comme intéressant. Une des approches possibles est de tester la significativité de contrastes comparant différents niveaux de dose, tout en contrôlant le risque global de Type I. Ce type de procédure est relativement robuste ; cependant, l'inférence ne peut bien sûr pas sélectionner d'autres doses que celles utilisées dans l'étude. Dans cet article, nous décrivons une stratégie unifiée d'analyse de données issues d'études dose‐réponse, stratégie qui combine les techniques de comparaisons multiples et de modélisation. Nous supposons en fait l'existence de plusieurs modèles candidats, tous paramétriques, et utilisons des techniques de comparaisons multiples pour choisir le modèle le plus vraisemblable vis‐à‐vis de la vraie courbe dose‐réponse sous‐jacente, tout en contrôlant le risque global de Type I. On utilise alors le modèle ainsi sélectionné pour cerner, à l'aide d'une approche inférentielle, les doses les mieux appropriées. J. O'Quigley 749 La méthode de ré‐évaluation séquentielle (CRM) est un algorithme pour la recherche de dose qui s'appuie sur une remise à jour dynamique. Comme d'autres méthodes dynamiques, la CRM fournit une estimation de la dose courante qui correspond à un percentile cible. Cette dose, calculée à partir de tous les sujets inclus, sera utilisée pour la prochaine expérience. La mise en oeuvre de cette ré‐évaluation est possible grâce à l'utilisation d'un modèle simple. Dans l'état actuel des choses ni la CRM ni toute autre méthode dynamique permet d'estimer un percentile cible à partir de données rétrospectives, sauf dans le cas exceptionnel où le modèle simplifié génère les données. Dans cet article notre attention se porte sur un problème spécifique, à savoir l'analyse rétrospective par la CRM de données générées par un mécanisme arbitraire. Nous montrons comment procéder de façon cohérente. La méthodologie proposée n'est pas limitée à ce schéma particulier et s'applique à d'autres plans expérimentaux où l'estimation de la dose est faite par une mise à jour dynamique. L'analyse rétrospective pose un certain nombre de difficultés pour ces plans, en particulier la CRM, car ces plans ont la propriété d'exploiter un modèle de travail sous paramétré. On ne peut répondre à la question ‐ quel aurait été le résultat si on avait utilisé un autre plan expérimental. Néanmoins on peut fournir une estimation de ce résultat. Ceci a de nombreuses applications. Z.‐F. Yu and P. J. Catalano 757 Les effets neurotoxiques d'agents chimiques sont souvent analysés dans le cadre d'études contrôlées sur des rongeurs, pour de multiples variables (binaires et continues) collectées en routine. L'un des objectifs est d'évaluer le risque afin de déterminer les doses optimales non toxiques. De telles études sont cependant confrontées à deux problèmes majeurs concernant les variables continues. Premièrement, il est difficile, pour de telles variables, d'évaluer le risque et de définir une dose de référence. Lorsque le risque est associéà la survenue d'un événement, il peut clairement être défini de façon binaire par la survenue ou non de l'événement. Définir le risque de façon similaire pour des variables continues est moins évident. Dans ce cas, l'événement est souvent défini par un ensemble de valeurs inférieures à un certain seuil, la distribution de ces valeurs étant supposée normale ou log normale. Deuxièmement, alors que, pour de telles études, les variables continues sont traditionnellement analysées séparément, des travaux récents conseillent plutôt d'utiliser des modèles multivariés. Nous proposons une méthode pour modéliser et quantifier le risque associéà des variables continues bivariées. Il s'agit d'une extension des méthodes existantes de régression par quantiles. L'approche basée sur une vraisemblance, permet de dissocier les modèles dose‐réponse de chaque variable, tout en tenant compte de la corrélation bivariée et de la caractérisation globale du risque. L'approche utilisée pour estimer une dose de référence est analogue à celle utilisée pour des variables binaires, sans qu'il soit nécessaire de spécifier un seuil arbitraire. Nous illustrons nos méthodes avec des données issues d'une étude de neurotoxicité de l'exposition de rats au triethyltin. L. Huang , M.‐H. Chen , and J. G. Ibrahim 767 Nous proposons des méthodes bayésiennes pour estimer les paramètres de modèles linéaires généralisés (GLM) avec des données de covariables manquantes qu'on ne peut pas négliger. Nous montrons que lorsqu'une distribution uniforme a priori impropre est employée pour les coefficients de régression, ? , du modèle multinomial de sélection du mécanisme d'obtention des données manquantes, la distribution jointe a posteriori sera toujours impropre si (i) toutes les covariables manquantes sont discrètes et si un coefficient constant est inclus dans le modèle de sélection du mécanisme d'obtention de données manquantes, ou (ii) au moins une covariable est continue et non bornée. Ce caractère impropre se manifestera indifféremment que les a priori propres ou non soient spécifiés pour les paramètres de régression, β , du GLM ou des paramètres, α , de la distribution de la covariable. Pour résoudre ce problème, nous proposons une nouvelle classe d'a priori propres pour les coefficients de régression, ? , dans le modèle de sélection du mécanisme de données manquantes. Ces a priori sont robustes et intéressants pour le calcul au sens où les inférences concernant les β ne sont pas sensibles au choix des hyperparamètres des a priori de ? et qu'ils facilitent un schéma d'échantillonnage de Gibbs qui conduit à une convergence accélérée. De surplus, nous étendons le critère d'évaluation du modèle de Chen, Dey et Ibrahim (2004), appelémesure L pondérée, au GLM et aux problèmes des données manquantes de même que nous étendons le Critère d'Information de Déviance (DIC) de Spiegelhalter et al. (2002) pour évaluer si le mécanisme d'obtention des données manquantes peut être ignoré ou non. Un nouvel algorithme de Monte Carlo de chaîne de Markov est aussi développé pour mener à bien les calculs des a posteriori. Plusieurs simulations sont faites pour étudier la performance des critères bayésiens proposés et la sensibilité aux spécifications a priori. Des ensembles de données provenant d'un essai clinique sur une tumeur mélanique et d'une étude sur le cancer du foie sont présentés pour mieux illustrer las méthodes proposées. A. Golightly and D. J. Wilkinson 781 Cet article traite de l'estimation de constantes de taux dans des modèles stochastiques de processus intra‐cellulaire. Le modèle stochastique discret de cinétique sous jacent est remplacé par une approximation (par équation différentielle stochastique) où le bruit blanc modélise le comportement stochastique et on identifie le modèle utilise sur des intervalles de temps réguliers. L'estimation implique l'utilisation de m‐1 observations latentes entre chaque couples de dates d'observation. Les méthodes MCMC sont alors utilisées pour échantillonner la distribution a posteriori du processus latent et les paramètres du modèle. La méthodologie est appliquée à l'estimation des paramètres d'un processus d'auto régulation des gènes chez un procaryote. G. Diao and D. Y. Lin 789 Les méthodes statistiques pour détecter les gènes qui influencent des caractères quantitatifs à l'aide de marqueurs génétiques sont bien développées pour des phénotypes distribués normalement et complètement observés. De nombreuses expériences impliquent des phénotypes liés à un temps d'échec, qui ont des distributions asymétriques, et qui sont habituellement sujets à censure à cause des perdus de vue aléatoire, des échecs pour des causes en compétition ou de la limitation de la durée de l'expérience. Dans cet article nous développons des méthodes statistiques semi‐paramétriques pour cartographier des Locus de Caractères Quantitatifs (LCQ) basés sur des phénotypes à temps d'échec avec censure. Nous formulons les effets du génotype LCQ sur le temps d'échec au moyen du modèle à risques proportionnels de Cox (1972) et dérivons des procédures d'inférence efficaces basées sur la vraisemblance. De plus, nous montrons comment évaluer la signification statistique quand on recherche les LCQ dans plusieurs régions du génome complet. Des études extensives par simulation démontrent que les méthodes proposées ont de bonnes performances en pratique. Les applications à deux études animales sont présentées. W. Briggs and D. Ruppert 799 Doit‐on pratiquer des mammographies de précaution chez des femmes d'âge moyen en bonne santé? Les chirurgiens doivent‐ils utiliser le score TRISS bien connu pour prédire la chance de survie de leurs patients? Ce sont des exemples de questions auxquelles on est confronté lorsqu'on décide d'utiliser une prédiction de type Oui/Non. Pour retenir une prédiction nous devons montrer qu'elle est qu'elle est plus intéressante que serait notre meilleure vision en absence de prédiction. Le calcul d'une mesure permet d'identifier l'erreur lorsque la prédiction est erronée et d'examiner les performances passées de la prédiction compte tenu de cette erreur. On développe un test statistique dans ce but. Les prédictions qui seront acceptées par ce test seront dites avoir de la compétence. Seules les prédictions compétentes devraient être utilisées. On montrera des méthodes graphiques et numériques pour montrer la compétence. L'utilité des mammographies est étudiée par cette voie. O. Thas and J. C. W. Rayner 808 Dans cet article, nous construisons trois tests d'ajustement lissés pour tester une distribution ZIP contre des alternatives générales lisses au sens de Neyman. Nous appliquons nos tests à un ensemble de données auparavant présenté comme ZIP‐distribué, et nous montrons que le modèle ZIP ne décrit pas correctement les données. En cas de rejet de l'hypothèse nulle de modèle ZIP, les composantes individuelles de la statistique de test, qui sont directement liées à des paramètres interprétables dans un modèle lissé, peuvent être utilisées pour l'examen d'une distribution alternative.  相似文献   

4.
REGULAR ARTICLES     
《Biometrics》2006,62(4):1282-1290
Generalized Additive Modeling with Implicit Variable Selection by Likelihood‐Based Boosting L'utilisation des modèles additifs généralisés dans l’analyse statistique de données souffre de la restriction à quelques variables explicatives et du problème du choix des paramètres de lissage. Le «boosting» d’un modèle additif généralisé contourne ces problèmes par l’intermédiaire d’un ajustement par étapes d’algorithmes d'apprentissage faibles. Une procédure d’ajustement est dérivée qui fonctionne pour toutes les familles de distribution exponentielle simple, incluant les variables réponse binomiale, de Poisson et normales. La procédure combine la sélection de variables et la détermination du degré approprié de lissage. Comme algorithmes d’apprentissages faibles, sont considérés les splines de régression pénalisés et les «stumps» pénalisés nouvellement introduits. Les estimations des déviations standard et les critères d’arrêt qui sont des problèmes notoires dans les procédures itératives sont basés sur une matrice chapeau approchée. La méthode est montrée comme étant un fort compétiteur par rapport aux procédures habituelles pour ajuster des modèles additifs généralisés. En particulier, il fonctionne très bien dans des situations à haute dimensionnalité avec beaucoup de variables de nuisance dans le prédicteur. Variable Selection for Logistic Regression Using a Prediction‐Focused Information Criterion L’utilisation de critères d’information pour guider la sélection des variables est habituelle en biostatistique. Nous proposons de nouvelles versions du critère de l’information ciblée (CIC) pour sélectionner les variables en régression logistique. Ce critère fournit des ensembles de variables qui dépendent de la cible à estimer. Sous sa forme standard, le CIC mesure l’erreur quadratique moyenne associée à l’estimateur de la quantité d’intérêt dans le modèle sélectionné. Nous proposons des formulations plus générales du CIC, autorisant d’autres mesures de risque, comme celles fondées, par exemple, sur l’erreur‐Lp. Quand on s’intéresse à la prédiction d’un événement, comme c’est souvent le cas dans les applications médicales, nous construisons un CIC fondé sur une mesure naturelle du risque, le taux d’erreurs. Une étude par simulation et l’application à une étude concernant la rétinopathie diabétique illustrent l’intérêt d’un critère de l’information dépendant à la fois de la quantité d’intérêt et de la mesure de risque choisie. A Goodness‐of‐Fit Test for Multinomial Logistic Regression Cet article propose un test d’adéquation d’un modèle logistique à des réponses multinomiales ou binomiales. Il s’agit d’un test du score de l’hypothèse nulle d’adéquation contre l’hypothèse alternative que les résidus de sous‐échantillons proches dans l’espace des covariables ont tendance à se ressembler. La statistique de test est une somme de carrés de résidus lissés qui peut s’interpréter comme un test du score dans un modèle mixte. La spécification de la distance dans l’espace des covariables permet de choisir l’hypothèse contre laquelle le test est dirigé et d’en faire soit un test omnibus, soit un test ad hoc de l’adéquation par rapport à l’effet de certaines covariables du modèle ou par rapport à certaines modalités d’une réponse multinomiale. A Generalized Response Surface Model with Varying Relative Potency for Assessing Drug Interaction Lors de l’administration simultanée de plusieurs traitements les investigateurs cherchent souvent àétablir quel est le type d’interaction entre les substances: potentialisation, synergie ou antagonisme. De nombreux modèles de surface de réponse, basés sur le modèle d’additivité de Loewe, exigent que le rapport d’activité (ou la puissance relative) soit constant et certains d’entre eux utilisent un seul paramètre pour décrire le type d’interaction. L’hypothèse d’un rapport d’activité constant est cependant trop restrictive et les modèles à un paramètre sont inadéquats quand le type d’interaction varie en fonction des combinaisons des substances. Nous proposons un modèle généralisé de surface de réponse utilisant une fonction de la dose au lieu d’un paramètre unique pour décrire l’écart à l’additivité. Le modèle proposé peut incorporer également des variations des rapports d’activité variables entre plusieurs substances. La capacité du modèle à décrire les différentes formes d’interaction est illustrée par des exemples et des simulations. Semiparametric Analysis of Zero‐Inflated Count Data La recherche médicale et de santé publique est souvent impliquée dans l’analyse de données de comptage qui contiennent une grande proportion de zéros, telles que le nombre d’attaques cardiaques et le nombre de jours d’arrêt de travail dans une période donnée. Pour modéliser de telles données, on utilise généralement un modèle de régression de Poisson avec un grand nombre de zéros, qui suppose une hétérogénéité en deux points dans la population caractérisée par un effet binaire aléatoire. Les sujets sont grossièrement séparés en deux catégories, le groupe à faible risque pour les comptages à zéro, et le groupe à haut risque (ou normal) pour lequel on peut utiliser un modèle de régression de Poisson. Le but principal est d’identifier les variables explicatives qui ont des effets significatifs sur (i) la probabilité que le sujet appartienne au groupe à faible risque au moyen d’une régression logistique; et (ii) la taille des comptages sachant que le sujet est issu du groupe à haut risque, au moyen d’un modèle de régression de Poisson où les effets des covariables sont supposés liés linéairement au logarithme naturel de la moyenne des comptages. Dans cet article, nous construisons un modèle semi‐paramétrique de régression de Poisson à zéro augmenté qui postule une relation possiblement non linéaire entre le logarithme naturel de la moyenne des comptages et une covariable particulière. Nous proposons une méthode de criblage pour l’estimation par maximum de vraisemblance. Les propriétés asymptotiques de cette méthode d’estimation sont discutées. Nous montrons que, sous certaines conditions assez faibles, les estimateurs sont asymptotiquement efficaces et normalement distribuées. Des études de simulation ont été réalisées pour voir les performances de la méthode proposée. Pour l’illustrer, cette méthode a été utilisée sur un jeu de données provenant d’une enquête de santé publique en Indonésie, où la variable d’intérêt est le nombre de jours d’arrêt de travail dus à la maladie pendant une période de quatre semaines Semiparametric Analysis of Two‐Level Bivariate Binary Data Dans les études médicales, des réponses binaires appariées sont souvent observées pour des sujets étudiés au cours du temps ou pour des grappes. L'intérêt premier est d'étudier comment l'association bivariée et les risques marginaux univariés sont affectés par des mesures répétées sur chaque sujet. Pour atteindre ce but, nous proposons une classe très générale de modèles binaires bivariés semi‐paramétriques. Les effets spécifiques du sujet inclus dans le log odds‐ratio bivarié et les composantes logit univariées sont supposées suivre un processus non paramétrique de Dirichlet (DP). Nous proposons une méthode hybride pour faire de l'inférence basée sur le modèle. Dans la construction de la méthode hybride proposée, l'estimation des paramètres est faite en implémentant un algorithme de Monte‐Carlo EM (MCEM). La méthodologie proposée est illustrée par une étude de l'efficacité du Tibolone, pour réduire les problèmes liées à la ménopause rencontrés par les femmes indiennes. Une étude de simulation est aussi conduite pour évaluer l 'efficacité de la nouvelle méthodologie. A Nonlinear Model with Latent Process for Cognitive Evolution Using Multivariate Longitudinal Data La cognition n’est pas directement mesurable. Elle est évaluée à l’aide d’une batterie de tests psychométriques qui peuvent être considérés comme des mesures quantitatives bruitées de la cognition. L’objectif de cet article est de proposer un modèle permettant de décrire la cognition non observée chez les personnes âgées et d’évaluer l’impact de variables explicatives directement dessus. Le processus latent défini en temps continu et représentant la cognition est modélisé par un modèle linéaire mixte prenant en compte des variables dépendantes du temps et les tests psychométriques sont ensuite définis comme des transformations nonlinéaires paramétrées du processus latent. L’estimation des paramètres à la fois dans le modèle mixte et dans les transformations nonlinéaires est obtenue en maximisant la vraisemblance observée et des méthodes graphiques sont utilisées pour évaluer l’adéquation du modèle. La méthode est appliquée aux données de la cohorte prospective française PAQUID. Low‐Rank Scale‐Invariant Tensor Product Smooths for Generalized Additive Mixed Models Une méthode générale est présentée pour construire des fonctions de lissage basées sur des produits tensoriels de faible rang et utilisées comme composantes de GAMs ou de GAMMs. Une approche de type régression pénalisée est adoptée dans laquelle chaque produit tensoriel de plusieurs variables est construit à partir des lisseurs de chaque variable prise séparément, ces lisseurs «marginaux»étant définis avec une fonction de faible rang et associée à une pénalité quadratique sur les fluctuations. Les lisseurs offrent plusieurs avantages (i) ils ont une pénalité sur les fluctuations pour chaque covariable et sont donc insensibles à une transformation linéaire des covariables, les rendant utiles quand il n’y a pas de façon naturelle pour mettre à l’échelle les covariables entre elles; (ii) ils ont un plage utile du degré de lissage personnalisable, à la différence de la pénalité unique des lisseurs par produit tensoriels qui sont invariants à l’échelle; (iii) le rang relativement bas des lisseurs fait qu’ils sont numériquement efficients; (iv) les pénalités des lisseurs sont aisément interprétables en terme de forme de la fonction; (v) les lisseurs peuvent être générés complètement automatiquement à partir des fonctions de lissage marginales et des pénalités quadratiques associées, donnant au modélisateur une flexibilité considérable pour choisir la combinaison de base des pénalités la plus apporpriée à chaque tâche de modélisation; (vi) les lisseurs peuvent aisément être écrits comme des composants d’un modèle mixte linéaire ou linéaire généralisé standard, permettant de les utiliser comme des composants de la riche famille de tels modèles implémentés dans des logiciels standard et d’avoir l’avantage de méthodes numériques efficientes et stables qui ont été développées pour de tels modèles. Une petite étude de simulation montre que les méthodes peuvent favorablement se comparer aux méthodes ANOVA avec splines lissants récemment développées. Joint Modeling of Survival and Longitudinal Data: Likelihood Approach Revisited L’approche par le maximum de vraisemblance a permis de modéliser conjointement, dans les études longitudinales, le délai de survie et ses covariables longitudinales. Des effets aléatoires dans le processus longitudinal est souvent utilisé pour modéliser les délais de survie au travers d’un modèle à risques proportionnels, et cela fait appel à un algorithme EM pour rechercher l’Estimateur du Maximum de Vraisemblance (MLEs). Plusieurs problèmes sont étudiés ici, à savoir la robustesse du MLEs par rapport à un écart à l’hypothèse de normalité des effets aléatoires, ainsi que les difficultés pour obtenir des estimateurs fiables de l’écart type du MLEs via l’approche par la vraisemblance. Nous apportons des éclaircissements sur la propriété de robustesse et suggérons de passer outre les difficultés de la fiabilité de l’estimateur des écart‐types en utilisant des procédures de bootstrap. Des simulations et des analyses de données illustrent nos propos. Bayesian Semiparametric Dynamic Frailty Models for Multiple Event Time Data Beaucoup d’études biomédicales collectent des données sur le délai d’apparition d’un événement de santé, qui peut se produire de manière répétitive, comme les infections, les hospitalisations, les rechutes de la maladie, ou les évolutions tumorales. Pour analyser de telles données, il est nécessaire de prendre en compte la dépendance intra‐sujet entre les délais de ces multiples événements. Motivé par des données d’étude sur les tumeurs palpables, cet article propose un modèle dynamique de fragilité, et une approche inférentielle Bayesienne semi‐paramétrique. Le modèle à risques proportionnels est généralisé pour incorporer une fragilité spécifique à l’individu qui change de manière dynamique avec l’âge, tout en s’accommodant aux risques non‐proportionnels. Les hypothèses paramétriques sur la distribution de fragilité sont évitées en utilisant le processus de Dirichlet comme un a priori pour la fragilité partagée ainsi que pour les innovations multiples sur cette fragilité. En centrant le modèle semi‐paramétrique sur un modèle gamma dynamique conditionnellement‐conjugué, nous facilitons la programmation a postériori et nous évaluons convenablement le manque d’ajustement du modèle paramétrique. La méthode que nous proposons est appliquée à des données issues d’une étude de chimio‐prévention. Interval Mapping of Quantitative Trait Loci for Time‐to‐Event Data with the Proportional Hazards Mixture Cure Model Les modèles de mélange normaux pour établir des cartes génétiques par intervalle ont été un outil fondamental pour l’analyse de traits quantitatifs (QTL) sur des organismes expérimentaux. Quand le phénotype principal étudié est un événement retardé dans le temps, il est naturel d’utiliser alors des modèles de survie, tels que le modèle à risques proportionnels de Cox plutôt que le modèle de mélange normal pour modéliser un tel phénotype. Un enjeu supplémentaire dans la modélisation du temps jusqu’àévénement est de considérer que la population étudiée peut être composée de sujets susceptibles et de sujets non susceptibles. Dans cet article, nous proposons un modèle de mélange semi‐paramétrique à risques proportionnels permettant de prendre en compte une fraction de sujets non atteints, et qui permette de considérer des valeurs manquantes parmi les covariables. Nous discutons les applications de ce modèle à la cartographie des régions chromosomiques QTL, quand le trait principal est un événement apparaissant dans le temps au sein d’une population mixte de patients susceptibles ou non de présenter l’événement. Ce modèle peut être utilisé pour caractériser ces effets QTL, à la fois sur la susceptibilité et sur la distribution du temps jusqu’àévénement, et d’estimer la position de ces QTL. Ce modèle peut intégrer naturellement l’effet conjoint d’autres facteurs de risque. Les estimations par maximum de vraisemblance des paramètres du modèle ainsi que de leur variance peuvent être obtenues numériquement à l’aide d’un EM algorithme. Les méthodes proposées sont évaluées par des simulations sous des conditions couramment rencontrées en pratique et illustrées sur un jeu de données réelles comportant des temps de survie de souris infectées par Listeria monocytogenes. Une extension du modèle aux intervalles multiples est également discutée. Feature‐Specific Penalized Latent Class Analysis for Genomic Data Les données de la génomique sont souvent caractérisées par un nombre important de variables catégorielles mesurées chez un nombre relativement faible d’individus. Certaines de ces variables peuvent être absentes ou non informatives. Un exemple de telles données est la perte d’hétérozygocité (PH), une variable dichotomique observée sur un nombre limité de marqueurs génétiques. Nous considérons d’abord un modèle de classes latentes où, conditionnellement à l’appartenance non observée à l’une des k classes, les variables sont indépendantes avec des probabilités déterminées par un modèle régressif de faible dimension q. A l’aide d’une famille de pénalités incluant l’arête et le lasso, nous étendons ce modèle aux problèmes de plus grande dimension. Enfin, nous présentons une carte orthogonale qui transforme l’espace marqueurs en un espace de ‘caractéristiques’ pour lequel le modèle contraint a un meilleur pouvoir prédictif. Nous illustrons ces méthodes sur des données de PH recueillies sur 19 marqueurs chez 93 patients présentant une tumeur cérébrale. Pour ce jeu de données, la méthode de classe latente non pénalisée ne produit pas d’estimations. De plus, nous montrons que les classes a posteriori obtenues avec cette méthode sont associées à la survie des patients. Quantifying Genomic Imprinting in the Presence of Linkage L’analyse de liaison génétique classique confère le même poids à l’analyse des transmissions des allèles marqueurs paternels et maternels ce qui conduit à une nette baisse de puissance si les gènes étudiés sont soumis au phénomène d’empreinte parentale. Plusieurs stratégies ont été proposées pour prendre en compte les empreintes parentales dans le cadre de l’analyse de liaison modèle‐indépendante des traits binaires. Cependant, aucune de ces méthodes ne propose l’identification et la quantification du phénomène d’empreinte parentale en présence de liaison. En outre, les méthodes disponibles reposent sur l’analyse de paires de germains atteints et décomposent artificiellement les fratries de taille supérieure au prix d’une perte de puissance certaine. Nous proposons ici une approche globale, le MLB‐I (Maximum Likelihood Binomial – Imprinting), pour l’analyse de fratries de toute taille, qui associe i) un test de liaison prenant en compte le phénomène d’empreinte parentale, ii) un test d’empreinte parentale en présence de liaison, iii) un test du caractère complet ou partiel de l’empreinte. Par ailleurs, l’empreinte parentale est quantifiée au moyen d’un indicateur original. La distribution des trois statistiques proposées est dérivée et validée sous leur hypothèse nulle respective par étude de simulation sous différents modèles de transmission génétique. La puissance des tests est également évaluée. Cette méthode est directement applicable au criblage entier du génome comme l’illustre l’analyse de fratries avec des germains atteints de lèpre. Notre approche fournit un nouvel outil pour la dissection de l’empreinte parentale en analyse de liaison modèle‐indépendante, et sera d’un intérêt majeur pour identifier et évaluer la contribution des gènes soumis à empreinte parentale dans les maladies génétiques complexes. A Method for Estimating Penetrance from Families Sampled for Linkage Analysis Quand on découvre un variant génétique en ségrégation avec une maladie, il peut être intéressant d’estimer le risque de la maladie (ou le risque spécifiquement associéà l’âge) pour les individus porteurs du variant. Les familles ayant contribuéà la découverte du variant doivent généralement compter plusieurs porteurs et, de ce fait, si le variant est rare, elles peuvent constituer une source intéressante de sujets d’étude pour l’estimation du risque. Mais ces familles, qui ont attiré l’attention des chercheurs sur le gène en question, peuvent de ce fait ne pas être représentatives de la relation existant entre le statut de porteur du gène et le risque de maladie dans la population. Utiliser ces familles pour estimer le risque pourrait affecter d’un biais l’association trouvée entre le variant et le risque. Le but de cet article est de présenter une méthode d’ajustement pour ce biais potentiel quand on utilise les familles de l’analyse de liaison pour estimer le risque. A Unified Approach for Simultaneous Gene Clustering and Differential Expression Identification Bien que la classification non‐supervisée et l’identification de gènes différentiellement exprimés soient d’importance égale dans la plupart des études utilisant les puces à ADN, ces deux problèmes sont souvent traités de façon indépendante. Clairement, cette stratégie n’est pas la plus efficace pour extraire l’information. L’objectif principal de cet article est de développer une méthode statistique cohérente qui permette de classifier et de détecter simultanément les gènes différentiellement exprimés. Grâce à l’échange d’informations entre ces deux opérations, l’approche proposée produit une classification des gènes plus adéquate et est plus sensible pour identifier les gènes différentiellement exprimés. L’amélioration par rapport aux méthodes existantes est illustrée à la fois par nos résultats de simulations et par une étude de cas. Shrunken p‐Values for Assessing Differential Expression with Applications to Genomic Data Analysis Pour beaucoup de problèmes liés aux technologies produisant des données à grande échelle, l’inférence statistique implique des centaines ou des milliers d’hypothèses. Récemment, beaucoup d’attention a été dévolue aux tests multiples; on s’est concentré en particulier sur le taux de faux positifs. Dans cet article, nous considérons une autre procédure d’estimation nommée «p‐valeurs rétrécies pour l’évaluation de l’expression différentielle» (SPADE). Les estimateurs sont inspirés du principe de risque issu de la théorie de la décision et conduisent à une méthode complètement nouvelle d’ajustement des p‐valeurs obtenues lors de tests multiples. De plus, la théorie de la décision permet de dériver une règle de décision pour contrôler le nombre de faux positifs. Nous présentons des résultats théoriques et illustrons la méthodologie proposée à l’aide de simulations et d’une application à des données d’expression issues d’une étude sur le cancer de la prostate. Fragment Length Distributions and Collision Probabilities for AFLP Markers L’AFLP est une technique d'empreinte digitale d'ADN fréquemment utilisée en sciences végétales et animales. Un de ses inconvénients est l'occurrence de fragments multiples d'ADN de même longueur dans une simple ligne d'AFLP, que nous appelons une collision. Dans cet article nous quantifions le problème. Le problème bien connu du jour de naissance joue un rôle. Le calcul des probabilités de collision exige une distribution de la longueur du fragment (fld). Nous discutons trois manières d'estimer le fld: basé sur des considérations théoriques, sur la détermination in‐silico en utilisant des données de séquence d'ADN d'Arabidopsis thaliana, ou sur l'estimation directe à partir des données d'AFLP. Dans le dernier cas nous employons un modèle linéaire généralisé avec lissage monotone des probabilités de longueur de fragment. Des probabilités de collision sont calculées à partir de deux perspectives, en supposant des comptages connus de fragment et en supposant de comptages connus de bande. Nous comparons des résultats pour un certain nombre de fld, s'étendant de l'uniformitéà la dissymétrie la plus forte. La conclusion est que les collisions se produisent souvent, avec des probabilités plus élevées pour des nombres plus élevés de bandes, pour des distributions plus dissymétriques et, à un moindre degré, pour de plus petits intervalles de marquage. Pour un génome végétal typique un AFLP avec 19 bandes est susceptible de contenir la première collision. Des implications pratiques des collisions sont discutées. Des exemples d'AFLP de la laitue et de la chicorée sont employés en guise d’illustration. Susceptibility of Biallelic Haplotype and Genotype Frequencies to Genotyping Error Avec la mise à disposition de techniques de génotypage à haut débit ainsi que des bases de données génétiques, la recherche d'association entre des polymorphismes de substitution et un trait complexe est devenue un domaine important de recherche méthodologique en génétique médicale. Cependant, les erreurs de génotypage même relativement faibles peuvent conduire à de fausses associations et diminuer la puissance statistique. Nous proposons une approche systématique pour étudier comment des erreurs de génotypage peuvent changer les distributions génotypiques d'un échantillon. Le cas général à M‐marqueurs est réduit à celui d'un seul marqueur en identifiant la structure sous‐jacente du produit tenseur de la matrice des errors. La méthode et les conclusions s'appliquent au modèle général d'erreur; nous donnons des résultats détaillés pour le modèle à“erreur allélique" qui dépend à la fois du locus marqueur et de l'allèle présent. Les erreurs multiples sont traitées à partir du processus de diffusion associéà l'espace des distributions génotypiques. Nous montrons que certaines distributions génotypiques et haplotypiques restent inchangées en présence d'erreurs de génotypage et que ces erreurs rendent généralement la distribution plus proche de la distribution stable. Dans le cadre d'étude d'association cas‐témoins, cela conduit à une perte de puissance en présence d'erreurs de génotypage non‐différentielles et à une augmentation de l'erreur de type I pour des erreurs différentielles. De plus, nous montrons que des erreurs de génotypage sous le modèle à“erreur allélique" ne modifient pas l'équilibre d'Hardy‐Weinberg au niveau génotypique. Sous ce type d'erreurs, nous identifions les distributions les plus affectées. Comme elles correspondent aux situations où les allèles sont rares et les marqueurs en fort déséquilibre de liaison, une attention toute particulière aux erreurs de génotypage est recommandée en présence d'associations cas‐témoins observées au niveau allélique ou haplotypique. Statistical Analysis for Haplotype‐Based Matched Case–Control Studies En utilisant des données génotypiques déphasées, nous étudions l’inférence statistique de l’association entre une maladie et un haplotype dans des études cas‐témoins. L’inférence statistique pour les données d’haplotype est compliquée due à l’ambiguïté des phases de génotypes. Une méthode basée sur une équation d’estimation est développée pour estimer des odds ratios et tester des associations maladie – haplotype. La méthode peut potentiellement être appliquée au test de l’interaction haplotype – environnement. Des études de simulations montrent les bonnes performances de la méthode. La performance de la méthode en présence de déviations de l’équilibre de Hardy‐Weinberg est aussi étudiée. Optimization of Two‐Stage Genetic Designs Where Data Are Combined Using an Accurate and Efficient Approximation for Pearson's Statistic Dans la recherche des gènes associés à telle ou telle pathologie, les études cas‐témoin réalisées en deux étapes successives suscitent un intérêt croissant, en raison de la réduction des coûts de génotypage qu’elles permettent. De plus, au lieu d’analyser séparément les données de la deuxième étape, on peut effectuer un test plus puissant en regroupant les données des deux étapes. Cependant, il n’est alors pas possible d’utiliser les tests classiques, puisque seuls sont sélectionnés, pour la deuxième étape, les marqueurs jugés significatifs lors de la première étape; de surcroît, parce qu’elles portent en partie sur les mêmes données, les statistiques de test utilisées lors de chacune des deux étapes sont nécessairement corrélées entre elles. Or, on ne dispose pas d’approximations théoriques pour les tests les plus courants; quant aux simulations, leur lourdeur calculatoire, dans ce contexte spécifique, peut s’avérer problématique. C’est pourquoi nous proposons une approximation performante – c’est‐à‐dire à la fois précise et rapide en termes de temps de calcul CPU – pour la distribution de la statistique de Pearson associée à des tables de contingence 2 x m dans les études en deux étapes avec données poolées. Nous avons utilisé cette approximation dans le cadre d’une méthode itérative de recherche de plans optimaux en deux étapes. Les simulations effectuées étayent la fiabilité de notre approximation, et les résultats numériques confirment que l’utilisation de plans en deux étapes réduit de façon substantielle la quantité des génotypages à réaliser. En choisissant de pooler les données (plutôt que ne pas les pooler), on diminue en moyenne les tailles d’échantillons de 15% et le nombre de génotypages de 5%. Case‐Cohort Designs and Analysis for Clustered Failure Time Data Les plans de type cas‐cohorte apportent un schéma efficient et économique pour l’étude de facteurs de risque de maladies non fréquentes dans une large cohorte. Ils demandent le recueil de covariables pour les événements vérifiés au sein de toute la cohorte, et pour les individus d’une sous‐cohorte sélectionnée au début du suivi. Dans la littérature, les plans cas‐cohorte ont été très étudiés mais seulement dans le cadre de données univariées. Dans cet article, nous proposons des plans de type cas‐cohorte pour des données de durée multivariées. Une procédure d’estimation s’appuyant sur un modèle d’indépendance est utilisée pour estimer les paramètres de régression dans le modèle marginal des hasards proportionnels, où on laisse non spécifiée la structure de corrélation entre individus d’une même classe. On développe les propriétés statistiques des estimateurs proposés. Des études de simulations permettent d’étudier la performance des estimateurs proposés, et de comparer les qualités statistiques. On illustre la méthode proposée à l’aide de données provenant de l’étude TRIAD. A Semiparametric Empirical Likelihood Method for Biased Sampling Schemes with Auxiliary Covariates Nous considérons une procédure d’inférence semi‐paramétrique pour des données d’études épidémiologiques conduites selon un plan d’échantillonnage à deux composantes oùà la fois un échantillonnage aléatoire simple et des échantillons de résultats multiples ou de résultats auxiliaires sont observés. Ce plan de sondage permet aux enquêteurs de sur‐échantillonner certaines sous‐populations dans le but d’avoir plus d’informations sur le modèle de régression tout en améliorant la connaissance de la population sous‐jacente à travers le plan d’échantillonnage aléatoire simple. Nous restreignons notre étude à des dispositifs dans lesquels il n’y a pas d’information additionnelle sur la cohorte‐parent et où la probabilité d’échantillonnage est non identifiable. Notre problématique est motivée par une étude destinée àévaluer l’association entre le niveau de mutation du gène EGFR et la réponse anti‐tumorale à une thérapie ciblée EGFR parmi des patients ayant un cancer pulmonaire (hors anaplasique à petites cellules). La méthode proposée s’applique à la fois à des réponses binaires et multinomiales et admet une fonction de lien arbitraire dans le cadre des modèles linéaires généralisés. Des études de simulations montrent que l’estimateur proposé a des bonnes propriétés pour des petits échantillons. La méthode est illustrée par un exemple. Augmented Designs to Assess Immune Response in Vaccine Trials Ce papier introduit des méthodes utilisables dans les essais cliniques de vaccins pour aider à savoir si la réponse immunitaire à un vaccin est vraiment la cause d’une réduction du taux d’infection. Cela n’est pas facile car la réponse immunitaire à un vaccin(par exemple, contre le VIH) n’est observée que dans le groupe vacciné. Si nous savions ce qu’aurait été la réponse immunitaire spécifique au vaccin anti‐VIH dans le groupe placebo s’il avait été vacciné, cette réponse pourrait être traitée comme une covariable et son interaction avec le traitement pourrait être évaluée. De même, le taux d’infection en fonction de la valeur de cette covariable pourrait être comparé entre les deux groupes et appuierait le rôle causal de la réponse immunitaire si le risque infectieux diminuait en relation avec une réponse immunitaire accrue au vaccin uniquement dans le groupe vacciné. Nous introduisons deux méthodes d’inférence sur la réponse immunitaire spécifique. La première consiste à vacciner tout le monde avant le démarrage de l’essai par un autre vaccin sans rapport avec le vaccin anti‐VIH, par exemple le vaccin anti‐rabique. La randomisation garantit que la relation entre les réponses immunitaires au vaccin anti‐rabique et au vaccin anti‐VIH observée dans le groupe vacciné est la même que celle qui aurait pu être observée dans le groupe placebo. Nous déduisons une réponse au vaccin anti‐VIH pour les sujets sous placebo à partir de leur réponse au vaccin anti‐rabique et d’un modèle de prédiction dans le groupe vacciné. La deuxième méthode consiste à vacciner tous les sujets du groupe placebo non infectés à la fin de l’essai par le vaccin anti‐VIH et à enregistrer leur réponse immunitaire. Nous supposons que la réponse à la fin de l’essai est la même que ce qu’elle aurait été au début. Nous pouvons donc en déduire quelle aurait été la réponse immunitaire chez les sujets infectés du groupe placebo. De tels schémas peuvent aider àélucider le rôle de la réponse immunitaire dans la prévention des infections. Plus précisément, ils pourraient aider à décider l’amélioration ou l’abandon d’un vaccin anti‐VIH ayant montré une efficacité médiocre dans un essai de phase III. Statistical Inference in a Stochastic Epidemic SEIR Model with Control Intervention: Ebola as a Case Study Un modèle stochastique susceptible‐exposé‐infecté‐résistant (SEIR) à temps discret pour les maladies infectieuses est développé dans le but d’estimer les paramètres à partir de la série d'incidence quotidienne et de la série de mortalité d’une épidémie d'Ebola dans la république démocratique du Congo en 1995. La série d’incidence montre beaucoup de comptages faibles voir nuls ce qui nécessite une approche de modélisation stochastique. Pour identifier la nature stochastique des transitions entre les compartiments, nous spécifions des distributions binomiales conditionnelles appropriées. De plus, une fonction temporelle simple du taux transmission est introduite pour prendre en compte l’effet des interventions. Nous développons des méthodes MCMC pour l’inférence basée sur les distributions a posteriori des paramètres. L’algorithme est étendu pour intégrer numériquement des variables d’état du modèle non observées. Ceci conduit à un modèle stochastique réaliste qui peut être utiliser par des épidémiologistes pour étudier les dynamiques d’une maladies et l’effet des interventions. Measurement Error in a Random Walk Model with Applications to Population Dynamics Les abondances des populations naturelles sont rarement connues. Elles sont estimées avec une certaine imprécision. Cette erreur de mesure a des conséquences sur les analyses ultérieures, comme la modélisation de la dynamique de la population et l'estimation des abondances probables dans le futur. Cet article analyse certaines questions encore ouvertes sur les conséquences de l'erreur de mesure sur la dynamique d'un modèle simple, la marche aléatoire avec dérive, et propose de nouvelles méthodes de correction de l'erreur de mesure. Nous présentons un éventail large de modèles d'erreur de mesure qui tolèrent à la fois l'hétéroscédasticité et de possibles corrélations entre erreurs de mesure, et nous fournissons des résultats analytiques sur les biais des estimateurs ignorant l'erreur de mesure. Nos nouveaux estimateurs incluent à la fois la méthode des moments et des «pseudo estimateurs» résultant de la synthèse d'estimations observées d'abondances de population et d'estimations de paramètres du modèle d'erreur de mesure. Nous dérivons les propriétés asymptotiques de notre méthode et des méthodes existantes et comparons leurs performances en échantillons finis par simulation. Nous analysons aussi les implications pratiques de ces méthodes en les utilisant pour analyser deux jeux de données réels de dynamique de populations. Multistage Evaluation of Measurement Error in a Reliability Study Nous proposons des procédures de tests séquentiels pour la planification et l’analyse dans des études de fiabilité pour évaluer l’erreur de mesure d’une exposition. Nos schémas permettent l’évaluation répétitive de la fiabilité des mesures, et un arrêt de test lorsque l’erreur de mesure est mise en évidence précocement dans les limites de tolérance. Nos méthodes sont développées et les valeurs critiques calculées pour un certain nombre de schémas à deux étapes. Nos méthodes sont illustrées à l’aide d’un exemple évaluant la fiabilité de bio marqueurs associés au stress oxydatif. Effects of Residual Smoothing on the Posterior of the Fixed Effects in Disease‐Mapping Models Les modèles de cartographie de maladies pour des données aréolaires ont souvent des effets fixes pour mesurer l'effet de covariables variant spatialement et des effets aléatoires avec un a priori autorégressif conditionnel (CAR) pour prendre en compte la corrélation spatiale. Dans de telles régressions spatiales, l'objectif peut être d'estimer les effets fixes en prenant en compte la corrélation spatiale. Mais ajouter les effets aléatoires CAR peut provoquer de grands changements dans la moyenne et la variance a posteriori des effets fixes, comparé au modèle de régression non‐spatial. Ce papier explore l'impact de l'ajout des effets aléatoires spatiaux sur les estimations des effets fixes et la variance a posteriori. Des diagnostiques sont proposés pour mesurer l'inflation de la variance a posteriori due à la colinéarité entre les covariables à effets fixes et les effets aléatoires CAR et de mesurer chaque influence des régions sur le changement des estimations des effets fixes lorsque des effets aléatoires CAR sont ajoutés. Un nouveau modèle qui allège la colinéarité entre les covariables à effet fixe et les effets aléatoires CAR est développé. Des extensions des ces méthodes à des modèles pour données ponctuellement référencées sont discutées. Equivalence of Truncated Count Mixture Distributions and Mixtures of Truncated Count Distributions Ce papier porte sur la modélisation de données de comptage avec une troncation en zéro. Une famille de densités paramétrique de comptage est considérée. Le mélange tronqué de densités de cette famille est différent du mélange de densités tronquées de la même famille. Alors que le premier modèle est plus naturel à formuler et interpréter, le deuxième est théoriquement plus facile à traiter. Il est montré que pour n'importe quelle distribution mélangeante conduisant à un mélange tronqué, une distribution mélangeante (d'habitude différente) peut être trouvée, si bien que le mélange associé de distributions tronquées est égale au mélange tronqué et vice versa. Ceci implique que les surfaces de vraisemblance pour les deux situations s'accordent, et dans ce sens les deux modèles sont équivalents. Les modèles de données de comptage avec troncation en zéro sont utilisés fréquemment en capture‐recapture pour estimer la taille de la population et il est montré que les deux estimateurs de Horvitz‐Thompson associés à ces deux modèles sont en accord. En particulier il est possible d'obtenir des résultats forts pour les mélanges de densités de Poisson tronquées incluant une construction globale fiable de l'unique estimateur NPMLE de la distribution mélangeante, ce qui implique un estimateur unique pour la taille de la population. Le bénéfice de ce résultat réside dans le fait qu'il est valide de travailler avec le mélange de densités de comptage tronquées, qui est moins attractif pour le praticien mais théoriquement plus facile. Les mélanges de densités de comptage tronquées forment un modèle linéaire convexe, pour lesquels une théorie a été développée incluant une théorie du maximum de vraisemblance globale aussi bien que des approches algorithmiques. Une fois que le problème a été résolu dans cette classe, il devrait être facile de revenir au problème original par une transformation explicitement donnée. Des applications de ces idées sont données, spécialement dans le cas de la famille de Poisson tronquée. New Approximations to the Malthusian Parameter Des approximations du paramètre malthusien d’un processus de branchement age‐dépendant sont obtenues en fonction des moments de la distribution du temps de survie, en utilisant un lien avec la théorie du renouvellement. Plusieurs exemples montrent que nos nouvelles approximations sont plus précises que celles actuellement utilisées, même lorsqu’elles ne sont basées que sur les deux premiers moments. Ces nouvelles approximations sont étendues pour s’adapter à une forme de division cellulaire asymétrique rencontrées chez certaines espèces de levures. Nous montrons qu’elles sont d’efficience élevée lorsqu’on les utilise dans un cadre inférentiel. Adaptive Web Sampling Une classe flexible d'échantillonnage adaptatif est introduit pour échantillonner dans un contexte de réseau ou spatial. Les sélections sont réalisées séquentiellement avec un mélange de lois basé sur un ensemble actif qui change lorsque l'échantillonnage progresse en utilisant des relations de réseau ou spatiales ainsi que des valeurs de l'échantillon. Les nouveaux plans de sondage ont des avantages certains comparés aux plans adaptatifs préexistants et aux plans par dépistage de liens, incluant un contrôle sur les tailles d'échantillons et sur la proportion de l'effort alloué aux sélections adaptatives. Une inférence efficace implique un moyennage sur tous les chemins consistant avec la statistique suffisante minimale. Une méthode de réechantillonnage par chaîne de Markov permet de réaliser l'inférence. Les plans sont évalués dans des dispositifs de réseaux ou spatiaux en utilisant deux populations empiriques: une population humaine cachée à risque pour le VIH/Sida et une population d'oiseaux irrégulièrement distribuée. Motor Unit Number Estimation—A Bayesian Approach Toute contraction musculaire dépend de l’état de fonctionnement des unités motrices. Dans des maladies comme la sclérose latérale amyotrophique (SLA), la perte progressive des unités motrices conduit à la paralysie. Une difficulté majeure dans la recherche d’un traitement pour ces maladies réside dans l’absence d’une mesure fiable de la progression de la maladie. Une mesure possible serait l’estimation du nombre d’unités motrices restant en vie. Toutes les méthodes proposées pour l’estimation du nombre d’unités motrices (ENUM) pendant près de 30 ans ont été confrontées à des objections pratiques et théoriques. Notre but est de développer une méthode ENUM surmontant ces objections. Nous enregistrons le potentiel d’activité musculaire composé (PAMC) d’un muscle donnée, en réponse à un stimulus électrique gradué appliqué au nerf. Lorsque l’intensité du stimulus augmente le seuil de chaque unité motrice est dépassé, et la valeur du PAMC augmente jusqu’à ce qu’une réponse maximale soit atteinte. Cependant, le potentiel seuil requis pour l’excitation d’un axone n’est pas une valeur précise, mais fluctue dans un petit intervalle, ce qui conduit à une activation probabiliste des unités motrices, en réponse à un stimulus donné. En cas de recouvrement des intervalles seuils des unités motrices, on peut être en présence d’alternatives dues à un nombre variable d’unités motrices activées en réponse au stimulus. Ceci signifie que les incréments de la valeur du PAMC correspondent à l’activation de différentes combinaisons d’unités motrices. Pour un stimulus fixé la variabilité du PAMC, rapportée par sa variance, peut être utilisée pour piloter une ENUM à l’aide d’une méthode de Poisson. Cependant cette méthode repose les hypothèses d’une part de distribution de Poisson pour le nombre d’unités motrices activées, et d’autre part de taille fixe et identique pour tous les potentiels d’activation des unités motrices (PAUM) simples. Ces hypothèses ne sont pas nécessairement justifiées. Nous proposons une méthodologie bayésienne pour l’analyse des données électrophysiologiques en vue de l’estimation du nombre d’unités motrices. Notre méthode ENUM incorpore la variabilité des seuils, la variabilité intra‐ et inter‐ PAUM simples, et une variabilité de base. Notre modèle ne donne pas seulement le nombre le plus probable d’unités motrices, mais fournit également des informations sur la population formée par ces unités, et sur les unités individuelles. Nous utilisons les méthodes MCMC pour obtenir l’information sur les caractéristiques des unités motrices individuelles, sur la population des unités motrices, et le BIC pour ENUM. Nous testons notre méthode ENUM sur trois sujets. Notre méthodes fournit une estimation reproductible pour un patient atteint de SLA sévère mais stable. Dans une étude de série, nous montrons la chute du nombre des unités motrices chez un patient présentant une maladie rapidement évolutive. Enfin, avec le dernier patient, nous montrons que notre méthode permet d’estimer de grands nombres d’unités motrices. Extension of the Rank Sum Test for Clustered Data: Two‐Group Comparisons with Group Membership Defined at the Subunit Level Le test de somme des rangs de Wilcoxon est largement utilisé pour comparer deux groupes de données non normales. Ce test suppose l'indépendance des unités d'échantillonnage à la fois entre les groupes et à l'intérieur des groupes. En ophtalmologie, les données concernent souvent les deux yeux d'un même individu, qui sont hautement corrélées. Dans les essais cliniques en ophtalmologie, la randomisation est effectuée au niveau de l'individu, mais l'unité d'analyse est l'?il. Si l'?il est utilisé comme unité dans l'analyse, alors la formule usuelle de la variance du test de somme des rangs de Wilcoxon doit être modifiée pour tenir compte de la dépendance à l'intérieur des grappes. Dans certains dispositifs avec données en grappes, où l'unité d'analyse est la sous‐unité, l'appartenance au groupe doit être définies au niveau de la sous‐unité. Par exemple, dans certains essais cliniques en ophtalmologie, des traitements différents peuvent être appliqués à chaque ?il de certains patients, alors que le même traitement peut être appliqué aux deux yeux d'autres patients. En général, il peut y avoir des covariables binaires spécifiques de l'?il (cotées comme ‘exposé' ou ‘non exposé') et l'on souhaite comparer des résultats distribués non normalement entre yeux exposés ou non exposés au moyen d'un test de somme des rangs de Wilcoxon tout en prenant en compte les grappes. Dans cet article, nous présentons une formule corrigée pour la variance de la statistique de la somme des rangs de Wilcoxon en présence de covariables spécifiques de l'?il (sous‐unité). Nous l'appliquons pour comparer des scores de démangeaison chez des patients qui ont une allergie oculaire entre yeux traités par des gouttes actives ou des gouttes placebo, sachant que certains patients reçoivent les mêmes gouttes dans les deux yeux, alors que d'autres patients reçoivent des gouttes différentes dans chaque oeil. Nous présentons également des comparaisons entre le test de Wilcoxon pour des grappes, et chacune des approches par tests de rangs signés et modèle mixte, et nous montrons des différences très notables de puissance en faveur du test de Wilcoxon pour grappes dans certains dispositifs.  相似文献   

5.
《Biometrics》2005,61(3):895-896
S. Matsui 816 Cet article développe des méthodes d'analyse stratifiée d'effets additifs ou multiplicatifs sur des critères binaires, dans le cadre d'essais randomisés avec défaut d'observance. Ces méthodes reposent sur une fonction d'estimation pondérée, garantissant une fonction d'estimation non biaisée à condition que la randomisation soit réalisée par strate. Quand les poids sont connus d'avance, l'estimateur obtenu est une extension naturelle de celui issu de la méthode d'estimation par variable instrumentale pour analyses stratifiées, et les bornes des intervalles de confiance dérivés des tests sont les solutions d'une équation quadratique du paramètre d'intérêt. Les poids optimaux qui maximisent l'efficacité asymptotique intègrent la variabilité inter‐strates de l'observance. Une évaluation basée sur l'efficacité asymptotique relative montre que l'efficacité peut être substantiellement améliorée en utilisant les poids optimaux plutôt que les poids conventionnels, lesquels n'intègrent pas la variabilité inter‐strates de l'observance. Enfin, ces méthodes d'analyse sont appliquées à une étude portant sur la maladie cardiaque coronarienne. L. Li , J. Shao , and M. Palta 824 Une erreur de mesure sur une covariable dans une régression est typiquement considérée pour agir d'une manière additive ou multiplicative sur la valeur de la vraie covariable. Cependant, une telle hypothèse ne tiens pas pour l'erreur de mesure sur la respiration dans les troubles du sommeil (SDB) dans l'étude de la Wisconsin Sleep Cohort Study (WSCS). La vraie covariable dans la sévérité de SDB, et le substitut observé est le nombre de pauses respiratoires par unité de temps de sommeil, qui a une distribution semi continue non négative. Avec une point masse de zéro. Nous proposons un modèle d'erreur de mesure à variable latente pour la structure d'erreur dans cette situation et l'implémentons dans un modèle linéaire mixte. La procédure d'estimation est similaire à une calibration dans une régression mais met en jeu une hypothèse sur la distribution de la variable latente. Les stratégies de modélisation et d'ajustement sont explorées et illustrées au travers de l'exemple du WSCS. J. P. Buonaccorsi , P. Laake , and M. B. Veierød 831 Cette note vise à clarifier les conditions sous lesquelles une analyse naïve impliquant un prédicteur entaché d'erreurs de classification induira un biais sur les coefficients de régression associés aux autres prédicteurs du modèle, prédicteurs dont on suppose qu'ils sont, pour leur part, parfaitement mesurés. Nous levons ici une incohérence apparente entre de précédents résultats et un résultat lié aux erreurs de mesure d'une variable continue dans une régression linéaire. Nous montrons que, de la même façon qu'une erreur portant sur une variable continue, une erreur de classification (même si elle n'est pas liée aux autres prédicteurs) induit un biais dans l'estimation des coefficients associés aux prédicteurs mesurés sans erreur, à moins que la variable entachée d'erreurs et les autres prédicteurs ne soient indépendants. Les biais conditionnels et asymptotiques sont discutés dans le cadre de la régression linéaire et explorés numériquement à travers l'exemple de la relation entre, d'une part, le poids à la naissance, et, d'autre part, le poids de la mère et le fait qu'elle fume ou non. J. Roy and X. Lin 837 Nous abordons les problèmes d'estimation dans les modèles linéaires généralisés pour données longitudinales avec sorites d'étude informative. Lorsqu'un individu sort de l'étude, non seulement la valeur de la variable réponse est manquante, mais souvent les valeurs de certaines covariables sont elles aussi non‐observées. Cependant, les modèles existants pour sortie d'étude informative supposent que les covariables soient complètement observées. Cette condition n'est pas réaliste en présence de covariables variant au cours du temps. Tout d'abord, nous étudions le biais asymptotique résultant de l'application des méthodes existantes, où les covariables temporelles manquantes sont gérées de manière naïve, c'est‐à‐dire (1) en utilisant seulement la valeur de base (“baseline”); (2) en reportant les valeurs de la dernière date d'observation, ou (3) en supposant qu'on peut ignorer les valeurs manquantes. Notre analyse de biais asymptotique montre que ces approches naïves produisent des estimateurs non consistants des paramètres. Dans un deuxième temps, nous proposons un modèle de sélection/transition qui autorise des sorties d'études avec valeurs manquantes, aussi bien sur les covariables explicatives que sur la variable réponse. Nous utilisons l'algorithme EM pour l'inférence de ce modèle. Nous illustrons la méthode proposée sur les données d'une étude longitudinale concernant des femmes infectées par le VIH. B. I. Graubard and T. R. Fears 847 Le risque attribuable ajusté (RA) est la proportion d'individus malades dans une population sujette à une exposition. Nous envisageons des estimations pour le RA ajusté basés sur les rapports de chance (odds ratios) à partir de régression logistique pour ajuster sur les effets confondus. Des méthodes de fonction d'influence utilisées en échantillonnage d'enquêtes sont appliquées pour obtenir des expressions simples et facilement programmables pour estimer la variance de^RA. Ces estimateurs de variance peuvent être appliqués à des données d'études de cas‐témoins, transversales et de cohortes avec ou sans appariement fréquentiel ou individuel et à des dispositifs échantillonnés qui vont de simples échantillons aléatoires à des échantillons groupés, stratifiés en plusieurs étapes et pondérés (par échantillonnage) du type de ceux utilisés dans les enquêtes nationales sur les ménages. L'estimation de la variance de^RA est illustrée au moyen de: (i) une étude transversale avec groupement en plusieurs étapes avec stratification pondérée issue de la troisième enquête nationale de santé et d'examens sur l'asthme de l'enfance, et (ii) une étude de cas‐témoins avec appariement fréquentiel dans le mélanome cutané malin.  相似文献   

6.
《Biometrics》2008,64(3):1007-1008
Y. K. Cheung 940 Simple Sequential Boundaries for Treatment Selection in Multi‐Armed Randomized Clinical Trials with a Control Dans une situation où, avec des ressources trop limitées pour réaliser des comparaisons systématiques avec un standard, on veut étudier un grand nombre de traitements, il peut être utile de conduire un essai à plusieurs bras pour éliminer précocement les traitements inintéressants. Quand l’étude a des critères de jugement dont l’évaluation est relativement rapide, comme l’évaluation d’un volume de lésion à partir d’une image chez les patients victimes d’une attaque, des analyses intermédiaires fréquentes sont éthiquement et pratiquement souhaitables pour les cliniciens. Dans cet article je propose une classe de frontières pour les essais à plusieurs bras, dans lesquels l’objectif est soit la sélection d’un traitement donnant une amélioration significative par rapport au groupe contrôle, soit la déclaration de la futilité de la recherche si il n’existe pas de tel traitement. Les limites proposées sont faciles àétablir en aveugle et peuvent être appliquées à un calendrier d’examens évolutif. Il est simple de calibrer l’essai par rapport à un niveau de confiance fixéà l’avance et cela peut être fait quand le taux de réponse dans le groupe contrôle n’est que connu que par intervalle. Une des méthodes proposées est appliquée pour redéfinir un essai de sélection avec un critère de jugement fourni par imagerie chez des patients avec une attaque aiguë, on le compare par simulations à un dispositif optimal à deux étapes. En moyenne, la méthode proposée emploie des échantillons de taille plus faible que la méthode en deux étapes, cet avantage devient substantiel quand il existe un traitement supérieur au contrôle. L. Liu, X. Huang, and J. O'Quigley 950 Analysis of Longitudinal Data in the Presence of Informative Observational Times and a Dependent Terminal Event, with Application to Medical Cost Data Dans les études observationnelles longitudinales, les mesures répétées sont souvent recueillies à des temps d’observation informatifs. De plus, il peut exister un événement terminal dépendant tel que le décès qui interrompt le suivi. Par exemple les patients en moins bonne santé chercheront plus à se faire soigner et les coûts pour chaque visite ont tendance àêtre plus élevés. Ils ont aussi des taux de mortalité plus élevés. Dans cet article, nous proposons un modèle à effets aléatoires de mesures répétées en présence à la fois de délais d’observation informatifs et d’un événement terminal dépendant. Trois sous‐modèles sont utilisés respectivement pour (1) l’intensité des temps d’observation récurrents, (2) la quantité d’observations répétées à chaque temps d’observation et (3) le risque instantané de décès. Des effets aléatoires corrélés sont inclus pour lier les trois sous modèles. L’estimation peut s’effectuer facilement par des techniques de quadrature gaussiennes, par exemple avec la procédure NLMIXED de SAS. La méthode proposée est illustrée par une analyse du processus de coûts générés chez des patients souffrant d’insuffisance cardiaque chronique. Les données sont extraites de la base de données cliniques CDR du système de santé de l’Université de Virginie. J. Cao, G. F. Fussmann, and J. O. Ramsay 959 Estimating a Predator‐Prey Dynamical Model with the Parameter Cascades Method Les équations différentielles ordinaires (EDO) sont largement utilisées pour décrire le comportement dynamique des populations en interaction, Cependant les systèmes EDO donnent rarement des solutions quantitatives proches des observations réelles de terrain ou des résultats expérimentaux, parce que les systèmes naturels sont soumis à un bruit environnemental ou démographique et que les écologistes sont dans l’incertitude pour paramétrer correctement leurs données. Dans cet article nous introduisons les « cascades de paramètres » pour améliorer l’estimation des paramètres EDO de manière à bien ajuster les solutions aux données réelles. Cette méthode est basée sur le lissage pénalisé modifié en définissant la pénalité par les EDO et en généralisant l’estimation profilée pour aboutir à une estimation rapide et à une bonne précision des paramètres EDO sur des données affectées de bruit. Cette méthode est appliquée à un ensemble d’EDO prévues à l’origine pour décrire un système prédateur‐proie expérimental soumis à des oscillations. Le nouveau paramétrage améliore considérablement l’ajustement du modèle EDO aux données expérimentales. La méthode révèle en outre que d’importantes hypothèses structurales sous‐jacentes au modèle EDO originel sont essentiellement correctes. La formulation mathématique des deux termes d’interaction non linéaire (réponses fonctionnelles) qui lient les EDO dans le modèle prédateur‐proie est validée par un estimateur non paramétrique des réponses fonctionnelles à partir des données réelles. Nous suggérons deux applications importantes des « cascades de paramètres »à la modélisation écologique. La méthode peut servir à estimer des paramètres quand les données sont soumises à des bruits ou manquantes, ou quand aucune estimée a priori fiable n’est disponible. La méthode peut par ailleurs aider à valider la qualité structurelle du modèle mathématique. D. S. Johnson, D. L. Thomas, J. M. Ver Hoef, and A. Christ 968 A General Framework for the Analysis of Animal Resource Selection from Telemetry Data Nous proposons un cadre général pour analyser des données télémétriques animales en utilisant des distributions pondérées. On montre que plusieurs interprétations du choix des ressources se présentent quand on compare la ressource utilisée à la ressource disponible. Le cadre général proposé permet de montrer que les modèles habituels de choix des ressources sont des cas particuliers du modèle général avec des hypothèses sur les déplacements et le comportement des animaux. On montre que le cadre des distributions pondérées permet de prendre facilement en compte des données télémétriques fortement autocorrélées, comme c’est typiquement le cas avec la technologie GPS assurant le suivi des animaux. Une analyse de données simulées utilisant plusieurs modèles construits dans le cadre proposé est présentée pour illustrer les gains possibles apportés par cette modélisation flexible. Le modèle est appliquéà des données sur l’ours brun du sud‐est de l’Alaska.  相似文献   

7.
《Biometrics》2006,62(3):958-959
S. E. Wright and A. J. Bailer 886 Une expérience avec expositions intermittentes de toxicologie expérimentale fournit l'arrière plan de la discussion du dispositif. Le problème sous‐jacent est de décider quand échantillonner une réponse non linéaire pour minimiser la variance généralisée des estimations des paramètres. Une stratégie heuristique commode peut être appliquée au problème fournissant des dispositifs optimaux ou presque optimaux. L'efficacité de l'approche heuristique permet une exploration directe de la sensibilité de la solution proposée aux particularités de la situation telle que l'hétéroscédasticité, la densité des dates d'observation, les critères du dispositif, et les contraintes sur les valeurs des paramètres. On présente aussi brièvement une application de l'optimisation de dispositif pour le choix des doses dans une expérience de toxicologie de la reproduction. D. V. Mehrotra , X. Li , and P. B. Gilbert 893 Afin de justifier le plan de la première étude au monde visant une démonstration de principe (proof‐of‐concept ou POC) de l'efficacité d'un vaccin HIV basé sur l'immunité et relayé par la cellule, nous évaluons huit méthodes pour tester l'hypothèse nulle composite d'absence d'effet du vaccin soit sur l'incidence d'infection HIV, soit la valeur de la charge virale chez les patients infectés, en comparaison au placebo. Les deux premières méthodes utilisent un seul test appliqué aux valeurs mesurées ou aux rangs du poids de la maladie (BOI) qui combine l'infection et la charge virale. Les six autres méthodes combinent des tests séparés pour les deux critères utilisant des versions pondérées ou non du Z à 2 parties, des méthodes de Simes et de Fisher. A partir de simulations extensives réalisées pour construire l'essai POC type, les méthodes BOI révèlent en général une puissance faible de rejeter l'hypothèse nulle composite (et donc d'entreprendre un futur essai à grande échelle pour le vaccin). Les méthodes par combinaison de Simes et de Fisher non pondérées ont les meilleures performances dans l'ensemble. Un aspect important est que la conclusion est la même si le test de la composante relative à la charge virale est ajusté pour le biais que peut introduire le conditionnement par un événement (l'infection HIV) survenant après la randomisation. Cet ajustement est obtenu en utilisant un modèle de biais de sélection basé sur le cadre de la stratification principale de l'inférence causale. X. Huang , J. N. Cormier , and P. W. T. Pisters 901 Dans le traitement du cancer, les patients reçoivent habituellement une variété de traitements séquentiels. Les traitements initiaux administrés à la suite du diagnostic peuvent varier, comme les régimes de rattrapage suivants donnés après la rechute de la maladie. Cet article considère la situation où ni les traitements initiaux, ni les traitements de rattrapage sont randomisés. En faisant l'hypothèse qu'il n'y a pas de variables de confusion non mesurés, nous estimons les effets causaux conjoints sur la survie des traitements initiaux et de rattrapage, c'est‐à‐dire, les effets des séquences de traitement à deux niveaux. Pour chaque séquence de traitement individuelle, nous estimons la fonction de la distribution de survie et la durée de moyenne de survie restreinte. Les différentes séquences de traitement sont alors comparées en utilisant ces estimations et leurs covariances correspondantes. Des études de simulation sont conduites pour évaluer la performance des méthodes en incluant la sensibilitéà la violation de l'hypothèse de facteurs de confusion non mesurés. Les méthodes sont illustrées par une étude rétrospective de patients ayant un sarcome des parties molles, qui avait motivé cette recherche. D. E. Schaubel , R. A. Wolfe , and F. K. Port 910 L'analyse de la survie est souvent utilisée pour comparer des traitements expérimentaux et conventionnels. Dans les études observationnelles, la thérapie peut changer pendant le suivie. De telles modifications peuvent se résumer par des covariables dépendantes du temps. Étant donné la pénurie croissante de donneurs d'organes, des reins à plus haut risque provenant de donneurs à critères élargis (ECD) sont de plus en plus transplantés. Les candidats à la transplantation peuvent choisir d'accepter un organe ECD (thérapie expérimentale), ou de rester en dialyse et d'attendre la possibilité d'une transplantation non‐ECD ultérieure (thérapie conventionnelle). Une analyse dépendante du temps en trois groupes pour ce type de données implique l'estimation de paramètres correspondants aux deux covariables indicatrices dépendantes du temps représentant les transplantations ECD ou non‐ECD, chacune étant comparée à ceux qui restent en dialyse en liste d'attente. Cependant, l'estimation du hasard ratio ECD par cette analyse dépendante du temps ne considère pas le fait que les patients renonçant à une transplantation ECD ne sont pas destinés à rester en dialyse pour toujours, mais peuvent plus tard recevoir une transplantation non‐ECD. Nous proposons une nouvelle méthode d'estimation du bénéfice de la survie de la transplantation ECD relative à la thérapie conventionnelle (liste d'attente avec la possibilité d'une transplantation non‐ECD ultérieure). Comparée à cette méthode dépendante du temps, la méthode proposée caractérise de manière plus précise la structure des données et produit une estimation plus directe du bénéfice relative à une transplantation ECD. I. Ninan , O. Arancio , and D. Rabinowitz 918 L'émission de neurotransmetteurs par les neurones peut être étudiée par des mesures d'intensité de coloration des terminaisons synaptiques. Le problème est alors d'estimer une espérance dans une situation où, au lieu d'observer des variables aléatoires indépendantes de même espérance, on observe, avec erreur, des sommes aléatoires indépendantes de variables de même espérance sans connaître le nombre de termes de la sommation aléatoire. On présente ici une approche non paramétrique de ce problème d'estimation. La méthode est illustrée sur les données d'une expérience dans laquelle le colorant cationique styrylpyridinium FM4‐64 a été utilisé sur des cultures de neurones de l'hippocampe murin. B. Klingenberg and A. Agresti 921 Cet article considère des test globaux de différence entre vecteurs appariés de distributions binomiales provenant de 2 échantillons de données binaires multivariées dépendantes. La différence est définie, soit comme une non homogénéité des distributions marginales, soit comme une asymétrie de la distribution jointe. Pour détecter le premier type de différence, nous proposons une extension multivariée du test de McNemar et montrons que c'est un test du score généralisé sous une approche GEE. Des caractéristiques univariées, telles que la relation entre le test de Wald et le test du score, ou l'abandon de paires avec la même réponse s'étendent au cas multivarié et le test ne dépend pas de l'hypothèse de travail de la dépendance entre les composantes de la réponse multivariée. Pour des données éparses ou non équilibrées, comme cela arrive quand le nombre de variables est grand ou les proportions proches de zéro, le test est mis en oeuvre en utilisant le bootstrap, ou si c'est trop compliqué au point de vue calculatoire par une distribution de permutation. Nous appliquons le test à des données de toxicité pour un médicament, dans lequel 2 doses sont évaluées en comparant les réponses multiples des mêmes sujets à chacune d'entre elles.  相似文献   

8.
《Biometrics》2008,64(3):1000-1007
I. Lobach, R. J. Carroll, C. Spinka, M. H. Gail, and N. Chatterjee 673 Haplotype‐Based Regression Analysis and Inference of Case‐‐Control Studies with Unphased Genotypes and Measurement Errors in Environmental Exposures Il est maintenant établi que le risque de développer une maladie dite complexe est sous l’influence conjointe de facteurs de susceptibilité génétiques, de facteurs d’exposition environnementaux et de leurs interactions potentielles. Chatterjee et caroll (2005) ont développé une méthode efficace de maximum de vraisemblance rétrospectif pour l’analyse des études cas‐témoins qui fait l’hypothèse d’indépendance des effets génétiques et environnementaux et qui autorise une distribution totalement non paramétriques des covariables environnementales. Spinka et al (2005) ont étendu cette approche aux études où certains types d’information, comme les phases haplotypiques, sont manquantes chez certains individus. Nous étendons cette approche aux situations où certaines exposition environnementales sont mesurées avec erreur. A l’aide d’un modèle de régression logistique polychotomique, nous permettons au statut maladie d’avoir K+1 niveaux. Nous proposons d’utiliser une pseudo‐vraisemblance and un algorithme EM associé pour l’estimation des paramètres. Nous démontrons leur consistance et dérivons la matrice de covariance asymptotique des estimations des paramètres lorsque la variance de l’erreur de mesure est connue et lorsqu’elle est estimée à l’aide de réplications. Les inférences avec des corrections de l’erreur de mesure sont compliquées par le fait que le test de Wald à des propriétés non satisfaisantes en présence d’un large nombre d’erreurs de mesure. Les techniques du rapport de vraisemblance sont connues pour être une alternative satisfaisante. Cependant, les tests du rapport de vraisemblance ne sont pas techniquement corrects dans cette situation car la fonction de vraisemblance est fondée sur un modèle incorrect, i.e. un modèle prospectif dans un schéma d’échantillonnage rétrospectif. Nous corrigeons les résultats asymptotiques standards pour prendre en compte le fait que le test du rapport de vraisemblance est fondé sur une fonction apparentéà la vraisemblance. Les performances de la méthode proposée sont illustrées avec des études de simulation dans le cas où l’information génétique est de type haplotypique et que les données manquantes viennent d’une ambigüité de phase lors de la reconstruction de ces haplotypes. Enfin, nous appliquons notre méthode à une étude d’association cas‐témoins entre la prise de calcium et le risque d’adénome colorectal. B. Mukherjee and N. Chatterjee 685 Exploiting Gene‐Environment Independence for Analysis of Case‐‐Control Studies: An Empirical Bayes‐Type Shrinkage Estimator to Trade‐Off between Bias and Efficiency L’analyse prospective habituelle de données de type cas‐témoin par la régression logistique conduit souvent à des estimateurs très imprécis des interactions gènes‐environnement, en raison du faible nombre de cas ou de témoins pour des croisements génotype‐exposition. Par contraste, sous l’hypothèse d’indépendance gène‐environnement, par les méthodes actuelles rétrospectives, y compris l’approche «cas seulement », on peut estimer les paramètres d’interaction de manière beaucoup plus précise, mais on peut avoir un biais important lorsque l’hypothèse sous‐jacente d’indépendance gène‐environnement n’est pas respectée. Dans cet article, nous proposons un nouvel estimateur de type Bayésien empirique pour analyser des données cas‐témoin, permettant d’assouplir l’hypothèse d’indépendance gène‐environnement en s’appuyant sur les données. Dans le cas particulier d’un gène binaire et d’une exposition binaire, la méthode conduit à un estimateur du paramètre log odds‐ratio de l’interaction sous forme simple explicite, correspondant à une moyenne pondérée des estimateurs usuels « cas seulement » et cas‐témoin. Nous décrivons également une méthode générale pour l’obtention du nouvel estimateur et de sa variance dans le schéma rétrospectif au maximum de vraisemblance proposé par Chatterjee et Carroll (2005). Des simulations et des exemples sur données réelles montrent que l’estimateur proposé marque bien l’équilibre entre le biais et l’efficacité selon la réelle association gène‐environnement et la taille d’échantillon pour une étude donnée. Z. Cai, M. Kuroki, J. Pearl, and J. Tian 695 Bounds on Direct Effects in the Presence of Confounded Intermediate Variables Cet article traite le problème de l’estimation de l’effet directement attribuable au traitement (average controlled direct effect : ACDE) dans l’analyse d’un critère final, lorsque des facteurs de confusion non mesurés adviennent entre la mesure d’une variable intermédiaire et ce critère final. En effet, même lorsque ces facteurs de confusion ne perturbent pas l’estimation de l’effet total (qui est alors identifiable), ils rendent non identifiable l’effet direct attribuable au traitement. Kaufman et coll. (2005) ont utilisé un logiciel de programmation linéaire pour trouver les minimum et maximum des valeurs possibles de l’ACDE pour des données numériques particulières. En utilisant la méthode de programmation linéaire symbolique de Balke–Pearl (1997), nous dérivons ici des formules analytiques pour les limites supérieure et inférieure de l’ACDE sous diverses hypothèses de monotonie. Ces valeurs‐limites sont toujours valides. Dans le domaine de la recherche clinique, elles permettent d’évaluer, de façon abordable en termes de calcul, l’effet directement attribuable au traitement. Elles permettent ainsi d’éclairer l’expérimentateur sur le sens dans lequel s’exerce l’effet attribuable au traitement, ainsi que sur la précision des estimations. T. J. VanderWeele 702 The Sign of the Bias of Unmeasured Confounding Les variables de confusion non mesurées constituent un problème fréquent lorsqu’on veut faire de l’inférence dans des études observationnelles. Nous proposons un théorème qui permet, dans certaines circonstances, de tirer des conclusions sur le signe du biais généré par une variable de confusion non mesurée. Plus précisément, il est possible de déterminer le signe du biais quand il existe des relations monotones d’une part entre la variable de confusion non mesurée et le traitement et, d’autre part, entre la variable de confusion non mesurée et le critère de jugement. Les conditions d’application du théorème sont discutées ainsi que les avantages et les inconvénients liés à son utilisation pour déterminer le sens du biais de la confusion non mesurée. M. Zhang, A. A. Tsiatis, and M. Davidian 707 Improving Efficiency of Inferences in Randomized Clinical Trials Using Auxiliary Covariates L’objectif premier d’un essai clinique randomisé est de comparer deux traitements ou plus. Par exemple, dans un essai à deux bras avec une réponse continue, on peut s’intéresser à la différence des moyennes; avec plus de deux traitements, la comparaison peut être basée sur des différences appariées. Avec des réponses binaires, des odds ratio appariés ou des log odds ratio peuvent être utilisés. En général, les comparaisons peuvent être basées sur des paramètres ayant un sens, dans un modèle statistique pertinent. Des analyses standards pour l’estimation et les tests dans ce contexte, sont typiquement basées sur les données collectées de la réponse et du traitement seulement. Dans beaucoup d’essais, une information sur une covariable auxiliaire peut également être disponible et il est intéressant d’exploiter ces données pour améliorer l’efficacité des inférences. En prenant une perspective de théorie semi‐paramétrique, nous proposons une approche largement applicable à l’ajustement de covariables auxiliaires pour obtenir des estimateurs plus efficaces et des tests pour les paramètres de traitement dans l’analyse d’essais cliniques randomisés. Des simulations et des applications démontrent la performance des ces méthodes. C. J. Lloyd 716 A New Exact and More Powerful Unconditional Test of No Treatment Effect from Binary Matched Pairs Nous considérons le problème du test de la différence des probabilités du succès de paires binaires couplées. Commençant par trois tests standard inexacts, le paramètre de nuisance est d’abord estimé et ensuite la dépendance résiduelle éliminée par maximisation, produisant ce que j’appelle la p‐valeur de E+M. On montre que cette p‐valeur, basée sur la statistique de McNemar, est numériquement supérieure aux suggestions précédentes, y compris les p‐valeurs partiellement maximisées telles qu’elles sont décrites dans Berger et Sidik (2003). La dernière méthode cependant peut avoir des avantages du point de vue des calculs pour de grands échantillons. G. Wei and D. E. Schaubel 724 Estimating Cumulative Treatment Effects in the Presence of Nonproportional Hazards Souvent, dans les études médicales portant sur le délai d’apparition d’un événement, l’effet traitement n’est pas constant au cours du temps. Dans le cas du modèle de Cox, la solution la plus fréquente est d’utiliser un modèle qui suppose que soit l’effet traitement est constant par intervalle, soit qu’il varie lentement au cours du temps (le modèle de Cox à risques non proportionnels). Cette approche a au moins deux limitations majeures. Premièrement, il est généralement difficile d’évaluer si la forme du paramètre choisi pour l’effet traitement est correct. Deuxièmement, en présence de risques non proportionnels, les investigateurs sont habituellement plus intéressés par l’effet traitement cumulé plutôt que par l’effet traitement instantané (c’est‐à‐dire déterminer si et quand les fonctions de survie se croisent). Par conséquent, nous proposons un estimateur pour l’effet global du traitement en présence de risques non proportionnels. Notre estimateur est fondé sur le risque de base cumulé estimé sous un modèle de Cox stratifié. Aucune hypothèse n’est nécessaire quant à la forme de la fonction concernant l’absence de proportionnalité. Les propriétés asymptotiques des estimateurs proposés sont déduites, et les propriétés dans le cas d’échantillons de taille finie sont évaluées par des simulations. L’estimation et les intervalles de confiance de l’estimateur peuvent être calculés simultanément. La méthode proposée est appliquée à des données provenant du registre national des rejets d’organes canadien. B. R. Logan, J. P. Klein, and M.‐J. Zhang 733 Comparing Treatments in the Presence of Crossing Survival Curves: An Application to Bone Marrow Transplantation Dans certaines études cliniques comparant des traitements en terme de courbes de survie, les chercheurs peuvent anticiper que les courbes de survie se croiseront à un certain point, aboutissant à s’intéresser à la comparaison de la survie à long terme. Cependant, la simple comparaison des courbes de survie à un point donné peut être inefficace, et l’utilisation d’un test du log‐rank pondéré peut être trop sensible aux différences initiales dans la survie. Nous formulons le problème comme celui de tester les différences des courbes de survie après un temps pré‐spécifié, et proposons une variété de techniques pour tester cette hypothèse. Nous étudions ces méthodes en utilisant des simulations et les illustrons sur une étude comparant la survie pour des transplantations autologues et allogéniques de moelle. R. Song, M. R. Kosorok, and J. Cai 741 Robust Covariate‐Adjusted Log‐Rank Statistics and Corresponding Sample Size Formula for Recurrent Events Data Des évènements récurrents se rencontrent fréquemment dans les essais cliniques. Cet article développe des statistiques robustes du log‐rank ajustées pour des covariables, appliquées à des évènements récurrents en nombre arbitraire avec censure indépendante et la formule de taille d’échantillon correspondante. Les tests du log‐rank proposés sont robustes pour différents procédés de génération de données et ajustés pour des covariables prédictives. Ils se ramènent au cadre développé par Kong et Slud (1997) dans le cas d’un événement unique. La formule de taille d’échantillon repose sur la normalité asymptotique des statistiques du log‐rank ajustées pour des covariables sous certaines alternatives locales et sous un modèle pour les covariables au baseline dans le contexte d’évènements récurrents. Quand la taille de l’effet est petite et quand les covariables au baseline n’apportent pas une information significative sur les temps de survenue, elle se ramène à la même forme que celle de Schoenfeld (1983) dans les cas d’un événement unique ou de temps de survenue indépendants pour un sujet. Nous réalisons des simulations pour étudier le contrôle de l’erreur de type I et pour comparer la puissance de plusieurs méthodes sur des échantillons finis. La formule de taille d’échantillon proposée est illustrée à partir des données d’un essai de la rhDNase. J. D. Nielsen and C. B. Dean 751 Clustered Mixed Nonhomogeneous Poisson Process Spline Models for the Analysis of Recurrent Event Panel Data Un modèle semi paramétrique flexible pour analyser des données de comptage longitudinales provenant de mélanges est présenté. Les données de comptage en panel se réfèrent ici à des données de comptage sur des évènements récurrents collectés comme le nombre d’évènements qui sont arrivés durant une période de suivi spécifique. Le modèle suppose que les comptages pour chaque sujet sont générés par des mélanges de processus de Poisson non homogènes avec des fonctions d’intensité lissées modélisées par des splines pénalisés. Les effets des covariables dépendant du temps sont aussi incorporés dans le modèle dans l’intensité du processus en utilisant les fonctions splines. Des mélanges discrets de ces modèles splines de processus non homogènes de Poisson extraient l’information fonctionnelle provenant des grappes sous‐jacentes représentant les sous populations cachées. La motivation de ce travail est une expérience pour tester l’efficacité de phéromones en interrompant le processus d’accouplement de papillons tortriciae de l’écorce du cerisier. Les papillons matures proviennent de sous populations cachées mais distinctes et on s’intéressait au contrôle des réponses des sous populations. Des effets aléatoires intra‐grappes sont utilisés pour prendre en compte les structures de corrélation et l’hétérogénéité communes à ce genre de données. Une approche pour faire de l’inférence par équations d’estimation, requérant seulement des hypothèses faibles, est développée et les propriétés à distance finie des fonctions d’estimation proposées sont étudiées empiriquement par simulation. R. M. Elashoff, G. Li, and N. Li 762 A Joint Model for Longitudinal Measurements and Survival Data in the Presence of Multiple Failure Types Dans ce papier, nous étudions un modèle conjoint pour des mesures longitudinales et des données de survie à risques compétitifs. Notre modèle conjoint fournit une approche souple pour prendre en compte les données manquantes possiblement non ignorables dans les mesures longitudinales dues aux sorties d’étude. Il s’agit aussi d’une extension des modèles conjoints précédents avec un seul type d’événements, offrant une voie possible pour modéliser les événements censurés informativement comme un risque compétitif. Notre modèle consiste en un sous‐modèle linéaire à effets mixtes pour le critère longitudinal et un sous‐modèle de fragilitéà risques proportionnels cause spécifique (Prentice et al., 1978, Biometrics 34, 541–554) pour les données de survie à risques compétitifs, liés l’un à l’autre par des effets aléatoires latents. Nous proposons d’obtenir les estimations du maximum de vraisemblance des paramètres par un algorithme EM et d’estimer leurs écarts‐types en utilisant une méthode de vraisemblance profilée. La méthode développée fonctionne bien dans nos études de simulation et est appliquée à un essai clinique sur les atteintes pulmonaires de la sclérodermie. S. Goetgeluk and S. Vansteelandt 772 Conditional Generalized Estimating Equations for the Analysis of Clustered and Longitudinal Data Un problème commun et important dans des plans d’échantillonnage en grappes est que l’effet des expositions intra‐grappes (c’est‐à‐dire des expositions qui varient dans les grappes) sur le résultat peut être confondu avec des facteurs mesurés ou non des facteurs du niveau de la grappe (c’est‐à‐dire des mesures qui ne changent pas à l’intérieur des grappes). Quand certains résultats sont malades/non expliqués, l’estimation de cet effet par l’intermédiaire de modèles de moyenne de la population ou de modèles à effets aléatoires peut introduire un biais. Nous adaptons ce fait en développant une théorie générale de l’analyse de données en grappes qui permet une estimation convergente et asymptotiquement normale des effets (CAN) des expositions intra‐grappes en présence des niveaux de confusion du niveau de grappe. Des estimateurs efficaces semi‐paramétriques sont obtenus en résolvant les équations d’estimation conditionnelles généralisées (CGEE). Nous comparons cette approche à une proposition populaire de Neuhaus et Kalbfleisch (1998) qui séparent l’effet d’exposition en composantes intra‐grappes ou entre grappes à l’intérieur d’un modèle aléatoire avec une constante. Nous constatons que cette dernière approche fournit des estimateurs convergents et efficaces quand le modèle est linéaire, mais qu’elle est moins flexible en termes de spécification de modèles. Avec des modèles non‐linéaires, cette approche peut aboutir à des estimateurs non convergents et inefficaces, bien que le biais reste faible dans la majorité des cas pratiques. Y. Ma, W. Tang, C. Feng, and X. M. Tu 781 Inference for Kappas for Longitudinal Study Data: Applications to Sexual Health Research De nombreuses recherches comportementales, médicales, psycho‐sociales ou de santé utilisent des mesures de la fiabilité des instruments ou de la concordance entre juges pour évaluer les propriétés psychométriques de leurs instruments, le niveau de consensus en matière de diagnostic médical, ou la fiabilité d’une variable de substitution. L’indice de concordance le plus fréquemment utilisé pour des réponses catégorielles est le coefficient kappa de Cohen. Aujourd’hui, dans de nombreuses études, on observe des réponses corrélées, ce qui complique ou invalide l’inférence à partir des méthodes antérieures. En outre, les problèmes posés par les observations incomplètes sont particulièrement gênants dans les études longitudinales, de plus en plus nombreuses, et l’absence de méthodes adaptées entrave le développement des recherches. L’approche que nous présentons repose sur une nouvelle classe d’estimateurs des coefficients kappa qui prend en compte les difficultés que l’on rencontre dans les études longitudinales où interviennent plusieurs évaluateurs, en particulier celles liées aux observations incomplètes. Nous illustrons la méthode à partir de données réelles concernant le sexe et la santé. B. J. Reich and J. S. Hodges 790 Modeling Longitudinal Spatial Periodontal Data: A Spatially Adaptive Model with Tools for Specifying Priors and Checking Fit La perte d’attachement (AL) ou longueur sous la racine dentaire qui n’est plus attachée à l’os par le ligament parodontal est une mesure habituelle de la maladie parodontale. Dans cet article, nous développons un modèle spatio‐temporel de surveillance de la progression de l’AL. Notre modèle est une extension de l’a‐priori conditionnel autorégressif (CAR), qui lisse spatialement les estimations vers leurs voisins. Cependant, puisque l’AL présente souvent des accès de grandes valeurs dans l’espace et dans le temps, nous proposons un modèle spatiotemporel CAR non‐stationnaire qui permet au degré de lissage temporel et spatial de varier dans les différentes régions de la bouche. Pour celà, nous attribuons à chaque site de mesure d’AL son propre ensemble de paramètres de variance, et lissons les variances avec des a‐priori spatiaux. Nous suggérons une heuristique pour mesurer la complexité des variances site‐spécifiques, et nous l’utilisons pour sélectionner les a‐priori qui garantissent que les paramètres du modèle sont bien identifiés. Sur des données d’un essai clinique, le modèle améliore la qualité de l’ajustement par rapport au modèle usuel dynamique CAR pour 90 des 99 mesures d’AL. Y. Guan 800 A KPSS Test for Stationarity for Spatial Point Processes Nous proposons une méthode formelle pour tester la stationnarité d’un processus spatial ponctuel. La statistique de test proposée est basée sur l’intégrale des carrés des écarts entre les nombres d’événements observés et leur moyenne sous l’hypothèse de stationnarité. Nous montrons que la statistique de test obtenue converge en loi vers une fonctionnelle d’un mouvement brownien bidimensionnel. Pour appliquer le test, nous comparons la statistique calculée aux valeurs critiques à l’extrémité supérieure de cette fonctionnelle. Notre méthode suppose seulement une condition de dépendance faible pour le processus, mais ne requiert aucun modèle paramétrique pour cela. De la sorte, elle peut être appliquée à une large classe de modèles de processus spatiaux ponctuels. Nous étudions l’efficacité du test à la fois par des simulations et des applications à deux exemples sur données réelles où la non stationnaritéétait préalablement envisagée en se basant sur des aspects graphiques. Notre test confirme cette non stationnarité suspectée dans les deux cas. W. Zucchini, D. Raubenheimer, and I. L. MacDonald 807 Modeling Time Series of Animal Behavior by Means of a Latent‐State Model with Feedback Nous décrivons une famille de modèles adaptés aux séries temporelles de comportement nutritionnel animal. Les modèles incluent un état non observé pouvant être interprété comme l’état de motivation de l’animal, et un mécanisme pour donner cet état en retour du comportement observé. Nous discutons des méthodes d’évaluation et de maximisation de la vraisemblance d’une série observée de comportements, de l’estimation des paramètres, et de l’inférence pour la plus probable séquence d’états sous‐jacents. Nous indiquons plusieurs extensions de ces modèles, incorporant des effets aléatoires. Nous appliquons ces méthodes à l’analyse du comportement nutritionnel des chenilles Helicoverpa armigera, et nous démontrons ainsi le potentiel de cette famille de modèles dans l’étude des comportements. R. King and S. P. Brooks 816 On the Bayesian Estimation of a Closed Population Size in the Presence of Heterogeneity and Model Uncertainty Nous considérons l’estimation de la taille d’une population fermée, qui présente souvent un intérêt pour des populations animales sauvages, en utilisant une étude de capture‐recapture. L’estimation de la taille totale de population peut être très sensible au choix du modèle utilisé pour l’ajuster aux données. Nous considérons une approche bayésienne, dans laquelle nous considérons chacun des huit modèles plausibles originellement décrits par Otis et al. (1978) dans un contexte simple, incluant des modèles avec une composante individuelle d’hétérogénéité. Nous montrons comment nous pouvons obtenir une estimation moyenne de la population totale, incluant simultanément le paramètre et l’incertitude du modèle. Pour illustrer la méthodologie nous effectuons d’abord une étude de simulation et nous analysons deux ensembles de données où la taille de population est connue, avant de considérer un exemple réel concernant une population de dauphins du nord‐est de l’Ecosse. A. J. Branscum and T. E. Hanson 825 Bayesian Nonparametric Meta‐Analysis Using Polya Tree Mixture Models Un objectif habituel dans une méta‐analyse est l’estimation d’une mesure d’effet unique en utilisant les données de plusieurs études qui sont toutes dessinées pour traiter la même question scientifique. Parce que les études sont typiquement réalisées dans des lieux géographiquement dispersés, les développements récents dans l’analyse statistique des données de méta‐analyses impliquent l’utilisation de modèles avec effets aléatoires qui tiennent compte de la variabilité entre études attribuable aux différences d’environnement, de démographie, de génétique, et d’autres sources d’hétérogeneïté entre les populations. En se fondant sur la théorie asymptotique, les statistiques résumées propres à chaque étude sont modélisées selon des distributions normales représentant les vraies mesures d’effets latents. Dans un deuxième temps une approche paramétrique modélise ces mesures latentes au moyen d’une distribution normale, qui est uniquement une supposition commode dénuée de justification théorique. Pour éliminer l’influence de modèles paramétriques par trop restrictifs sur l’inférence, nous considérons une classe plus large de distributions pour les effets aléatoires. Nous développons un nouveau modèle de mélange d’arbres de Polya Bayesien non paramétrique et hiérarchique. Nous présentons une méthodologie pour tester un modèle de mélange d’arbre de Polya contre un modèle avec effets aléatoires normaux. Ces méthodes fournissent aux chercheurs une approche immédiate pour conduire une analyse de sensibilité de la normalité des effets aléatoires. Une application impliquant une méta‐analyse d’études épidémiologiques pour caractériser l’association entre la consommation d’alcool et le cancer du sein est présentée qui, alliée à des résultats issus de données simulées, met en lumière la performance des mélanges d’arbre de Polya en présence de non‐normalité des mesures d’effet dans la population d’origine. G. Massonnet, P. Janssen, and T. Burzykowski 834 Fitting Conditional Survival Models to Meta‐Analytic Data by Using a Transformation Toward Mixed‐Effects Models Les modèles à fragilité sont communément utilisés pour modéliser des survies sur données en ‘clusters’. Les approches classiques pour ajuster des modèles de fragilité sont basées sur la vraisemblance. Nous proposons une approche alternative dans laquelle le problème initial d'« ajustement d’un modèle de fragilité» est reformulé en le problème d’« ajustement d’un modèle linéaire mixte » grâce à l’utilisation d’un modèle de transformation. Nous montrons que le principe de transformation s’applique aussi aux modèles multivariés à odds proportionnels ainsi qu’aux modèles de risques additifs multivariés. Il permet de plus de faire le lien entre des méthodes séparées en ce sens qu’il fournit un moyen général d’ajuster des modèles conditionnels pour des données de survie multivariées en utilisant la méthodologie des modèles mixtes. Nous nous centrons sur les modèles à fragilité afin d’étudier les caractéristiques spécifiques de la méthode proposée. En nous basant sur une étude de simulation nous montrons que la méthode proposée produit une alternative correcte et simple pour l’ajustement de modèles à fragilité sur des données présentant un nombre suffisamment grand de classes et des tailles d’échantillons modérées à grande à l’intérieur de niveaux de sous‐groupes de covariables. La méthode proposée est appliquée à des données provenant de 27 essais randomisés sur des cancers colorectaux avancés, disponibles par l’intermédiaire du groupe de Meta‐Analyse du Cancer. R. A. Hubbard, L. Y. T. Inoue, and J. R. Fann 843 Modeling Nonhomogeneous Markov Processes via Time Transformation Les études longitudinales constituent un outil puissant pour représenter la progression des maladies chroniques. Ces études sont habituellement menées avec des patients examinés lors de visites périodiques, donnant ainsi des données de type panel. Dans ce schéma d’observation, les temps exacts de transitions entre les états de la maladie, et la séquence suivie des états de la maladie sont inconnus, et les modèles à base de processus de Markov sont souvent utilisés pour décrire la progression. La plupart des applications reposant sur les processus markoviens supposent l’homogénéité par rapport au temps, autrement dit que les taux de transition sont constants au cours du temps. Cette hypothèse n’est pas satisfaite lorsque les taux de transition dépendent du temps à compter du début de la maladie. Cependant, peu d’outils statistiques existent pour prendre en compte cette non‐homogénéité. Nous proposons des modèles dans lesquels l’échelle de temps d’un processus de Markov non‐homogène est transformée en une échelle de temps opérationnelle par rapport à laquelle le processus est homogène. Nous développons une méthode pour l’estimation jointe de la transformation de temps et de la matrice d’intensité de transition pour le processus homogène transformé. Nous établissons une estimation au maximum de vraisemblance utilisant l’algorithme du score de Fisher par des études de simulation, et nous comparons la performance de notre méthode par rapport à des modèles homogènes et des modèles homogènes par morceaux. Nous appliquons notre méthodologie à une étude sur la progression du délire dans une cohorte de receveurs de transplantation de cellules souche, et nous montrons que notre méthode identifie les tendances temporelles dans l’incidence du délire et dans la récupération. C. C. Drovandi and A. N. Pettitt 851 Multivariate Markov Process Models for the Transmission of Methicillin‐Resistant Staphylococcus Aureus in a Hospital Ward L’Aureus Staphylococcus résistant à la méthicilline (SARM) est un pathogène qui continue d’être un problème majeur à l’hôpital. Nous développons des modèles et des algorithmes de calcul basés sur des données observées d’incidences hebdomadaires pour estimer les paramètres de transmission du MRSA. Nous étendons le modèle déterministe de McBryde, Pettitt et McElwain (2007) impliquant une population sous‐jacente de patients colonisés par MRSA et de personnels soignants qui décrit, parmi d’autres processus, la transmission entre patients non colonisés et personnels soignants colonisés et vice‐versa. Nous développons de nouveaux modèles de Markov bivariés et trivariés pour inclure l’incidence de telle façon que les taux de transmission estimés puissent être basés directement sur de nouvelles colonisations plutôt qu’indirectement sur la prévalence. La sensibilité imparfaite de la détection du pathogène est modélisée en utilisant un processus markovien caché. Les avantages de notre approche incluent (i) l’hypothèse d’une valeur discrète pour le nombre de personnels soignants colonisés, (ii) deux paramètres de transmission pouvant être incorporés dans la vraisemblance, (iii) la vraisemblance dépend du nombre de nouveaux cas pour améliorer la précision de l’inférence, (iv) les enregistrements individuels des patients ne sont pas requis, et (v) la possibilité d’une détection imparfaite de la colonisation est incorporée. Nous comparons notre approche avec celle utilisée par McBryde et al (2007), basée sur une approximation qui élimine les personnels soignants du modèle, utilisant une chaîne de Markov par Monte Carlo et des données individuelles des patients. Nous appliquons ces modèles à des données de colonisation de SARM, collectées dans de petites unités de soins intensifs (ICU) à l’hôpital Princesse Alexandra, Brisbane, Australie. A. R. Cook, G. J. Gibson, and C. A. Gilligan 860 Optimal Observation Times in Experimental Epidemic Processes Cet article décrit une méthode de choix de temps d’observation de processus stochastiques destinés à maximiser les espérances des informations de leurs paramètres. On considère deux modèles généralement utilisés pour des processus épidémiologiques: un processus simple de mort et un processus épidémique de susceptibilité d’infection (SI) avec des sources doubles d’infection se développant de l’intérieur ou de l’extérieur de la population. La recherche du plan optimal emploie des méthodes bayésiennes de calcul pour explorer l’espace expérimental commun paramètre‐donnée, combinéà une méthode connue sous le nom de fermeture de moment d’approximation de la vraisemblance pour rendre efficace l’étape d’acceptation. Pour les processus considérés, on montre que choisir un petit nombre d’observations de façon optimale est presqu’aussi bon que collecter des observations de manière plus intensive, pratique générale dans nombre d’expériences épidémiologiques. L’analyse du processus simple de mort permet une comparaison entre l’approche bayésienne intégrale et des dispositifs localement optimaux autour d’une estimation ponctuelle d’a priori basée sur des résultats asymptotiques. On démontre la robustesse de l’approche pour des a priori mal spécifiés du processus épidémique SI, pour lequel le problème de la faisabilité informatique du calcul de la vraisemblance exclut des plans optimaux. Nous montrons que des plans optimaux déduits d’une approche bayésienne sont semblables à des études d’observations d’une épidémie simple et à des études impliquant des épidémies répétées dans des sous‐populations indépendantes. Un optimum différent existe, cependant, quand l’objectif est de maximiser le gain de l’information basée sur des a priori informatifs ou non: ceci a des implications quand une expérience est conçue pour convaincre un observateur naïf ou sceptique plutôt que pour consolider la connaissance d’un observateur mieux informé. On présente quelques prolongements de ces méthodes, comprenant le choix de critères d’information et l’extension à d’autres processus épidémiologiques avec des probabilités de transition. K. F. Lam, J. V. Deshpande, E. H. Y. Lau, U. V. Naik‐Nimbalkar, P. S. F. Yip, and Ying Xu 869 A Test for Constant Fatality Rate of an Emerging Epidemic: With Applications to Severe Acute Respiratory Syndrome in Hong Kong and Beijing L’étiologie, la pathogénie et le pronostic d’une maladie récemment émergente sont généralement inconnus aux cliniciens. Des interventions et des traitements efficaces aussi précoces que possible garantissent la réduction du caractère fatal de la maladie à un minimum, et la suppression de traitements inadéquats. Dans ce contexte, la capacitéà extraire le plus d’informations hors des données disponibles est critique à la possibilité d’importantes prises de décision. L’inefficacité d’un traitement peut être reflétée par une mortalité constante avec le temps tandis qu’un traitement efficace mène normalement à un taux de décès décroissant. Un test statistique pour une mortalité constante avec le temps est proposé dans cet article. La statistique proposée converge vers un mouvement Brownien sous l’hypothèse nulle. Les caractéristiques spécifiques du mouvement Brownien permettent d’analyser également la distribution des premiers temps de passage à partir de tests séquentiels. Ceci permet à l’hypothèse nulle du taux de décès constant d’être rejetée le plus rapidement possible dès que l’évidence statistique devient suffisante. Les études de simulation montrent que les performances du test proposé sont bonnes et qu’il est très sensible pour trouver un taux de mortalité décroissant. Le test proposé est appliqué aux données du syndrome respiratoire aigu sévère (SARS) à Hong Kong et Beijing. J. Peng, C.‐I. C. Lee, K. A. Davis, and W. Wang 877 Stepwise Confidence Intervals for Monotone Dose–Response Studies Dans les études de dose‐réponse un des points les plus importants est l’identification de la dose minimum efficace (minimum effective dose – MED), qui est définie comme la plus petite dose pour laquelle la réponse moyenne est meilleure que celle obtenue pour une dose nulle de contrôle, en terme de différence clinique significative. Les courbes doses‐réponses sont parfois monotones. Pour trouver la MED plusieurs auteurs ont proposé des procédures de test du genre up and down, basées sur des contrastes entre les moyennes. Dans cet article, pour identifier la MED, on propose une amélioration de la méthode de Marcus et Peritz (1976, Journal of the Royal Statistical Society, Series B 38, 157–161) et on développe une application de la méthode DR de Hsu et Berger (1999, Journal of the American Statistical Society 94, 468–482) pour construire, sous des hypothèses de monotonicité, la borne inférieure de l’intervalle de confiance pour la différence entre la réponse à une dose quelconque non nulle et celle du contrôle. La méthode proposée est illustrée par des exemples numériques et on présente des comparaisons de puissance obtenues par simulations. M. Ding, G. L. Rosner, and P. Müller 886 Bayesian Optimal Design for Phase II Screening Trials Dans la littérature, la plupart des plans de screening en phase 2 considèrent un traitement à la fois. Chaque étude est considérée isolément. Nous proposons une approche décisionnelle plus systématique pour le processus de screening de phase 2. Le plan séquentiel permet une plus grande efficacité et un meilleur apprentissage sur les traitements. L’approche incorpore un modèle Bayesien hiérarchique qui permet d’une façon formelle la combinaison d’information entre différentes études reliées entre elles, et améliore l’estimation dans de petits échantillons en exploitant l’information venant des autres traitements. Le plan incorpore une fonction d’utilité qui prend en compte le coût d’échantillonnage et le possible retour sur investissement. Des simulations par ordinateur montrent que cette méthode a une forte probabilité d’écarter des traitements à faible taux de succès et de faire évoluer en phase 3 des traitements à fort taux de succès. A. Vexler, A. Liu, E. Eliseeva, and E. F. Schisterman 895 Maximum Likelihood Ratio Tests for Comparing the Discriminatory Ability of Biomarkers Subject to Limit of Detection Dans cet article, nous étudions la comparaison des aires sous courbes ROC (Receiver Operating Characteristic) corrélées, des biomarqueurs diagnostiques dont les mesures sont soumises à une limite de détection (LOD), source d’erreur de mesure issue de la sensibilité instrumentale en épidémiologie. Nous proposons et nous examinons les tests du rapport des vraisemblances avec des caractéristiques opérationnelles qui sont aisément obtenues sous méthodologie classique du maximum de vraisemblance. R. Li and L. Nie 904 Efficient Statistical Inference Procedures for Partially Nonlinear Models and their Applications Motivés par une analyse d’un jeu de données réelles dans le domaine de l’écologie, nous sommes amenés à considérer une classe de modèles partiellement non linéaires où l’on note à la fois la présence d’une composante non paramétrique et d’une composante paramétrique. Nous développons deux nouvelles procédures d’estimation pour l’estimation des paramètres de la composante paramétrique. La consistance et la normalité asymptotique des estimateurs sont établies. Puis nous proposons ensuite une procédure d’estimation et une procédure de test F généralisé pour la composante non paramétrique dans les modèles partiellement non linéaires. Des propriétés asymptotiques de la nouvelle procédure d’estimation et le test statistique s’en déduisent. Les qualités des échantillons finis des procédures d’inférence proposées sont évaluées par des études de simulations de Monte Carlo. Une application dans le domaine de l’écologie est utilisée pour illustrer la méthode proposée E. Deschepper, O. Thas, and J. P. Ottoy 912 Tests and Diagnostic Plots for Detecting Lack‐of‐Fit for Circular‐Linear Regression Models Les diagnostics pour la régression et les tests de défaut d’ajustement sont principalement focalisés sur les modèles linéaires de régression linéaire. Lorsque les points sont distribués sur la circonférence d’un cercle, des difficultés apparaissent car il n’existe pas de point de départ ou d’origine. La plupart des tests classiques de défauts d’ajustement exigent de choisir arbitrairement une origine, mais des choix différents peuvent conduire à des conclusions différentes. Nous proposons un outil graphique d’ajustement et un test de défaut d’ajustement qui n’exige pas de point naturel initial. La méthode est basée sur des « résidus régionaux » qui sont définis sur des arcs de cercle. La méthode graphique localise formellement et visualise des sous ensembles d’observations dont l’ajustement n’est pas satisfaisant sur le cercle. Un exemple de données issues du domaine alimentaire est utilisé pour exhiber les problèmes mentionnés auparavant avec les tests classiques d’ajustement et pour illustrer la force de la méthode basée sur les « résidus régionaux » pour détecter et localiser les points de départ d’hypothèse de non effet. Une petite étude de simulation montre la bonne performance du test des « résidus régionaux » dans les deux cas d’écart global ou local du modèle. Puis ces idées sont étendues au cas ou il y a plus d’une variable explicative. B. Xie, W. Pan, and X. Shen 921 Variable Selection in Penalized Model‐Based Clustering Via Regularization on Grouped Parameters L’analyse en grappes modèle‐dépendante pénalisée a été proposée dans le cadre de données de haute dimension mais de petite taille d’échantillon comme celles rencontrées dans les études génomiques. En particulier, elle peut être utilisée pour la sélection de variables. Un nouveau schéma de régularisation est proposé pour regrouper ensemble plusieurs paramètres associés à la même variable au sein des grappes. Nous montrons analytiquement et numériquement que ce schéma est plus efficace que la conventionnelle pénalité L1 pour la sélection de variable. De plus, nous développons une stratégie pour combiner ce schéma de groupement avec le groupement de variables structurées. Des études de simulation et des applications aux données d’expression des micropuces pour la découverte de sous‐types cancéreux illustrent les avantages de notre nouvelle approche par rapport à plusieurs méthodes existantes. S. H. Lee, J. Lim, M. Vannucci, E. Petkova, M. Preter, and D. F. Klein 931 Order‐Preserving Dimension Reduction Procedure for the Dominance of Two Mean Curves with Application to Tidal Volume Curves Le travail présenté ici est issu d’une étude de cas reposant sur des tracés, à dimension et fréquence élevées, de capacité vitale respiratoire effectués pendant des bouffées d’angoisse provoquées. L’objectif est de développer une procédure pour évaluer la significativité de la supériorité d’une courbe moyenne par rapport à une autre. L’idée essentielle de la méthode suggérée est de préserver l’ordre sur les moyennes tout en réduisant la dimensionnalité des données. La matrice des données observées est projetée sur un ensemble de matrices de rang inférieur sous une contrainte de positivité. Une procédure de test multivarié est alors appliquée dans cette dimension inférieure. Nous utilisons des données simulées pour illustrer les propriétés statistiques de la méthode de test proposée. Les résultats obtenus sur l’étude de cas confirment l’hypothèse préliminaire des investigateurs et fournit un support à leur objectif de construction d’un modèle expérimental pour la bouffée d’angoisse clinique chez les sujets normaux.  相似文献   

9.
DISCUSSION PAPER     
《Biometrics》2007,63(3):979-979
Principal Stratification Designs to Estimate Input Data Missing Due to Death Nous nous intéressons à des études portant sur des cohortes d'individus après la survenue d'un événement critique, comme une blessure, et ayant les caractéristiques suivantes. Premièrement, les études sont conçues pour mesurer des variables d'“input”, qui décrivent la période avant l'événement critique, et pour caractériser la distribution des variables d'“input” dans la cohorte. Deuxièmement, les études sont conçues pour mesurer des variables d'“output”, principalement la mortalité après l'événement critique et pour caractériser la distribution prédictive (conditionnelle) de la mortalité connaissant les variables d'“input” dans la cohorte. De telles études présentent souvent la complication que les données d'“input” manquent pour ceux qui meurent peu après l'événement critique car le recueil des données est réalisé après l'événement. Les méthodes standard de prise en compte des “inputs” manquants, telles que les méthodes d'imputation ou de pondération basées sur l'hypothèse que l'on peut ignorer le processus de données manquantes, sont connues comme étant en général non valides quand le processus de données manquantes ne peut être ignoré, c'est à dire quand la distribution des “inputs” est différente chez ceux qui meurent et ceux qui survivent. Pour répondre à ce problème, nous proposons un nouveau schéma qui recueille et utilise l'information sur une autre variable importante—un traitement ou une variable sous contrôle externe, qui, si elle avait étéà son niveau optimal aurait pu empêcher le décès de ceux qui sont morts. Nous montrons que ce nouveau schéma peut être utilisé pour faire des inférences valides pour la distribution marginale des “inputs” dans la cohorte entière et pour la distribution conditionnelle de la mortalité connaissant les “inputs”, également dans la cohorte entière, même si le processus de données manquante ne peut être ignoré. Le contexte crucial que nous utilisons est la stratification principale basée sur les “outputs” potentiels, comme ici la mortalité après les deux niveaux de traitement. Nous montrons aussi à l'aide de données préliminaires sur des blessures, que notre approche peut donner des résultats qui sont plus raisonnables que les résultats obtenus par les méthodes standard, et ceci de façon relativement dramatique. Ainsi notre approche suggère que le recueil en routine de données sur des variables qui pourraient être utilisées comme traitement possible dans de telles études d'“inputs” et de mortalité devrait être fait en routine.  相似文献   

10.
READER REACTION     
《Biometrics》2006,62(3):959-959
M. Y. Kim , X. Xue , and Y. Du 929 Cai et Zeng (2004) ont récemment proposé une méthode pour déterminer la puissance d'une étude de cohorte, lorsqu'il n'y a qu'une seule variable d'exposition, qu'elle est binaire et que le taux d'événements est faible. Nous montrons ici que l'on obtient quasiment les mêmes valeurs de puissance avec une méthode usuelle pour étude cas‐témoins. Or, avec l'approche cas‐témoins, les calculs de taille d'échantillon peuvent être menés avec les logiciels courants, ce qui constitue un avantage. Par ailleurs, nous proposons une formule pour calculer la puissance associée à une étude de cohorte lorsque l'événement étudié n'est pas un événement rare. H. Holzmann , A. Munk , and W. Zucchini 934 Nous étudions l'identifiabilité des modèles de mélange utilisés dans le contexte de l'estimation d'effectifs par capture‐recapture en population fermée. Ce type de modèles permet de tenir compte de l'hétérogénéité des probabilités de capture entre individus, mais leur validité a récemment été remise en cause par Link (2003) [Biometrics 59, 1123‐1130], en raison de leur non‐identifiabilité. Nous donnons un critère général d'identifiabilité de la distribution de mélange, et nous l'appliquons pour déterminer l'identifiabilité dans des familles de distributions de mélange couramment utilisées dans ce contexte, notamment les mélanges de lois finies et de Beta. Notre analyse concerne aussi les cas binomial et à distribution géométrique. Dans un exemple, nous soulignons la différence avec les problèmes d'identifiabilité rencontrés dans les modèles classiques de mélanges de lois binomiales.  相似文献   

11.
《Biometrics》2006,62(2):643-643
R. A. Betensky , C. K. Christian , M. L. Gustafson , J. Daley , and M. J. Zinner 598 Le Groupe Leapfrog, un consortium de plus de 100 grands employeurs, qui déclare fournir collectivement l'assurance santéà plus de 33 millions de personnes, s'est réuni en 2000 dans le but d'utiliser les ressources du marché pour améliorer la qualité des soins de santé. Le résultat de l'initiative du groupe Leapfrog suggère la référence sélective des procédures complexes aux hôpitaux d'activitéélevée et détermine des seuils d'activité d'ensemble pour cinq procédures. Ceci a été basé sur l'hypothèse que les hôpitaux à faible volume d'activité présentent une mortalité plus élevée, ce qui peut être perçu comme l'hypothèse, en termes statistiques simplifiés, que le paramètre p de la binomiale est une fonction décroissante de n. L'analyse de la corrélation entre les rapports normalisés de la mortalité des hôpitaux (SMR, ie, le rapport de décès observés par rapport aux décès prévus) et les volumes d'activité des hôpitaux est révélatrice au sujet de l'hypothèse volume/mortalité. Cela présente un exemple pédagogique peu commun dans lequel la détection de la corrélation en présence de la dépendance non linéaire est d'intérêt primaire, alors que la corrélation au sens de Pearson est parfaitement adaptée. Les mesures non paramétriques fréquemment utilisées de l'association bivariée sont inadéquates, car elles ne peuvent pas faire de distinction entre la notion de corrélation et la notion de dépendance. T. A. Alonzo and J. M. Kittelson 605 La précision (sensitivité et spécificité) d'un nouveau test de dépistage peut être comparéà celui d'un test standard en appliquant les deux tests à un groupe de sujets pour lesquels le statut vis‐à‐vis de la maladie peut être déterminé par un « gold standard » (GS). Cependant, il n'est pas toujours possible d'utiliser le GS pour tous les sujets de l'étude. Par exemple, une étude est planifiée pour évaluer si le nouveau test de dépistage des cancers cervicaux (« ThinPrep ») est meilleur que le test standard (« Pap »), et dans ce cas, il n'est pas faisable (ou éthique) de déterminer le statut vis‐à‐vis de la maladie en réalisant une biopsie, dans le but d'identifier des femmes avec ou sans pathologie pour participer à l'étude. Quand le statut vis‐à‐vis de la maladie ne peut être connu pour tous les sujets de l'étude, la précision relative de deux tests de dépistage peut toujours être estimée en utilisant un schéma de dépistage positif apparié (PSP), dans lequel tous les sujets reçoivent les deux test de dépistage, mais n'ont le GS que si l'un des deux tests de dépistage est positif. Malheureusement, dans l'exemple des cancers cervicaux, le protocole PSP n'est pas non plus praticable puisqu'il n'est techniquement pas possible d'administrer et le ThinPrep et le Pap au même moment. Dans ce papier, nous évaluons un schéma de dépistage positif apparié randomisé (RPSP), dans lequel les sujets sont randomisés pour recevoir dans un premier temps un des deux tests de dépistage, et ils reçoivent l'autre test et le GS seulement si le premier test de dépistage est positif. Nous calculons les estimations du maximum de vraisemblance et les intervalles de confiance de la précision relative des deux tests de dépistage, et évaluons le comportement de ces estimations, sur petit échantillon, par des études de simulations. Des formules de calcul du nombre de sujets nécessaires sont appliquées à l'exemple d'essai de dépistage du cancer cervical, et l'efficacité du schéma DAPR est comparé avec d'autres schémas. G. Qin and X.‐H. Zhou 613 Pour un test diagnostic sur une échelle continué, l'indicateur le plus communément utilisé pour résumer la courbe ROC est l'aire sous la courbe (AUC) pour refléter la justesse de ce test diagnostic. Dans cet article, nous proposons une approche de vraisemblance empirique pour l'inférence sur l'AUC. Nous définissons tout d'abord un rapport de vraisemblance empirique pour l'AUC et nous montrons que sa distribution limite est un khi‐deux ajusté. Nous obtenons alors un intervalle de confiance pour l'AUC basé sur la vraisemblance empirique en utilisant la distribution du khi‐deux ajusté. Cette inférence par vraisemblance empirique pour l'AUC peut être étendue à des échantillons stratifiés, la distribution limite qui en résulte est alors une somme pondérée de khi‐deux indépendants. De plus nous avons réalisé des simulations pour comparer la performance relative de l'intervalle obtenu par l'approche de vraisemblance empirique par rapport aux intervalles obtenus avec l'approximation normale et par rééchantillonnage de type ?bootstrap?.  相似文献   

12.
A partir de dissections systématiques de femelles capturées sur le terrain, une étude des caractéristiques de la reproduction de Machaeridia bilineata Stål a été réalisée dans les savanes de Lamto (Côte d'Ivoire), complétée par quelques données en provenance de Ouango-Fitini. Cet acridien univoltin, une des espèces dominantes de Lamto, passe la saison sèche au stade d'imago immature. Le dépôt du vitellus commence dans les ovocytes vers la mi-février, soit près de 2 mois après les mues. Au cours de sa vie, une femelle ne pond en moyenne qu'une fois et demi à deux fois, mais avec un taux de réussite de 95%. Chaque femelle produit alors de 15 à 20 ?ufs. Une des caractéristiques de cette espèce est la rétention des ovocytes dans les calices avant la ponte. A Ouango-Fitini, les phénomènes sont décalés de 5 à 6 semaines par rapport à Lamto. Il n'y a pas de lien entre le début de la maturation sexuelle et le passage des feux. Pour la période d'étude, il existe une relation avec l'arrivée des premières pluies, mais les limites de ce synchronisme restent à préciser.  相似文献   

13.
La durée de conservation dans deux types de sol: une tourbe de pH=3,5 et une terre argilo-sableuse de pH=6,6, de trois agents pathogènes pour les larves du Hanneton commun,Melolontha melolontha L.:Bacillus popilliae var.melolontha, Rickettsiella melolonthae, Entomopoxvirus melolonthae a été étudiée en contaminant par le broyat de larves atteintes de chacune des maladies 4 litres de ces deux substrats qui ont été répartis en boîtes de polystyrène et en pots à fleurs placés soit dans un sol engazonné à l'extérieur, soit en laboratoire à 5°, 13° et 20°C. A intervalles réguliers des larves jeunes ont été mises en élevage à 20°C dans ces substrats contaminés. Après 4 ans le virus détermine sensiblement la même mortalité quelles que soient les modalités de conservation du sol. Mais l'altération du pouvoir pathogène en fonction du temps se traduit par une augmentation très signifcative des délais de manifestation de la maladie. Par contre la bactérie et la rickettsie perdent beaucoup de leur activité au bout de deux ans. La persistance d'un pouvoir pathogène des rickettsies introduites dans le sol est facilitée lorsqu'il s'agit de terre plutôt que de tourbe et si celle-ci est maintenue à basse température. Les conséquences épizootiologiques de ces résultats sont décrites en fonction du cycle évolutif du Hanneton commun: un délai de survie du germe de deux ans est nécessaire pour le maintien d'une maladie des vers blancs dans un site donné compte tenu de la période, de cette aurée, pendant laquelle l'activité larvaire est nulle ou insuffisante pour assurer la contamination des insectes, lorsque celle-ci s'effectue par voie orale.  相似文献   

14.
L'importance des pressions de sélection au cours des premières générations, dans des élevages en alimentation artificielle, est mise en évidence par l'étude de souches d 'Acrolepiopsis assectella Zeller soumises à des changements de régime alimentaire. l'évolution du taux de survie et de la durée du développement des larves a été suivie pendant les premières générations après le changement, et ultérieurement contrôlée au cours de plusieurs années d'élevage dans les mêmes conditions. Le taux de survie semble atteindre assez rapidement un équilibre, dont le niveau n'est pas indépendant de l'aliment consommé, tandis qu la durée du développement larvaire devient identique pour toutes les souches dès la quatrième génération. Ces phénomènes semblent correspondre à une adaptation des insectes à leurs conditions d'élevage, qui provoquent une sélection dans les populations d'origine.  相似文献   

15.
L’entomologie médico-légale repose sur l’utilisation des insectes nécrophages pour estimer le moment de la mort dans le cadre d’enquêtes judiciaires et permet dans certains cas de préciser les circonstances du décès. Cette technique repose sur des bases scientifiques solides et est désormais couramment utilisée en France comme à l’étranger dans le cadre d’affaires criminelles. Le projet ForenSeek est un outil informatique d’aide à la décision, dédié à la réalisation de simulations et d’expertises en entomologie médico-légale. Le cæur de ce programme est un modèle de comportement et de développement des larves de diptères nécrophages basé sur un système multi-agents (SMA). Ce procédé permet de modéliser des comportements de groupes complexes à partir de données individuelles simples, et est done particulièrement bien adapté à l’étude des populations d’insectes. De plus, les résultats de ce modèle sont destines à être traités automatiquement pour en extraire des informations sur la pertinence de chaque simulation, et ainsi estimer de manière automatisée et avec précision l’intervalle post-mortem (IPM).  相似文献   

16.
Le déroulement de divers types de phagocytoses, et de la formation de granulomes hémocytaires a été analysé en détail en utilisant la microcinématographie image par image. Ces réactions de défense ont été reproduitesin vitro sur les systèmes hémocytaires des mollusquesHelix etZonites, et ont permis de montrer pour les bactéries (Streptococcus) les différents stades de l'englobement direct et rapide des corps bactériens, ainsi que les mouvements orientés des pseudopodes accompagnés de déplacements des cellules qui aboutissent à l'incorporation des germes. Il a été observé que des hémocytes parviennent à phagocyter même des filaments myceliens de taille importante (Metarrhizium) par un processus lent consistant en la fixation progressive de la cellule qui plie le mycelium. Enfin, toute l'évolution de la formation des granulomes multicellulaires a été suivie d'une manière ininterrompue, notamment l'attraction des premières cellules, l'afflux et la superposition de plus en plus serrée d'hémocytes en nombre croissant, jusqu'à l'arrêt de l'évolution de cette réaction. Ces résultats mettent en évidence l'acquisition par les cellules groupées autour du champignon d'une attraction nette sur d'autres hémocytes, déclenchant de leur part une réaction d'adhésion. Ils montrent enfin que l'association de la reproductionin vitro des réactions cellulaires avec la technique microcinématographique est un principe d'étude particulièrement intéressant pour suivre la dynamique des réactions de défense à l'échelle cellulaire, et l'action de substances chimiques ou d'influences microbiennes sur ces processus.  相似文献   

17.
《Biometrics》2008,64(2):669-669
Simple, Defensible Sample Sizes Based on Cost Efficiency Il est d'usage de choisir une taille d'échantillon garantissant une puissance de test de 80% ou plus, sans prendre en compte le coût impliqué. Mais dans la pratique les chercheurs comme les financeurs ne peuvent souvent pas ignorer les coûts. Nous proposons ici et nous justifions une nouvelle approche pour choisir la taille d'échantillon en fonction de la rentabilité, définie comme le rapport de la valeur scientifique et/ou pratique projetée de l'étude à son coût total. Nous montrons que la valeur projetée d'une étude, pour une large variété de définitions de cette valeur, offre des rendements marginaux décroissants quand la taille de l'échantillon augmente. Nous pouvons alors définir deux choix simples qui peuvent être défendus comme étant plus rentables que tout échantillon de taille supérieure. La première méthode choisit la taille d'échantillon qui minimise le coût moyen par sujet. La deuxième choisit la taille d'échantillon qui minimise le coût total divisé par la racine carrée de la taille d'échantillon. Cette dernière méthode est en théorie plus justifiable pour des études innovantes, mais elle reste raisonnablement satisfaisante et peut se justifier aussi dans d'autres cas. Par exemple, si la valeur projetée de l'étude est proportionnelle à la puissance du test d'une hypothèse donnée et que le coût total est une fonction linéaire de la taille d'échantillon, alors cette méthode garantit une puissance supérieure à 90% ou une rentabilité supérieure à celle de tout échantillon assurant cette puissance. Ces méthodes sont faciles à appliquer, basées sur des données fiables, et bien justifiées. Elles devraient donc être considérées comme des solutions acceptables pour remplacer les méthodes classiques courantes.  相似文献   

18.
La prise en charge par le biologiste de certaines analyses délocalisées se trouve grandement facilitée par la mise en place d’un système informatique reliant l’analyseur délocalisé et le laboratorie. Elle apporte un niveau de sécurité nécessaire pour la prise de responsabilité du laboratoire dans l’acte de biologie délocalisé. L’architecture réseau de la plupart de h?pitaux permet maintenant de transmettre très facilement et de manière fiable des données entre plusieurs services voire entre établissements. Les analyseurs de gazométrie sanguine permettent cette connexion, de plus en plus d’industriels développent d’autres paramètres en plus des simples gaz du sang comme dernièrement l’urée et la créatinine. Les analyseurs permettant de doser les marqueurs cardiaques, ceux réalisant l’hémostase sont désormais fréquemment connectables. Chaque industriel du diagnostic proposant des analyseurs de glycémie a ou va prochainement commercialiser un modèle connectable. Il en est de même pour les bandelettes urinaires. Il est donc probable, et les biologistes sont les premiers demandeurs, que la connexion informatique d’analyseurs de biologie installés dans les unités de soins, soit un pré-requis pour la gestion des analyses délocalisées par le biologiste, et sa prise de responsabilité dans les résultats biologiques issus de ces analyseurs.  相似文献   

19.
Résumé Au cours de six essais le comportement des deux espèces d'acariens phytophages,Panonychus ulmi Koch etTetranychus viennensis Zacher, soumises à l'effet de divers fertilisants, insecticides et fongicides, a été étudié. Les investigations devaient permettre de suivre les conséquences chimico-physiologiques exercées sur la plante-h?te par les différents traitements, d'une part, et les répercussions entra?nées par celles-ci sur les acariens, d'autre part. L'action directe des produits appliqués sur les populations d'acariens a également fait l'objet d'études. Il n'a pas été possible d'établir une relation entre la teneur des feuilles de la plante-h?te en N, P, K, Ca, Mg et la densité et le comportement des populations d'acariens. Les expériences réalisées en vergers ont cependant révélé qu'une déficience en K est apparemment responsable d'un bas niveau des populations deP. ulmi. En cages recouvertes de mousseline, les arbres placés à l'abri des prédateurs et traités à l'azinphos méthyle ont présenté des populations deP. ulmi moins importantes que les arbres traités au DDT et au parathion, mais il n'a pas été possible d'enregistrer dans les feuilles des différences de teneur par rapport aux éléments susmentionnés. Les expériences réalisées à l'aide de mancozèbe ont révélé un effet répulsif ou léthal surP. ulmi. Il n'a cependant pas été possible de démontrer une action stimulatrice exercée par le captane, soufre mouillable, zinèbe, phaltane, TMTD et zirame. Un test en laboratoire a conduit à une population plus élevée pour les séries traitées à l'eau distillée et au soufre mouillable que pour les séries traitées au captane. Une teneur élevée des feuilles en zinc semble entra?ner un développement important des populations deT. viennensis.   相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号