首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
L'importance des pressions de sélection au cours des premières générations, dans des élevages en alimentation artificielle, est mise en évidence par l'étude de souches d 'Acrolepiopsis assectella Zeller soumises à des changements de régime alimentaire. l'évolution du taux de survie et de la durée du développement des larves a été suivie pendant les premières générations après le changement, et ultérieurement contrôlée au cours de plusieurs années d'élevage dans les mêmes conditions. Le taux de survie semble atteindre assez rapidement un équilibre, dont le niveau n'est pas indépendant de l'aliment consommé, tandis qu la durée du développement larvaire devient identique pour toutes les souches dès la quatrième génération. Ces phénomènes semblent correspondre à une adaptation des insectes à leurs conditions d'élevage, qui provoquent une sélection dans les populations d'origine.  相似文献   

2.
《Biometrics》2006,62(2):643-643
R. A. Betensky , C. K. Christian , M. L. Gustafson , J. Daley , and M. J. Zinner 598 Le Groupe Leapfrog, un consortium de plus de 100 grands employeurs, qui déclare fournir collectivement l'assurance santéà plus de 33 millions de personnes, s'est réuni en 2000 dans le but d'utiliser les ressources du marché pour améliorer la qualité des soins de santé. Le résultat de l'initiative du groupe Leapfrog suggère la référence sélective des procédures complexes aux hôpitaux d'activitéélevée et détermine des seuils d'activité d'ensemble pour cinq procédures. Ceci a été basé sur l'hypothèse que les hôpitaux à faible volume d'activité présentent une mortalité plus élevée, ce qui peut être perçu comme l'hypothèse, en termes statistiques simplifiés, que le paramètre p de la binomiale est une fonction décroissante de n. L'analyse de la corrélation entre les rapports normalisés de la mortalité des hôpitaux (SMR, ie, le rapport de décès observés par rapport aux décès prévus) et les volumes d'activité des hôpitaux est révélatrice au sujet de l'hypothèse volume/mortalité. Cela présente un exemple pédagogique peu commun dans lequel la détection de la corrélation en présence de la dépendance non linéaire est d'intérêt primaire, alors que la corrélation au sens de Pearson est parfaitement adaptée. Les mesures non paramétriques fréquemment utilisées de l'association bivariée sont inadéquates, car elles ne peuvent pas faire de distinction entre la notion de corrélation et la notion de dépendance. T. A. Alonzo and J. M. Kittelson 605 La précision (sensitivité et spécificité) d'un nouveau test de dépistage peut être comparéà celui d'un test standard en appliquant les deux tests à un groupe de sujets pour lesquels le statut vis‐à‐vis de la maladie peut être déterminé par un « gold standard » (GS). Cependant, il n'est pas toujours possible d'utiliser le GS pour tous les sujets de l'étude. Par exemple, une étude est planifiée pour évaluer si le nouveau test de dépistage des cancers cervicaux (« ThinPrep ») est meilleur que le test standard (« Pap »), et dans ce cas, il n'est pas faisable (ou éthique) de déterminer le statut vis‐à‐vis de la maladie en réalisant une biopsie, dans le but d'identifier des femmes avec ou sans pathologie pour participer à l'étude. Quand le statut vis‐à‐vis de la maladie ne peut être connu pour tous les sujets de l'étude, la précision relative de deux tests de dépistage peut toujours être estimée en utilisant un schéma de dépistage positif apparié (PSP), dans lequel tous les sujets reçoivent les deux test de dépistage, mais n'ont le GS que si l'un des deux tests de dépistage est positif. Malheureusement, dans l'exemple des cancers cervicaux, le protocole PSP n'est pas non plus praticable puisqu'il n'est techniquement pas possible d'administrer et le ThinPrep et le Pap au même moment. Dans ce papier, nous évaluons un schéma de dépistage positif apparié randomisé (RPSP), dans lequel les sujets sont randomisés pour recevoir dans un premier temps un des deux tests de dépistage, et ils reçoivent l'autre test et le GS seulement si le premier test de dépistage est positif. Nous calculons les estimations du maximum de vraisemblance et les intervalles de confiance de la précision relative des deux tests de dépistage, et évaluons le comportement de ces estimations, sur petit échantillon, par des études de simulations. Des formules de calcul du nombre de sujets nécessaires sont appliquées à l'exemple d'essai de dépistage du cancer cervical, et l'efficacité du schéma DAPR est comparé avec d'autres schémas. G. Qin and X.‐H. Zhou 613 Pour un test diagnostic sur une échelle continué, l'indicateur le plus communément utilisé pour résumer la courbe ROC est l'aire sous la courbe (AUC) pour refléter la justesse de ce test diagnostic. Dans cet article, nous proposons une approche de vraisemblance empirique pour l'inférence sur l'AUC. Nous définissons tout d'abord un rapport de vraisemblance empirique pour l'AUC et nous montrons que sa distribution limite est un khi‐deux ajusté. Nous obtenons alors un intervalle de confiance pour l'AUC basé sur la vraisemblance empirique en utilisant la distribution du khi‐deux ajusté. Cette inférence par vraisemblance empirique pour l'AUC peut être étendue à des échantillons stratifiés, la distribution limite qui en résulte est alors une somme pondérée de khi‐deux indépendants. De plus nous avons réalisé des simulations pour comparer la performance relative de l'intervalle obtenu par l'approche de vraisemblance empirique par rapport aux intervalles obtenus avec l'approximation normale et par rééchantillonnage de type ?bootstrap?.  相似文献   

3.
DISCUSSION PAPER     
《Biometrics》2007,63(3):979-979
Principal Stratification Designs to Estimate Input Data Missing Due to Death Nous nous intéressons à des études portant sur des cohortes d'individus après la survenue d'un événement critique, comme une blessure, et ayant les caractéristiques suivantes. Premièrement, les études sont conçues pour mesurer des variables d'“input”, qui décrivent la période avant l'événement critique, et pour caractériser la distribution des variables d'“input” dans la cohorte. Deuxièmement, les études sont conçues pour mesurer des variables d'“output”, principalement la mortalité après l'événement critique et pour caractériser la distribution prédictive (conditionnelle) de la mortalité connaissant les variables d'“input” dans la cohorte. De telles études présentent souvent la complication que les données d'“input” manquent pour ceux qui meurent peu après l'événement critique car le recueil des données est réalisé après l'événement. Les méthodes standard de prise en compte des “inputs” manquants, telles que les méthodes d'imputation ou de pondération basées sur l'hypothèse que l'on peut ignorer le processus de données manquantes, sont connues comme étant en général non valides quand le processus de données manquantes ne peut être ignoré, c'est à dire quand la distribution des “inputs” est différente chez ceux qui meurent et ceux qui survivent. Pour répondre à ce problème, nous proposons un nouveau schéma qui recueille et utilise l'information sur une autre variable importante—un traitement ou une variable sous contrôle externe, qui, si elle avait étéà son niveau optimal aurait pu empêcher le décès de ceux qui sont morts. Nous montrons que ce nouveau schéma peut être utilisé pour faire des inférences valides pour la distribution marginale des “inputs” dans la cohorte entière et pour la distribution conditionnelle de la mortalité connaissant les “inputs”, également dans la cohorte entière, même si le processus de données manquante ne peut être ignoré. Le contexte crucial que nous utilisons est la stratification principale basée sur les “outputs” potentiels, comme ici la mortalité après les deux niveaux de traitement. Nous montrons aussi à l'aide de données préliminaires sur des blessures, que notre approche peut donner des résultats qui sont plus raisonnables que les résultats obtenus par les méthodes standard, et ceci de façon relativement dramatique. Ainsi notre approche suggère que le recueil en routine de données sur des variables qui pourraient être utilisées comme traitement possible dans de telles études d'“inputs” et de mortalité devrait être fait en routine.  相似文献   

4.
Pendant sa diapause reproductrice, la teigne du poireau ne présente pas d'activité sexuelle. La reprise de cette activité, après l'hiver, est essentielle au maintient de la population. Chez les insectes qui ont subi la diapause (D), la durée de copulation est plus courte, et la période précédant la copulation est plus longue que chez les insectes matures (M). Deux caractères intéressants sont observés chez les insectes D après la levée de leur diapause: l'apparition d'un pourcentage de doubles copulations et d'insectes qui copulent après la fin de la scotophase, ce, les ♀♀ matures possèdent des ovocytes en rétention dans les oviductes. Le nombre augmente jusqu'à l'âge de 3 jours environ. Par contre, les ♀♀ en diapause n'ont aucun ovocyte à l'émergence. Sous conditions levant la diapause, ces ♀♀ atteignent leur production ovarienne maximum après une douzaine de jours. L'évolution du nombre des ovocytes dépend de la copulation et de la présence de la plante-hôte. Celle-ci est essentielle pour la ponte et intervient sur la production ovarienne, aussi bien chez les ♀♀ D que chez les ♀♀ M.  相似文献   

5.
《Biometrics》2005,61(3):895-896
S. Matsui 816 Cet article développe des méthodes d'analyse stratifiée d'effets additifs ou multiplicatifs sur des critères binaires, dans le cadre d'essais randomisés avec défaut d'observance. Ces méthodes reposent sur une fonction d'estimation pondérée, garantissant une fonction d'estimation non biaisée à condition que la randomisation soit réalisée par strate. Quand les poids sont connus d'avance, l'estimateur obtenu est une extension naturelle de celui issu de la méthode d'estimation par variable instrumentale pour analyses stratifiées, et les bornes des intervalles de confiance dérivés des tests sont les solutions d'une équation quadratique du paramètre d'intérêt. Les poids optimaux qui maximisent l'efficacité asymptotique intègrent la variabilité inter‐strates de l'observance. Une évaluation basée sur l'efficacité asymptotique relative montre que l'efficacité peut être substantiellement améliorée en utilisant les poids optimaux plutôt que les poids conventionnels, lesquels n'intègrent pas la variabilité inter‐strates de l'observance. Enfin, ces méthodes d'analyse sont appliquées à une étude portant sur la maladie cardiaque coronarienne. L. Li , J. Shao , and M. Palta 824 Une erreur de mesure sur une covariable dans une régression est typiquement considérée pour agir d'une manière additive ou multiplicative sur la valeur de la vraie covariable. Cependant, une telle hypothèse ne tiens pas pour l'erreur de mesure sur la respiration dans les troubles du sommeil (SDB) dans l'étude de la Wisconsin Sleep Cohort Study (WSCS). La vraie covariable dans la sévérité de SDB, et le substitut observé est le nombre de pauses respiratoires par unité de temps de sommeil, qui a une distribution semi continue non négative. Avec une point masse de zéro. Nous proposons un modèle d'erreur de mesure à variable latente pour la structure d'erreur dans cette situation et l'implémentons dans un modèle linéaire mixte. La procédure d'estimation est similaire à une calibration dans une régression mais met en jeu une hypothèse sur la distribution de la variable latente. Les stratégies de modélisation et d'ajustement sont explorées et illustrées au travers de l'exemple du WSCS. J. P. Buonaccorsi , P. Laake , and M. B. Veierød 831 Cette note vise à clarifier les conditions sous lesquelles une analyse naïve impliquant un prédicteur entaché d'erreurs de classification induira un biais sur les coefficients de régression associés aux autres prédicteurs du modèle, prédicteurs dont on suppose qu'ils sont, pour leur part, parfaitement mesurés. Nous levons ici une incohérence apparente entre de précédents résultats et un résultat lié aux erreurs de mesure d'une variable continue dans une régression linéaire. Nous montrons que, de la même façon qu'une erreur portant sur une variable continue, une erreur de classification (même si elle n'est pas liée aux autres prédicteurs) induit un biais dans l'estimation des coefficients associés aux prédicteurs mesurés sans erreur, à moins que la variable entachée d'erreurs et les autres prédicteurs ne soient indépendants. Les biais conditionnels et asymptotiques sont discutés dans le cadre de la régression linéaire et explorés numériquement à travers l'exemple de la relation entre, d'une part, le poids à la naissance, et, d'autre part, le poids de la mère et le fait qu'elle fume ou non. J. Roy and X. Lin 837 Nous abordons les problèmes d'estimation dans les modèles linéaires généralisés pour données longitudinales avec sorites d'étude informative. Lorsqu'un individu sort de l'étude, non seulement la valeur de la variable réponse est manquante, mais souvent les valeurs de certaines covariables sont elles aussi non‐observées. Cependant, les modèles existants pour sortie d'étude informative supposent que les covariables soient complètement observées. Cette condition n'est pas réaliste en présence de covariables variant au cours du temps. Tout d'abord, nous étudions le biais asymptotique résultant de l'application des méthodes existantes, où les covariables temporelles manquantes sont gérées de manière naïve, c'est‐à‐dire (1) en utilisant seulement la valeur de base (“baseline”); (2) en reportant les valeurs de la dernière date d'observation, ou (3) en supposant qu'on peut ignorer les valeurs manquantes. Notre analyse de biais asymptotique montre que ces approches naïves produisent des estimateurs non consistants des paramètres. Dans un deuxième temps, nous proposons un modèle de sélection/transition qui autorise des sorties d'études avec valeurs manquantes, aussi bien sur les covariables explicatives que sur la variable réponse. Nous utilisons l'algorithme EM pour l'inférence de ce modèle. Nous illustrons la méthode proposée sur les données d'une étude longitudinale concernant des femmes infectées par le VIH. B. I. Graubard and T. R. Fears 847 Le risque attribuable ajusté (RA) est la proportion d'individus malades dans une population sujette à une exposition. Nous envisageons des estimations pour le RA ajusté basés sur les rapports de chance (odds ratios) à partir de régression logistique pour ajuster sur les effets confondus. Des méthodes de fonction d'influence utilisées en échantillonnage d'enquêtes sont appliquées pour obtenir des expressions simples et facilement programmables pour estimer la variance de^RA. Ces estimateurs de variance peuvent être appliqués à des données d'études de cas‐témoins, transversales et de cohortes avec ou sans appariement fréquentiel ou individuel et à des dispositifs échantillonnés qui vont de simples échantillons aléatoires à des échantillons groupés, stratifiés en plusieurs étapes et pondérés (par échantillonnage) du type de ceux utilisés dans les enquêtes nationales sur les ménages. L'estimation de la variance de^RA est illustrée au moyen de: (i) une étude transversale avec groupement en plusieurs étapes avec stratification pondérée issue de la troisième enquête nationale de santé et d'examens sur l'asthme de l'enfance, et (ii) une étude de cas‐témoins avec appariement fréquentiel dans le mélanome cutané malin.  相似文献   

6.
REGULAR ARTICLES     
《Biometrics》2006,62(3):952-958
  相似文献   

7.
A partir de dissections systématiques de femelles capturées sur le terrain, une étude des caractéristiques de la reproduction de Machaeridia bilineata Stål a été réalisée dans les savanes de Lamto (Côte d'Ivoire), complétée par quelques données en provenance de Ouango-Fitini. Cet acridien univoltin, une des espèces dominantes de Lamto, passe la saison sèche au stade d'imago immature. Le dépôt du vitellus commence dans les ovocytes vers la mi-février, soit près de 2 mois après les mues. Au cours de sa vie, une femelle ne pond en moyenne qu'une fois et demi à deux fois, mais avec un taux de réussite de 95%. Chaque femelle produit alors de 15 à 20 ?ufs. Une des caractéristiques de cette espèce est la rétention des ovocytes dans les calices avant la ponte. A Ouango-Fitini, les phénomènes sont décalés de 5 à 6 semaines par rapport à Lamto. Il n'y a pas de lien entre le début de la maturation sexuelle et le passage des feux. Pour la période d'étude, il existe une relation avec l'arrivée des premières pluies, mais les limites de ce synchronisme restent à préciser.  相似文献   

8.
REGULAR ARTICLES     
《Biometrics》2006,62(4):1282-1290
Generalized Additive Modeling with Implicit Variable Selection by Likelihood‐Based Boosting L'utilisation des modèles additifs généralisés dans l’analyse statistique de données souffre de la restriction à quelques variables explicatives et du problème du choix des paramètres de lissage. Le «boosting» d’un modèle additif généralisé contourne ces problèmes par l’intermédiaire d’un ajustement par étapes d’algorithmes d'apprentissage faibles. Une procédure d’ajustement est dérivée qui fonctionne pour toutes les familles de distribution exponentielle simple, incluant les variables réponse binomiale, de Poisson et normales. La procédure combine la sélection de variables et la détermination du degré approprié de lissage. Comme algorithmes d’apprentissages faibles, sont considérés les splines de régression pénalisés et les «stumps» pénalisés nouvellement introduits. Les estimations des déviations standard et les critères d’arrêt qui sont des problèmes notoires dans les procédures itératives sont basés sur une matrice chapeau approchée. La méthode est montrée comme étant un fort compétiteur par rapport aux procédures habituelles pour ajuster des modèles additifs généralisés. En particulier, il fonctionne très bien dans des situations à haute dimensionnalité avec beaucoup de variables de nuisance dans le prédicteur. Variable Selection for Logistic Regression Using a Prediction‐Focused Information Criterion L’utilisation de critères d’information pour guider la sélection des variables est habituelle en biostatistique. Nous proposons de nouvelles versions du critère de l’information ciblée (CIC) pour sélectionner les variables en régression logistique. Ce critère fournit des ensembles de variables qui dépendent de la cible à estimer. Sous sa forme standard, le CIC mesure l’erreur quadratique moyenne associée à l’estimateur de la quantité d’intérêt dans le modèle sélectionné. Nous proposons des formulations plus générales du CIC, autorisant d’autres mesures de risque, comme celles fondées, par exemple, sur l’erreur‐Lp. Quand on s’intéresse à la prédiction d’un événement, comme c’est souvent le cas dans les applications médicales, nous construisons un CIC fondé sur une mesure naturelle du risque, le taux d’erreurs. Une étude par simulation et l’application à une étude concernant la rétinopathie diabétique illustrent l’intérêt d’un critère de l’information dépendant à la fois de la quantité d’intérêt et de la mesure de risque choisie. A Goodness‐of‐Fit Test for Multinomial Logistic Regression Cet article propose un test d’adéquation d’un modèle logistique à des réponses multinomiales ou binomiales. Il s’agit d’un test du score de l’hypothèse nulle d’adéquation contre l’hypothèse alternative que les résidus de sous‐échantillons proches dans l’espace des covariables ont tendance à se ressembler. La statistique de test est une somme de carrés de résidus lissés qui peut s’interpréter comme un test du score dans un modèle mixte. La spécification de la distance dans l’espace des covariables permet de choisir l’hypothèse contre laquelle le test est dirigé et d’en faire soit un test omnibus, soit un test ad hoc de l’adéquation par rapport à l’effet de certaines covariables du modèle ou par rapport à certaines modalités d’une réponse multinomiale. A Generalized Response Surface Model with Varying Relative Potency for Assessing Drug Interaction Lors de l’administration simultanée de plusieurs traitements les investigateurs cherchent souvent àétablir quel est le type d’interaction entre les substances: potentialisation, synergie ou antagonisme. De nombreux modèles de surface de réponse, basés sur le modèle d’additivité de Loewe, exigent que le rapport d’activité (ou la puissance relative) soit constant et certains d’entre eux utilisent un seul paramètre pour décrire le type d’interaction. L’hypothèse d’un rapport d’activité constant est cependant trop restrictive et les modèles à un paramètre sont inadéquats quand le type d’interaction varie en fonction des combinaisons des substances. Nous proposons un modèle généralisé de surface de réponse utilisant une fonction de la dose au lieu d’un paramètre unique pour décrire l’écart à l’additivité. Le modèle proposé peut incorporer également des variations des rapports d’activité variables entre plusieurs substances. La capacité du modèle à décrire les différentes formes d’interaction est illustrée par des exemples et des simulations. Semiparametric Analysis of Zero‐Inflated Count Data La recherche médicale et de santé publique est souvent impliquée dans l’analyse de données de comptage qui contiennent une grande proportion de zéros, telles que le nombre d’attaques cardiaques et le nombre de jours d’arrêt de travail dans une période donnée. Pour modéliser de telles données, on utilise généralement un modèle de régression de Poisson avec un grand nombre de zéros, qui suppose une hétérogénéité en deux points dans la population caractérisée par un effet binaire aléatoire. Les sujets sont grossièrement séparés en deux catégories, le groupe à faible risque pour les comptages à zéro, et le groupe à haut risque (ou normal) pour lequel on peut utiliser un modèle de régression de Poisson. Le but principal est d’identifier les variables explicatives qui ont des effets significatifs sur (i) la probabilité que le sujet appartienne au groupe à faible risque au moyen d’une régression logistique; et (ii) la taille des comptages sachant que le sujet est issu du groupe à haut risque, au moyen d’un modèle de régression de Poisson où les effets des covariables sont supposés liés linéairement au logarithme naturel de la moyenne des comptages. Dans cet article, nous construisons un modèle semi‐paramétrique de régression de Poisson à zéro augmenté qui postule une relation possiblement non linéaire entre le logarithme naturel de la moyenne des comptages et une covariable particulière. Nous proposons une méthode de criblage pour l’estimation par maximum de vraisemblance. Les propriétés asymptotiques de cette méthode d’estimation sont discutées. Nous montrons que, sous certaines conditions assez faibles, les estimateurs sont asymptotiquement efficaces et normalement distribuées. Des études de simulation ont été réalisées pour voir les performances de la méthode proposée. Pour l’illustrer, cette méthode a été utilisée sur un jeu de données provenant d’une enquête de santé publique en Indonésie, où la variable d’intérêt est le nombre de jours d’arrêt de travail dus à la maladie pendant une période de quatre semaines Semiparametric Analysis of Two‐Level Bivariate Binary Data Dans les études médicales, des réponses binaires appariées sont souvent observées pour des sujets étudiés au cours du temps ou pour des grappes. L'intérêt premier est d'étudier comment l'association bivariée et les risques marginaux univariés sont affectés par des mesures répétées sur chaque sujet. Pour atteindre ce but, nous proposons une classe très générale de modèles binaires bivariés semi‐paramétriques. Les effets spécifiques du sujet inclus dans le log odds‐ratio bivarié et les composantes logit univariées sont supposées suivre un processus non paramétrique de Dirichlet (DP). Nous proposons une méthode hybride pour faire de l'inférence basée sur le modèle. Dans la construction de la méthode hybride proposée, l'estimation des paramètres est faite en implémentant un algorithme de Monte‐Carlo EM (MCEM). La méthodologie proposée est illustrée par une étude de l'efficacité du Tibolone, pour réduire les problèmes liées à la ménopause rencontrés par les femmes indiennes. Une étude de simulation est aussi conduite pour évaluer l 'efficacité de la nouvelle méthodologie. A Nonlinear Model with Latent Process for Cognitive Evolution Using Multivariate Longitudinal Data La cognition n’est pas directement mesurable. Elle est évaluée à l’aide d’une batterie de tests psychométriques qui peuvent être considérés comme des mesures quantitatives bruitées de la cognition. L’objectif de cet article est de proposer un modèle permettant de décrire la cognition non observée chez les personnes âgées et d’évaluer l’impact de variables explicatives directement dessus. Le processus latent défini en temps continu et représentant la cognition est modélisé par un modèle linéaire mixte prenant en compte des variables dépendantes du temps et les tests psychométriques sont ensuite définis comme des transformations nonlinéaires paramétrées du processus latent. L’estimation des paramètres à la fois dans le modèle mixte et dans les transformations nonlinéaires est obtenue en maximisant la vraisemblance observée et des méthodes graphiques sont utilisées pour évaluer l’adéquation du modèle. La méthode est appliquée aux données de la cohorte prospective française PAQUID. Low‐Rank Scale‐Invariant Tensor Product Smooths for Generalized Additive Mixed Models Une méthode générale est présentée pour construire des fonctions de lissage basées sur des produits tensoriels de faible rang et utilisées comme composantes de GAMs ou de GAMMs. Une approche de type régression pénalisée est adoptée dans laquelle chaque produit tensoriel de plusieurs variables est construit à partir des lisseurs de chaque variable prise séparément, ces lisseurs «marginaux»étant définis avec une fonction de faible rang et associée à une pénalité quadratique sur les fluctuations. Les lisseurs offrent plusieurs avantages (i) ils ont une pénalité sur les fluctuations pour chaque covariable et sont donc insensibles à une transformation linéaire des covariables, les rendant utiles quand il n’y a pas de façon naturelle pour mettre à l’échelle les covariables entre elles; (ii) ils ont un plage utile du degré de lissage personnalisable, à la différence de la pénalité unique des lisseurs par produit tensoriels qui sont invariants à l’échelle; (iii) le rang relativement bas des lisseurs fait qu’ils sont numériquement efficients; (iv) les pénalités des lisseurs sont aisément interprétables en terme de forme de la fonction; (v) les lisseurs peuvent être générés complètement automatiquement à partir des fonctions de lissage marginales et des pénalités quadratiques associées, donnant au modélisateur une flexibilité considérable pour choisir la combinaison de base des pénalités la plus apporpriée à chaque tâche de modélisation; (vi) les lisseurs peuvent aisément être écrits comme des composants d’un modèle mixte linéaire ou linéaire généralisé standard, permettant de les utiliser comme des composants de la riche famille de tels modèles implémentés dans des logiciels standard et d’avoir l’avantage de méthodes numériques efficientes et stables qui ont été développées pour de tels modèles. Une petite étude de simulation montre que les méthodes peuvent favorablement se comparer aux méthodes ANOVA avec splines lissants récemment développées. Joint Modeling of Survival and Longitudinal Data: Likelihood Approach Revisited L’approche par le maximum de vraisemblance a permis de modéliser conjointement, dans les études longitudinales, le délai de survie et ses covariables longitudinales. Des effets aléatoires dans le processus longitudinal est souvent utilisé pour modéliser les délais de survie au travers d’un modèle à risques proportionnels, et cela fait appel à un algorithme EM pour rechercher l’Estimateur du Maximum de Vraisemblance (MLEs). Plusieurs problèmes sont étudiés ici, à savoir la robustesse du MLEs par rapport à un écart à l’hypothèse de normalité des effets aléatoires, ainsi que les difficultés pour obtenir des estimateurs fiables de l’écart type du MLEs via l’approche par la vraisemblance. Nous apportons des éclaircissements sur la propriété de robustesse et suggérons de passer outre les difficultés de la fiabilité de l’estimateur des écart‐types en utilisant des procédures de bootstrap. Des simulations et des analyses de données illustrent nos propos. Bayesian Semiparametric Dynamic Frailty Models for Multiple Event Time Data Beaucoup d’études biomédicales collectent des données sur le délai d’apparition d’un événement de santé, qui peut se produire de manière répétitive, comme les infections, les hospitalisations, les rechutes de la maladie, ou les évolutions tumorales. Pour analyser de telles données, il est nécessaire de prendre en compte la dépendance intra‐sujet entre les délais de ces multiples événements. Motivé par des données d’étude sur les tumeurs palpables, cet article propose un modèle dynamique de fragilité, et une approche inférentielle Bayesienne semi‐paramétrique. Le modèle à risques proportionnels est généralisé pour incorporer une fragilité spécifique à l’individu qui change de manière dynamique avec l’âge, tout en s’accommodant aux risques non‐proportionnels. Les hypothèses paramétriques sur la distribution de fragilité sont évitées en utilisant le processus de Dirichlet comme un a priori pour la fragilité partagée ainsi que pour les innovations multiples sur cette fragilité. En centrant le modèle semi‐paramétrique sur un modèle gamma dynamique conditionnellement‐conjugué, nous facilitons la programmation a postériori et nous évaluons convenablement le manque d’ajustement du modèle paramétrique. La méthode que nous proposons est appliquée à des données issues d’une étude de chimio‐prévention. Interval Mapping of Quantitative Trait Loci for Time‐to‐Event Data with the Proportional Hazards Mixture Cure Model Les modèles de mélange normaux pour établir des cartes génétiques par intervalle ont été un outil fondamental pour l’analyse de traits quantitatifs (QTL) sur des organismes expérimentaux. Quand le phénotype principal étudié est un événement retardé dans le temps, il est naturel d’utiliser alors des modèles de survie, tels que le modèle à risques proportionnels de Cox plutôt que le modèle de mélange normal pour modéliser un tel phénotype. Un enjeu supplémentaire dans la modélisation du temps jusqu’àévénement est de considérer que la population étudiée peut être composée de sujets susceptibles et de sujets non susceptibles. Dans cet article, nous proposons un modèle de mélange semi‐paramétrique à risques proportionnels permettant de prendre en compte une fraction de sujets non atteints, et qui permette de considérer des valeurs manquantes parmi les covariables. Nous discutons les applications de ce modèle à la cartographie des régions chromosomiques QTL, quand le trait principal est un événement apparaissant dans le temps au sein d’une population mixte de patients susceptibles ou non de présenter l’événement. Ce modèle peut être utilisé pour caractériser ces effets QTL, à la fois sur la susceptibilité et sur la distribution du temps jusqu’àévénement, et d’estimer la position de ces QTL. Ce modèle peut intégrer naturellement l’effet conjoint d’autres facteurs de risque. Les estimations par maximum de vraisemblance des paramètres du modèle ainsi que de leur variance peuvent être obtenues numériquement à l’aide d’un EM algorithme. Les méthodes proposées sont évaluées par des simulations sous des conditions couramment rencontrées en pratique et illustrées sur un jeu de données réelles comportant des temps de survie de souris infectées par Listeria monocytogenes. Une extension du modèle aux intervalles multiples est également discutée. Feature‐Specific Penalized Latent Class Analysis for Genomic Data Les données de la génomique sont souvent caractérisées par un nombre important de variables catégorielles mesurées chez un nombre relativement faible d’individus. Certaines de ces variables peuvent être absentes ou non informatives. Un exemple de telles données est la perte d’hétérozygocité (PH), une variable dichotomique observée sur un nombre limité de marqueurs génétiques. Nous considérons d’abord un modèle de classes latentes où, conditionnellement à l’appartenance non observée à l’une des k classes, les variables sont indépendantes avec des probabilités déterminées par un modèle régressif de faible dimension q. A l’aide d’une famille de pénalités incluant l’arête et le lasso, nous étendons ce modèle aux problèmes de plus grande dimension. Enfin, nous présentons une carte orthogonale qui transforme l’espace marqueurs en un espace de ‘caractéristiques’ pour lequel le modèle contraint a un meilleur pouvoir prédictif. Nous illustrons ces méthodes sur des données de PH recueillies sur 19 marqueurs chez 93 patients présentant une tumeur cérébrale. Pour ce jeu de données, la méthode de classe latente non pénalisée ne produit pas d’estimations. De plus, nous montrons que les classes a posteriori obtenues avec cette méthode sont associées à la survie des patients. Quantifying Genomic Imprinting in the Presence of Linkage L’analyse de liaison génétique classique confère le même poids à l’analyse des transmissions des allèles marqueurs paternels et maternels ce qui conduit à une nette baisse de puissance si les gènes étudiés sont soumis au phénomène d’empreinte parentale. Plusieurs stratégies ont été proposées pour prendre en compte les empreintes parentales dans le cadre de l’analyse de liaison modèle‐indépendante des traits binaires. Cependant, aucune de ces méthodes ne propose l’identification et la quantification du phénomène d’empreinte parentale en présence de liaison. En outre, les méthodes disponibles reposent sur l’analyse de paires de germains atteints et décomposent artificiellement les fratries de taille supérieure au prix d’une perte de puissance certaine. Nous proposons ici une approche globale, le MLB‐I (Maximum Likelihood Binomial – Imprinting), pour l’analyse de fratries de toute taille, qui associe i) un test de liaison prenant en compte le phénomène d’empreinte parentale, ii) un test d’empreinte parentale en présence de liaison, iii) un test du caractère complet ou partiel de l’empreinte. Par ailleurs, l’empreinte parentale est quantifiée au moyen d’un indicateur original. La distribution des trois statistiques proposées est dérivée et validée sous leur hypothèse nulle respective par étude de simulation sous différents modèles de transmission génétique. La puissance des tests est également évaluée. Cette méthode est directement applicable au criblage entier du génome comme l’illustre l’analyse de fratries avec des germains atteints de lèpre. Notre approche fournit un nouvel outil pour la dissection de l’empreinte parentale en analyse de liaison modèle‐indépendante, et sera d’un intérêt majeur pour identifier et évaluer la contribution des gènes soumis à empreinte parentale dans les maladies génétiques complexes. A Method for Estimating Penetrance from Families Sampled for Linkage Analysis Quand on découvre un variant génétique en ségrégation avec une maladie, il peut être intéressant d’estimer le risque de la maladie (ou le risque spécifiquement associéà l’âge) pour les individus porteurs du variant. Les familles ayant contribuéà la découverte du variant doivent généralement compter plusieurs porteurs et, de ce fait, si le variant est rare, elles peuvent constituer une source intéressante de sujets d’étude pour l’estimation du risque. Mais ces familles, qui ont attiré l’attention des chercheurs sur le gène en question, peuvent de ce fait ne pas être représentatives de la relation existant entre le statut de porteur du gène et le risque de maladie dans la population. Utiliser ces familles pour estimer le risque pourrait affecter d’un biais l’association trouvée entre le variant et le risque. Le but de cet article est de présenter une méthode d’ajustement pour ce biais potentiel quand on utilise les familles de l’analyse de liaison pour estimer le risque. A Unified Approach for Simultaneous Gene Clustering and Differential Expression Identification Bien que la classification non‐supervisée et l’identification de gènes différentiellement exprimés soient d’importance égale dans la plupart des études utilisant les puces à ADN, ces deux problèmes sont souvent traités de façon indépendante. Clairement, cette stratégie n’est pas la plus efficace pour extraire l’information. L’objectif principal de cet article est de développer une méthode statistique cohérente qui permette de classifier et de détecter simultanément les gènes différentiellement exprimés. Grâce à l’échange d’informations entre ces deux opérations, l’approche proposée produit une classification des gènes plus adéquate et est plus sensible pour identifier les gènes différentiellement exprimés. L’amélioration par rapport aux méthodes existantes est illustrée à la fois par nos résultats de simulations et par une étude de cas. Shrunken p‐Values for Assessing Differential Expression with Applications to Genomic Data Analysis Pour beaucoup de problèmes liés aux technologies produisant des données à grande échelle, l’inférence statistique implique des centaines ou des milliers d’hypothèses. Récemment, beaucoup d’attention a été dévolue aux tests multiples; on s’est concentré en particulier sur le taux de faux positifs. Dans cet article, nous considérons une autre procédure d’estimation nommée «p‐valeurs rétrécies pour l’évaluation de l’expression différentielle» (SPADE). Les estimateurs sont inspirés du principe de risque issu de la théorie de la décision et conduisent à une méthode complètement nouvelle d’ajustement des p‐valeurs obtenues lors de tests multiples. De plus, la théorie de la décision permet de dériver une règle de décision pour contrôler le nombre de faux positifs. Nous présentons des résultats théoriques et illustrons la méthodologie proposée à l’aide de simulations et d’une application à des données d’expression issues d’une étude sur le cancer de la prostate. Fragment Length Distributions and Collision Probabilities for AFLP Markers L’AFLP est une technique d'empreinte digitale d'ADN fréquemment utilisée en sciences végétales et animales. Un de ses inconvénients est l'occurrence de fragments multiples d'ADN de même longueur dans une simple ligne d'AFLP, que nous appelons une collision. Dans cet article nous quantifions le problème. Le problème bien connu du jour de naissance joue un rôle. Le calcul des probabilités de collision exige une distribution de la longueur du fragment (fld). Nous discutons trois manières d'estimer le fld: basé sur des considérations théoriques, sur la détermination in‐silico en utilisant des données de séquence d'ADN d'Arabidopsis thaliana, ou sur l'estimation directe à partir des données d'AFLP. Dans le dernier cas nous employons un modèle linéaire généralisé avec lissage monotone des probabilités de longueur de fragment. Des probabilités de collision sont calculées à partir de deux perspectives, en supposant des comptages connus de fragment et en supposant de comptages connus de bande. Nous comparons des résultats pour un certain nombre de fld, s'étendant de l'uniformitéà la dissymétrie la plus forte. La conclusion est que les collisions se produisent souvent, avec des probabilités plus élevées pour des nombres plus élevés de bandes, pour des distributions plus dissymétriques et, à un moindre degré, pour de plus petits intervalles de marquage. Pour un génome végétal typique un AFLP avec 19 bandes est susceptible de contenir la première collision. Des implications pratiques des collisions sont discutées. Des exemples d'AFLP de la laitue et de la chicorée sont employés en guise d’illustration. Susceptibility of Biallelic Haplotype and Genotype Frequencies to Genotyping Error Avec la mise à disposition de techniques de génotypage à haut débit ainsi que des bases de données génétiques, la recherche d'association entre des polymorphismes de substitution et un trait complexe est devenue un domaine important de recherche méthodologique en génétique médicale. Cependant, les erreurs de génotypage même relativement faibles peuvent conduire à de fausses associations et diminuer la puissance statistique. Nous proposons une approche systématique pour étudier comment des erreurs de génotypage peuvent changer les distributions génotypiques d'un échantillon. Le cas général à M‐marqueurs est réduit à celui d'un seul marqueur en identifiant la structure sous‐jacente du produit tenseur de la matrice des errors. La méthode et les conclusions s'appliquent au modèle général d'erreur; nous donnons des résultats détaillés pour le modèle à“erreur allélique" qui dépend à la fois du locus marqueur et de l'allèle présent. Les erreurs multiples sont traitées à partir du processus de diffusion associéà l'espace des distributions génotypiques. Nous montrons que certaines distributions génotypiques et haplotypiques restent inchangées en présence d'erreurs de génotypage et que ces erreurs rendent généralement la distribution plus proche de la distribution stable. Dans le cadre d'étude d'association cas‐témoins, cela conduit à une perte de puissance en présence d'erreurs de génotypage non‐différentielles et à une augmentation de l'erreur de type I pour des erreurs différentielles. De plus, nous montrons que des erreurs de génotypage sous le modèle à“erreur allélique" ne modifient pas l'équilibre d'Hardy‐Weinberg au niveau génotypique. Sous ce type d'erreurs, nous identifions les distributions les plus affectées. Comme elles correspondent aux situations où les allèles sont rares et les marqueurs en fort déséquilibre de liaison, une attention toute particulière aux erreurs de génotypage est recommandée en présence d'associations cas‐témoins observées au niveau allélique ou haplotypique. Statistical Analysis for Haplotype‐Based Matched Case–Control Studies En utilisant des données génotypiques déphasées, nous étudions l’inférence statistique de l’association entre une maladie et un haplotype dans des études cas‐témoins. L’inférence statistique pour les données d’haplotype est compliquée due à l’ambiguïté des phases de génotypes. Une méthode basée sur une équation d’estimation est développée pour estimer des odds ratios et tester des associations maladie – haplotype. La méthode peut potentiellement être appliquée au test de l’interaction haplotype – environnement. Des études de simulations montrent les bonnes performances de la méthode. La performance de la méthode en présence de déviations de l’équilibre de Hardy‐Weinberg est aussi étudiée. Optimization of Two‐Stage Genetic Designs Where Data Are Combined Using an Accurate and Efficient Approximation for Pearson's Statistic Dans la recherche des gènes associés à telle ou telle pathologie, les études cas‐témoin réalisées en deux étapes successives suscitent un intérêt croissant, en raison de la réduction des coûts de génotypage qu’elles permettent. De plus, au lieu d’analyser séparément les données de la deuxième étape, on peut effectuer un test plus puissant en regroupant les données des deux étapes. Cependant, il n’est alors pas possible d’utiliser les tests classiques, puisque seuls sont sélectionnés, pour la deuxième étape, les marqueurs jugés significatifs lors de la première étape; de surcroît, parce qu’elles portent en partie sur les mêmes données, les statistiques de test utilisées lors de chacune des deux étapes sont nécessairement corrélées entre elles. Or, on ne dispose pas d’approximations théoriques pour les tests les plus courants; quant aux simulations, leur lourdeur calculatoire, dans ce contexte spécifique, peut s’avérer problématique. C’est pourquoi nous proposons une approximation performante – c’est‐à‐dire à la fois précise et rapide en termes de temps de calcul CPU – pour la distribution de la statistique de Pearson associée à des tables de contingence 2 x m dans les études en deux étapes avec données poolées. Nous avons utilisé cette approximation dans le cadre d’une méthode itérative de recherche de plans optimaux en deux étapes. Les simulations effectuées étayent la fiabilité de notre approximation, et les résultats numériques confirment que l’utilisation de plans en deux étapes réduit de façon substantielle la quantité des génotypages à réaliser. En choisissant de pooler les données (plutôt que ne pas les pooler), on diminue en moyenne les tailles d’échantillons de 15% et le nombre de génotypages de 5%. Case‐Cohort Designs and Analysis for Clustered Failure Time Data Les plans de type cas‐cohorte apportent un schéma efficient et économique pour l’étude de facteurs de risque de maladies non fréquentes dans une large cohorte. Ils demandent le recueil de covariables pour les événements vérifiés au sein de toute la cohorte, et pour les individus d’une sous‐cohorte sélectionnée au début du suivi. Dans la littérature, les plans cas‐cohorte ont été très étudiés mais seulement dans le cadre de données univariées. Dans cet article, nous proposons des plans de type cas‐cohorte pour des données de durée multivariées. Une procédure d’estimation s’appuyant sur un modèle d’indépendance est utilisée pour estimer les paramètres de régression dans le modèle marginal des hasards proportionnels, où on laisse non spécifiée la structure de corrélation entre individus d’une même classe. On développe les propriétés statistiques des estimateurs proposés. Des études de simulations permettent d’étudier la performance des estimateurs proposés, et de comparer les qualités statistiques. On illustre la méthode proposée à l’aide de données provenant de l’étude TRIAD. A Semiparametric Empirical Likelihood Method for Biased Sampling Schemes with Auxiliary Covariates Nous considérons une procédure d’inférence semi‐paramétrique pour des données d’études épidémiologiques conduites selon un plan d’échantillonnage à deux composantes oùà la fois un échantillonnage aléatoire simple et des échantillons de résultats multiples ou de résultats auxiliaires sont observés. Ce plan de sondage permet aux enquêteurs de sur‐échantillonner certaines sous‐populations dans le but d’avoir plus d’informations sur le modèle de régression tout en améliorant la connaissance de la population sous‐jacente à travers le plan d’échantillonnage aléatoire simple. Nous restreignons notre étude à des dispositifs dans lesquels il n’y a pas d’information additionnelle sur la cohorte‐parent et où la probabilité d’échantillonnage est non identifiable. Notre problématique est motivée par une étude destinée àévaluer l’association entre le niveau de mutation du gène EGFR et la réponse anti‐tumorale à une thérapie ciblée EGFR parmi des patients ayant un cancer pulmonaire (hors anaplasique à petites cellules). La méthode proposée s’applique à la fois à des réponses binaires et multinomiales et admet une fonction de lien arbitraire dans le cadre des modèles linéaires généralisés. Des études de simulations montrent que l’estimateur proposé a des bonnes propriétés pour des petits échantillons. La méthode est illustrée par un exemple. Augmented Designs to Assess Immune Response in Vaccine Trials Ce papier introduit des méthodes utilisables dans les essais cliniques de vaccins pour aider à savoir si la réponse immunitaire à un vaccin est vraiment la cause d’une réduction du taux d’infection. Cela n’est pas facile car la réponse immunitaire à un vaccin(par exemple, contre le VIH) n’est observée que dans le groupe vacciné. Si nous savions ce qu’aurait été la réponse immunitaire spécifique au vaccin anti‐VIH dans le groupe placebo s’il avait été vacciné, cette réponse pourrait être traitée comme une covariable et son interaction avec le traitement pourrait être évaluée. De même, le taux d’infection en fonction de la valeur de cette covariable pourrait être comparé entre les deux groupes et appuierait le rôle causal de la réponse immunitaire si le risque infectieux diminuait en relation avec une réponse immunitaire accrue au vaccin uniquement dans le groupe vacciné. Nous introduisons deux méthodes d’inférence sur la réponse immunitaire spécifique. La première consiste à vacciner tout le monde avant le démarrage de l’essai par un autre vaccin sans rapport avec le vaccin anti‐VIH, par exemple le vaccin anti‐rabique. La randomisation garantit que la relation entre les réponses immunitaires au vaccin anti‐rabique et au vaccin anti‐VIH observée dans le groupe vacciné est la même que celle qui aurait pu être observée dans le groupe placebo. Nous déduisons une réponse au vaccin anti‐VIH pour les sujets sous placebo à partir de leur réponse au vaccin anti‐rabique et d’un modèle de prédiction dans le groupe vacciné. La deuxième méthode consiste à vacciner tous les sujets du groupe placebo non infectés à la fin de l’essai par le vaccin anti‐VIH et à enregistrer leur réponse immunitaire. Nous supposons que la réponse à la fin de l’essai est la même que ce qu’elle aurait été au début. Nous pouvons donc en déduire quelle aurait été la réponse immunitaire chez les sujets infectés du groupe placebo. De tels schémas peuvent aider àélucider le rôle de la réponse immunitaire dans la prévention des infections. Plus précisément, ils pourraient aider à décider l’amélioration ou l’abandon d’un vaccin anti‐VIH ayant montré une efficacité médiocre dans un essai de phase III. Statistical Inference in a Stochastic Epidemic SEIR Model with Control Intervention: Ebola as a Case Study Un modèle stochastique susceptible‐exposé‐infecté‐résistant (SEIR) à temps discret pour les maladies infectieuses est développé dans le but d’estimer les paramètres à partir de la série d'incidence quotidienne et de la série de mortalité d’une épidémie d'Ebola dans la république démocratique du Congo en 1995. La série d’incidence montre beaucoup de comptages faibles voir nuls ce qui nécessite une approche de modélisation stochastique. Pour identifier la nature stochastique des transitions entre les compartiments, nous spécifions des distributions binomiales conditionnelles appropriées. De plus, une fonction temporelle simple du taux transmission est introduite pour prendre en compte l’effet des interventions. Nous développons des méthodes MCMC pour l’inférence basée sur les distributions a posteriori des paramètres. L’algorithme est étendu pour intégrer numériquement des variables d’état du modèle non observées. Ceci conduit à un modèle stochastique réaliste qui peut être utiliser par des épidémiologistes pour étudier les dynamiques d’une maladies et l’effet des interventions. Measurement Error in a Random Walk Model with Applications to Population Dynamics Les abondances des populations naturelles sont rarement connues. Elles sont estimées avec une certaine imprécision. Cette erreur de mesure a des conséquences sur les analyses ultérieures, comme la modélisation de la dynamique de la population et l'estimation des abondances probables dans le futur. Cet article analyse certaines questions encore ouvertes sur les conséquences de l'erreur de mesure sur la dynamique d'un modèle simple, la marche aléatoire avec dérive, et propose de nouvelles méthodes de correction de l'erreur de mesure. Nous présentons un éventail large de modèles d'erreur de mesure qui tolèrent à la fois l'hétéroscédasticité et de possibles corrélations entre erreurs de mesure, et nous fournissons des résultats analytiques sur les biais des estimateurs ignorant l'erreur de mesure. Nos nouveaux estimateurs incluent à la fois la méthode des moments et des «pseudo estimateurs» résultant de la synthèse d'estimations observées d'abondances de population et d'estimations de paramètres du modèle d'erreur de mesure. Nous dérivons les propriétés asymptotiques de notre méthode et des méthodes existantes et comparons leurs performances en échantillons finis par simulation. Nous analysons aussi les implications pratiques de ces méthodes en les utilisant pour analyser deux jeux de données réels de dynamique de populations. Multistage Evaluation of Measurement Error in a Reliability Study Nous proposons des procédures de tests séquentiels pour la planification et l’analyse dans des études de fiabilité pour évaluer l’erreur de mesure d’une exposition. Nos schémas permettent l’évaluation répétitive de la fiabilité des mesures, et un arrêt de test lorsque l’erreur de mesure est mise en évidence précocement dans les limites de tolérance. Nos méthodes sont développées et les valeurs critiques calculées pour un certain nombre de schémas à deux étapes. Nos méthodes sont illustrées à l’aide d’un exemple évaluant la fiabilité de bio marqueurs associés au stress oxydatif. Effects of Residual Smoothing on the Posterior of the Fixed Effects in Disease‐Mapping Models Les modèles de cartographie de maladies pour des données aréolaires ont souvent des effets fixes pour mesurer l'effet de covariables variant spatialement et des effets aléatoires avec un a priori autorégressif conditionnel (CAR) pour prendre en compte la corrélation spatiale. Dans de telles régressions spatiales, l'objectif peut être d'estimer les effets fixes en prenant en compte la corrélation spatiale. Mais ajouter les effets aléatoires CAR peut provoquer de grands changements dans la moyenne et la variance a posteriori des effets fixes, comparé au modèle de régression non‐spatial. Ce papier explore l'impact de l'ajout des effets aléatoires spatiaux sur les estimations des effets fixes et la variance a posteriori. Des diagnostiques sont proposés pour mesurer l'inflation de la variance a posteriori due à la colinéarité entre les covariables à effets fixes et les effets aléatoires CAR et de mesurer chaque influence des régions sur le changement des estimations des effets fixes lorsque des effets aléatoires CAR sont ajoutés. Un nouveau modèle qui allège la colinéarité entre les covariables à effet fixe et les effets aléatoires CAR est développé. Des extensions des ces méthodes à des modèles pour données ponctuellement référencées sont discutées. Equivalence of Truncated Count Mixture Distributions and Mixtures of Truncated Count Distributions Ce papier porte sur la modélisation de données de comptage avec une troncation en zéro. Une famille de densités paramétrique de comptage est considérée. Le mélange tronqué de densités de cette famille est différent du mélange de densités tronquées de la même famille. Alors que le premier modèle est plus naturel à formuler et interpréter, le deuxième est théoriquement plus facile à traiter. Il est montré que pour n'importe quelle distribution mélangeante conduisant à un mélange tronqué, une distribution mélangeante (d'habitude différente) peut être trouvée, si bien que le mélange associé de distributions tronquées est égale au mélange tronqué et vice versa. Ceci implique que les surfaces de vraisemblance pour les deux situations s'accordent, et dans ce sens les deux modèles sont équivalents. Les modèles de données de comptage avec troncation en zéro sont utilisés fréquemment en capture‐recapture pour estimer la taille de la population et il est montré que les deux estimateurs de Horvitz‐Thompson associés à ces deux modèles sont en accord. En particulier il est possible d'obtenir des résultats forts pour les mélanges de densités de Poisson tronquées incluant une construction globale fiable de l'unique estimateur NPMLE de la distribution mélangeante, ce qui implique un estimateur unique pour la taille de la population. Le bénéfice de ce résultat réside dans le fait qu'il est valide de travailler avec le mélange de densités de comptage tronquées, qui est moins attractif pour le praticien mais théoriquement plus facile. Les mélanges de densités de comptage tronquées forment un modèle linéaire convexe, pour lesquels une théorie a été développée incluant une théorie du maximum de vraisemblance globale aussi bien que des approches algorithmiques. Une fois que le problème a été résolu dans cette classe, il devrait être facile de revenir au problème original par une transformation explicitement donnée. Des applications de ces idées sont données, spécialement dans le cas de la famille de Poisson tronquée. New Approximations to the Malthusian Parameter Des approximations du paramètre malthusien d’un processus de branchement age‐dépendant sont obtenues en fonction des moments de la distribution du temps de survie, en utilisant un lien avec la théorie du renouvellement. Plusieurs exemples montrent que nos nouvelles approximations sont plus précises que celles actuellement utilisées, même lorsqu’elles ne sont basées que sur les deux premiers moments. Ces nouvelles approximations sont étendues pour s’adapter à une forme de division cellulaire asymétrique rencontrées chez certaines espèces de levures. Nous montrons qu’elles sont d’efficience élevée lorsqu’on les utilise dans un cadre inférentiel. Adaptive Web Sampling Une classe flexible d'échantillonnage adaptatif est introduit pour échantillonner dans un contexte de réseau ou spatial. Les sélections sont réalisées séquentiellement avec un mélange de lois basé sur un ensemble actif qui change lorsque l'échantillonnage progresse en utilisant des relations de réseau ou spatiales ainsi que des valeurs de l'échantillon. Les nouveaux plans de sondage ont des avantages certains comparés aux plans adaptatifs préexistants et aux plans par dépistage de liens, incluant un contrôle sur les tailles d'échantillons et sur la proportion de l'effort alloué aux sélections adaptatives. Une inférence efficace implique un moyennage sur tous les chemins consistant avec la statistique suffisante minimale. Une méthode de réechantillonnage par chaîne de Markov permet de réaliser l'inférence. Les plans sont évalués dans des dispositifs de réseaux ou spatiaux en utilisant deux populations empiriques: une population humaine cachée à risque pour le VIH/Sida et une population d'oiseaux irrégulièrement distribuée. Motor Unit Number Estimation—A Bayesian Approach Toute contraction musculaire dépend de l’état de fonctionnement des unités motrices. Dans des maladies comme la sclérose latérale amyotrophique (SLA), la perte progressive des unités motrices conduit à la paralysie. Une difficulté majeure dans la recherche d’un traitement pour ces maladies réside dans l’absence d’une mesure fiable de la progression de la maladie. Une mesure possible serait l’estimation du nombre d’unités motrices restant en vie. Toutes les méthodes proposées pour l’estimation du nombre d’unités motrices (ENUM) pendant près de 30 ans ont été confrontées à des objections pratiques et théoriques. Notre but est de développer une méthode ENUM surmontant ces objections. Nous enregistrons le potentiel d’activité musculaire composé (PAMC) d’un muscle donnée, en réponse à un stimulus électrique gradué appliqué au nerf. Lorsque l’intensité du stimulus augmente le seuil de chaque unité motrice est dépassé, et la valeur du PAMC augmente jusqu’à ce qu’une réponse maximale soit atteinte. Cependant, le potentiel seuil requis pour l’excitation d’un axone n’est pas une valeur précise, mais fluctue dans un petit intervalle, ce qui conduit à une activation probabiliste des unités motrices, en réponse à un stimulus donné. En cas de recouvrement des intervalles seuils des unités motrices, on peut être en présence d’alternatives dues à un nombre variable d’unités motrices activées en réponse au stimulus. Ceci signifie que les incréments de la valeur du PAMC correspondent à l’activation de différentes combinaisons d’unités motrices. Pour un stimulus fixé la variabilité du PAMC, rapportée par sa variance, peut être utilisée pour piloter une ENUM à l’aide d’une méthode de Poisson. Cependant cette méthode repose les hypothèses d’une part de distribution de Poisson pour le nombre d’unités motrices activées, et d’autre part de taille fixe et identique pour tous les potentiels d’activation des unités motrices (PAUM) simples. Ces hypothèses ne sont pas nécessairement justifiées. Nous proposons une méthodologie bayésienne pour l’analyse des données électrophysiologiques en vue de l’estimation du nombre d’unités motrices. Notre méthode ENUM incorpore la variabilité des seuils, la variabilité intra‐ et inter‐ PAUM simples, et une variabilité de base. Notre modèle ne donne pas seulement le nombre le plus probable d’unités motrices, mais fournit également des informations sur la population formée par ces unités, et sur les unités individuelles. Nous utilisons les méthodes MCMC pour obtenir l’information sur les caractéristiques des unités motrices individuelles, sur la population des unités motrices, et le BIC pour ENUM. Nous testons notre méthode ENUM sur trois sujets. Notre méthodes fournit une estimation reproductible pour un patient atteint de SLA sévère mais stable. Dans une étude de série, nous montrons la chute du nombre des unités motrices chez un patient présentant une maladie rapidement évolutive. Enfin, avec le dernier patient, nous montrons que notre méthode permet d’estimer de grands nombres d’unités motrices. Extension of the Rank Sum Test for Clustered Data: Two‐Group Comparisons with Group Membership Defined at the Subunit Level Le test de somme des rangs de Wilcoxon est largement utilisé pour comparer deux groupes de données non normales. Ce test suppose l'indépendance des unités d'échantillonnage à la fois entre les groupes et à l'intérieur des groupes. En ophtalmologie, les données concernent souvent les deux yeux d'un même individu, qui sont hautement corrélées. Dans les essais cliniques en ophtalmologie, la randomisation est effectuée au niveau de l'individu, mais l'unité d'analyse est l'?il. Si l'?il est utilisé comme unité dans l'analyse, alors la formule usuelle de la variance du test de somme des rangs de Wilcoxon doit être modifiée pour tenir compte de la dépendance à l'intérieur des grappes. Dans certains dispositifs avec données en grappes, où l'unité d'analyse est la sous‐unité, l'appartenance au groupe doit être définies au niveau de la sous‐unité. Par exemple, dans certains essais cliniques en ophtalmologie, des traitements différents peuvent être appliqués à chaque ?il de certains patients, alors que le même traitement peut être appliqué aux deux yeux d'autres patients. En général, il peut y avoir des covariables binaires spécifiques de l'?il (cotées comme ‘exposé' ou ‘non exposé') et l'on souhaite comparer des résultats distribués non normalement entre yeux exposés ou non exposés au moyen d'un test de somme des rangs de Wilcoxon tout en prenant en compte les grappes. Dans cet article, nous présentons une formule corrigée pour la variance de la statistique de la somme des rangs de Wilcoxon en présence de covariables spécifiques de l'?il (sous‐unité). Nous l'appliquons pour comparer des scores de démangeaison chez des patients qui ont une allergie oculaire entre yeux traités par des gouttes actives ou des gouttes placebo, sachant que certains patients reçoivent les mêmes gouttes dans les deux yeux, alors que d'autres patients reçoivent des gouttes différentes dans chaque oeil. Nous présentons également des comparaisons entre le test de Wilcoxon pour des grappes, et chacune des approches par tests de rangs signés et modèle mixte, et nous montrons des différences très notables de puissance en faveur du test de Wilcoxon pour grappes dans certains dispositifs.  相似文献   

9.
Abstract

L'objectif est le contrôle sélectif de l'expression des gènes. Les composés oljgodN-bras-intercalant non modifies sur les phosphates (1–3) possedènt une forte affinité specifiqué pour les séquences nucléiques complémentaires. Af in d'améliorer ce système nous avons préparé des composés modifiés sur la chaîne nucléotidique.  相似文献   

10.
An evaluation of ‘rapid review’ as a method of quality control of cervical smears using the AxioHOME miscroscope One method of quality control which has recently been recommended by professional bodies in the UK is the ‘rapid review’ method. This involves the microscopic 30 s review of all negative cervical smears with the intention of flagging potential missed abnormalities. Although it has been suggested that rapid review is better than 10% random rescreening of negative smears, the efficiency and efficacy of this method of quality control have not been thoroughly evaluated. We have used the AxioHOME system, which can record the area of a slide covered and the screening time, to investigate slide coverage during rapid review quality control, as performed by 15 cytoscreeners and MLSOs reviewing a test set of 22 slides each. The test set comprised 18 negative slides, three positive slides, and one unsatisfactory slide. We have recorded two distinct methods of rapid review in use amongst cytotechnologists, the step method and the whole slide method. The data show that rapid review takes longer on average than the recommended 30 s, the mean screening times being 76 s and 82 s for the step and whole slide methods, respectively. Abnormal smears were missed on three of 15 occasions by the step method (sensitivity 80%, positive predictive value 85%), and on seven of 30 occasions by the whole slide method (sensitivity 76.6%, positive predictive value 45%). However, the 95% confidence intervals were wide (57.7–90.7% for the step method, and 51.9–95.7% for the whole slide method). Analysis of scanning tracks and screening rates shows significant flaws in the methodology of rapid review. Abnormal cells were not identified, although dyskaryotic cells were included in the scanning track on nine occasions, seven using the whole slide method and two using the step method. On one occasion (using the step method) abnormal cells were not identified because they were not included in the scanning track. Further research is in progress to determine optimal methods of rapid review, and whether the rapid review technique is as effective as automated screening systems for quality assurance in cytology. Evaluation de la technique de ‘Relecture Rapide’ comme méthode de contrôle de qualité des frottis cervico-utérins, à l'aide du microscope AxioHOME Une des méthodes de contrôle de qualité récemment recommandée par le corps professionnel du Royaume Uni est la méthode dite de ‘relecture rapide’. Cette méthode consiste en une deuxième lecture d'une durée de trente secondes de tous les frottis cervicaux négatifs et dont l'objectif est de détecter les anomalies ayant pu échapper au premier examen. Bien qu'il ait été suggéré que cette méthode de relecture rapide soit meilleure que la relecture de 10% des frottis négatifs tirés au sort, le rendement et l'efficacité de cette méthode de contrôle de qualité n'ont pas été évalués complètement. Nous avons utilisé le système AxioHOME capable d'enregistrer la plage de la lame qui a été explorée ainsi que le temps de lecture afin d'étudier la surface explorée au cours de cette relecture rapide telle qu'elle a pu être pratiquée par quinze cytotechniciens et MLSOs, chacun ayant relu une série test de vingt deux lames. Cette série test comprenait dix huit lames négatives, trois lames positives et un frottis non satisfaisant. Nous avons noté que les cytotechniciens utilisaient deux méthodes de relecture rapide différentes, la méthode ‘pas à pas’ et la méthode ‘globale’. Les données montrent que la relecture rapide prend, en moyenne, un temps supérieur aux trente secondes recommandées, la moyenne des temps de lecture étant de 76 secondes et de 82 secondes respectivement pour la méthode ‘pas à pas’ et la méthode ‘globale’. Les anomalies n'ont pas été détectées dans trois cas sur quinze par la méthode ‘pas à pas’ (sensibilité 80%, valeur prédictive positive 85%), et dans 7 cas sur 30 par la méthode globale (sensibilité 76,6%, valeur prédictive positive 45%). Toutefois, l'intervalle de confiance à 95% est important (57,7%-90,7% pour la méthode ‘pas à pas’ et 51,9%-95,7% pour la méthode globale). L'analyse des surfaces balayées et des taux de détection montre des points faibles significatifs de cette méthodologie de relecture rapide. Dans 9 cas, les anomalies n'ont pas été identifiées alors que des cellules dyskaryotiques étaient présentes dans les plages balayées au cours de la relecture (sept utilisant la méthode globale et deux utilisant la méthode ‘pas à pas’). Dans un cas (avec la méthode ‘pas à pas’) les cellules anormales n'ont pas été identifiées parce qu'elles étaient absentes des plages de relecture. Des études sont en cours afin de déterminer quelles sont les méthodes optimales de relecture rapide et si ces techniques de relecture rapide sont aussi efficaces que les systèmes de lecture automatisée pour l'assurance de qualité en cytologie cervico-utérine. ‘Rapid Review’ als Methode der Qualitätskontrolle gynäkologischer Abstriche, Überprüfung mit dem AxioHOME-Mikroskop Die empfohlene ‘Rapid Review’ Kontrolle aller negativen Abstriche in nur 30 Sekunden anstelle des Nachscreenens von 10% der Präparate ist in ihrer Zuverlässigkeit bislang nicht überprüft worden. Mit Hilfe des AxioHOME-Mikroskops ist es möglich sowohl die ausgewertete Fläche, als auch die erforderliche Zeit zu erfassen. 15 Auswerter prüften mit der Methode jeweils einen Testsatz von 22 Präparaten. Er enhielt 18 negative, 3 positive und 1 nichtauswertbaren Abstrich. Getestet wurden zwei verschiedene Vorgehensweisen: die schrittweise und die das ganze Präparat erfassende. Beide erfordern mehr Zeit als 30 Sekunden; der mittlere Zeitaufwand betrug für die Schrittmethode 76 und für die Ganzheitsmethode 82 Sekunden. Die Schrittmethode verfehlte 3/15 Anomalien (Sensitivität 80%, positiver prädiktiver Wert 85%), die Ganzheitsmethode 7/30 (Sensitivität 76,6%, positiver prädiktiver Wert 45%). Der 95% Konfi denzbereich reichte für die Schrittmethode von 57,5–90,7% und für die Ganzheitsmethode von 51,9–95,7%). Die Analyse deckt wesentliche Schwachstellen des Rapid Review-Verfahrens auf. In 9 Fällen lagen nicht erkannte Zellatypien in den kontroll ierten Bahnen (7 bei des Schrittmethode, 2 bei der Ganzheitsmethode). Einmal lagen sie bei der Schrittmethode ausserhalb der geprüften Bahnen. Weitere Studien werden prüfen ab das Rapid Review-Verfahren automatisierten Systemen vergleichbar ist.  相似文献   

11.
Resumé

Corrélation entre le nombre des chromosomes et les dimensions des microscopores dans la taxonomie botanique. spectre génétique pollinique.

Le concept de proportion domine dans la nature vivante. L'intéraction du noyau et du cytoplasme détermine sur le volume de ce dernier et en conséquence sur la cellule à l'état jeune, une régulation des dimensions cellulaires.

Non seulement la forme des divers pollens, mais aussi leurs dimensions (en tenant compte des fluctuation possibles), constituent des caractères qui peuvent avoir une importance taxonomique, tant par eux memes que par le fait d'etre mis en rapport avec les nombres des chromosomes.

On a déjà constaté que le numéro diploïde 24 est le plus fréquent, soit dans le règne animal que dans le régne végétal et que les numéros diploïdes compris entre 12 et 32 sont plus fréquents dans les plantes, que les autres numéros. Corrélativement l'A. a constaté que le diamètre équatorial le plus fréquent dans les pollens est celui de 23–25 microns; suivent, avec des fréquences décroissantes, les mesures 16–14–18–32–12 etc. microns.

De même, tandis que les numéros diploïdes éleves (2a = 100–200) sont très rares dans les plantes, les espéces avec des pollens à grains volumineux sont elles aussi en nombre très réduit.

Parmi les Convolvulacées, au nombre chromosomique diploïde 2n = 14 de Cuscuta europaea correspondent des microspores de 18–25 μ à 2n = 50 de Convolvulus arvensis, microspores de 50–70 μ, tandis que les Ipomées ayant un nombre élevé de chromosomes (2n = 60, 2n = 90 ca.) ont des grains de pollen d'un diamètre de 150–210 microns. Parmi les Nyctaginacées, le genre Bougainvillea (2n=20) a des pollens de petites dimensions dont le diamètre equatorial est de 30–40 microns, tandis que le genre Mirabilis (2n = 58) a des graines de pollens de grandes dimensions, de 160–226 microns de diamètre.

Bien d'autres exemples de corrélation semblables, appartenant à plusieurs genres et families de plantes, peuvent être cités, sur la base de l'examen des pollens de plus de 1000 espèces.

Si des espèces de proche parenté et semblables au point de vue de la taxonomie, diffèrent entre elles par le nombre des chromosomes respectifs, elles diffèrent aussi quant aux dimensions des pollens.

Le cardinal diamétrique equatorial des grains de pollens des espèces vraisemblablement élémentaires et de leurs variétés est souvent très proche du cardinal chromosomique diploïde des entités respectives; il est quelquefois un des ses multiples, très rarement un sous-multiple.

Tandis que la proportionalité entre les dimensions des grains de pollen et le nombre des chromosomes est fréquente dans les espèce élémentaires, elle nè se rencontre pas dans beaucoup d'autre cas, à cause de l'interférence de la polyploïdie. Dans les Cucurbitacées, aux pollens avec grains de 20 et 22 μ (Bryonia dioica, Momordica charantia) correspondent 2n = 20 et 2n = 22 respectivement; tandis que dans les espèces à gros grains de pollens (Cucurbita pepo: 170 μ; Cucumis sativus: 72–76 μ) ont a trouvé jusqu'à present: 2n = 40,42 (80) et 2n = 14,28 respectivement.

Une des manifestations de la polyploïdie, est la présence dans les pollens de macro-grains, de grains abortifs, de sillons et de pores aberrants, en somme de grains atypiques par leur forme et parfois aussi par leur coleur, présence qui, outre à indiquer l'origine hybride, peut, dans certains cas, inciter à faire des recherches sur les parents supposés et à tirer un plus grand parti de ces caractères.

Dans bien de cas il est possible de dessiner les spectre des pourcentages selon lesquels les différentes entités on concouru à la constituion de la variété ou de la cultivar.

L'A. propose d'appeler un tel diagramme: spectre génétique pollinique. [Agrave] le définir concourent aussi bien les différences morphologiques et microchimiques, que le pourcentage des grains physiologiquement inactifs (abortifs).

La biométrie est très utile dans l'interprétation des préparations microscopiques hétérogènes des allopolyploïdes.  相似文献   

12.
REGULAR ARTICLES     
《Biometrics》2006,62(2):636-643
  相似文献   

13.
La durée de conservation dans deux types de sol: une tourbe de pH=3,5 et une terre argilo-sableuse de pH=6,6, de trois agents pathogènes pour les larves du Hanneton commun,Melolontha melolontha L.:Bacillus popilliae var.melolontha, Rickettsiella melolonthae, Entomopoxvirus melolonthae a été étudiée en contaminant par le broyat de larves atteintes de chacune des maladies 4 litres de ces deux substrats qui ont été répartis en boîtes de polystyrène et en pots à fleurs placés soit dans un sol engazonné à l'extérieur, soit en laboratoire à 5°, 13° et 20°C. A intervalles réguliers des larves jeunes ont été mises en élevage à 20°C dans ces substrats contaminés. Après 4 ans le virus détermine sensiblement la même mortalité quelles que soient les modalités de conservation du sol. Mais l'altération du pouvoir pathogène en fonction du temps se traduit par une augmentation très signifcative des délais de manifestation de la maladie. Par contre la bactérie et la rickettsie perdent beaucoup de leur activité au bout de deux ans. La persistance d'un pouvoir pathogène des rickettsies introduites dans le sol est facilitée lorsqu'il s'agit de terre plutôt que de tourbe et si celle-ci est maintenue à basse température. Les conséquences épizootiologiques de ces résultats sont décrites en fonction du cycle évolutif du Hanneton commun: un délai de survie du germe de deux ans est nécessaire pour le maintien d'une maladie des vers blancs dans un site donné compte tenu de la période, de cette aurée, pendant laquelle l'activité larvaire est nulle ou insuffisante pour assurer la contamination des insectes, lorsque celle-ci s'effectue par voie orale.  相似文献   

14.
REGULAR ARTICLES     
《Biometrics》2005,61(3):891-895
L. Cowen and C. J. Schwarz 657 Les Radio‐tags, en raison de leur détectabilitéélevée, sont souvent employés dans les études de capture re‐capture. Une qualité essentielle requise est que les Radio tags ne cessent pas de fonctionner pendant l'étude. Le dysfonctionnement d'un Radio tag avant la fin d'une étude peut conduire à sous‐estimer le taux de survie. Nous développons ici un modèle pour incorporer des données issues de radio tags déficients. Ce modèle a été appliqué aux smolts chinook (tshawytscha d'Oncorhynchus) sur la Colombia river WA. Les estimations des taux de survie obtenus à partir de ce modèle sont beaucoup plus grandes que celles observées dans l'analyse standard de Cormack‐Gaie‐Seber. M. A. Suchard , R. E. Weiss , and J. S. Sinsheimer 665 Les facteurs de Bayes pour comparer deux hypothèses ou plus en compétition sont souvent estimés en construisant un échantillon de chaînes de Markov (MCMC) pour explorer l'espace joint des hypothèses. Pour obtenir des estimations efficaces des facteurs de Bayes, Carlin et Chibb (1995) ont suggéré d'ajuster les odds a priori des hypothèses en compétition de telle sorte que les odds a posteriori soient approximativement un et d'estimer alors les facteurs de Bayes par simple division. Un sous‐produit est que l'on produit souvent plusieurs chaînes MCMC indépendantes, une seulement étant utilisée pour l'estimation. Nous étendons cette approche en proposant trois tests statistiques qui incorporent les résultats des différentes chaînes. Le premier suppose des tirages indépendants dans une chaîne et modélise la fonction indicatrice de l'hypothèse en utilisant une régression logistique pour différents choix des odds a priori. Les deux autres modèles plus complexes abandonnent l'hypothèse d'indépendance en permettant des dépendances retard dans les résultats des différentes chaînes. Ces modèles nous permettent d'estimer l'incertitude dans nos calculs des facteurs de Bayes et d'utiliser pleinement les différentes chaînes MCMC, même si les a priori des odds varient de chaîne à chaîne. Nous appliquons ces méthodes de calcul des facteurs de Bayes pour tester la monophyllie dans deux exemples de phylogénie. Le premier exemple explore la relation d'un pathogène inconnu à un ensemble de pathogènes connus. L'identification de la relation monophyllique du pathogène inconnu peut influer sur le choix de l'antibiotique dans une perspective clinique. Le second exemple se concentre sur la détection des recombinaisons du virus VIH. Pour une application clinique potentielle, ces types d'analyse devraient être achevés aussi efficacement que possible. J. Zhu , J. C. Eickhoff , and P. Yan 674 Des observations de réponses spatio‐temporelles multiples se présentent souvent dans les études environnementales et écologiques. Alors que les modèles purement spatiaux de réponses univariées dans les familles exponentielles de distribution ont progressé au cours des dernières années (e.g. Diggle et al., 1998; Zhang, 2002), peu d'outils statistiques sont disponibles pour des réponse multivariées qui ne sont pas nécessairement Gaussiennes. Une exception cependant est le modèle à facteur commun développé pour des données spatiales multivariées par Wang et Wall (2003). Le but de cet article est d'étendre ce modèle multivarié uniquement spatial et de proposer une classe flexible de modèles linéaires généralisés de variables latentes appliqués à des données multivariées spatio‐temporelles. L'inférence statistique repose sur des estimées du maximum de vraisemblance et de leurs écarts‐type obtenues par l'algorithme EM de Monte Carlo. Nous proposons aussi une nouvelle méthode d'ajustement automatique de la taille de l'échantillon Monte Carlo, qui facilite la convergence de l'algorithme EM et présente ainsi quelque intérêt indépendant. La méthodologie est illustrée par une étude écologique du pin rouge en réponse à des attaques de charançon de l'écorce dans une forêt du Wisconsin. Y.‐G. Wang , X. Lin , and M. Zhu 684 Les méthodes robustes sont utiles pour assurer des inférences statistiques fiables en cas de légers écarts aux hypothèses du modèle. La méthode très largement utilisée des équations d'estimation peut être “robustifiée” en remplaçant les résidus standardisés par les M‐résidus. Si les résidus de Pearson sont supposés centrés sans biais, les estimations des paramètres par l'approche robuste sont asymptotiquement biaisés lorsque les distributions des erreurs ne sont pas symétriques. Nous proposons une méthode pour corriger ce biais. Nos études numériques extensives montrent que la méthode proposée peut réduire ce biais substantiellement. On donne des exemples d'illustration. R. J. Cook , W. Wei , and G. Y. Yi 692 Nous proposons des méthodes semi‐paramétriques pour estimer et tester l'effet d'un traitement en présence d'un événement récurrent observé sur des périodes multiples, avec prise en compte de la censure. Ces méthodes reposent sur l'estimation de fonctions avec pour hypothèse de travail un modèle de Poisson mixte sous lequel les effets aléatoires individuels peuvent être éliminés par conditionnement. Des tests statistiques robustes dérivés de pseudo‐scores sont obtenus par estimation “sandwich” de la variance. L' efficacité relative des analyses conditionnelle et marginale est évaluée de façon analytique sous un modèle mixte de Poisson à temps homogènes. La robustesse et la puissance empirique de l'approche semi‐paramétrique sont étudiées au moyen de simulations. Des adaptations pour prendre en compte les événements récurrents survenant dans des essais en cross‐over sont décrites et ces méthodes sont appliquées aux données d'un essai en cross‐over sur deux périodes chez des patients souffrant d'asthme bronchique. X. Song and Y. Huang 702 Plusieurs méthodes de modélisation fonctionnelle ont été proposées, en présence d'erreur de mesure des covariables avec le modèle de taux proportionnels. Sont inclus dans ces méthodes, l'estimateur du score conditionnel (Tsiatis and Davidian, 2001, Biometrika 88, 447–458) l'estimateur avec correction paramétrique (Nakamura, 1992, Biometrics 48, 829–838) et l'estimateur avec correction non paramétrique (Huang and Wang, 2000, Journal of the American Statistical Association 95, 1209–1219) dans l'ordre d'hypothèses de plus en plus faible sur l'erreur. Bien qu'ils soient tous consistants, chacun de ces estimateurs souffre de possibles difficultés en présence de petits échantillons ou d'erreurs de mesure substantielles. Dans cet article, ayant observé que les estimateurs du score conditionnel ou avec corrections paramétriques étaient asymptotiquement équivalents pour une erreur normale, nous avons cherché quelle était leur performance relative pour des échantillons de taille finie et remarqué que le premier était le meilleur. Ceci signifie une approche générale affinée des méthodes de correction paramétriques et non paramétriques. Les corrections affinées des estimateurs sont asymptotiquement équivalentes à leurs correspondantes standards, mais ont des propriétés numériques améliorées et sont plus performantes lorsque les estimations standards n'existent pas ou sont extrêmes. Nous présentons des résultats de simulations et une application de ces méthodes à un essai clinique sur le HIV. A.‐C. Andrei and S. Murray 715 Ce travail étudie l'analyse séquentielle de données de survie appariées en utilisant une nouvelle classe de tests non‐paramétriques, fondés sur un log‐rank pondéré apparié (PWLR), et les tests à partir de Kaplan‐Meier pondérés appariés (PWKM). Pendant le déroulement d'un essai chacun de ces tests peut alternativement être considéré comme la statistique la plus extrême. En suivant l'évolution de PEMAX, le maximum des différences absolues du PWLR standardisé et du PWKM, on a, à la fois, les avantages des tests de rangs et les avantages des autres tests. Par des simulations on montre que l'utilisation de PEMAX contrôle le risque de type I et est quasiment aussi puissant que l'utilisation du meilleur des deux tests. Ceci, que l'hypothèse des hasards proportionnels soit respectée ou non. Désormais, PEMAX préserve la puissance de façon plus robuste que chacun des deux tests pris individuellement, tout en restant relativement simple à mettre en place et à utiliser dans une analyse. Un exemple, à partir de l'étude “Early Treatment Diabetic Retinopathy Study” (ETDRS), est donné. B. Lu 721 Dans les études d'observation avec un traitement dépendant du temps et des covariables dépendant du temps, il est souhaitable d'équilibrer la distribution des covariables à chaque instant. Un score de propension (“propensity score”) dépendant du temps basé sur le modèle de Cox à risques proportionnels est proposé et utilisé pour apparier les sujets exposés au risque. Il est montré que l'appariement sur ce score de propension permet d'obtenir une distribution équilibrée des covariables dans les groupes traité et non traité. Un appariement optimal avec divers plans est mis en place et comparé dans une étude de traitement chirurgical, cytoscopie et hydrodistention, pour une maladie chronique de la vessie, la cystite interstitielle. Des simulations suggèrent aussi que l'analyse statistique après appariement est plus performante que l'analyse sans appariement en terme d'estimation et d'intervalle de confiance. M. Naskar , K. Das , and J. G. Ibrahim 729 Une classe très générale de distributions de survie multivariées est utilisée pour analyser des données groupées de défaillance, sujettes à la censure et à des modes multiples de défaillance. Conditionnellement à des quantités spécifiques au groupe, la distribution jointe du temps de défaillance et de la variable indicatrice de l'évènement peuvent s'exprimer comme un mélange de la distribution des temps de défaillance dûs à un certain type (ou spécifique d'une cause) et de la distribution marginale du type de défaillance. Nous supposons ici que les distributions marginales des différents types de défaillance sont de fonctions logistiques de certaines covariables. Les quantités spécifiques au groupe sont soumises à une certaine distribution inconnue qui cause la fragilité. La distribution de fragilité est modélisée non paramétriquement par un processus de Dirichlet (DP). Dans une telle approche semi paramétrique une méthode hybride d'estimation est proposée basée sur l'algorithme pondéré du restaurant chinois (WCR) qui nous aide à générer des observations à partir de la distribution prédictive de la fragilité. L'algorithme de Monte‐Carlo ECM (MCEMC) joue un rôle vital pour obtenir des estimations des paramètres qui établissent l'importance des effets des facteurs causaux pour les défaillances d'un certain type. Une étude de simulation est conduite pour étudier la consistance de notre méthodologie. La méthodologie proposée est utilisée pour analyser des données réelles de contamination par le virus VIH sur une cohorte de femmes prostituées du Sénégal. F. Bretz , J. C. Pinheiro , and M. Branson 738 Traditionnellement, les stratégies d'analyse de données issues d'études dose‐réponse se partagent en deux grandes catégories : les procédures de comparaisons multiples et la modélisation. L'approche par modélisation suppose une relation fonctionnelle entre la réponse et la dose – celle‐ci est ici considérée comme un facteur quantitatif –, selon un modèle paramétrique spécifiéà l'avance. On utilise alors ce modèle pour estimer la dose permettant d'obtenir un niveau donné de réponse, mais la validité des conclusions dépend fortement de la pertinence du modèle de dose‐réponse, le vrai modèle étant a priori inconnu. A l'inverse, les procédures de comparaisons multiples considèrent la dose comme un facteur qualitatif et font très peu d'hypothèses – voire aucune – sur le modèle de dose‐réponse sous‐jacent. Avec ces procédures, il s'agira souvent d'identifier la dose minimale efficace, statistiquement significative et susceptible de produire un effet biologique considéré comme intéressant. Une des approches possibles est de tester la significativité de contrastes comparant différents niveaux de dose, tout en contrôlant le risque global de Type I. Ce type de procédure est relativement robuste ; cependant, l'inférence ne peut bien sûr pas sélectionner d'autres doses que celles utilisées dans l'étude. Dans cet article, nous décrivons une stratégie unifiée d'analyse de données issues d'études dose‐réponse, stratégie qui combine les techniques de comparaisons multiples et de modélisation. Nous supposons en fait l'existence de plusieurs modèles candidats, tous paramétriques, et utilisons des techniques de comparaisons multiples pour choisir le modèle le plus vraisemblable vis‐à‐vis de la vraie courbe dose‐réponse sous‐jacente, tout en contrôlant le risque global de Type I. On utilise alors le modèle ainsi sélectionné pour cerner, à l'aide d'une approche inférentielle, les doses les mieux appropriées. J. O'Quigley 749 La méthode de ré‐évaluation séquentielle (CRM) est un algorithme pour la recherche de dose qui s'appuie sur une remise à jour dynamique. Comme d'autres méthodes dynamiques, la CRM fournit une estimation de la dose courante qui correspond à un percentile cible. Cette dose, calculée à partir de tous les sujets inclus, sera utilisée pour la prochaine expérience. La mise en oeuvre de cette ré‐évaluation est possible grâce à l'utilisation d'un modèle simple. Dans l'état actuel des choses ni la CRM ni toute autre méthode dynamique permet d'estimer un percentile cible à partir de données rétrospectives, sauf dans le cas exceptionnel où le modèle simplifié génère les données. Dans cet article notre attention se porte sur un problème spécifique, à savoir l'analyse rétrospective par la CRM de données générées par un mécanisme arbitraire. Nous montrons comment procéder de façon cohérente. La méthodologie proposée n'est pas limitée à ce schéma particulier et s'applique à d'autres plans expérimentaux où l'estimation de la dose est faite par une mise à jour dynamique. L'analyse rétrospective pose un certain nombre de difficultés pour ces plans, en particulier la CRM, car ces plans ont la propriété d'exploiter un modèle de travail sous paramétré. On ne peut répondre à la question ‐ quel aurait été le résultat si on avait utilisé un autre plan expérimental. Néanmoins on peut fournir une estimation de ce résultat. Ceci a de nombreuses applications. Z.‐F. Yu and P. J. Catalano 757 Les effets neurotoxiques d'agents chimiques sont souvent analysés dans le cadre d'études contrôlées sur des rongeurs, pour de multiples variables (binaires et continues) collectées en routine. L'un des objectifs est d'évaluer le risque afin de déterminer les doses optimales non toxiques. De telles études sont cependant confrontées à deux problèmes majeurs concernant les variables continues. Premièrement, il est difficile, pour de telles variables, d'évaluer le risque et de définir une dose de référence. Lorsque le risque est associéà la survenue d'un événement, il peut clairement être défini de façon binaire par la survenue ou non de l'événement. Définir le risque de façon similaire pour des variables continues est moins évident. Dans ce cas, l'événement est souvent défini par un ensemble de valeurs inférieures à un certain seuil, la distribution de ces valeurs étant supposée normale ou log normale. Deuxièmement, alors que, pour de telles études, les variables continues sont traditionnellement analysées séparément, des travaux récents conseillent plutôt d'utiliser des modèles multivariés. Nous proposons une méthode pour modéliser et quantifier le risque associéà des variables continues bivariées. Il s'agit d'une extension des méthodes existantes de régression par quantiles. L'approche basée sur une vraisemblance, permet de dissocier les modèles dose‐réponse de chaque variable, tout en tenant compte de la corrélation bivariée et de la caractérisation globale du risque. L'approche utilisée pour estimer une dose de référence est analogue à celle utilisée pour des variables binaires, sans qu'il soit nécessaire de spécifier un seuil arbitraire. Nous illustrons nos méthodes avec des données issues d'une étude de neurotoxicité de l'exposition de rats au triethyltin. L. Huang , M.‐H. Chen , and J. G. Ibrahim 767 Nous proposons des méthodes bayésiennes pour estimer les paramètres de modèles linéaires généralisés (GLM) avec des données de covariables manquantes qu'on ne peut pas négliger. Nous montrons que lorsqu'une distribution uniforme a priori impropre est employée pour les coefficients de régression, ? , du modèle multinomial de sélection du mécanisme d'obtention des données manquantes, la distribution jointe a posteriori sera toujours impropre si (i) toutes les covariables manquantes sont discrètes et si un coefficient constant est inclus dans le modèle de sélection du mécanisme d'obtention de données manquantes, ou (ii) au moins une covariable est continue et non bornée. Ce caractère impropre se manifestera indifféremment que les a priori propres ou non soient spécifiés pour les paramètres de régression, β , du GLM ou des paramètres, α , de la distribution de la covariable. Pour résoudre ce problème, nous proposons une nouvelle classe d'a priori propres pour les coefficients de régression, ? , dans le modèle de sélection du mécanisme de données manquantes. Ces a priori sont robustes et intéressants pour le calcul au sens où les inférences concernant les β ne sont pas sensibles au choix des hyperparamètres des a priori de ? et qu'ils facilitent un schéma d'échantillonnage de Gibbs qui conduit à une convergence accélérée. De surplus, nous étendons le critère d'évaluation du modèle de Chen, Dey et Ibrahim (2004), appelémesure L pondérée, au GLM et aux problèmes des données manquantes de même que nous étendons le Critère d'Information de Déviance (DIC) de Spiegelhalter et al. (2002) pour évaluer si le mécanisme d'obtention des données manquantes peut être ignoré ou non. Un nouvel algorithme de Monte Carlo de chaîne de Markov est aussi développé pour mener à bien les calculs des a posteriori. Plusieurs simulations sont faites pour étudier la performance des critères bayésiens proposés et la sensibilité aux spécifications a priori. Des ensembles de données provenant d'un essai clinique sur une tumeur mélanique et d'une étude sur le cancer du foie sont présentés pour mieux illustrer las méthodes proposées. A. Golightly and D. J. Wilkinson 781 Cet article traite de l'estimation de constantes de taux dans des modèles stochastiques de processus intra‐cellulaire. Le modèle stochastique discret de cinétique sous jacent est remplacé par une approximation (par équation différentielle stochastique) où le bruit blanc modélise le comportement stochastique et on identifie le modèle utilise sur des intervalles de temps réguliers. L'estimation implique l'utilisation de m‐1 observations latentes entre chaque couples de dates d'observation. Les méthodes MCMC sont alors utilisées pour échantillonner la distribution a posteriori du processus latent et les paramètres du modèle. La méthodologie est appliquée à l'estimation des paramètres d'un processus d'auto régulation des gènes chez un procaryote. G. Diao and D. Y. Lin 789 Les méthodes statistiques pour détecter les gènes qui influencent des caractères quantitatifs à l'aide de marqueurs génétiques sont bien développées pour des phénotypes distribués normalement et complètement observés. De nombreuses expériences impliquent des phénotypes liés à un temps d'échec, qui ont des distributions asymétriques, et qui sont habituellement sujets à censure à cause des perdus de vue aléatoire, des échecs pour des causes en compétition ou de la limitation de la durée de l'expérience. Dans cet article nous développons des méthodes statistiques semi‐paramétriques pour cartographier des Locus de Caractères Quantitatifs (LCQ) basés sur des phénotypes à temps d'échec avec censure. Nous formulons les effets du génotype LCQ sur le temps d'échec au moyen du modèle à risques proportionnels de Cox (1972) et dérivons des procédures d'inférence efficaces basées sur la vraisemblance. De plus, nous montrons comment évaluer la signification statistique quand on recherche les LCQ dans plusieurs régions du génome complet. Des études extensives par simulation démontrent que les méthodes proposées ont de bonnes performances en pratique. Les applications à deux études animales sont présentées. W. Briggs and D. Ruppert 799 Doit‐on pratiquer des mammographies de précaution chez des femmes d'âge moyen en bonne santé? Les chirurgiens doivent‐ils utiliser le score TRISS bien connu pour prédire la chance de survie de leurs patients? Ce sont des exemples de questions auxquelles on est confronté lorsqu'on décide d'utiliser une prédiction de type Oui/Non. Pour retenir une prédiction nous devons montrer qu'elle est qu'elle est plus intéressante que serait notre meilleure vision en absence de prédiction. Le calcul d'une mesure permet d'identifier l'erreur lorsque la prédiction est erronée et d'examiner les performances passées de la prédiction compte tenu de cette erreur. On développe un test statistique dans ce but. Les prédictions qui seront acceptées par ce test seront dites avoir de la compétence. Seules les prédictions compétentes devraient être utilisées. On montrera des méthodes graphiques et numériques pour montrer la compétence. L'utilité des mammographies est étudiée par cette voie. O. Thas and J. C. W. Rayner 808 Dans cet article, nous construisons trois tests d'ajustement lissés pour tester une distribution ZIP contre des alternatives générales lisses au sens de Neyman. Nous appliquons nos tests à un ensemble de données auparavant présenté comme ZIP‐distribué, et nous montrons que le modèle ZIP ne décrit pas correctement les données. En cas de rejet de l'hypothèse nulle de modèle ZIP, les composantes individuelles de la statistique de test, qui sont directement liées à des paramètres interprétables dans un modèle lissé, peuvent être utilisées pour l'examen d'une distribution alternative.  相似文献   

15.
La possibilité de nourrir la punaiseMacrolophus caliginosus Wagner à l'aide de milieux artificiels a été testée. En l'absence de végétal, les témoins nourris avec des ?ufs d'Ephestia kuehniella Zeller ont une survie médiocre et fournisent 33% d'adultes. Avec le meilleur milieu artificiel la survie est comparable à celle des témoins et 21 % d'adultes sont obtenus. Avec ce même milieu, mais en présence de feuille de géranium, la production d'adultes atteint 62%. Les compositions en acides aminés des punaises élevées avec le milieu montrent des écarts inférieurs à 20% par rapport aux témoins. Le développement complet deM. caliginosus nourri à l'aide de milieu artificiel a été obtenu. Le végétal joue un rôle important dans la biologie de ce prédateur.  相似文献   

16.
READER REACTION     
《Biometrics》2006,62(1):321-321
Lors d'une récente discussion sur les critères de Prentice (1989) concernant les variables de remplacement (surrogate endpoints) et le rôle joué dans ce contexte par les meta‐analyses, Alonso et al. (Biometrics 60, 724–728) développent quelques idées, parmi lesquelles une proposition de construire une mesure chiffrant la puissance d'une variable de remplacement par rapport aux critères de Prentice, quantifiés par la réduction de la vraisemblance. Quoique nouvelle ici on peut rencontrer la même idée ailleurs et la mesure d'Alonso et col, telle que présentée dans leur article, aura besoin de modification afin de pouvoir être utilisée en général. Sans cela la mesure est influencée par la censure même quand cette dernière reste indépendante du mécanisme de survie. Toutefois il existe une solution simple. La mesure d'Alonso et coll s'encadre facilement avec une théorie bien établie. Une fois modifiée alors pour la présence de censure la mesure peut être utilisée sans difficulté. Il est particulièrement intéressant de constater la grande disponibilité d'un logiciel, SAS, fournissant un coefficient qui, moyennant une transformation élémentaire, s'approche d'une valeur équivalente dans la population.  相似文献   

17.
READER REACTION     
《Biometrics》2005,61(3):896-897
R. M. Fewster , J. L. Laake , and S. T. Buckland 856 Melville et Welsh (2001, Biometrics 57, 1130–1137) considèrent une approche de l'échantillonnage d'un transect en ligne en employant une étude de calibration séparée pour estimer la fonction de détection g. Ils présentent une étude de simulation opposant leurs résultats à ceux bien piètres d'un estimateur traditionnel, appelé l'estimateur “Buckland” et référencé dans Buckland et al. (1993, London, Chapman and Hall). Les résultats médiocres de l'estimateur “Buckland” peuvent être expliqués par : (i) l'estimateur est prévu pour des données de distance non tronquées, mais appliqué par Melville et Welsh à des données de distance tronquées ; (ii) les données de distance n'étaient pas fusionnées le long des transects, à l'opposé des pratiques courantes ; (iii) le biais de l'estimateur était évalué par rapport à une grille fixe plutôt que randomisée des lignes de transects. Nous examinons en détail les points précédents et nous montrons que les méthodes traditionnelles marchent bien lorsqu'on les applique correctement. Nous mettons aussi l'accent sur le fait que ce que Melville et Welsh appellent estimateur “Buckland” n'est pas un estimateur recommandé par Buckland et al. pour les applications pratiques d'échantillonnage. R. V. Gueorguieva 862 Souvent dans des études longitudinales ou dans des analyses de classification on observe simultanément des variables à réponse binaires et des variables continues qui doivent être modélisées conjointement. Dans une publication récente Dunson, Chen et Harry, 2003 (DCH) proposent une approche bayésienne pour modéliser en commun les résultats binaires et les résultats continus ; ils illustrent cette approche avec un exemple sur des données de toxicité. Dans cette note nous démontrons comment un logiciel standard (PROC NLMIXED dans SAS) peut être employé pour obtenir des estimations du maximum de vraisemblance d'un modèle dont le paramétrage est une alternative à celui utilisé par DCH pour cet exemple. Nous suggérons également qu'un modèle plus général avec les effets aléatoires additionnel ajuste mieux les données. Une anomalie apparente entre les estimations obtenues par DCH et les estimations obtenues plus tôt par Catalano et Ryan en 1992 est également résolu. La question du biais concernant l'effet dose est discutée. L'approche du maximum de vraisemblance est applicable aux situations générales avec des résultats de différents types et n'exige ni spécification à priori ni programmation supplémentaire. S. Pledger 868 Dorazio et Royle (2003, Biometrics 59, 351–364) ont étudié le comportement de trois modèles de mélange pour l'analyse des données de capture‐recapture en population fermée, en présence d'une hétérogénéité de capture entre individus. Leurs simulations provenaient d'une distribution béta‐binomiale, et leurs analyses étaient faites à partir des modèles béta‐binomial, logit‐normal, ou de mélange fini (à classes latentes). Dans cette réponse, des simulations à partir de distributions nombreuses et variées permettent d'avoir une vision plus large de la valeur relative de la distribution béta‐binomiale et des modèles de mélange fini, et donnent un premier aperçu des situations dans lesquelles ces modèles sont utiles.  相似文献   

18.
《Biometrics》2006,62(3):958-959
S. E. Wright and A. J. Bailer 886 Une expérience avec expositions intermittentes de toxicologie expérimentale fournit l'arrière plan de la discussion du dispositif. Le problème sous‐jacent est de décider quand échantillonner une réponse non linéaire pour minimiser la variance généralisée des estimations des paramètres. Une stratégie heuristique commode peut être appliquée au problème fournissant des dispositifs optimaux ou presque optimaux. L'efficacité de l'approche heuristique permet une exploration directe de la sensibilité de la solution proposée aux particularités de la situation telle que l'hétéroscédasticité, la densité des dates d'observation, les critères du dispositif, et les contraintes sur les valeurs des paramètres. On présente aussi brièvement une application de l'optimisation de dispositif pour le choix des doses dans une expérience de toxicologie de la reproduction. D. V. Mehrotra , X. Li , and P. B. Gilbert 893 Afin de justifier le plan de la première étude au monde visant une démonstration de principe (proof‐of‐concept ou POC) de l'efficacité d'un vaccin HIV basé sur l'immunité et relayé par la cellule, nous évaluons huit méthodes pour tester l'hypothèse nulle composite d'absence d'effet du vaccin soit sur l'incidence d'infection HIV, soit la valeur de la charge virale chez les patients infectés, en comparaison au placebo. Les deux premières méthodes utilisent un seul test appliqué aux valeurs mesurées ou aux rangs du poids de la maladie (BOI) qui combine l'infection et la charge virale. Les six autres méthodes combinent des tests séparés pour les deux critères utilisant des versions pondérées ou non du Z à 2 parties, des méthodes de Simes et de Fisher. A partir de simulations extensives réalisées pour construire l'essai POC type, les méthodes BOI révèlent en général une puissance faible de rejeter l'hypothèse nulle composite (et donc d'entreprendre un futur essai à grande échelle pour le vaccin). Les méthodes par combinaison de Simes et de Fisher non pondérées ont les meilleures performances dans l'ensemble. Un aspect important est que la conclusion est la même si le test de la composante relative à la charge virale est ajusté pour le biais que peut introduire le conditionnement par un événement (l'infection HIV) survenant après la randomisation. Cet ajustement est obtenu en utilisant un modèle de biais de sélection basé sur le cadre de la stratification principale de l'inférence causale. X. Huang , J. N. Cormier , and P. W. T. Pisters 901 Dans le traitement du cancer, les patients reçoivent habituellement une variété de traitements séquentiels. Les traitements initiaux administrés à la suite du diagnostic peuvent varier, comme les régimes de rattrapage suivants donnés après la rechute de la maladie. Cet article considère la situation où ni les traitements initiaux, ni les traitements de rattrapage sont randomisés. En faisant l'hypothèse qu'il n'y a pas de variables de confusion non mesurés, nous estimons les effets causaux conjoints sur la survie des traitements initiaux et de rattrapage, c'est‐à‐dire, les effets des séquences de traitement à deux niveaux. Pour chaque séquence de traitement individuelle, nous estimons la fonction de la distribution de survie et la durée de moyenne de survie restreinte. Les différentes séquences de traitement sont alors comparées en utilisant ces estimations et leurs covariances correspondantes. Des études de simulation sont conduites pour évaluer la performance des méthodes en incluant la sensibilitéà la violation de l'hypothèse de facteurs de confusion non mesurés. Les méthodes sont illustrées par une étude rétrospective de patients ayant un sarcome des parties molles, qui avait motivé cette recherche. D. E. Schaubel , R. A. Wolfe , and F. K. Port 910 L'analyse de la survie est souvent utilisée pour comparer des traitements expérimentaux et conventionnels. Dans les études observationnelles, la thérapie peut changer pendant le suivie. De telles modifications peuvent se résumer par des covariables dépendantes du temps. Étant donné la pénurie croissante de donneurs d'organes, des reins à plus haut risque provenant de donneurs à critères élargis (ECD) sont de plus en plus transplantés. Les candidats à la transplantation peuvent choisir d'accepter un organe ECD (thérapie expérimentale), ou de rester en dialyse et d'attendre la possibilité d'une transplantation non‐ECD ultérieure (thérapie conventionnelle). Une analyse dépendante du temps en trois groupes pour ce type de données implique l'estimation de paramètres correspondants aux deux covariables indicatrices dépendantes du temps représentant les transplantations ECD ou non‐ECD, chacune étant comparée à ceux qui restent en dialyse en liste d'attente. Cependant, l'estimation du hasard ratio ECD par cette analyse dépendante du temps ne considère pas le fait que les patients renonçant à une transplantation ECD ne sont pas destinés à rester en dialyse pour toujours, mais peuvent plus tard recevoir une transplantation non‐ECD. Nous proposons une nouvelle méthode d'estimation du bénéfice de la survie de la transplantation ECD relative à la thérapie conventionnelle (liste d'attente avec la possibilité d'une transplantation non‐ECD ultérieure). Comparée à cette méthode dépendante du temps, la méthode proposée caractérise de manière plus précise la structure des données et produit une estimation plus directe du bénéfice relative à une transplantation ECD. I. Ninan , O. Arancio , and D. Rabinowitz 918 L'émission de neurotransmetteurs par les neurones peut être étudiée par des mesures d'intensité de coloration des terminaisons synaptiques. Le problème est alors d'estimer une espérance dans une situation où, au lieu d'observer des variables aléatoires indépendantes de même espérance, on observe, avec erreur, des sommes aléatoires indépendantes de variables de même espérance sans connaître le nombre de termes de la sommation aléatoire. On présente ici une approche non paramétrique de ce problème d'estimation. La méthode est illustrée sur les données d'une expérience dans laquelle le colorant cationique styrylpyridinium FM4‐64 a été utilisé sur des cultures de neurones de l'hippocampe murin. B. Klingenberg and A. Agresti 921 Cet article considère des test globaux de différence entre vecteurs appariés de distributions binomiales provenant de 2 échantillons de données binaires multivariées dépendantes. La différence est définie, soit comme une non homogénéité des distributions marginales, soit comme une asymétrie de la distribution jointe. Pour détecter le premier type de différence, nous proposons une extension multivariée du test de McNemar et montrons que c'est un test du score généralisé sous une approche GEE. Des caractéristiques univariées, telles que la relation entre le test de Wald et le test du score, ou l'abandon de paires avec la même réponse s'étendent au cas multivarié et le test ne dépend pas de l'hypothèse de travail de la dépendance entre les composantes de la réponse multivariée. Pour des données éparses ou non équilibrées, comme cela arrive quand le nombre de variables est grand ou les proportions proches de zéro, le test est mis en oeuvre en utilisant le bootstrap, ou si c'est trop compliqué au point de vue calculatoire par une distribution de permutation. Nous appliquons le test à des données de toxicité pour un médicament, dans lequel 2 doses sont évaluées en comparant les réponses multiples des mêmes sujets à chacune d'entre elles.  相似文献   

19.
READER REACTION     
《Biometrics》2006,62(3):959-959
M. Y. Kim , X. Xue , and Y. Du 929 Cai et Zeng (2004) ont récemment proposé une méthode pour déterminer la puissance d'une étude de cohorte, lorsqu'il n'y a qu'une seule variable d'exposition, qu'elle est binaire et que le taux d'événements est faible. Nous montrons ici que l'on obtient quasiment les mêmes valeurs de puissance avec une méthode usuelle pour étude cas‐témoins. Or, avec l'approche cas‐témoins, les calculs de taille d'échantillon peuvent être menés avec les logiciels courants, ce qui constitue un avantage. Par ailleurs, nous proposons une formule pour calculer la puissance associée à une étude de cohorte lorsque l'événement étudié n'est pas un événement rare. H. Holzmann , A. Munk , and W. Zucchini 934 Nous étudions l'identifiabilité des modèles de mélange utilisés dans le contexte de l'estimation d'effectifs par capture‐recapture en population fermée. Ce type de modèles permet de tenir compte de l'hétérogénéité des probabilités de capture entre individus, mais leur validité a récemment été remise en cause par Link (2003) [Biometrics 59, 1123‐1130], en raison de leur non‐identifiabilité. Nous donnons un critère général d'identifiabilité de la distribution de mélange, et nous l'appliquons pour déterminer l'identifiabilité dans des familles de distributions de mélange couramment utilisées dans ce contexte, notamment les mélanges de lois finies et de Beta. Notre analyse concerne aussi les cas binomial et à distribution géométrique. Dans un exemple, nous soulignons la différence avec les problèmes d'identifiabilité rencontrés dans les modèles classiques de mélanges de lois binomiales.  相似文献   

20.
In the Leiden region, the cervical cancer screening programme for the age group 35–54 years shifted in 1989 from one in which the smears were taken by specially trained paramedical personnel in health centres to a programme where the general practitioner is the smear taker. Hence, it is possible to compare the results of the two types of screening to evaluate whether involvement of general practitioners leads to better uptake of screening. In the 6 year period evaluated in this paper, the 3-yearly cytological rate per thousand for severe dysplasia or worse increased from 1.00 to 3.40; when stratified by age the positive rates were significantly higher. the histological rate per thousand for severe dysplasia increased from 0.60 to 2.09, and for carcinoma in situ from 0.35 to 1.36. All six invasive carcinomata were detected in the GP programme (0.31%). the general practitioner is clearly more able to attract the ‘high-risk’groups. Dans la reéion de Leiden, le programme de dépistage du cancer du col pour les tranches d'âge de 35–54 ans a été modifié en 1989. Le programme était initialement basé sur des frottis faits dans des centres de santé, par un personnel paramédical ayant suivi une formation particulière. Après 1989, le médecin généraliste est devenu le préleveur. II est done possible de comparer les résultats de ces 2 types de dépistage et d'apprécier si la participation des médecins généralistes a pour conséquence un meilleur dépistage. Au cours de la période d'étude, les taux pour 1000 de positivité cytologique pour les lésions graves (de type dysplasie sévère et plus) et par période de 3 ans ont augmenté de 1,00 à 3,40. Lorsque l'on stratifie sur l'âge, les taux de cas positifs sont significativement supérieurs. Le taux histologique des dysplasies sévères pour 1000 passe de 0,60 à 2,09 et celui du carcinome in situ de 0,35 à 1,36. Les 6 cas de carcinome invasif ont été détectés par le programme impliquant les médecins généralistes (0,31%). II est clair que le médecin généraliste est mieux placé pour dépister les patientes à“haut risque”. Im Bezirk von Leiden wurden die Abstriche der 35- bis 54 jährigen vor 1989 von speziell ausgebildeten Hilfskräften in Gesundheitszentren hergestellt, während diese Aufgabe dann von den Allgemeinmedizinern übernommen wurde. Dies erlaubt einen Vergleich zwische den Präparaten von zwei jeweils 3 Jahre umfassenden Perioden. Der Anteil schwerer Dysplasien und stärkerer Veränderungen nahm von 1.00 auf 3.40 pro Tausend zu. Der histologische Anteil der schweren Dysplasien erhöhte sich von 0.60 auf 2.09 und der der Carcinomata in situ von 0.35 auf 1.36. Alle 6 nachgewiesenen invasiven Carcinome wurden in den Abstrichen der Allgemeinmediziner entdeckt (0.31%o). Damit ist klar, daß die Allgemeinmediziner die Risikogruppen besser zu erfassen vermögen.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号