首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
READER REACTION     
《Biometrics》2006,62(1):321-321
Lors d'une récente discussion sur les critères de Prentice (1989) concernant les variables de remplacement (surrogate endpoints) et le rôle joué dans ce contexte par les meta‐analyses, Alonso et al. (Biometrics 60, 724–728) développent quelques idées, parmi lesquelles une proposition de construire une mesure chiffrant la puissance d'une variable de remplacement par rapport aux critères de Prentice, quantifiés par la réduction de la vraisemblance. Quoique nouvelle ici on peut rencontrer la même idée ailleurs et la mesure d'Alonso et col, telle que présentée dans leur article, aura besoin de modification afin de pouvoir être utilisée en général. Sans cela la mesure est influencée par la censure même quand cette dernière reste indépendante du mécanisme de survie. Toutefois il existe une solution simple. La mesure d'Alonso et coll s'encadre facilement avec une théorie bien établie. Une fois modifiée alors pour la présence de censure la mesure peut être utilisée sans difficulté. Il est particulièrement intéressant de constater la grande disponibilité d'un logiciel, SAS, fournissant un coefficient qui, moyennant une transformation élémentaire, s'approche d'une valeur équivalente dans la population.  相似文献   

2.
《Biometrics》2008,64(2):669-669
Simple, Defensible Sample Sizes Based on Cost Efficiency Il est d'usage de choisir une taille d'échantillon garantissant une puissance de test de 80% ou plus, sans prendre en compte le coût impliqué. Mais dans la pratique les chercheurs comme les financeurs ne peuvent souvent pas ignorer les coûts. Nous proposons ici et nous justifions une nouvelle approche pour choisir la taille d'échantillon en fonction de la rentabilité, définie comme le rapport de la valeur scientifique et/ou pratique projetée de l'étude à son coût total. Nous montrons que la valeur projetée d'une étude, pour une large variété de définitions de cette valeur, offre des rendements marginaux décroissants quand la taille de l'échantillon augmente. Nous pouvons alors définir deux choix simples qui peuvent être défendus comme étant plus rentables que tout échantillon de taille supérieure. La première méthode choisit la taille d'échantillon qui minimise le coût moyen par sujet. La deuxième choisit la taille d'échantillon qui minimise le coût total divisé par la racine carrée de la taille d'échantillon. Cette dernière méthode est en théorie plus justifiable pour des études innovantes, mais elle reste raisonnablement satisfaisante et peut se justifier aussi dans d'autres cas. Par exemple, si la valeur projetée de l'étude est proportionnelle à la puissance du test d'une hypothèse donnée et que le coût total est une fonction linéaire de la taille d'échantillon, alors cette méthode garantit une puissance supérieure à 90% ou une rentabilité supérieure à celle de tout échantillon assurant cette puissance. Ces méthodes sont faciles à appliquer, basées sur des données fiables, et bien justifiées. Elles devraient donc être considérées comme des solutions acceptables pour remplacer les méthodes classiques courantes.  相似文献   

3.
La prise en charge par le biologiste de certaines analyses délocalisées se trouve grandement facilitée par la mise en place d’un système informatique reliant l’analyseur délocalisé et le laboratorie. Elle apporte un niveau de sécurité nécessaire pour la prise de responsabilité du laboratoire dans l’acte de biologie délocalisé. L’architecture réseau de la plupart de h?pitaux permet maintenant de transmettre très facilement et de manière fiable des données entre plusieurs services voire entre établissements. Les analyseurs de gazométrie sanguine permettent cette connexion, de plus en plus d’industriels développent d’autres paramètres en plus des simples gaz du sang comme dernièrement l’urée et la créatinine. Les analyseurs permettant de doser les marqueurs cardiaques, ceux réalisant l’hémostase sont désormais fréquemment connectables. Chaque industriel du diagnostic proposant des analyseurs de glycémie a ou va prochainement commercialiser un modèle connectable. Il en est de même pour les bandelettes urinaires. Il est donc probable, et les biologistes sont les premiers demandeurs, que la connexion informatique d’analyseurs de biologie installés dans les unités de soins, soit un pré-requis pour la gestion des analyses délocalisées par le biologiste, et sa prise de responsabilité dans les résultats biologiques issus de ces analyseurs.  相似文献   

4.
An evaluation of ‘rapid review’ as a method of quality control of cervical smears using the AxioHOME miscroscope One method of quality control which has recently been recommended by professional bodies in the UK is the ‘rapid review’ method. This involves the microscopic 30 s review of all negative cervical smears with the intention of flagging potential missed abnormalities. Although it has been suggested that rapid review is better than 10% random rescreening of negative smears, the efficiency and efficacy of this method of quality control have not been thoroughly evaluated. We have used the AxioHOME system, which can record the area of a slide covered and the screening time, to investigate slide coverage during rapid review quality control, as performed by 15 cytoscreeners and MLSOs reviewing a test set of 22 slides each. The test set comprised 18 negative slides, three positive slides, and one unsatisfactory slide. We have recorded two distinct methods of rapid review in use amongst cytotechnologists, the step method and the whole slide method. The data show that rapid review takes longer on average than the recommended 30 s, the mean screening times being 76 s and 82 s for the step and whole slide methods, respectively. Abnormal smears were missed on three of 15 occasions by the step method (sensitivity 80%, positive predictive value 85%), and on seven of 30 occasions by the whole slide method (sensitivity 76.6%, positive predictive value 45%). However, the 95% confidence intervals were wide (57.7–90.7% for the step method, and 51.9–95.7% for the whole slide method). Analysis of scanning tracks and screening rates shows significant flaws in the methodology of rapid review. Abnormal cells were not identified, although dyskaryotic cells were included in the scanning track on nine occasions, seven using the whole slide method and two using the step method. On one occasion (using the step method) abnormal cells were not identified because they were not included in the scanning track. Further research is in progress to determine optimal methods of rapid review, and whether the rapid review technique is as effective as automated screening systems for quality assurance in cytology. Evaluation de la technique de ‘Relecture Rapide’ comme méthode de contrôle de qualité des frottis cervico-utérins, à l'aide du microscope AxioHOME Une des méthodes de contrôle de qualité récemment recommandée par le corps professionnel du Royaume Uni est la méthode dite de ‘relecture rapide’. Cette méthode consiste en une deuxième lecture d'une durée de trente secondes de tous les frottis cervicaux négatifs et dont l'objectif est de détecter les anomalies ayant pu échapper au premier examen. Bien qu'il ait été suggéré que cette méthode de relecture rapide soit meilleure que la relecture de 10% des frottis négatifs tirés au sort, le rendement et l'efficacité de cette méthode de contrôle de qualité n'ont pas été évalués complètement. Nous avons utilisé le système AxioHOME capable d'enregistrer la plage de la lame qui a été explorée ainsi que le temps de lecture afin d'étudier la surface explorée au cours de cette relecture rapide telle qu'elle a pu être pratiquée par quinze cytotechniciens et MLSOs, chacun ayant relu une série test de vingt deux lames. Cette série test comprenait dix huit lames négatives, trois lames positives et un frottis non satisfaisant. Nous avons noté que les cytotechniciens utilisaient deux méthodes de relecture rapide différentes, la méthode ‘pas à pas’ et la méthode ‘globale’. Les données montrent que la relecture rapide prend, en moyenne, un temps supérieur aux trente secondes recommandées, la moyenne des temps de lecture étant de 76 secondes et de 82 secondes respectivement pour la méthode ‘pas à pas’ et la méthode ‘globale’. Les anomalies n'ont pas été détectées dans trois cas sur quinze par la méthode ‘pas à pas’ (sensibilité 80%, valeur prédictive positive 85%), et dans 7 cas sur 30 par la méthode globale (sensibilité 76,6%, valeur prédictive positive 45%). Toutefois, l'intervalle de confiance à 95% est important (57,7%-90,7% pour la méthode ‘pas à pas’ et 51,9%-95,7% pour la méthode globale). L'analyse des surfaces balayées et des taux de détection montre des points faibles significatifs de cette méthodologie de relecture rapide. Dans 9 cas, les anomalies n'ont pas été identifiées alors que des cellules dyskaryotiques étaient présentes dans les plages balayées au cours de la relecture (sept utilisant la méthode globale et deux utilisant la méthode ‘pas à pas’). Dans un cas (avec la méthode ‘pas à pas’) les cellules anormales n'ont pas été identifiées parce qu'elles étaient absentes des plages de relecture. Des études sont en cours afin de déterminer quelles sont les méthodes optimales de relecture rapide et si ces techniques de relecture rapide sont aussi efficaces que les systèmes de lecture automatisée pour l'assurance de qualité en cytologie cervico-utérine. ‘Rapid Review’ als Methode der Qualitätskontrolle gynäkologischer Abstriche, Überprüfung mit dem AxioHOME-Mikroskop Die empfohlene ‘Rapid Review’ Kontrolle aller negativen Abstriche in nur 30 Sekunden anstelle des Nachscreenens von 10% der Präparate ist in ihrer Zuverlässigkeit bislang nicht überprüft worden. Mit Hilfe des AxioHOME-Mikroskops ist es möglich sowohl die ausgewertete Fläche, als auch die erforderliche Zeit zu erfassen. 15 Auswerter prüften mit der Methode jeweils einen Testsatz von 22 Präparaten. Er enhielt 18 negative, 3 positive und 1 nichtauswertbaren Abstrich. Getestet wurden zwei verschiedene Vorgehensweisen: die schrittweise und die das ganze Präparat erfassende. Beide erfordern mehr Zeit als 30 Sekunden; der mittlere Zeitaufwand betrug für die Schrittmethode 76 und für die Ganzheitsmethode 82 Sekunden. Die Schrittmethode verfehlte 3/15 Anomalien (Sensitivität 80%, positiver prädiktiver Wert 85%), die Ganzheitsmethode 7/30 (Sensitivität 76,6%, positiver prädiktiver Wert 45%). Der 95% Konfi denzbereich reichte für die Schrittmethode von 57,5–90,7% und für die Ganzheitsmethode von 51,9–95,7%). Die Analyse deckt wesentliche Schwachstellen des Rapid Review-Verfahrens auf. In 9 Fällen lagen nicht erkannte Zellatypien in den kontroll ierten Bahnen (7 bei des Schrittmethode, 2 bei der Ganzheitsmethode). Einmal lagen sie bei der Schrittmethode ausserhalb der geprüften Bahnen. Weitere Studien werden prüfen ab das Rapid Review-Verfahren automatisierten Systemen vergleichbar ist.  相似文献   

5.
Le thème de l’évaluation d’entreprise est un thème pertinent et d’actualité. Il touche tous types et toutes tailles d’entreprises et est le préalable indispensable à toute transaction y compris dans le secteur de la biologie médicale, que le mode d’exploitation soit individuel ou sous forme de société. L’évaluation d’une entreprise est un véritable travail dont la complexité nécessite parfois la compétence de plusieurs intervenants, chaque professionnel apportant sa propre technicité afin que soient pris en compte tous les aspects du problème posé.  相似文献   

6.
《Biometrics》2006,62(3):958-959
S. E. Wright and A. J. Bailer 886 Une expérience avec expositions intermittentes de toxicologie expérimentale fournit l'arrière plan de la discussion du dispositif. Le problème sous‐jacent est de décider quand échantillonner une réponse non linéaire pour minimiser la variance généralisée des estimations des paramètres. Une stratégie heuristique commode peut être appliquée au problème fournissant des dispositifs optimaux ou presque optimaux. L'efficacité de l'approche heuristique permet une exploration directe de la sensibilité de la solution proposée aux particularités de la situation telle que l'hétéroscédasticité, la densité des dates d'observation, les critères du dispositif, et les contraintes sur les valeurs des paramètres. On présente aussi brièvement une application de l'optimisation de dispositif pour le choix des doses dans une expérience de toxicologie de la reproduction. D. V. Mehrotra , X. Li , and P. B. Gilbert 893 Afin de justifier le plan de la première étude au monde visant une démonstration de principe (proof‐of‐concept ou POC) de l'efficacité d'un vaccin HIV basé sur l'immunité et relayé par la cellule, nous évaluons huit méthodes pour tester l'hypothèse nulle composite d'absence d'effet du vaccin soit sur l'incidence d'infection HIV, soit la valeur de la charge virale chez les patients infectés, en comparaison au placebo. Les deux premières méthodes utilisent un seul test appliqué aux valeurs mesurées ou aux rangs du poids de la maladie (BOI) qui combine l'infection et la charge virale. Les six autres méthodes combinent des tests séparés pour les deux critères utilisant des versions pondérées ou non du Z à 2 parties, des méthodes de Simes et de Fisher. A partir de simulations extensives réalisées pour construire l'essai POC type, les méthodes BOI révèlent en général une puissance faible de rejeter l'hypothèse nulle composite (et donc d'entreprendre un futur essai à grande échelle pour le vaccin). Les méthodes par combinaison de Simes et de Fisher non pondérées ont les meilleures performances dans l'ensemble. Un aspect important est que la conclusion est la même si le test de la composante relative à la charge virale est ajusté pour le biais que peut introduire le conditionnement par un événement (l'infection HIV) survenant après la randomisation. Cet ajustement est obtenu en utilisant un modèle de biais de sélection basé sur le cadre de la stratification principale de l'inférence causale. X. Huang , J. N. Cormier , and P. W. T. Pisters 901 Dans le traitement du cancer, les patients reçoivent habituellement une variété de traitements séquentiels. Les traitements initiaux administrés à la suite du diagnostic peuvent varier, comme les régimes de rattrapage suivants donnés après la rechute de la maladie. Cet article considère la situation où ni les traitements initiaux, ni les traitements de rattrapage sont randomisés. En faisant l'hypothèse qu'il n'y a pas de variables de confusion non mesurés, nous estimons les effets causaux conjoints sur la survie des traitements initiaux et de rattrapage, c'est‐à‐dire, les effets des séquences de traitement à deux niveaux. Pour chaque séquence de traitement individuelle, nous estimons la fonction de la distribution de survie et la durée de moyenne de survie restreinte. Les différentes séquences de traitement sont alors comparées en utilisant ces estimations et leurs covariances correspondantes. Des études de simulation sont conduites pour évaluer la performance des méthodes en incluant la sensibilitéà la violation de l'hypothèse de facteurs de confusion non mesurés. Les méthodes sont illustrées par une étude rétrospective de patients ayant un sarcome des parties molles, qui avait motivé cette recherche. D. E. Schaubel , R. A. Wolfe , and F. K. Port 910 L'analyse de la survie est souvent utilisée pour comparer des traitements expérimentaux et conventionnels. Dans les études observationnelles, la thérapie peut changer pendant le suivie. De telles modifications peuvent se résumer par des covariables dépendantes du temps. Étant donné la pénurie croissante de donneurs d'organes, des reins à plus haut risque provenant de donneurs à critères élargis (ECD) sont de plus en plus transplantés. Les candidats à la transplantation peuvent choisir d'accepter un organe ECD (thérapie expérimentale), ou de rester en dialyse et d'attendre la possibilité d'une transplantation non‐ECD ultérieure (thérapie conventionnelle). Une analyse dépendante du temps en trois groupes pour ce type de données implique l'estimation de paramètres correspondants aux deux covariables indicatrices dépendantes du temps représentant les transplantations ECD ou non‐ECD, chacune étant comparée à ceux qui restent en dialyse en liste d'attente. Cependant, l'estimation du hasard ratio ECD par cette analyse dépendante du temps ne considère pas le fait que les patients renonçant à une transplantation ECD ne sont pas destinés à rester en dialyse pour toujours, mais peuvent plus tard recevoir une transplantation non‐ECD. Nous proposons une nouvelle méthode d'estimation du bénéfice de la survie de la transplantation ECD relative à la thérapie conventionnelle (liste d'attente avec la possibilité d'une transplantation non‐ECD ultérieure). Comparée à cette méthode dépendante du temps, la méthode proposée caractérise de manière plus précise la structure des données et produit une estimation plus directe du bénéfice relative à une transplantation ECD. I. Ninan , O. Arancio , and D. Rabinowitz 918 L'émission de neurotransmetteurs par les neurones peut être étudiée par des mesures d'intensité de coloration des terminaisons synaptiques. Le problème est alors d'estimer une espérance dans une situation où, au lieu d'observer des variables aléatoires indépendantes de même espérance, on observe, avec erreur, des sommes aléatoires indépendantes de variables de même espérance sans connaître le nombre de termes de la sommation aléatoire. On présente ici une approche non paramétrique de ce problème d'estimation. La méthode est illustrée sur les données d'une expérience dans laquelle le colorant cationique styrylpyridinium FM4‐64 a été utilisé sur des cultures de neurones de l'hippocampe murin. B. Klingenberg and A. Agresti 921 Cet article considère des test globaux de différence entre vecteurs appariés de distributions binomiales provenant de 2 échantillons de données binaires multivariées dépendantes. La différence est définie, soit comme une non homogénéité des distributions marginales, soit comme une asymétrie de la distribution jointe. Pour détecter le premier type de différence, nous proposons une extension multivariée du test de McNemar et montrons que c'est un test du score généralisé sous une approche GEE. Des caractéristiques univariées, telles que la relation entre le test de Wald et le test du score, ou l'abandon de paires avec la même réponse s'étendent au cas multivarié et le test ne dépend pas de l'hypothèse de travail de la dépendance entre les composantes de la réponse multivariée. Pour des données éparses ou non équilibrées, comme cela arrive quand le nombre de variables est grand ou les proportions proches de zéro, le test est mis en oeuvre en utilisant le bootstrap, ou si c'est trop compliqué au point de vue calculatoire par une distribution de permutation. Nous appliquons le test à des données de toxicité pour un médicament, dans lequel 2 doses sont évaluées en comparant les réponses multiples des mêmes sujets à chacune d'entre elles.  相似文献   

7.
Résumé La ?lutte intégrée? (?integrated control? des Américains) se propose de recourir à une combinaison avantageuse des différentes méthodes chimiques, biologiques et culturales de lutte contre les ennemis des cultures. Son objet est d'accro?tre le potentiel de défense intrinsèque du milieu cultivé contre les attaques des ennemis des plantes, particulièrement en modifiant les formes usuelles de la lutte chimique pour assurer une meilleure sauvegarde des organismes utiles. Ses problèmes, singulièrement dans le cadre de la monoculture intensive, concernent: ?l'intégration? des méthodes de lutte biologique dans un programme de lutte chimique modifiée, la détermination du niveau du seuil de tolérance économique des dégats commis par les déprédateurs, la meilleure connaissance du r?le des organismes utiles comme régulateurs de la densité de population des organismes nuisibles. Pour atteindre cet objectif et résoudre ces problèmes, il est indispensable de procéder à des recherches de base approfondies.   相似文献   

8.
G. Fabres  C. Reymonet 《BioControl》1991,36(1):121-129
Résumé Dans la région béarnaise, la récolte des gousses m?res deLathyrus sylvestris et deLathyrus latifolius, avant la déhiscence, puis la mise en éclosoir de leurs graines, permet l'obtention des adultes de la brucheBruchus affinis et de son ectoparasite larvaireDinarmus acutus. Ces derniers sortent en petits nombres à l'automne de la même année puis de fa?on massive au printemps de l'année suivante, après une diapause au dernier stade larvaire. Un élevage en continu, de nombreuses générations successives, en conditions semi naturelles de température et de photopériode, a montré la présence simultanée d'individus diapausants et non diapausants tout au long de l'hiver, et l'absence totale de diapausants dès le mois de mai. Les larves diapausantes produisent une substance orangée qui marque l'arrêt de développement. Compte tenu de la biologie de la bruche et de son parasite larvaire: développement larvaire à l'intérieur des graines et vie des adultes à l'extérieur, nous avons choisi d'étudier l'influence des conditions thermiques sur les larves et de la photopériode sur les adultes du parasite. Les résultats obtenus montrent que les températures basses n'induisent pas d'arrêt de développement. Par contre, une photopériode jours courts, appliquée aux adultes, provoque l'entrée en diapause d'un fort pourcentage des larves de la descendance. Les résultats présentent une certaine variabilité selon la descendance et le rang de la ponte. Le détail des résultats est examiné dans le cadre de l'induction maternelle de la diapause larvaire et de l'hypothèse d'une horloge chimique à l'origine du marquage des diapausants (substance orangée) et de la variabilité enregistrée.   相似文献   

9.
Zusammenfassung Die Gegenüberstellung der quart?ren Capreolus-Funde zeigt eine sukzessive Gr?\enabnahme des Rehes vom Mittelpleistoz?n bis heute. Temperaturanstieg und eine falsche jagdliche Behandlung k?nnen nicht als Hauptursachen der Gr?\enabnahme angesehen werden, sondern es wird dafür eine phylogenetische Deminutions-Tendenz (Gr?\enabnahme in der Stammesentwickiung) verantwortlich gemacht, die auch bei anderen S?ugetieren, insbesondere bei manchen südamerikanischen Hirschen, anzunehmen ist und die entgegen der Copeschen Regel verl?uft. Summary A comparison of Capreolus findings of the quartary formation shows a successive decrease in size of roe deer from the middle pleistocene up to now, Increase in temperature and a wrong hunting treatment cannot be considered to be the main causes of this decrease in size, but a phylogenetic tendency of diminution (decrease in size in the development of the species) is considered to be responsible; this may be assumed also with other mammals, especially in the case of some South-American deer. This development in contrary to the Cope rule.
Résumé Une comparaison entre les restes de Capréolus découvertes dans les gisements quarternaires accuse chez le chevreuil une diminution de taille successive depuis le pleistocene moyen jusqua’à nos jours. Ni l’augmentation de la température, ni une chasse démesurée peuvent etre considérées comme étant les causes principales de cette diminution de taille; on en rend responsable une tendance à la diminution phylogénétique (diminution de taille dans le développement de l’espèce). Cette tendance contraire à la règle de Cope est à accepter également pour autres mammifères, surtout pour quelques cerfs de l’Amérique du Sud.
  相似文献   

10.
La réussite d’une délocalisation des analyses de biologie médicale est la résultante d’une volonté de coopération entre les trois partenaires que sont le clinicien, le biologiste et les services administratifs. Elle s’appuie sur la répartition clairement définie des responsabilités en termes d’utilisation de résultats et de management, la mise en place de procédures de fonctionnement et un suivi continu de la totalité du processus. Elle ne peut se passer d’une liaison informatique en temps réel avec le laboratoire qui permet de respecter les règles de l’assurance qualité et du GBEA. Bien ma?trisée, et appliquée à bon escient, elle peut représenter une solution pour améliorer la prise en charge du patient.  相似文献   

11.
La Maladie de la Langue bleue est une maladie non contagieuse qui affecte les ruminants domestiques et sauvages. Depuis son extension au Nord de l’Europe en 2006, cette épizootie virale a engendré des pertes économiques considérables sur le cheptel ovin et bovin. Les vecteurs biologiques du virus de la FCO (BTV) sont des moucherons appartenant au genre Culicoides. De nombreuses inconnues subsistent encore sur leur biologie, physiologie, écologie et distribution. Cette étude montre que ces moucherons piqueurs sont bien plus abondants au niveau de la ferme que dans les prairies avoisinantes; ces dernières présentent toutefois une plus grande diversité spécifique. C’est ainsi que la possibilité de migration entre la prairie et la ferme est émise pour les espèces C. chiopterus et C. dewulfi. Tant pour la ferme que pour la prairie, les femelles sont beaucoup plus représentées que les mâles. L’observation de la physiologie de celles-ci est réalisée tout au long de l’étude.  相似文献   

12.
《Biometrics》2008,64(3):1000-1007
I. Lobach, R. J. Carroll, C. Spinka, M. H. Gail, and N. Chatterjee 673 Haplotype‐Based Regression Analysis and Inference of Case‐‐Control Studies with Unphased Genotypes and Measurement Errors in Environmental Exposures Il est maintenant établi que le risque de développer une maladie dite complexe est sous l’influence conjointe de facteurs de susceptibilité génétiques, de facteurs d’exposition environnementaux et de leurs interactions potentielles. Chatterjee et caroll (2005) ont développé une méthode efficace de maximum de vraisemblance rétrospectif pour l’analyse des études cas‐témoins qui fait l’hypothèse d’indépendance des effets génétiques et environnementaux et qui autorise une distribution totalement non paramétriques des covariables environnementales. Spinka et al (2005) ont étendu cette approche aux études où certains types d’information, comme les phases haplotypiques, sont manquantes chez certains individus. Nous étendons cette approche aux situations où certaines exposition environnementales sont mesurées avec erreur. A l’aide d’un modèle de régression logistique polychotomique, nous permettons au statut maladie d’avoir K+1 niveaux. Nous proposons d’utiliser une pseudo‐vraisemblance and un algorithme EM associé pour l’estimation des paramètres. Nous démontrons leur consistance et dérivons la matrice de covariance asymptotique des estimations des paramètres lorsque la variance de l’erreur de mesure est connue et lorsqu’elle est estimée à l’aide de réplications. Les inférences avec des corrections de l’erreur de mesure sont compliquées par le fait que le test de Wald à des propriétés non satisfaisantes en présence d’un large nombre d’erreurs de mesure. Les techniques du rapport de vraisemblance sont connues pour être une alternative satisfaisante. Cependant, les tests du rapport de vraisemblance ne sont pas techniquement corrects dans cette situation car la fonction de vraisemblance est fondée sur un modèle incorrect, i.e. un modèle prospectif dans un schéma d’échantillonnage rétrospectif. Nous corrigeons les résultats asymptotiques standards pour prendre en compte le fait que le test du rapport de vraisemblance est fondé sur une fonction apparentéà la vraisemblance. Les performances de la méthode proposée sont illustrées avec des études de simulation dans le cas où l’information génétique est de type haplotypique et que les données manquantes viennent d’une ambigüité de phase lors de la reconstruction de ces haplotypes. Enfin, nous appliquons notre méthode à une étude d’association cas‐témoins entre la prise de calcium et le risque d’adénome colorectal. B. Mukherjee and N. Chatterjee 685 Exploiting Gene‐Environment Independence for Analysis of Case‐‐Control Studies: An Empirical Bayes‐Type Shrinkage Estimator to Trade‐Off between Bias and Efficiency L’analyse prospective habituelle de données de type cas‐témoin par la régression logistique conduit souvent à des estimateurs très imprécis des interactions gènes‐environnement, en raison du faible nombre de cas ou de témoins pour des croisements génotype‐exposition. Par contraste, sous l’hypothèse d’indépendance gène‐environnement, par les méthodes actuelles rétrospectives, y compris l’approche «cas seulement », on peut estimer les paramètres d’interaction de manière beaucoup plus précise, mais on peut avoir un biais important lorsque l’hypothèse sous‐jacente d’indépendance gène‐environnement n’est pas respectée. Dans cet article, nous proposons un nouvel estimateur de type Bayésien empirique pour analyser des données cas‐témoin, permettant d’assouplir l’hypothèse d’indépendance gène‐environnement en s’appuyant sur les données. Dans le cas particulier d’un gène binaire et d’une exposition binaire, la méthode conduit à un estimateur du paramètre log odds‐ratio de l’interaction sous forme simple explicite, correspondant à une moyenne pondérée des estimateurs usuels « cas seulement » et cas‐témoin. Nous décrivons également une méthode générale pour l’obtention du nouvel estimateur et de sa variance dans le schéma rétrospectif au maximum de vraisemblance proposé par Chatterjee et Carroll (2005). Des simulations et des exemples sur données réelles montrent que l’estimateur proposé marque bien l’équilibre entre le biais et l’efficacité selon la réelle association gène‐environnement et la taille d’échantillon pour une étude donnée. Z. Cai, M. Kuroki, J. Pearl, and J. Tian 695 Bounds on Direct Effects in the Presence of Confounded Intermediate Variables Cet article traite le problème de l’estimation de l’effet directement attribuable au traitement (average controlled direct effect : ACDE) dans l’analyse d’un critère final, lorsque des facteurs de confusion non mesurés adviennent entre la mesure d’une variable intermédiaire et ce critère final. En effet, même lorsque ces facteurs de confusion ne perturbent pas l’estimation de l’effet total (qui est alors identifiable), ils rendent non identifiable l’effet direct attribuable au traitement. Kaufman et coll. (2005) ont utilisé un logiciel de programmation linéaire pour trouver les minimum et maximum des valeurs possibles de l’ACDE pour des données numériques particulières. En utilisant la méthode de programmation linéaire symbolique de Balke–Pearl (1997), nous dérivons ici des formules analytiques pour les limites supérieure et inférieure de l’ACDE sous diverses hypothèses de monotonie. Ces valeurs‐limites sont toujours valides. Dans le domaine de la recherche clinique, elles permettent d’évaluer, de façon abordable en termes de calcul, l’effet directement attribuable au traitement. Elles permettent ainsi d’éclairer l’expérimentateur sur le sens dans lequel s’exerce l’effet attribuable au traitement, ainsi que sur la précision des estimations. T. J. VanderWeele 702 The Sign of the Bias of Unmeasured Confounding Les variables de confusion non mesurées constituent un problème fréquent lorsqu’on veut faire de l’inférence dans des études observationnelles. Nous proposons un théorème qui permet, dans certaines circonstances, de tirer des conclusions sur le signe du biais généré par une variable de confusion non mesurée. Plus précisément, il est possible de déterminer le signe du biais quand il existe des relations monotones d’une part entre la variable de confusion non mesurée et le traitement et, d’autre part, entre la variable de confusion non mesurée et le critère de jugement. Les conditions d’application du théorème sont discutées ainsi que les avantages et les inconvénients liés à son utilisation pour déterminer le sens du biais de la confusion non mesurée. M. Zhang, A. A. Tsiatis, and M. Davidian 707 Improving Efficiency of Inferences in Randomized Clinical Trials Using Auxiliary Covariates L’objectif premier d’un essai clinique randomisé est de comparer deux traitements ou plus. Par exemple, dans un essai à deux bras avec une réponse continue, on peut s’intéresser à la différence des moyennes; avec plus de deux traitements, la comparaison peut être basée sur des différences appariées. Avec des réponses binaires, des odds ratio appariés ou des log odds ratio peuvent être utilisés. En général, les comparaisons peuvent être basées sur des paramètres ayant un sens, dans un modèle statistique pertinent. Des analyses standards pour l’estimation et les tests dans ce contexte, sont typiquement basées sur les données collectées de la réponse et du traitement seulement. Dans beaucoup d’essais, une information sur une covariable auxiliaire peut également être disponible et il est intéressant d’exploiter ces données pour améliorer l’efficacité des inférences. En prenant une perspective de théorie semi‐paramétrique, nous proposons une approche largement applicable à l’ajustement de covariables auxiliaires pour obtenir des estimateurs plus efficaces et des tests pour les paramètres de traitement dans l’analyse d’essais cliniques randomisés. Des simulations et des applications démontrent la performance des ces méthodes. C. J. Lloyd 716 A New Exact and More Powerful Unconditional Test of No Treatment Effect from Binary Matched Pairs Nous considérons le problème du test de la différence des probabilités du succès de paires binaires couplées. Commençant par trois tests standard inexacts, le paramètre de nuisance est d’abord estimé et ensuite la dépendance résiduelle éliminée par maximisation, produisant ce que j’appelle la p‐valeur de E+M. On montre que cette p‐valeur, basée sur la statistique de McNemar, est numériquement supérieure aux suggestions précédentes, y compris les p‐valeurs partiellement maximisées telles qu’elles sont décrites dans Berger et Sidik (2003). La dernière méthode cependant peut avoir des avantages du point de vue des calculs pour de grands échantillons. G. Wei and D. E. Schaubel 724 Estimating Cumulative Treatment Effects in the Presence of Nonproportional Hazards Souvent, dans les études médicales portant sur le délai d’apparition d’un événement, l’effet traitement n’est pas constant au cours du temps. Dans le cas du modèle de Cox, la solution la plus fréquente est d’utiliser un modèle qui suppose que soit l’effet traitement est constant par intervalle, soit qu’il varie lentement au cours du temps (le modèle de Cox à risques non proportionnels). Cette approche a au moins deux limitations majeures. Premièrement, il est généralement difficile d’évaluer si la forme du paramètre choisi pour l’effet traitement est correct. Deuxièmement, en présence de risques non proportionnels, les investigateurs sont habituellement plus intéressés par l’effet traitement cumulé plutôt que par l’effet traitement instantané (c’est‐à‐dire déterminer si et quand les fonctions de survie se croisent). Par conséquent, nous proposons un estimateur pour l’effet global du traitement en présence de risques non proportionnels. Notre estimateur est fondé sur le risque de base cumulé estimé sous un modèle de Cox stratifié. Aucune hypothèse n’est nécessaire quant à la forme de la fonction concernant l’absence de proportionnalité. Les propriétés asymptotiques des estimateurs proposés sont déduites, et les propriétés dans le cas d’échantillons de taille finie sont évaluées par des simulations. L’estimation et les intervalles de confiance de l’estimateur peuvent être calculés simultanément. La méthode proposée est appliquée à des données provenant du registre national des rejets d’organes canadien. B. R. Logan, J. P. Klein, and M.‐J. Zhang 733 Comparing Treatments in the Presence of Crossing Survival Curves: An Application to Bone Marrow Transplantation Dans certaines études cliniques comparant des traitements en terme de courbes de survie, les chercheurs peuvent anticiper que les courbes de survie se croiseront à un certain point, aboutissant à s’intéresser à la comparaison de la survie à long terme. Cependant, la simple comparaison des courbes de survie à un point donné peut être inefficace, et l’utilisation d’un test du log‐rank pondéré peut être trop sensible aux différences initiales dans la survie. Nous formulons le problème comme celui de tester les différences des courbes de survie après un temps pré‐spécifié, et proposons une variété de techniques pour tester cette hypothèse. Nous étudions ces méthodes en utilisant des simulations et les illustrons sur une étude comparant la survie pour des transplantations autologues et allogéniques de moelle. R. Song, M. R. Kosorok, and J. Cai 741 Robust Covariate‐Adjusted Log‐Rank Statistics and Corresponding Sample Size Formula for Recurrent Events Data Des évènements récurrents se rencontrent fréquemment dans les essais cliniques. Cet article développe des statistiques robustes du log‐rank ajustées pour des covariables, appliquées à des évènements récurrents en nombre arbitraire avec censure indépendante et la formule de taille d’échantillon correspondante. Les tests du log‐rank proposés sont robustes pour différents procédés de génération de données et ajustés pour des covariables prédictives. Ils se ramènent au cadre développé par Kong et Slud (1997) dans le cas d’un événement unique. La formule de taille d’échantillon repose sur la normalité asymptotique des statistiques du log‐rank ajustées pour des covariables sous certaines alternatives locales et sous un modèle pour les covariables au baseline dans le contexte d’évènements récurrents. Quand la taille de l’effet est petite et quand les covariables au baseline n’apportent pas une information significative sur les temps de survenue, elle se ramène à la même forme que celle de Schoenfeld (1983) dans les cas d’un événement unique ou de temps de survenue indépendants pour un sujet. Nous réalisons des simulations pour étudier le contrôle de l’erreur de type I et pour comparer la puissance de plusieurs méthodes sur des échantillons finis. La formule de taille d’échantillon proposée est illustrée à partir des données d’un essai de la rhDNase. J. D. Nielsen and C. B. Dean 751 Clustered Mixed Nonhomogeneous Poisson Process Spline Models for the Analysis of Recurrent Event Panel Data Un modèle semi paramétrique flexible pour analyser des données de comptage longitudinales provenant de mélanges est présenté. Les données de comptage en panel se réfèrent ici à des données de comptage sur des évènements récurrents collectés comme le nombre d’évènements qui sont arrivés durant une période de suivi spécifique. Le modèle suppose que les comptages pour chaque sujet sont générés par des mélanges de processus de Poisson non homogènes avec des fonctions d’intensité lissées modélisées par des splines pénalisés. Les effets des covariables dépendant du temps sont aussi incorporés dans le modèle dans l’intensité du processus en utilisant les fonctions splines. Des mélanges discrets de ces modèles splines de processus non homogènes de Poisson extraient l’information fonctionnelle provenant des grappes sous‐jacentes représentant les sous populations cachées. La motivation de ce travail est une expérience pour tester l’efficacité de phéromones en interrompant le processus d’accouplement de papillons tortriciae de l’écorce du cerisier. Les papillons matures proviennent de sous populations cachées mais distinctes et on s’intéressait au contrôle des réponses des sous populations. Des effets aléatoires intra‐grappes sont utilisés pour prendre en compte les structures de corrélation et l’hétérogénéité communes à ce genre de données. Une approche pour faire de l’inférence par équations d’estimation, requérant seulement des hypothèses faibles, est développée et les propriétés à distance finie des fonctions d’estimation proposées sont étudiées empiriquement par simulation. R. M. Elashoff, G. Li, and N. Li 762 A Joint Model for Longitudinal Measurements and Survival Data in the Presence of Multiple Failure Types Dans ce papier, nous étudions un modèle conjoint pour des mesures longitudinales et des données de survie à risques compétitifs. Notre modèle conjoint fournit une approche souple pour prendre en compte les données manquantes possiblement non ignorables dans les mesures longitudinales dues aux sorties d’étude. Il s’agit aussi d’une extension des modèles conjoints précédents avec un seul type d’événements, offrant une voie possible pour modéliser les événements censurés informativement comme un risque compétitif. Notre modèle consiste en un sous‐modèle linéaire à effets mixtes pour le critère longitudinal et un sous‐modèle de fragilitéà risques proportionnels cause spécifique (Prentice et al., 1978, Biometrics 34, 541–554) pour les données de survie à risques compétitifs, liés l’un à l’autre par des effets aléatoires latents. Nous proposons d’obtenir les estimations du maximum de vraisemblance des paramètres par un algorithme EM et d’estimer leurs écarts‐types en utilisant une méthode de vraisemblance profilée. La méthode développée fonctionne bien dans nos études de simulation et est appliquée à un essai clinique sur les atteintes pulmonaires de la sclérodermie. S. Goetgeluk and S. Vansteelandt 772 Conditional Generalized Estimating Equations for the Analysis of Clustered and Longitudinal Data Un problème commun et important dans des plans d’échantillonnage en grappes est que l’effet des expositions intra‐grappes (c’est‐à‐dire des expositions qui varient dans les grappes) sur le résultat peut être confondu avec des facteurs mesurés ou non des facteurs du niveau de la grappe (c’est‐à‐dire des mesures qui ne changent pas à l’intérieur des grappes). Quand certains résultats sont malades/non expliqués, l’estimation de cet effet par l’intermédiaire de modèles de moyenne de la population ou de modèles à effets aléatoires peut introduire un biais. Nous adaptons ce fait en développant une théorie générale de l’analyse de données en grappes qui permet une estimation convergente et asymptotiquement normale des effets (CAN) des expositions intra‐grappes en présence des niveaux de confusion du niveau de grappe. Des estimateurs efficaces semi‐paramétriques sont obtenus en résolvant les équations d’estimation conditionnelles généralisées (CGEE). Nous comparons cette approche à une proposition populaire de Neuhaus et Kalbfleisch (1998) qui séparent l’effet d’exposition en composantes intra‐grappes ou entre grappes à l’intérieur d’un modèle aléatoire avec une constante. Nous constatons que cette dernière approche fournit des estimateurs convergents et efficaces quand le modèle est linéaire, mais qu’elle est moins flexible en termes de spécification de modèles. Avec des modèles non‐linéaires, cette approche peut aboutir à des estimateurs non convergents et inefficaces, bien que le biais reste faible dans la majorité des cas pratiques. Y. Ma, W. Tang, C. Feng, and X. M. Tu 781 Inference for Kappas for Longitudinal Study Data: Applications to Sexual Health Research De nombreuses recherches comportementales, médicales, psycho‐sociales ou de santé utilisent des mesures de la fiabilité des instruments ou de la concordance entre juges pour évaluer les propriétés psychométriques de leurs instruments, le niveau de consensus en matière de diagnostic médical, ou la fiabilité d’une variable de substitution. L’indice de concordance le plus fréquemment utilisé pour des réponses catégorielles est le coefficient kappa de Cohen. Aujourd’hui, dans de nombreuses études, on observe des réponses corrélées, ce qui complique ou invalide l’inférence à partir des méthodes antérieures. En outre, les problèmes posés par les observations incomplètes sont particulièrement gênants dans les études longitudinales, de plus en plus nombreuses, et l’absence de méthodes adaptées entrave le développement des recherches. L’approche que nous présentons repose sur une nouvelle classe d’estimateurs des coefficients kappa qui prend en compte les difficultés que l’on rencontre dans les études longitudinales où interviennent plusieurs évaluateurs, en particulier celles liées aux observations incomplètes. Nous illustrons la méthode à partir de données réelles concernant le sexe et la santé. B. J. Reich and J. S. Hodges 790 Modeling Longitudinal Spatial Periodontal Data: A Spatially Adaptive Model with Tools for Specifying Priors and Checking Fit La perte d’attachement (AL) ou longueur sous la racine dentaire qui n’est plus attachée à l’os par le ligament parodontal est une mesure habituelle de la maladie parodontale. Dans cet article, nous développons un modèle spatio‐temporel de surveillance de la progression de l’AL. Notre modèle est une extension de l’a‐priori conditionnel autorégressif (CAR), qui lisse spatialement les estimations vers leurs voisins. Cependant, puisque l’AL présente souvent des accès de grandes valeurs dans l’espace et dans le temps, nous proposons un modèle spatiotemporel CAR non‐stationnaire qui permet au degré de lissage temporel et spatial de varier dans les différentes régions de la bouche. Pour celà, nous attribuons à chaque site de mesure d’AL son propre ensemble de paramètres de variance, et lissons les variances avec des a‐priori spatiaux. Nous suggérons une heuristique pour mesurer la complexité des variances site‐spécifiques, et nous l’utilisons pour sélectionner les a‐priori qui garantissent que les paramètres du modèle sont bien identifiés. Sur des données d’un essai clinique, le modèle améliore la qualité de l’ajustement par rapport au modèle usuel dynamique CAR pour 90 des 99 mesures d’AL. Y. Guan 800 A KPSS Test for Stationarity for Spatial Point Processes Nous proposons une méthode formelle pour tester la stationnarité d’un processus spatial ponctuel. La statistique de test proposée est basée sur l’intégrale des carrés des écarts entre les nombres d’événements observés et leur moyenne sous l’hypothèse de stationnarité. Nous montrons que la statistique de test obtenue converge en loi vers une fonctionnelle d’un mouvement brownien bidimensionnel. Pour appliquer le test, nous comparons la statistique calculée aux valeurs critiques à l’extrémité supérieure de cette fonctionnelle. Notre méthode suppose seulement une condition de dépendance faible pour le processus, mais ne requiert aucun modèle paramétrique pour cela. De la sorte, elle peut être appliquée à une large classe de modèles de processus spatiaux ponctuels. Nous étudions l’efficacité du test à la fois par des simulations et des applications à deux exemples sur données réelles où la non stationnaritéétait préalablement envisagée en se basant sur des aspects graphiques. Notre test confirme cette non stationnarité suspectée dans les deux cas. W. Zucchini, D. Raubenheimer, and I. L. MacDonald 807 Modeling Time Series of Animal Behavior by Means of a Latent‐State Model with Feedback Nous décrivons une famille de modèles adaptés aux séries temporelles de comportement nutritionnel animal. Les modèles incluent un état non observé pouvant être interprété comme l’état de motivation de l’animal, et un mécanisme pour donner cet état en retour du comportement observé. Nous discutons des méthodes d’évaluation et de maximisation de la vraisemblance d’une série observée de comportements, de l’estimation des paramètres, et de l’inférence pour la plus probable séquence d’états sous‐jacents. Nous indiquons plusieurs extensions de ces modèles, incorporant des effets aléatoires. Nous appliquons ces méthodes à l’analyse du comportement nutritionnel des chenilles Helicoverpa armigera, et nous démontrons ainsi le potentiel de cette famille de modèles dans l’étude des comportements. R. King and S. P. Brooks 816 On the Bayesian Estimation of a Closed Population Size in the Presence of Heterogeneity and Model Uncertainty Nous considérons l’estimation de la taille d’une population fermée, qui présente souvent un intérêt pour des populations animales sauvages, en utilisant une étude de capture‐recapture. L’estimation de la taille totale de population peut être très sensible au choix du modèle utilisé pour l’ajuster aux données. Nous considérons une approche bayésienne, dans laquelle nous considérons chacun des huit modèles plausibles originellement décrits par Otis et al. (1978) dans un contexte simple, incluant des modèles avec une composante individuelle d’hétérogénéité. Nous montrons comment nous pouvons obtenir une estimation moyenne de la population totale, incluant simultanément le paramètre et l’incertitude du modèle. Pour illustrer la méthodologie nous effectuons d’abord une étude de simulation et nous analysons deux ensembles de données où la taille de population est connue, avant de considérer un exemple réel concernant une population de dauphins du nord‐est de l’Ecosse. A. J. Branscum and T. E. Hanson 825 Bayesian Nonparametric Meta‐Analysis Using Polya Tree Mixture Models Un objectif habituel dans une méta‐analyse est l’estimation d’une mesure d’effet unique en utilisant les données de plusieurs études qui sont toutes dessinées pour traiter la même question scientifique. Parce que les études sont typiquement réalisées dans des lieux géographiquement dispersés, les développements récents dans l’analyse statistique des données de méta‐analyses impliquent l’utilisation de modèles avec effets aléatoires qui tiennent compte de la variabilité entre études attribuable aux différences d’environnement, de démographie, de génétique, et d’autres sources d’hétérogeneïté entre les populations. En se fondant sur la théorie asymptotique, les statistiques résumées propres à chaque étude sont modélisées selon des distributions normales représentant les vraies mesures d’effets latents. Dans un deuxième temps une approche paramétrique modélise ces mesures latentes au moyen d’une distribution normale, qui est uniquement une supposition commode dénuée de justification théorique. Pour éliminer l’influence de modèles paramétriques par trop restrictifs sur l’inférence, nous considérons une classe plus large de distributions pour les effets aléatoires. Nous développons un nouveau modèle de mélange d’arbres de Polya Bayesien non paramétrique et hiérarchique. Nous présentons une méthodologie pour tester un modèle de mélange d’arbre de Polya contre un modèle avec effets aléatoires normaux. Ces méthodes fournissent aux chercheurs une approche immédiate pour conduire une analyse de sensibilité de la normalité des effets aléatoires. Une application impliquant une méta‐analyse d’études épidémiologiques pour caractériser l’association entre la consommation d’alcool et le cancer du sein est présentée qui, alliée à des résultats issus de données simulées, met en lumière la performance des mélanges d’arbre de Polya en présence de non‐normalité des mesures d’effet dans la population d’origine. G. Massonnet, P. Janssen, and T. Burzykowski 834 Fitting Conditional Survival Models to Meta‐Analytic Data by Using a Transformation Toward Mixed‐Effects Models Les modèles à fragilité sont communément utilisés pour modéliser des survies sur données en ‘clusters’. Les approches classiques pour ajuster des modèles de fragilité sont basées sur la vraisemblance. Nous proposons une approche alternative dans laquelle le problème initial d'« ajustement d’un modèle de fragilité» est reformulé en le problème d’« ajustement d’un modèle linéaire mixte » grâce à l’utilisation d’un modèle de transformation. Nous montrons que le principe de transformation s’applique aussi aux modèles multivariés à odds proportionnels ainsi qu’aux modèles de risques additifs multivariés. Il permet de plus de faire le lien entre des méthodes séparées en ce sens qu’il fournit un moyen général d’ajuster des modèles conditionnels pour des données de survie multivariées en utilisant la méthodologie des modèles mixtes. Nous nous centrons sur les modèles à fragilité afin d’étudier les caractéristiques spécifiques de la méthode proposée. En nous basant sur une étude de simulation nous montrons que la méthode proposée produit une alternative correcte et simple pour l’ajustement de modèles à fragilité sur des données présentant un nombre suffisamment grand de classes et des tailles d’échantillons modérées à grande à l’intérieur de niveaux de sous‐groupes de covariables. La méthode proposée est appliquée à des données provenant de 27 essais randomisés sur des cancers colorectaux avancés, disponibles par l’intermédiaire du groupe de Meta‐Analyse du Cancer. R. A. Hubbard, L. Y. T. Inoue, and J. R. Fann 843 Modeling Nonhomogeneous Markov Processes via Time Transformation Les études longitudinales constituent un outil puissant pour représenter la progression des maladies chroniques. Ces études sont habituellement menées avec des patients examinés lors de visites périodiques, donnant ainsi des données de type panel. Dans ce schéma d’observation, les temps exacts de transitions entre les états de la maladie, et la séquence suivie des états de la maladie sont inconnus, et les modèles à base de processus de Markov sont souvent utilisés pour décrire la progression. La plupart des applications reposant sur les processus markoviens supposent l’homogénéité par rapport au temps, autrement dit que les taux de transition sont constants au cours du temps. Cette hypothèse n’est pas satisfaite lorsque les taux de transition dépendent du temps à compter du début de la maladie. Cependant, peu d’outils statistiques existent pour prendre en compte cette non‐homogénéité. Nous proposons des modèles dans lesquels l’échelle de temps d’un processus de Markov non‐homogène est transformée en une échelle de temps opérationnelle par rapport à laquelle le processus est homogène. Nous développons une méthode pour l’estimation jointe de la transformation de temps et de la matrice d’intensité de transition pour le processus homogène transformé. Nous établissons une estimation au maximum de vraisemblance utilisant l’algorithme du score de Fisher par des études de simulation, et nous comparons la performance de notre méthode par rapport à des modèles homogènes et des modèles homogènes par morceaux. Nous appliquons notre méthodologie à une étude sur la progression du délire dans une cohorte de receveurs de transplantation de cellules souche, et nous montrons que notre méthode identifie les tendances temporelles dans l’incidence du délire et dans la récupération. C. C. Drovandi and A. N. Pettitt 851 Multivariate Markov Process Models for the Transmission of Methicillin‐Resistant Staphylococcus Aureus in a Hospital Ward L’Aureus Staphylococcus résistant à la méthicilline (SARM) est un pathogène qui continue d’être un problème majeur à l’hôpital. Nous développons des modèles et des algorithmes de calcul basés sur des données observées d’incidences hebdomadaires pour estimer les paramètres de transmission du MRSA. Nous étendons le modèle déterministe de McBryde, Pettitt et McElwain (2007) impliquant une population sous‐jacente de patients colonisés par MRSA et de personnels soignants qui décrit, parmi d’autres processus, la transmission entre patients non colonisés et personnels soignants colonisés et vice‐versa. Nous développons de nouveaux modèles de Markov bivariés et trivariés pour inclure l’incidence de telle façon que les taux de transmission estimés puissent être basés directement sur de nouvelles colonisations plutôt qu’indirectement sur la prévalence. La sensibilité imparfaite de la détection du pathogène est modélisée en utilisant un processus markovien caché. Les avantages de notre approche incluent (i) l’hypothèse d’une valeur discrète pour le nombre de personnels soignants colonisés, (ii) deux paramètres de transmission pouvant être incorporés dans la vraisemblance, (iii) la vraisemblance dépend du nombre de nouveaux cas pour améliorer la précision de l’inférence, (iv) les enregistrements individuels des patients ne sont pas requis, et (v) la possibilité d’une détection imparfaite de la colonisation est incorporée. Nous comparons notre approche avec celle utilisée par McBryde et al (2007), basée sur une approximation qui élimine les personnels soignants du modèle, utilisant une chaîne de Markov par Monte Carlo et des données individuelles des patients. Nous appliquons ces modèles à des données de colonisation de SARM, collectées dans de petites unités de soins intensifs (ICU) à l’hôpital Princesse Alexandra, Brisbane, Australie. A. R. Cook, G. J. Gibson, and C. A. Gilligan 860 Optimal Observation Times in Experimental Epidemic Processes Cet article décrit une méthode de choix de temps d’observation de processus stochastiques destinés à maximiser les espérances des informations de leurs paramètres. On considère deux modèles généralement utilisés pour des processus épidémiologiques: un processus simple de mort et un processus épidémique de susceptibilité d’infection (SI) avec des sources doubles d’infection se développant de l’intérieur ou de l’extérieur de la population. La recherche du plan optimal emploie des méthodes bayésiennes de calcul pour explorer l’espace expérimental commun paramètre‐donnée, combinéà une méthode connue sous le nom de fermeture de moment d’approximation de la vraisemblance pour rendre efficace l’étape d’acceptation. Pour les processus considérés, on montre que choisir un petit nombre d’observations de façon optimale est presqu’aussi bon que collecter des observations de manière plus intensive, pratique générale dans nombre d’expériences épidémiologiques. L’analyse du processus simple de mort permet une comparaison entre l’approche bayésienne intégrale et des dispositifs localement optimaux autour d’une estimation ponctuelle d’a priori basée sur des résultats asymptotiques. On démontre la robustesse de l’approche pour des a priori mal spécifiés du processus épidémique SI, pour lequel le problème de la faisabilité informatique du calcul de la vraisemblance exclut des plans optimaux. Nous montrons que des plans optimaux déduits d’une approche bayésienne sont semblables à des études d’observations d’une épidémie simple et à des études impliquant des épidémies répétées dans des sous‐populations indépendantes. Un optimum différent existe, cependant, quand l’objectif est de maximiser le gain de l’information basée sur des a priori informatifs ou non: ceci a des implications quand une expérience est conçue pour convaincre un observateur naïf ou sceptique plutôt que pour consolider la connaissance d’un observateur mieux informé. On présente quelques prolongements de ces méthodes, comprenant le choix de critères d’information et l’extension à d’autres processus épidémiologiques avec des probabilités de transition. K. F. Lam, J. V. Deshpande, E. H. Y. Lau, U. V. Naik‐Nimbalkar, P. S. F. Yip, and Ying Xu 869 A Test for Constant Fatality Rate of an Emerging Epidemic: With Applications to Severe Acute Respiratory Syndrome in Hong Kong and Beijing L’étiologie, la pathogénie et le pronostic d’une maladie récemment émergente sont généralement inconnus aux cliniciens. Des interventions et des traitements efficaces aussi précoces que possible garantissent la réduction du caractère fatal de la maladie à un minimum, et la suppression de traitements inadéquats. Dans ce contexte, la capacitéà extraire le plus d’informations hors des données disponibles est critique à la possibilité d’importantes prises de décision. L’inefficacité d’un traitement peut être reflétée par une mortalité constante avec le temps tandis qu’un traitement efficace mène normalement à un taux de décès décroissant. Un test statistique pour une mortalité constante avec le temps est proposé dans cet article. La statistique proposée converge vers un mouvement Brownien sous l’hypothèse nulle. Les caractéristiques spécifiques du mouvement Brownien permettent d’analyser également la distribution des premiers temps de passage à partir de tests séquentiels. Ceci permet à l’hypothèse nulle du taux de décès constant d’être rejetée le plus rapidement possible dès que l’évidence statistique devient suffisante. Les études de simulation montrent que les performances du test proposé sont bonnes et qu’il est très sensible pour trouver un taux de mortalité décroissant. Le test proposé est appliqué aux données du syndrome respiratoire aigu sévère (SARS) à Hong Kong et Beijing. J. Peng, C.‐I. C. Lee, K. A. Davis, and W. Wang 877 Stepwise Confidence Intervals for Monotone Dose–Response Studies Dans les études de dose‐réponse un des points les plus importants est l’identification de la dose minimum efficace (minimum effective dose – MED), qui est définie comme la plus petite dose pour laquelle la réponse moyenne est meilleure que celle obtenue pour une dose nulle de contrôle, en terme de différence clinique significative. Les courbes doses‐réponses sont parfois monotones. Pour trouver la MED plusieurs auteurs ont proposé des procédures de test du genre up and down, basées sur des contrastes entre les moyennes. Dans cet article, pour identifier la MED, on propose une amélioration de la méthode de Marcus et Peritz (1976, Journal of the Royal Statistical Society, Series B 38, 157–161) et on développe une application de la méthode DR de Hsu et Berger (1999, Journal of the American Statistical Society 94, 468–482) pour construire, sous des hypothèses de monotonicité, la borne inférieure de l’intervalle de confiance pour la différence entre la réponse à une dose quelconque non nulle et celle du contrôle. La méthode proposée est illustrée par des exemples numériques et on présente des comparaisons de puissance obtenues par simulations. M. Ding, G. L. Rosner, and P. Müller 886 Bayesian Optimal Design for Phase II Screening Trials Dans la littérature, la plupart des plans de screening en phase 2 considèrent un traitement à la fois. Chaque étude est considérée isolément. Nous proposons une approche décisionnelle plus systématique pour le processus de screening de phase 2. Le plan séquentiel permet une plus grande efficacité et un meilleur apprentissage sur les traitements. L’approche incorpore un modèle Bayesien hiérarchique qui permet d’une façon formelle la combinaison d’information entre différentes études reliées entre elles, et améliore l’estimation dans de petits échantillons en exploitant l’information venant des autres traitements. Le plan incorpore une fonction d’utilité qui prend en compte le coût d’échantillonnage et le possible retour sur investissement. Des simulations par ordinateur montrent que cette méthode a une forte probabilité d’écarter des traitements à faible taux de succès et de faire évoluer en phase 3 des traitements à fort taux de succès. A. Vexler, A. Liu, E. Eliseeva, and E. F. Schisterman 895 Maximum Likelihood Ratio Tests for Comparing the Discriminatory Ability of Biomarkers Subject to Limit of Detection Dans cet article, nous étudions la comparaison des aires sous courbes ROC (Receiver Operating Characteristic) corrélées, des biomarqueurs diagnostiques dont les mesures sont soumises à une limite de détection (LOD), source d’erreur de mesure issue de la sensibilité instrumentale en épidémiologie. Nous proposons et nous examinons les tests du rapport des vraisemblances avec des caractéristiques opérationnelles qui sont aisément obtenues sous méthodologie classique du maximum de vraisemblance. R. Li and L. Nie 904 Efficient Statistical Inference Procedures for Partially Nonlinear Models and their Applications Motivés par une analyse d’un jeu de données réelles dans le domaine de l’écologie, nous sommes amenés à considérer une classe de modèles partiellement non linéaires où l’on note à la fois la présence d’une composante non paramétrique et d’une composante paramétrique. Nous développons deux nouvelles procédures d’estimation pour l’estimation des paramètres de la composante paramétrique. La consistance et la normalité asymptotique des estimateurs sont établies. Puis nous proposons ensuite une procédure d’estimation et une procédure de test F généralisé pour la composante non paramétrique dans les modèles partiellement non linéaires. Des propriétés asymptotiques de la nouvelle procédure d’estimation et le test statistique s’en déduisent. Les qualités des échantillons finis des procédures d’inférence proposées sont évaluées par des études de simulations de Monte Carlo. Une application dans le domaine de l’écologie est utilisée pour illustrer la méthode proposée E. Deschepper, O. Thas, and J. P. Ottoy 912 Tests and Diagnostic Plots for Detecting Lack‐of‐Fit for Circular‐Linear Regression Models Les diagnostics pour la régression et les tests de défaut d’ajustement sont principalement focalisés sur les modèles linéaires de régression linéaire. Lorsque les points sont distribués sur la circonférence d’un cercle, des difficultés apparaissent car il n’existe pas de point de départ ou d’origine. La plupart des tests classiques de défauts d’ajustement exigent de choisir arbitrairement une origine, mais des choix différents peuvent conduire à des conclusions différentes. Nous proposons un outil graphique d’ajustement et un test de défaut d’ajustement qui n’exige pas de point naturel initial. La méthode est basée sur des « résidus régionaux » qui sont définis sur des arcs de cercle. La méthode graphique localise formellement et visualise des sous ensembles d’observations dont l’ajustement n’est pas satisfaisant sur le cercle. Un exemple de données issues du domaine alimentaire est utilisé pour exhiber les problèmes mentionnés auparavant avec les tests classiques d’ajustement et pour illustrer la force de la méthode basée sur les « résidus régionaux » pour détecter et localiser les points de départ d’hypothèse de non effet. Une petite étude de simulation montre la bonne performance du test des « résidus régionaux » dans les deux cas d’écart global ou local du modèle. Puis ces idées sont étendues au cas ou il y a plus d’une variable explicative. B. Xie, W. Pan, and X. Shen 921 Variable Selection in Penalized Model‐Based Clustering Via Regularization on Grouped Parameters L’analyse en grappes modèle‐dépendante pénalisée a été proposée dans le cadre de données de haute dimension mais de petite taille d’échantillon comme celles rencontrées dans les études génomiques. En particulier, elle peut être utilisée pour la sélection de variables. Un nouveau schéma de régularisation est proposé pour regrouper ensemble plusieurs paramètres associés à la même variable au sein des grappes. Nous montrons analytiquement et numériquement que ce schéma est plus efficace que la conventionnelle pénalité L1 pour la sélection de variable. De plus, nous développons une stratégie pour combiner ce schéma de groupement avec le groupement de variables structurées. Des études de simulation et des applications aux données d’expression des micropuces pour la découverte de sous‐types cancéreux illustrent les avantages de notre nouvelle approche par rapport à plusieurs méthodes existantes. S. H. Lee, J. Lim, M. Vannucci, E. Petkova, M. Preter, and D. F. Klein 931 Order‐Preserving Dimension Reduction Procedure for the Dominance of Two Mean Curves with Application to Tidal Volume Curves Le travail présenté ici est issu d’une étude de cas reposant sur des tracés, à dimension et fréquence élevées, de capacité vitale respiratoire effectués pendant des bouffées d’angoisse provoquées. L’objectif est de développer une procédure pour évaluer la significativité de la supériorité d’une courbe moyenne par rapport à une autre. L’idée essentielle de la méthode suggérée est de préserver l’ordre sur les moyennes tout en réduisant la dimensionnalité des données. La matrice des données observées est projetée sur un ensemble de matrices de rang inférieur sous une contrainte de positivité. Une procédure de test multivarié est alors appliquée dans cette dimension inférieure. Nous utilisons des données simulées pour illustrer les propriétés statistiques de la méthode de test proposée. Les résultats obtenus sur l’étude de cas confirment l’hypothèse préliminaire des investigateurs et fournit un support à leur objectif de construction d’un modèle expérimental pour la bouffée d’angoisse clinique chez les sujets normaux.  相似文献   

13.
Les maladies auto-immunes thyro?diennes se présentent selon un large éventail de manifestations cliniques qui s’étend de l’hypothyro?die par atrophie thyro?dienne à l’hyperthyro?die par maladie de Basedow (tableau 1). Le but de cette revue est de préciser, à la lumière de données récentes, les indications et les méthodes des dosages utiles au diagnostic des maladies auto-immunes thyro?diennes.  相似文献   

14.
La biologie délocalisée prend une importance croissante dans le fonctionnement des services traitant les urgences à l’h?pital. Elle devrait représenter une réele évolution pour la prise en charge du patient tout en améliorant l’organisation interne des unités de soins. Le biologiste occupe un r?le clé pour mener un tel projet et la mise en place d’un système d’assurance qualité adapté à cette pratique est indispensable.  相似文献   

15.
16.
B. Hurpin 《BioControl》1959,4(3):233-248
Résumé Nous avons comparé, au laboratoire, la virulence pour les larves du Hanneton commun (Melolontha melolontha L.), ainsi que pour quelques autres espèces deScarabeidae (Amphimallon majalis Raz.,A. solstitialis L.,Oryctes nasicornis L.,Cetonia aúrata L.) de quatre types de maladie laiteuse: le germe pathogène dans la nature pour nos Vers blances indigènes:Bacillus popilliae, soucheMelolontha, B. popilliae Dutky,B. euloomarahae Beard, etB. lentimorbus Var.australis Beard. Les essais effectués à la fois par injection intralymphale et par contamination de la nourriture montrent que la souche indigène,B. popilliae soucheMelolontha, est la plus virulente pour les larves de cette espèce. Seule, elle est active par infection ?per os?. L'évolution de la maladie en fonction de la température a été étudiée en comparantB. popilliae ?Melolontha? àB. popilliae Dutky. Pour les deux germes il est nécessaire que la température soit supérieure à 15°C, l'optimum étant voisin de 25°C. Le nombre de spores injectées ou ingérées para?t avoir moins d'importance à condition qu'il soit plus grand qu'une dose minimum, inférieure à 10 000 spores injectées à l'individu. D'après les essais préliminaires réalisés jusqu'à présent, la virulence semble se conserver au cours des passages d'h?te à h?te aussi bien pour la souche fran?aise que pour la bactérie américaine. Le déclenchement de la métamorphose est compatible avec la poursuite de l'infection, mais la résistance des nymphes et la sensibilité des jeunes insectes parfaits empêche la contamination des imagos dans la nature.
Zusammenfassung In Laboratoriumsversuchen wurde die Pathogenit?t von folgenden 4 verschiedenen Erregern der ?Milchkrankheit? verglichen:Bacillus popilliae, Stamm ?Melolontha? (in der Natur bei uns vorkommend und für einheimische Engerlinge vonMelolontha pathogen),B popilliae Dutky,B. euloomarahae Beard. undB. lentimorbus, var.australis Beard; diese wurden in ihrer Wirkung gegenüber folgenden Scarab?idenarten untersucht:Melolontha melolontha L.,Amphimallon majalis Raz.,A. solstitialis L.,Oryctes nasicornis L.,Cetonia aurata L. Die sowohl durch intralymphale Injektion als auch durch Versuchung der Nahrung durchgeführten Versuche zeigen, dass der einheimische Bakterienstamm (B. popilliae, Stamm ?Melolontha?) der virulenteste für die Larven dieser Spezies ist: nur dieser führt nach peroraler Infektion zur Erkrankung. Der Einfluss der Temperatur auf die Entwicklung der Krankheit wurde anB. popilliae ?Melolontha? undB. popilliae Dutky verglichen. Beide Keime ben?tigen mehr als 15°C W?rme, ihre Optimaltemperatur liegt bei 25°C. Die Anzahl Sporen, die konsumiert oder injiziert wird, scheint weniger wichtig zu sein, sofern bei Injektionen der Minimalbetrag von 10 000 Sporen pro Individuum erreicht wird. Den bis jetzt durchgeführten Vorversuchen nach zu schliessen, scheint sich die Virulenz des franz?sischen sowie des amerikanischen Bakterienstammes durch übertragung von Wirt zu Wirt zu erhalten. Die Infektion dauert selbst bei Beginn der Metamorphose an, die Widerstandsf?higkeit der Puppen und der jungen Imagines macht jedoch einen Befall der letzteren in der Natur unm?glich.
  相似文献   

17.
Résumé H. raynevali est la principale espèce de coccinelle importée de l'Amérique latine et acclimatée par l'I.I.T.A. pour lutter contre la cochenille du maniocP. manihoti. E. flaviventris etD. hennesseyi sont 2 autres coccinelles prédatrices présentes au sein de la biocoenose de la cochenille du manioc. Après avoir étudié leur biologie au laboratoire, on a pu comparer leurs potentialités respectives. A partir de ces résultats, on a tenté de déterminer le r?le que chaque espèce prédatrice pourrait éventuellement jouer dans les conditions naturelles et de définir les périodes les plus propices à la manifestation d'une meilleure efficacité.   相似文献   

18.
Résumé En cours de cette etude ont été énoncées les données concernant la manifestation de tufs zoogènes dans les eaux qui ravitaillent les lacs de Plitvice en Yougoslavie. Outre le tuf chironomide qu'on y trouve représenté sous trois types: oocardien, cratoneuronien et platyhypnidien, il a été établi qu'à l'endroit où se rencontrent la Crna rijeka et Bijela rijeka, on rencontre un type particulier de tuf trichoptere. Ce tuf se forme par l'action du trichoptère Stenophylax et Rhyacophila, ainsi que par l'action du gastropode Lithoglyphus fluminensis. Par leurs gangues et leurs coquilles, ils maintiennent les parcelles de calcaire sécrétées par voie abiogène. Ainsi se forme un substrat calcareux sur lequel viennent se poser ensuite des cyanoficées et des desmidiacées ∘ocardium stratum qui forwent can tuf de caractère lacustre. Quoiqu'à l'origine ces tufs soient différents, ils forwent can tout. Un peu plus bas dans la rivière, se forme can tuf semblable avec cette seule différence que son substrat est formé aussi de tufs cyanoficées et oocardiens, car ici la seule base solide est formée par des branches et des troncs. Nous signalons pour finir que le reste du tuf en cet endroit n'est pas conditionné seulement par des facteurs biogènes simples, mais que vraisemblablement d'autres composants agissent dans lesquels notamment des animaux jouent can r?le.
Zusammenfassung In dieser Verhandlung haben die Autoren besondere Angaben über das Vorkommen des zoogenen Tuffes im Gebiete der Verpflegungsgew?sser von Plitvička jezera in Jugoslawien mitgeteilt. Nebst dem Chironomidentuff, welcher hier in drei verschiedenen Formen, als Ookardischer-, Kratoneuronischer- und Platyhypnidischer Chironomidentuff vorkommt, wurde festgestellt, dass in den Verbindungsgebieten der Flüsse Crna rijeka und Bijela rijeka, noch eine besondere Form des Tuffes, sogenanter Trichopterentuff erscheint. Diese Form des Tuffes kommt durch die Mitwirkung der Larven von K?cher-fliegen Stenophylax and Rhyacophila und Schnecken Lithoglyphus fluminensis zustande. Kalkteilchen werden von ihren K?chern und Geh?usen zurückgehalten, und auf diese Weise durch einen abiogenen Vorgang ausgeschieden. Auf dieser so entstandenen Kalkunterlage siedeln sich nachdem Cyanophyceen, und von den Desmidiaceen Oocardium stratum an. Dieser Tuff hat einen durchwegs lakustrischen Charakter. Obwohl die genannten Tuffe ihrer Entstehung nach verschieden sind, stellen she doch eine einheitliche Erscheinung. In etwas abw?rts gelegener Richtung entsteht eine ?hnliche Form des Tuffes, nur wit dem Unterschied, dass der Untergrund hier auch als Oocardium-und Spaltalgen-Tuff ausgebaut ist, da in diesen Falle die einzige feste Unterlage von Zweigen und Balken gebildet wird. Endlich wurde noch darauf hingewiesen, dass auch aller übrige Tuff in diesem Gebiete nicht nur von biogenen Faktoren abh?ngt, sondern dass wahrscheinlich noch andere Vorg?nge bei seiner Bildung beteiligt sind. Dabei kommt auch den Tieren ein gewisser Anteil zu.
  相似文献   

19.
Au cours des dernières années, des progrès considérables ont été obtenus dans la qualité de la prise en charge diagnostique et thérapeutique des Accidents Vasculaires Cérébraux (AVC). Des filières spécifiques de soins se mettent en place, leur efficacité est d’autant plus grande que le patient est pris en charge plus t?t. Malheureusement, l’AVC demeure parfois méconnu ou négligé en phase aigu? alors que des solutions thérapeutiques existent. L’apparition de nouveaux outils diagnostiques fiables et simples, utilisables en pré-hospitalier ou dans les services d’urgence, devrait permettre de réduire les délais d’admission dans les unités dédiées tout en assurant une bonne utilisation des moyens.  相似文献   

20.
Cette publication présente les résultats d’une étude de 6.263 spécimens de Xylocopinae récoltés en France métropolitaine (France continentale et Corse) et en Belgique et qui proviennent de récoltes personnelles et de 63 institutions et collections privées. Les Xylocopinae de France sont représentées par 11 espèces du genre Ceratina et 4 espèces du genre Xylocopa. Seules deux de ces espèces sont présentes en Belgique : Xylocopa violacea (L.) et Ceratina cyanea (Kirby). Un nouveau sous-genre pour le genre Ceratina est décrit : Dalyatina n. subg. Il comporte l’espèce méditerranéenne Ceratina parvula Smith présente en France, ainsi que six autres espèces d’Afrique subsaharienne. Pour chaque genre, sous-genre et espèce, les auteurs fournissent une diagnose, une diagnose différentielle, la liste des fleurs visitées, la liste des sites de nidification, la carte de distribution en France métropolitaine, un diagramme phénologique et une clé d’identifi cation des genres, sous-genres et espèces. La systématique, la biogéographie, l’écologie et le sexe ratio des espèces sont présentés et discutés. Les Xylocopinae apparaissent comme très largement polylectiques mais montrent une très nette affinité envers les Lamiaceae, les Asteraceae Cardueae et, pour le genre Xylocopa, envers les Fabaceae. Toutes les espèces présentent une phénologie estivale qui s’étend d’avril à septembre. Le sexe-ratio de la plupart des espèces est biaisé vers les femelles. Aucun mâle de C. parvula, pour 120 femelles, n’a été observé ce qui suggère que, en France du moins, l’espèce pourrait se reproduire par parthénogenèse thélytoque comme c’est le cas de C. dallatorreana Friese. La publication comprend 62 dessins au trait, 18 photos au microscope électronique à balayage, 17 cartes, 14 graphiques de phénologie, une liste de 232 espèces de fleurs visitées par les Xylocopinae, dont 176 observations originales, et 171 références.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号