首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
《Biometrics》2006,62(2):643-643
R. A. Betensky , C. K. Christian , M. L. Gustafson , J. Daley , and M. J. Zinner 598 Le Groupe Leapfrog, un consortium de plus de 100 grands employeurs, qui déclare fournir collectivement l'assurance santéà plus de 33 millions de personnes, s'est réuni en 2000 dans le but d'utiliser les ressources du marché pour améliorer la qualité des soins de santé. Le résultat de l'initiative du groupe Leapfrog suggère la référence sélective des procédures complexes aux hôpitaux d'activitéélevée et détermine des seuils d'activité d'ensemble pour cinq procédures. Ceci a été basé sur l'hypothèse que les hôpitaux à faible volume d'activité présentent une mortalité plus élevée, ce qui peut être perçu comme l'hypothèse, en termes statistiques simplifiés, que le paramètre p de la binomiale est une fonction décroissante de n. L'analyse de la corrélation entre les rapports normalisés de la mortalité des hôpitaux (SMR, ie, le rapport de décès observés par rapport aux décès prévus) et les volumes d'activité des hôpitaux est révélatrice au sujet de l'hypothèse volume/mortalité. Cela présente un exemple pédagogique peu commun dans lequel la détection de la corrélation en présence de la dépendance non linéaire est d'intérêt primaire, alors que la corrélation au sens de Pearson est parfaitement adaptée. Les mesures non paramétriques fréquemment utilisées de l'association bivariée sont inadéquates, car elles ne peuvent pas faire de distinction entre la notion de corrélation et la notion de dépendance. T. A. Alonzo and J. M. Kittelson 605 La précision (sensitivité et spécificité) d'un nouveau test de dépistage peut être comparéà celui d'un test standard en appliquant les deux tests à un groupe de sujets pour lesquels le statut vis‐à‐vis de la maladie peut être déterminé par un « gold standard » (GS). Cependant, il n'est pas toujours possible d'utiliser le GS pour tous les sujets de l'étude. Par exemple, une étude est planifiée pour évaluer si le nouveau test de dépistage des cancers cervicaux (« ThinPrep ») est meilleur que le test standard (« Pap »), et dans ce cas, il n'est pas faisable (ou éthique) de déterminer le statut vis‐à‐vis de la maladie en réalisant une biopsie, dans le but d'identifier des femmes avec ou sans pathologie pour participer à l'étude. Quand le statut vis‐à‐vis de la maladie ne peut être connu pour tous les sujets de l'étude, la précision relative de deux tests de dépistage peut toujours être estimée en utilisant un schéma de dépistage positif apparié (PSP), dans lequel tous les sujets reçoivent les deux test de dépistage, mais n'ont le GS que si l'un des deux tests de dépistage est positif. Malheureusement, dans l'exemple des cancers cervicaux, le protocole PSP n'est pas non plus praticable puisqu'il n'est techniquement pas possible d'administrer et le ThinPrep et le Pap au même moment. Dans ce papier, nous évaluons un schéma de dépistage positif apparié randomisé (RPSP), dans lequel les sujets sont randomisés pour recevoir dans un premier temps un des deux tests de dépistage, et ils reçoivent l'autre test et le GS seulement si le premier test de dépistage est positif. Nous calculons les estimations du maximum de vraisemblance et les intervalles de confiance de la précision relative des deux tests de dépistage, et évaluons le comportement de ces estimations, sur petit échantillon, par des études de simulations. Des formules de calcul du nombre de sujets nécessaires sont appliquées à l'exemple d'essai de dépistage du cancer cervical, et l'efficacité du schéma DAPR est comparé avec d'autres schémas. G. Qin and X.‐H. Zhou 613 Pour un test diagnostic sur une échelle continué, l'indicateur le plus communément utilisé pour résumer la courbe ROC est l'aire sous la courbe (AUC) pour refléter la justesse de ce test diagnostic. Dans cet article, nous proposons une approche de vraisemblance empirique pour l'inférence sur l'AUC. Nous définissons tout d'abord un rapport de vraisemblance empirique pour l'AUC et nous montrons que sa distribution limite est un khi‐deux ajusté. Nous obtenons alors un intervalle de confiance pour l'AUC basé sur la vraisemblance empirique en utilisant la distribution du khi‐deux ajusté. Cette inférence par vraisemblance empirique pour l'AUC peut être étendue à des échantillons stratifiés, la distribution limite qui en résulte est alors une somme pondérée de khi‐deux indépendants. De plus nous avons réalisé des simulations pour comparer la performance relative de l'intervalle obtenu par l'approche de vraisemblance empirique par rapport aux intervalles obtenus avec l'approximation normale et par rééchantillonnage de type ?bootstrap?.  相似文献   

2.
Le déroulement de divers types de phagocytoses, et de la formation de granulomes hémocytaires a été analysé en détail en utilisant la microcinématographie image par image. Ces réactions de défense ont été reproduitesin vitro sur les systèmes hémocytaires des mollusquesHelix etZonites, et ont permis de montrer pour les bactéries (Streptococcus) les différents stades de l'englobement direct et rapide des corps bactériens, ainsi que les mouvements orientés des pseudopodes accompagnés de déplacements des cellules qui aboutissent à l'incorporation des germes. Il a été observé que des hémocytes parviennent à phagocyter même des filaments myceliens de taille importante (Metarrhizium) par un processus lent consistant en la fixation progressive de la cellule qui plie le mycelium. Enfin, toute l'évolution de la formation des granulomes multicellulaires a été suivie d'une manière ininterrompue, notamment l'attraction des premières cellules, l'afflux et la superposition de plus en plus serrée d'hémocytes en nombre croissant, jusqu'à l'arrêt de l'évolution de cette réaction. Ces résultats mettent en évidence l'acquisition par les cellules groupées autour du champignon d'une attraction nette sur d'autres hémocytes, déclenchant de leur part une réaction d'adhésion. Ils montrent enfin que l'association de la reproductionin vitro des réactions cellulaires avec la technique microcinématographique est un principe d'étude particulièrement intéressant pour suivre la dynamique des réactions de défense à l'échelle cellulaire, et l'action de substances chimiques ou d'influences microbiennes sur ces processus.  相似文献   

3.
《Biometrics》2005,61(3):895-896
S. Matsui 816 Cet article développe des méthodes d'analyse stratifiée d'effets additifs ou multiplicatifs sur des critères binaires, dans le cadre d'essais randomisés avec défaut d'observance. Ces méthodes reposent sur une fonction d'estimation pondérée, garantissant une fonction d'estimation non biaisée à condition que la randomisation soit réalisée par strate. Quand les poids sont connus d'avance, l'estimateur obtenu est une extension naturelle de celui issu de la méthode d'estimation par variable instrumentale pour analyses stratifiées, et les bornes des intervalles de confiance dérivés des tests sont les solutions d'une équation quadratique du paramètre d'intérêt. Les poids optimaux qui maximisent l'efficacité asymptotique intègrent la variabilité inter‐strates de l'observance. Une évaluation basée sur l'efficacité asymptotique relative montre que l'efficacité peut être substantiellement améliorée en utilisant les poids optimaux plutôt que les poids conventionnels, lesquels n'intègrent pas la variabilité inter‐strates de l'observance. Enfin, ces méthodes d'analyse sont appliquées à une étude portant sur la maladie cardiaque coronarienne. L. Li , J. Shao , and M. Palta 824 Une erreur de mesure sur une covariable dans une régression est typiquement considérée pour agir d'une manière additive ou multiplicative sur la valeur de la vraie covariable. Cependant, une telle hypothèse ne tiens pas pour l'erreur de mesure sur la respiration dans les troubles du sommeil (SDB) dans l'étude de la Wisconsin Sleep Cohort Study (WSCS). La vraie covariable dans la sévérité de SDB, et le substitut observé est le nombre de pauses respiratoires par unité de temps de sommeil, qui a une distribution semi continue non négative. Avec une point masse de zéro. Nous proposons un modèle d'erreur de mesure à variable latente pour la structure d'erreur dans cette situation et l'implémentons dans un modèle linéaire mixte. La procédure d'estimation est similaire à une calibration dans une régression mais met en jeu une hypothèse sur la distribution de la variable latente. Les stratégies de modélisation et d'ajustement sont explorées et illustrées au travers de l'exemple du WSCS. J. P. Buonaccorsi , P. Laake , and M. B. Veierød 831 Cette note vise à clarifier les conditions sous lesquelles une analyse naïve impliquant un prédicteur entaché d'erreurs de classification induira un biais sur les coefficients de régression associés aux autres prédicteurs du modèle, prédicteurs dont on suppose qu'ils sont, pour leur part, parfaitement mesurés. Nous levons ici une incohérence apparente entre de précédents résultats et un résultat lié aux erreurs de mesure d'une variable continue dans une régression linéaire. Nous montrons que, de la même façon qu'une erreur portant sur une variable continue, une erreur de classification (même si elle n'est pas liée aux autres prédicteurs) induit un biais dans l'estimation des coefficients associés aux prédicteurs mesurés sans erreur, à moins que la variable entachée d'erreurs et les autres prédicteurs ne soient indépendants. Les biais conditionnels et asymptotiques sont discutés dans le cadre de la régression linéaire et explorés numériquement à travers l'exemple de la relation entre, d'une part, le poids à la naissance, et, d'autre part, le poids de la mère et le fait qu'elle fume ou non. J. Roy and X. Lin 837 Nous abordons les problèmes d'estimation dans les modèles linéaires généralisés pour données longitudinales avec sorites d'étude informative. Lorsqu'un individu sort de l'étude, non seulement la valeur de la variable réponse est manquante, mais souvent les valeurs de certaines covariables sont elles aussi non‐observées. Cependant, les modèles existants pour sortie d'étude informative supposent que les covariables soient complètement observées. Cette condition n'est pas réaliste en présence de covariables variant au cours du temps. Tout d'abord, nous étudions le biais asymptotique résultant de l'application des méthodes existantes, où les covariables temporelles manquantes sont gérées de manière naïve, c'est‐à‐dire (1) en utilisant seulement la valeur de base (“baseline”); (2) en reportant les valeurs de la dernière date d'observation, ou (3) en supposant qu'on peut ignorer les valeurs manquantes. Notre analyse de biais asymptotique montre que ces approches naïves produisent des estimateurs non consistants des paramètres. Dans un deuxième temps, nous proposons un modèle de sélection/transition qui autorise des sorties d'études avec valeurs manquantes, aussi bien sur les covariables explicatives que sur la variable réponse. Nous utilisons l'algorithme EM pour l'inférence de ce modèle. Nous illustrons la méthode proposée sur les données d'une étude longitudinale concernant des femmes infectées par le VIH. B. I. Graubard and T. R. Fears 847 Le risque attribuable ajusté (RA) est la proportion d'individus malades dans une population sujette à une exposition. Nous envisageons des estimations pour le RA ajusté basés sur les rapports de chance (odds ratios) à partir de régression logistique pour ajuster sur les effets confondus. Des méthodes de fonction d'influence utilisées en échantillonnage d'enquêtes sont appliquées pour obtenir des expressions simples et facilement programmables pour estimer la variance de^RA. Ces estimateurs de variance peuvent être appliqués à des données d'études de cas‐témoins, transversales et de cohortes avec ou sans appariement fréquentiel ou individuel et à des dispositifs échantillonnés qui vont de simples échantillons aléatoires à des échantillons groupés, stratifiés en plusieurs étapes et pondérés (par échantillonnage) du type de ceux utilisés dans les enquêtes nationales sur les ménages. L'estimation de la variance de^RA est illustrée au moyen de: (i) une étude transversale avec groupement en plusieurs étapes avec stratification pondérée issue de la troisième enquête nationale de santé et d'examens sur l'asthme de l'enfance, et (ii) une étude de cas‐témoins avec appariement fréquentiel dans le mélanome cutané malin.  相似文献   

4.
DISCUSSION PAPER     
《Biometrics》2007,63(3):979-979
Principal Stratification Designs to Estimate Input Data Missing Due to Death Nous nous intéressons à des études portant sur des cohortes d'individus après la survenue d'un événement critique, comme une blessure, et ayant les caractéristiques suivantes. Premièrement, les études sont conçues pour mesurer des variables d'“input”, qui décrivent la période avant l'événement critique, et pour caractériser la distribution des variables d'“input” dans la cohorte. Deuxièmement, les études sont conçues pour mesurer des variables d'“output”, principalement la mortalité après l'événement critique et pour caractériser la distribution prédictive (conditionnelle) de la mortalité connaissant les variables d'“input” dans la cohorte. De telles études présentent souvent la complication que les données d'“input” manquent pour ceux qui meurent peu après l'événement critique car le recueil des données est réalisé après l'événement. Les méthodes standard de prise en compte des “inputs” manquants, telles que les méthodes d'imputation ou de pondération basées sur l'hypothèse que l'on peut ignorer le processus de données manquantes, sont connues comme étant en général non valides quand le processus de données manquantes ne peut être ignoré, c'est à dire quand la distribution des “inputs” est différente chez ceux qui meurent et ceux qui survivent. Pour répondre à ce problème, nous proposons un nouveau schéma qui recueille et utilise l'information sur une autre variable importante—un traitement ou une variable sous contrôle externe, qui, si elle avait étéà son niveau optimal aurait pu empêcher le décès de ceux qui sont morts. Nous montrons que ce nouveau schéma peut être utilisé pour faire des inférences valides pour la distribution marginale des “inputs” dans la cohorte entière et pour la distribution conditionnelle de la mortalité connaissant les “inputs”, également dans la cohorte entière, même si le processus de données manquante ne peut être ignoré. Le contexte crucial que nous utilisons est la stratification principale basée sur les “outputs” potentiels, comme ici la mortalité après les deux niveaux de traitement. Nous montrons aussi à l'aide de données préliminaires sur des blessures, que notre approche peut donner des résultats qui sont plus raisonnables que les résultats obtenus par les méthodes standard, et ceci de façon relativement dramatique. Ainsi notre approche suggère que le recueil en routine de données sur des variables qui pourraient être utilisées comme traitement possible dans de telles études d'“inputs” et de mortalité devrait être fait en routine.  相似文献   

5.
REGULAR ARTICLES     
《Biometrics》2006,62(3):952-958
  相似文献   

6.
Evaluation of proficiency testing as a method of assessing competence to screen cervical smears Regular proficiency testing of pathologists and cytotechnologists who undertake the analysis of cervical smears has been carried out in cytology laboratories in the North Thames (West) Region since 1989. The protocol followed is one that has been adopted nationally. Since the scheme started, laboratory personnel from 17 cytology laboratories in the Region have participated and seven rounds of testing have been completed. Nine hundred and seventy-one tests were carried out and a pass rate of 96.4% was recorded. Two hundred and forty-seven cytologists took the test on at least one occasion and 63 cytologists took part in all seven rounds. Our results indicate that proficiency testing is capable of detecting cytologists who consistently perform below an acceptable standard and require retraining. They also show that even the most competent screeners can miss an abnormal smear. Seven cytologists who had proved their competence to screen on six occasions, missed an abnormal smear on the seventh, despite the fact that they were screening under test conditions when their vigilance should have been at its peak. Our findings indicate that false-negative reporting will inevitably occur during manual screening, and emphasize the need for further research into the causes and prevention of screening error. Evaluation des tests d'aptitude comme méthode d'appréciation de la compétence à lire les frottis cervico-utérins de dépistage Le passage régulier de tests d'aptitude pour les pathologistes et les cytotechniciens qui prennent en charge l'analyse de frottis cervico-utérins est utilisé dans les laboratoires de cytologie de la région North Thames (West) depuis 1989. Le protocole choisi est l'un de ceux qui ont été adoptés au niveau national. Depuis le début de ce programme, 7 sessions de tests ont été organisées et le personnel de 17 laboratoires de cytologie de la région a participé. Neuf cent soixante et onze tests ont été pratiqués et le taux de participation enregistré est de 96,4%. Deux cent quarante sept cytologistes ont fait le test au moins une fois et 63 cytologistes ont passé les 7 sessions de tests. Nos résultats indiquent que les tests d'apitude sont capables d'identifier les cytologistes qui ont besoin d'une formation car leur résultats aux tests sont régulièrement en dessous des standards acceptables. Ils montrent également que même les “screeners” les plus compétents peuvent passer à côté d'un frottis anormal. Sept cytologistes ayant montré leur compétence pour la lecture des frottis de dépistage sur 6 tests n'ont pas été capable de détecter un frottis anormal sur le septième test, bien que cette lecture ait été faite dans des conditions de test où leur vigilance aurait dû être à son maximum. Ces résultats indiquent qu'il est impossible d‘éviter les faux négatifs au cours du “screening manuel” et confirment la n?essité de poursuivre les recherches sur les causes des erreurs de lecture et sur leur prévention. Die Ergebnisse der Laistungstests als Grundlage für die Fähigkeit gynäkologische Abstriche auszuwerten Regelmässige Leistungstests von Zytopathologen und Zytotechnikerinnen beim Auswerten gynäkologischer Abstriche wurden seit 1989 in den Labors der Nord-Themse Region durchgeführt. Das Testprotokoll entspricht dem landesweit angewandten. Inzwischen nahmen 17 Labors an insgesamt 7 Testrunden teil. Die Gesamtzahl der Tests beträgt 971 wobei 96,4% der Teilnehmer die Tests bestanden. 247 Teilnehmer nahmen an zumindest einem Test, 63 an allen sieben teil. Die Auswertungen ergaben, dass auf diese Weise Zytologen mit unterdurch schnittlicher Leistung identifiziert und einem Zusatztraining zugeführt werden können. Sie zeigen aber auch, dass selbst die Erfahrendsten gelegentlich positive Befunde übersehen. Sieben Teilnehmer begingen diesen Fehler nach sechs fehlerfreien Durchgängen beim siebten Test trotz der bekannten Testsituation. Dies bedeutet, dass Fehler bei nichtautomatischer Auswertung unvermeidbar sind. Die Ursachenforschung muss weitergeführt werden.  相似文献   

7.
REGULAR ARTICLES     
《Biometrics》2006,62(2):636-643
  相似文献   

8.
La réussite d’une délocalisation des analyses de biologie médicale est la résultante d’une volonté de coopération entre les trois partenaires que sont le clinicien, le biologiste et les services administratifs. Elle s’appuie sur la répartition clairement définie des responsabilités en termes d’utilisation de résultats et de management, la mise en place de procédures de fonctionnement et un suivi continu de la totalité du processus. Elle ne peut se passer d’une liaison informatique en temps réel avec le laboratoire qui permet de respecter les règles de l’assurance qualité et du GBEA. Bien ma?trisée, et appliquée à bon escient, elle peut représenter une solution pour améliorer la prise en charge du patient.  相似文献   

9.
An evaluation of ‘rapid review’ as a method of quality control of cervical smears using the AxioHOME miscroscope One method of quality control which has recently been recommended by professional bodies in the UK is the ‘rapid review’ method. This involves the microscopic 30 s review of all negative cervical smears with the intention of flagging potential missed abnormalities. Although it has been suggested that rapid review is better than 10% random rescreening of negative smears, the efficiency and efficacy of this method of quality control have not been thoroughly evaluated. We have used the AxioHOME system, which can record the area of a slide covered and the screening time, to investigate slide coverage during rapid review quality control, as performed by 15 cytoscreeners and MLSOs reviewing a test set of 22 slides each. The test set comprised 18 negative slides, three positive slides, and one unsatisfactory slide. We have recorded two distinct methods of rapid review in use amongst cytotechnologists, the step method and the whole slide method. The data show that rapid review takes longer on average than the recommended 30 s, the mean screening times being 76 s and 82 s for the step and whole slide methods, respectively. Abnormal smears were missed on three of 15 occasions by the step method (sensitivity 80%, positive predictive value 85%), and on seven of 30 occasions by the whole slide method (sensitivity 76.6%, positive predictive value 45%). However, the 95% confidence intervals were wide (57.7–90.7% for the step method, and 51.9–95.7% for the whole slide method). Analysis of scanning tracks and screening rates shows significant flaws in the methodology of rapid review. Abnormal cells were not identified, although dyskaryotic cells were included in the scanning track on nine occasions, seven using the whole slide method and two using the step method. On one occasion (using the step method) abnormal cells were not identified because they were not included in the scanning track. Further research is in progress to determine optimal methods of rapid review, and whether the rapid review technique is as effective as automated screening systems for quality assurance in cytology. Evaluation de la technique de ‘Relecture Rapide’ comme méthode de contrôle de qualité des frottis cervico-utérins, à l'aide du microscope AxioHOME Une des méthodes de contrôle de qualité récemment recommandée par le corps professionnel du Royaume Uni est la méthode dite de ‘relecture rapide’. Cette méthode consiste en une deuxième lecture d'une durée de trente secondes de tous les frottis cervicaux négatifs et dont l'objectif est de détecter les anomalies ayant pu échapper au premier examen. Bien qu'il ait été suggéré que cette méthode de relecture rapide soit meilleure que la relecture de 10% des frottis négatifs tirés au sort, le rendement et l'efficacité de cette méthode de contrôle de qualité n'ont pas été évalués complètement. Nous avons utilisé le système AxioHOME capable d'enregistrer la plage de la lame qui a été explorée ainsi que le temps de lecture afin d'étudier la surface explorée au cours de cette relecture rapide telle qu'elle a pu être pratiquée par quinze cytotechniciens et MLSOs, chacun ayant relu une série test de vingt deux lames. Cette série test comprenait dix huit lames négatives, trois lames positives et un frottis non satisfaisant. Nous avons noté que les cytotechniciens utilisaient deux méthodes de relecture rapide différentes, la méthode ‘pas à pas’ et la méthode ‘globale’. Les données montrent que la relecture rapide prend, en moyenne, un temps supérieur aux trente secondes recommandées, la moyenne des temps de lecture étant de 76 secondes et de 82 secondes respectivement pour la méthode ‘pas à pas’ et la méthode ‘globale’. Les anomalies n'ont pas été détectées dans trois cas sur quinze par la méthode ‘pas à pas’ (sensibilité 80%, valeur prédictive positive 85%), et dans 7 cas sur 30 par la méthode globale (sensibilité 76,6%, valeur prédictive positive 45%). Toutefois, l'intervalle de confiance à 95% est important (57,7%-90,7% pour la méthode ‘pas à pas’ et 51,9%-95,7% pour la méthode globale). L'analyse des surfaces balayées et des taux de détection montre des points faibles significatifs de cette méthodologie de relecture rapide. Dans 9 cas, les anomalies n'ont pas été identifiées alors que des cellules dyskaryotiques étaient présentes dans les plages balayées au cours de la relecture (sept utilisant la méthode globale et deux utilisant la méthode ‘pas à pas’). Dans un cas (avec la méthode ‘pas à pas’) les cellules anormales n'ont pas été identifiées parce qu'elles étaient absentes des plages de relecture. Des études sont en cours afin de déterminer quelles sont les méthodes optimales de relecture rapide et si ces techniques de relecture rapide sont aussi efficaces que les systèmes de lecture automatisée pour l'assurance de qualité en cytologie cervico-utérine. ‘Rapid Review’ als Methode der Qualitätskontrolle gynäkologischer Abstriche, Überprüfung mit dem AxioHOME-Mikroskop Die empfohlene ‘Rapid Review’ Kontrolle aller negativen Abstriche in nur 30 Sekunden anstelle des Nachscreenens von 10% der Präparate ist in ihrer Zuverlässigkeit bislang nicht überprüft worden. Mit Hilfe des AxioHOME-Mikroskops ist es möglich sowohl die ausgewertete Fläche, als auch die erforderliche Zeit zu erfassen. 15 Auswerter prüften mit der Methode jeweils einen Testsatz von 22 Präparaten. Er enhielt 18 negative, 3 positive und 1 nichtauswertbaren Abstrich. Getestet wurden zwei verschiedene Vorgehensweisen: die schrittweise und die das ganze Präparat erfassende. Beide erfordern mehr Zeit als 30 Sekunden; der mittlere Zeitaufwand betrug für die Schrittmethode 76 und für die Ganzheitsmethode 82 Sekunden. Die Schrittmethode verfehlte 3/15 Anomalien (Sensitivität 80%, positiver prädiktiver Wert 85%), die Ganzheitsmethode 7/30 (Sensitivität 76,6%, positiver prädiktiver Wert 45%). Der 95% Konfi denzbereich reichte für die Schrittmethode von 57,5–90,7% und für die Ganzheitsmethode von 51,9–95,7%). Die Analyse deckt wesentliche Schwachstellen des Rapid Review-Verfahrens auf. In 9 Fällen lagen nicht erkannte Zellatypien in den kontroll ierten Bahnen (7 bei des Schrittmethode, 2 bei der Ganzheitsmethode). Einmal lagen sie bei der Schrittmethode ausserhalb der geprüften Bahnen. Weitere Studien werden prüfen ab das Rapid Review-Verfahren automatisierten Systemen vergleichbar ist.  相似文献   

10.
REGULAR ARTICLES     
《Biometrics》2005,61(3):891-895
L. Cowen and C. J. Schwarz 657 Les Radio‐tags, en raison de leur détectabilitéélevée, sont souvent employés dans les études de capture re‐capture. Une qualité essentielle requise est que les Radio tags ne cessent pas de fonctionner pendant l'étude. Le dysfonctionnement d'un Radio tag avant la fin d'une étude peut conduire à sous‐estimer le taux de survie. Nous développons ici un modèle pour incorporer des données issues de radio tags déficients. Ce modèle a été appliqué aux smolts chinook (tshawytscha d'Oncorhynchus) sur la Colombia river WA. Les estimations des taux de survie obtenus à partir de ce modèle sont beaucoup plus grandes que celles observées dans l'analyse standard de Cormack‐Gaie‐Seber. M. A. Suchard , R. E. Weiss , and J. S. Sinsheimer 665 Les facteurs de Bayes pour comparer deux hypothèses ou plus en compétition sont souvent estimés en construisant un échantillon de chaînes de Markov (MCMC) pour explorer l'espace joint des hypothèses. Pour obtenir des estimations efficaces des facteurs de Bayes, Carlin et Chibb (1995) ont suggéré d'ajuster les odds a priori des hypothèses en compétition de telle sorte que les odds a posteriori soient approximativement un et d'estimer alors les facteurs de Bayes par simple division. Un sous‐produit est que l'on produit souvent plusieurs chaînes MCMC indépendantes, une seulement étant utilisée pour l'estimation. Nous étendons cette approche en proposant trois tests statistiques qui incorporent les résultats des différentes chaînes. Le premier suppose des tirages indépendants dans une chaîne et modélise la fonction indicatrice de l'hypothèse en utilisant une régression logistique pour différents choix des odds a priori. Les deux autres modèles plus complexes abandonnent l'hypothèse d'indépendance en permettant des dépendances retard dans les résultats des différentes chaînes. Ces modèles nous permettent d'estimer l'incertitude dans nos calculs des facteurs de Bayes et d'utiliser pleinement les différentes chaînes MCMC, même si les a priori des odds varient de chaîne à chaîne. Nous appliquons ces méthodes de calcul des facteurs de Bayes pour tester la monophyllie dans deux exemples de phylogénie. Le premier exemple explore la relation d'un pathogène inconnu à un ensemble de pathogènes connus. L'identification de la relation monophyllique du pathogène inconnu peut influer sur le choix de l'antibiotique dans une perspective clinique. Le second exemple se concentre sur la détection des recombinaisons du virus VIH. Pour une application clinique potentielle, ces types d'analyse devraient être achevés aussi efficacement que possible. J. Zhu , J. C. Eickhoff , and P. Yan 674 Des observations de réponses spatio‐temporelles multiples se présentent souvent dans les études environnementales et écologiques. Alors que les modèles purement spatiaux de réponses univariées dans les familles exponentielles de distribution ont progressé au cours des dernières années (e.g. Diggle et al., 1998; Zhang, 2002), peu d'outils statistiques sont disponibles pour des réponse multivariées qui ne sont pas nécessairement Gaussiennes. Une exception cependant est le modèle à facteur commun développé pour des données spatiales multivariées par Wang et Wall (2003). Le but de cet article est d'étendre ce modèle multivarié uniquement spatial et de proposer une classe flexible de modèles linéaires généralisés de variables latentes appliqués à des données multivariées spatio‐temporelles. L'inférence statistique repose sur des estimées du maximum de vraisemblance et de leurs écarts‐type obtenues par l'algorithme EM de Monte Carlo. Nous proposons aussi une nouvelle méthode d'ajustement automatique de la taille de l'échantillon Monte Carlo, qui facilite la convergence de l'algorithme EM et présente ainsi quelque intérêt indépendant. La méthodologie est illustrée par une étude écologique du pin rouge en réponse à des attaques de charançon de l'écorce dans une forêt du Wisconsin. Y.‐G. Wang , X. Lin , and M. Zhu 684 Les méthodes robustes sont utiles pour assurer des inférences statistiques fiables en cas de légers écarts aux hypothèses du modèle. La méthode très largement utilisée des équations d'estimation peut être “robustifiée” en remplaçant les résidus standardisés par les M‐résidus. Si les résidus de Pearson sont supposés centrés sans biais, les estimations des paramètres par l'approche robuste sont asymptotiquement biaisés lorsque les distributions des erreurs ne sont pas symétriques. Nous proposons une méthode pour corriger ce biais. Nos études numériques extensives montrent que la méthode proposée peut réduire ce biais substantiellement. On donne des exemples d'illustration. R. J. Cook , W. Wei , and G. Y. Yi 692 Nous proposons des méthodes semi‐paramétriques pour estimer et tester l'effet d'un traitement en présence d'un événement récurrent observé sur des périodes multiples, avec prise en compte de la censure. Ces méthodes reposent sur l'estimation de fonctions avec pour hypothèse de travail un modèle de Poisson mixte sous lequel les effets aléatoires individuels peuvent être éliminés par conditionnement. Des tests statistiques robustes dérivés de pseudo‐scores sont obtenus par estimation “sandwich” de la variance. L' efficacité relative des analyses conditionnelle et marginale est évaluée de façon analytique sous un modèle mixte de Poisson à temps homogènes. La robustesse et la puissance empirique de l'approche semi‐paramétrique sont étudiées au moyen de simulations. Des adaptations pour prendre en compte les événements récurrents survenant dans des essais en cross‐over sont décrites et ces méthodes sont appliquées aux données d'un essai en cross‐over sur deux périodes chez des patients souffrant d'asthme bronchique. X. Song and Y. Huang 702 Plusieurs méthodes de modélisation fonctionnelle ont été proposées, en présence d'erreur de mesure des covariables avec le modèle de taux proportionnels. Sont inclus dans ces méthodes, l'estimateur du score conditionnel (Tsiatis and Davidian, 2001, Biometrika 88, 447–458) l'estimateur avec correction paramétrique (Nakamura, 1992, Biometrics 48, 829–838) et l'estimateur avec correction non paramétrique (Huang and Wang, 2000, Journal of the American Statistical Association 95, 1209–1219) dans l'ordre d'hypothèses de plus en plus faible sur l'erreur. Bien qu'ils soient tous consistants, chacun de ces estimateurs souffre de possibles difficultés en présence de petits échantillons ou d'erreurs de mesure substantielles. Dans cet article, ayant observé que les estimateurs du score conditionnel ou avec corrections paramétriques étaient asymptotiquement équivalents pour une erreur normale, nous avons cherché quelle était leur performance relative pour des échantillons de taille finie et remarqué que le premier était le meilleur. Ceci signifie une approche générale affinée des méthodes de correction paramétriques et non paramétriques. Les corrections affinées des estimateurs sont asymptotiquement équivalentes à leurs correspondantes standards, mais ont des propriétés numériques améliorées et sont plus performantes lorsque les estimations standards n'existent pas ou sont extrêmes. Nous présentons des résultats de simulations et une application de ces méthodes à un essai clinique sur le HIV. A.‐C. Andrei and S. Murray 715 Ce travail étudie l'analyse séquentielle de données de survie appariées en utilisant une nouvelle classe de tests non‐paramétriques, fondés sur un log‐rank pondéré apparié (PWLR), et les tests à partir de Kaplan‐Meier pondérés appariés (PWKM). Pendant le déroulement d'un essai chacun de ces tests peut alternativement être considéré comme la statistique la plus extrême. En suivant l'évolution de PEMAX, le maximum des différences absolues du PWLR standardisé et du PWKM, on a, à la fois, les avantages des tests de rangs et les avantages des autres tests. Par des simulations on montre que l'utilisation de PEMAX contrôle le risque de type I et est quasiment aussi puissant que l'utilisation du meilleur des deux tests. Ceci, que l'hypothèse des hasards proportionnels soit respectée ou non. Désormais, PEMAX préserve la puissance de façon plus robuste que chacun des deux tests pris individuellement, tout en restant relativement simple à mettre en place et à utiliser dans une analyse. Un exemple, à partir de l'étude “Early Treatment Diabetic Retinopathy Study” (ETDRS), est donné. B. Lu 721 Dans les études d'observation avec un traitement dépendant du temps et des covariables dépendant du temps, il est souhaitable d'équilibrer la distribution des covariables à chaque instant. Un score de propension (“propensity score”) dépendant du temps basé sur le modèle de Cox à risques proportionnels est proposé et utilisé pour apparier les sujets exposés au risque. Il est montré que l'appariement sur ce score de propension permet d'obtenir une distribution équilibrée des covariables dans les groupes traité et non traité. Un appariement optimal avec divers plans est mis en place et comparé dans une étude de traitement chirurgical, cytoscopie et hydrodistention, pour une maladie chronique de la vessie, la cystite interstitielle. Des simulations suggèrent aussi que l'analyse statistique après appariement est plus performante que l'analyse sans appariement en terme d'estimation et d'intervalle de confiance. M. Naskar , K. Das , and J. G. Ibrahim 729 Une classe très générale de distributions de survie multivariées est utilisée pour analyser des données groupées de défaillance, sujettes à la censure et à des modes multiples de défaillance. Conditionnellement à des quantités spécifiques au groupe, la distribution jointe du temps de défaillance et de la variable indicatrice de l'évènement peuvent s'exprimer comme un mélange de la distribution des temps de défaillance dûs à un certain type (ou spécifique d'une cause) et de la distribution marginale du type de défaillance. Nous supposons ici que les distributions marginales des différents types de défaillance sont de fonctions logistiques de certaines covariables. Les quantités spécifiques au groupe sont soumises à une certaine distribution inconnue qui cause la fragilité. La distribution de fragilité est modélisée non paramétriquement par un processus de Dirichlet (DP). Dans une telle approche semi paramétrique une méthode hybride d'estimation est proposée basée sur l'algorithme pondéré du restaurant chinois (WCR) qui nous aide à générer des observations à partir de la distribution prédictive de la fragilité. L'algorithme de Monte‐Carlo ECM (MCEMC) joue un rôle vital pour obtenir des estimations des paramètres qui établissent l'importance des effets des facteurs causaux pour les défaillances d'un certain type. Une étude de simulation est conduite pour étudier la consistance de notre méthodologie. La méthodologie proposée est utilisée pour analyser des données réelles de contamination par le virus VIH sur une cohorte de femmes prostituées du Sénégal. F. Bretz , J. C. Pinheiro , and M. Branson 738 Traditionnellement, les stratégies d'analyse de données issues d'études dose‐réponse se partagent en deux grandes catégories : les procédures de comparaisons multiples et la modélisation. L'approche par modélisation suppose une relation fonctionnelle entre la réponse et la dose – celle‐ci est ici considérée comme un facteur quantitatif –, selon un modèle paramétrique spécifiéà l'avance. On utilise alors ce modèle pour estimer la dose permettant d'obtenir un niveau donné de réponse, mais la validité des conclusions dépend fortement de la pertinence du modèle de dose‐réponse, le vrai modèle étant a priori inconnu. A l'inverse, les procédures de comparaisons multiples considèrent la dose comme un facteur qualitatif et font très peu d'hypothèses – voire aucune – sur le modèle de dose‐réponse sous‐jacent. Avec ces procédures, il s'agira souvent d'identifier la dose minimale efficace, statistiquement significative et susceptible de produire un effet biologique considéré comme intéressant. Une des approches possibles est de tester la significativité de contrastes comparant différents niveaux de dose, tout en contrôlant le risque global de Type I. Ce type de procédure est relativement robuste ; cependant, l'inférence ne peut bien sûr pas sélectionner d'autres doses que celles utilisées dans l'étude. Dans cet article, nous décrivons une stratégie unifiée d'analyse de données issues d'études dose‐réponse, stratégie qui combine les techniques de comparaisons multiples et de modélisation. Nous supposons en fait l'existence de plusieurs modèles candidats, tous paramétriques, et utilisons des techniques de comparaisons multiples pour choisir le modèle le plus vraisemblable vis‐à‐vis de la vraie courbe dose‐réponse sous‐jacente, tout en contrôlant le risque global de Type I. On utilise alors le modèle ainsi sélectionné pour cerner, à l'aide d'une approche inférentielle, les doses les mieux appropriées. J. O'Quigley 749 La méthode de ré‐évaluation séquentielle (CRM) est un algorithme pour la recherche de dose qui s'appuie sur une remise à jour dynamique. Comme d'autres méthodes dynamiques, la CRM fournit une estimation de la dose courante qui correspond à un percentile cible. Cette dose, calculée à partir de tous les sujets inclus, sera utilisée pour la prochaine expérience. La mise en oeuvre de cette ré‐évaluation est possible grâce à l'utilisation d'un modèle simple. Dans l'état actuel des choses ni la CRM ni toute autre méthode dynamique permet d'estimer un percentile cible à partir de données rétrospectives, sauf dans le cas exceptionnel où le modèle simplifié génère les données. Dans cet article notre attention se porte sur un problème spécifique, à savoir l'analyse rétrospective par la CRM de données générées par un mécanisme arbitraire. Nous montrons comment procéder de façon cohérente. La méthodologie proposée n'est pas limitée à ce schéma particulier et s'applique à d'autres plans expérimentaux où l'estimation de la dose est faite par une mise à jour dynamique. L'analyse rétrospective pose un certain nombre de difficultés pour ces plans, en particulier la CRM, car ces plans ont la propriété d'exploiter un modèle de travail sous paramétré. On ne peut répondre à la question ‐ quel aurait été le résultat si on avait utilisé un autre plan expérimental. Néanmoins on peut fournir une estimation de ce résultat. Ceci a de nombreuses applications. Z.‐F. Yu and P. J. Catalano 757 Les effets neurotoxiques d'agents chimiques sont souvent analysés dans le cadre d'études contrôlées sur des rongeurs, pour de multiples variables (binaires et continues) collectées en routine. L'un des objectifs est d'évaluer le risque afin de déterminer les doses optimales non toxiques. De telles études sont cependant confrontées à deux problèmes majeurs concernant les variables continues. Premièrement, il est difficile, pour de telles variables, d'évaluer le risque et de définir une dose de référence. Lorsque le risque est associéà la survenue d'un événement, il peut clairement être défini de façon binaire par la survenue ou non de l'événement. Définir le risque de façon similaire pour des variables continues est moins évident. Dans ce cas, l'événement est souvent défini par un ensemble de valeurs inférieures à un certain seuil, la distribution de ces valeurs étant supposée normale ou log normale. Deuxièmement, alors que, pour de telles études, les variables continues sont traditionnellement analysées séparément, des travaux récents conseillent plutôt d'utiliser des modèles multivariés. Nous proposons une méthode pour modéliser et quantifier le risque associéà des variables continues bivariées. Il s'agit d'une extension des méthodes existantes de régression par quantiles. L'approche basée sur une vraisemblance, permet de dissocier les modèles dose‐réponse de chaque variable, tout en tenant compte de la corrélation bivariée et de la caractérisation globale du risque. L'approche utilisée pour estimer une dose de référence est analogue à celle utilisée pour des variables binaires, sans qu'il soit nécessaire de spécifier un seuil arbitraire. Nous illustrons nos méthodes avec des données issues d'une étude de neurotoxicité de l'exposition de rats au triethyltin. L. Huang , M.‐H. Chen , and J. G. Ibrahim 767 Nous proposons des méthodes bayésiennes pour estimer les paramètres de modèles linéaires généralisés (GLM) avec des données de covariables manquantes qu'on ne peut pas négliger. Nous montrons que lorsqu'une distribution uniforme a priori impropre est employée pour les coefficients de régression, ? , du modèle multinomial de sélection du mécanisme d'obtention des données manquantes, la distribution jointe a posteriori sera toujours impropre si (i) toutes les covariables manquantes sont discrètes et si un coefficient constant est inclus dans le modèle de sélection du mécanisme d'obtention de données manquantes, ou (ii) au moins une covariable est continue et non bornée. Ce caractère impropre se manifestera indifféremment que les a priori propres ou non soient spécifiés pour les paramètres de régression, β , du GLM ou des paramètres, α , de la distribution de la covariable. Pour résoudre ce problème, nous proposons une nouvelle classe d'a priori propres pour les coefficients de régression, ? , dans le modèle de sélection du mécanisme de données manquantes. Ces a priori sont robustes et intéressants pour le calcul au sens où les inférences concernant les β ne sont pas sensibles au choix des hyperparamètres des a priori de ? et qu'ils facilitent un schéma d'échantillonnage de Gibbs qui conduit à une convergence accélérée. De surplus, nous étendons le critère d'évaluation du modèle de Chen, Dey et Ibrahim (2004), appelémesure L pondérée, au GLM et aux problèmes des données manquantes de même que nous étendons le Critère d'Information de Déviance (DIC) de Spiegelhalter et al. (2002) pour évaluer si le mécanisme d'obtention des données manquantes peut être ignoré ou non. Un nouvel algorithme de Monte Carlo de chaîne de Markov est aussi développé pour mener à bien les calculs des a posteriori. Plusieurs simulations sont faites pour étudier la performance des critères bayésiens proposés et la sensibilité aux spécifications a priori. Des ensembles de données provenant d'un essai clinique sur une tumeur mélanique et d'une étude sur le cancer du foie sont présentés pour mieux illustrer las méthodes proposées. A. Golightly and D. J. Wilkinson 781 Cet article traite de l'estimation de constantes de taux dans des modèles stochastiques de processus intra‐cellulaire. Le modèle stochastique discret de cinétique sous jacent est remplacé par une approximation (par équation différentielle stochastique) où le bruit blanc modélise le comportement stochastique et on identifie le modèle utilise sur des intervalles de temps réguliers. L'estimation implique l'utilisation de m‐1 observations latentes entre chaque couples de dates d'observation. Les méthodes MCMC sont alors utilisées pour échantillonner la distribution a posteriori du processus latent et les paramètres du modèle. La méthodologie est appliquée à l'estimation des paramètres d'un processus d'auto régulation des gènes chez un procaryote. G. Diao and D. Y. Lin 789 Les méthodes statistiques pour détecter les gènes qui influencent des caractères quantitatifs à l'aide de marqueurs génétiques sont bien développées pour des phénotypes distribués normalement et complètement observés. De nombreuses expériences impliquent des phénotypes liés à un temps d'échec, qui ont des distributions asymétriques, et qui sont habituellement sujets à censure à cause des perdus de vue aléatoire, des échecs pour des causes en compétition ou de la limitation de la durée de l'expérience. Dans cet article nous développons des méthodes statistiques semi‐paramétriques pour cartographier des Locus de Caractères Quantitatifs (LCQ) basés sur des phénotypes à temps d'échec avec censure. Nous formulons les effets du génotype LCQ sur le temps d'échec au moyen du modèle à risques proportionnels de Cox (1972) et dérivons des procédures d'inférence efficaces basées sur la vraisemblance. De plus, nous montrons comment évaluer la signification statistique quand on recherche les LCQ dans plusieurs régions du génome complet. Des études extensives par simulation démontrent que les méthodes proposées ont de bonnes performances en pratique. Les applications à deux études animales sont présentées. W. Briggs and D. Ruppert 799 Doit‐on pratiquer des mammographies de précaution chez des femmes d'âge moyen en bonne santé? Les chirurgiens doivent‐ils utiliser le score TRISS bien connu pour prédire la chance de survie de leurs patients? Ce sont des exemples de questions auxquelles on est confronté lorsqu'on décide d'utiliser une prédiction de type Oui/Non. Pour retenir une prédiction nous devons montrer qu'elle est qu'elle est plus intéressante que serait notre meilleure vision en absence de prédiction. Le calcul d'une mesure permet d'identifier l'erreur lorsque la prédiction est erronée et d'examiner les performances passées de la prédiction compte tenu de cette erreur. On développe un test statistique dans ce but. Les prédictions qui seront acceptées par ce test seront dites avoir de la compétence. Seules les prédictions compétentes devraient être utilisées. On montrera des méthodes graphiques et numériques pour montrer la compétence. L'utilité des mammographies est étudiée par cette voie. O. Thas and J. C. W. Rayner 808 Dans cet article, nous construisons trois tests d'ajustement lissés pour tester une distribution ZIP contre des alternatives générales lisses au sens de Neyman. Nous appliquons nos tests à un ensemble de données auparavant présenté comme ZIP‐distribué, et nous montrons que le modèle ZIP ne décrit pas correctement les données. En cas de rejet de l'hypothèse nulle de modèle ZIP, les composantes individuelles de la statistique de test, qui sont directement liées à des paramètres interprétables dans un modèle lissé, peuvent être utilisées pour l'examen d'une distribution alternative.  相似文献   

11.
《Biometrics》2006,62(3):958-959
S. E. Wright and A. J. Bailer 886 Une expérience avec expositions intermittentes de toxicologie expérimentale fournit l'arrière plan de la discussion du dispositif. Le problème sous‐jacent est de décider quand échantillonner une réponse non linéaire pour minimiser la variance généralisée des estimations des paramètres. Une stratégie heuristique commode peut être appliquée au problème fournissant des dispositifs optimaux ou presque optimaux. L'efficacité de l'approche heuristique permet une exploration directe de la sensibilité de la solution proposée aux particularités de la situation telle que l'hétéroscédasticité, la densité des dates d'observation, les critères du dispositif, et les contraintes sur les valeurs des paramètres. On présente aussi brièvement une application de l'optimisation de dispositif pour le choix des doses dans une expérience de toxicologie de la reproduction. D. V. Mehrotra , X. Li , and P. B. Gilbert 893 Afin de justifier le plan de la première étude au monde visant une démonstration de principe (proof‐of‐concept ou POC) de l'efficacité d'un vaccin HIV basé sur l'immunité et relayé par la cellule, nous évaluons huit méthodes pour tester l'hypothèse nulle composite d'absence d'effet du vaccin soit sur l'incidence d'infection HIV, soit la valeur de la charge virale chez les patients infectés, en comparaison au placebo. Les deux premières méthodes utilisent un seul test appliqué aux valeurs mesurées ou aux rangs du poids de la maladie (BOI) qui combine l'infection et la charge virale. Les six autres méthodes combinent des tests séparés pour les deux critères utilisant des versions pondérées ou non du Z à 2 parties, des méthodes de Simes et de Fisher. A partir de simulations extensives réalisées pour construire l'essai POC type, les méthodes BOI révèlent en général une puissance faible de rejeter l'hypothèse nulle composite (et donc d'entreprendre un futur essai à grande échelle pour le vaccin). Les méthodes par combinaison de Simes et de Fisher non pondérées ont les meilleures performances dans l'ensemble. Un aspect important est que la conclusion est la même si le test de la composante relative à la charge virale est ajusté pour le biais que peut introduire le conditionnement par un événement (l'infection HIV) survenant après la randomisation. Cet ajustement est obtenu en utilisant un modèle de biais de sélection basé sur le cadre de la stratification principale de l'inférence causale. X. Huang , J. N. Cormier , and P. W. T. Pisters 901 Dans le traitement du cancer, les patients reçoivent habituellement une variété de traitements séquentiels. Les traitements initiaux administrés à la suite du diagnostic peuvent varier, comme les régimes de rattrapage suivants donnés après la rechute de la maladie. Cet article considère la situation où ni les traitements initiaux, ni les traitements de rattrapage sont randomisés. En faisant l'hypothèse qu'il n'y a pas de variables de confusion non mesurés, nous estimons les effets causaux conjoints sur la survie des traitements initiaux et de rattrapage, c'est‐à‐dire, les effets des séquences de traitement à deux niveaux. Pour chaque séquence de traitement individuelle, nous estimons la fonction de la distribution de survie et la durée de moyenne de survie restreinte. Les différentes séquences de traitement sont alors comparées en utilisant ces estimations et leurs covariances correspondantes. Des études de simulation sont conduites pour évaluer la performance des méthodes en incluant la sensibilitéà la violation de l'hypothèse de facteurs de confusion non mesurés. Les méthodes sont illustrées par une étude rétrospective de patients ayant un sarcome des parties molles, qui avait motivé cette recherche. D. E. Schaubel , R. A. Wolfe , and F. K. Port 910 L'analyse de la survie est souvent utilisée pour comparer des traitements expérimentaux et conventionnels. Dans les études observationnelles, la thérapie peut changer pendant le suivie. De telles modifications peuvent se résumer par des covariables dépendantes du temps. Étant donné la pénurie croissante de donneurs d'organes, des reins à plus haut risque provenant de donneurs à critères élargis (ECD) sont de plus en plus transplantés. Les candidats à la transplantation peuvent choisir d'accepter un organe ECD (thérapie expérimentale), ou de rester en dialyse et d'attendre la possibilité d'une transplantation non‐ECD ultérieure (thérapie conventionnelle). Une analyse dépendante du temps en trois groupes pour ce type de données implique l'estimation de paramètres correspondants aux deux covariables indicatrices dépendantes du temps représentant les transplantations ECD ou non‐ECD, chacune étant comparée à ceux qui restent en dialyse en liste d'attente. Cependant, l'estimation du hasard ratio ECD par cette analyse dépendante du temps ne considère pas le fait que les patients renonçant à une transplantation ECD ne sont pas destinés à rester en dialyse pour toujours, mais peuvent plus tard recevoir une transplantation non‐ECD. Nous proposons une nouvelle méthode d'estimation du bénéfice de la survie de la transplantation ECD relative à la thérapie conventionnelle (liste d'attente avec la possibilité d'une transplantation non‐ECD ultérieure). Comparée à cette méthode dépendante du temps, la méthode proposée caractérise de manière plus précise la structure des données et produit une estimation plus directe du bénéfice relative à une transplantation ECD. I. Ninan , O. Arancio , and D. Rabinowitz 918 L'émission de neurotransmetteurs par les neurones peut être étudiée par des mesures d'intensité de coloration des terminaisons synaptiques. Le problème est alors d'estimer une espérance dans une situation où, au lieu d'observer des variables aléatoires indépendantes de même espérance, on observe, avec erreur, des sommes aléatoires indépendantes de variables de même espérance sans connaître le nombre de termes de la sommation aléatoire. On présente ici une approche non paramétrique de ce problème d'estimation. La méthode est illustrée sur les données d'une expérience dans laquelle le colorant cationique styrylpyridinium FM4‐64 a été utilisé sur des cultures de neurones de l'hippocampe murin. B. Klingenberg and A. Agresti 921 Cet article considère des test globaux de différence entre vecteurs appariés de distributions binomiales provenant de 2 échantillons de données binaires multivariées dépendantes. La différence est définie, soit comme une non homogénéité des distributions marginales, soit comme une asymétrie de la distribution jointe. Pour détecter le premier type de différence, nous proposons une extension multivariée du test de McNemar et montrons que c'est un test du score généralisé sous une approche GEE. Des caractéristiques univariées, telles que la relation entre le test de Wald et le test du score, ou l'abandon de paires avec la même réponse s'étendent au cas multivarié et le test ne dépend pas de l'hypothèse de travail de la dépendance entre les composantes de la réponse multivariée. Pour des données éparses ou non équilibrées, comme cela arrive quand le nombre de variables est grand ou les proportions proches de zéro, le test est mis en oeuvre en utilisant le bootstrap, ou si c'est trop compliqué au point de vue calculatoire par une distribution de permutation. Nous appliquons le test à des données de toxicité pour un médicament, dans lequel 2 doses sont évaluées en comparant les réponses multiples des mêmes sujets à chacune d'entre elles.  相似文献   

12.
Résumé Avant de considérer un virus d'insecte comme potentiellement utilisable en lutte microbiologique, on doit tenir compte non seulement de son identification et de sa standardisation mais aussi de la méthode de production. La pureté et la qualité des préparations de virus sont avant tout une fonction de sa méthode de production. Parmi les méthodes disponibles, la production de virus par multiplication sur insectes élevés sur milieux artificiels, offre présentement la meilleure voie pour obtenir un produit de qualité. Les virus d'insectes peuvent être identifiés par leurs caractères physiques, morphologiques, chimiques aussi bien que par les tests sérologiques et de spécificité vis-à-vis des h?tes. Cependant, aucune de ces méthodes prises isolément n'est adéquate. Dans l'état actuel des connaissances, l'utilisation conjointe des deux derniers tests fournit les meilleurs éléments pour l'identification spécifique d'un virus d'insecte. La standardisation d'un virus devrait être basée à la fois sur sa capacité à produire la maladie et sur le dénombrement des corps d'inclusion. La variation constatée dans la mesure de l'activité virale peut être une conséquence de la présence de particules de virus libérées, du nombre de particules virales dans les corps d'inclusion, de la taille et de la constitution chimique de ceux-ci ou de la présence de biotypes secondaires. Diverses techniques, le plus souvent basées sur des études de dose léthale et de temps de mortalité, peuvent être employées pour l'estimation de l'activité insecticide des préparations de virus. Quelle que soit la technique utiliséc, il est nécessaire de déterminer aussi précisément que possible, les paramètres de la méthode de titrage et d'estimer et de présenter statistiquement les résultats.   相似文献   

13.
Après un développement endoparasite, la larve de Phanerotoma flavitestacea Fischer devient ectoparasite et sarcophage des chenilles d'Anagasta kuehniella. L'analyse chimique de la larve ectoparasite in toto, avant et après ingestion de l'hôte d'une part, des ressources alimentaires du parasite constituées par la chenille d'autre part permet de dresser un bilan biochimique. Le poids sec de la larve, ainsi que les lipides, les substances azotées et le glycogène subissent une augmentation importante et significative au cours de la phase sarcophage, en un temps relativement court. Les taux de conversion de la nourriture ingérée en substances du corps ont des valeurs élevées, ce qui indique que la larve ectoparasite assimile avec un très bon rendement les matières ingérées. Il faut également noter la nature nettement lipidique du catabolisme au cours de cette phase. Les résultats acquis sur la composition qualitative et quantitative des constituants du parasite sont discutés également en relation avec son alimentation.  相似文献   

14.
Changes in regulation and taxation during the past decade have had a profound effect on the experience of betting in dedicated shops in the United Kingdom. This article explores how betting shop customers and staff in London have responded to the introduction of gambling machines depicting roulette and other casino‐type games in an environment that was traditionally dedicated to betting on horse and dog racing. The rise of machine gambling has been presented as a transition from ‘social’ to ‘asocial’ forms of gambling by researchers working in the UK, Las Vegas, and Australia. Traditional bettors and betting shop staff also present betting and machine play as discrete and value them differently. I show that while some of the experiential qualities of machine play observed elsewhere have been replicated in shops, the differences between traditional betting and machine play are overstated, for structural reasons. Traditional bettors and staff are interested in distinguishing their activities from those of newcomers. Responses to new gambling media in betting shops are socially, as well as experientially, mediated, a crucial insight for the wider study of gambling and gambling regulation.

Résumé

L'évolution de la réglementation et de la taxation des paris a eu depuis une dizaine d'année de profonds effets sur l'expérience des parieurs dans les officines du Royaume‐Uni. Le présent article étudie la réaction des clients et du personnel de bureaux de paris londoniens à l'apparition des machines proposant des jeux de roulette et autres jeux de casino dans un environnement traditionnellement dévolu aux paris sur les courses de chevaux et de chiens. Au Royaume‐Uni, à Las Vegas et en Australie, des chercheurs ont présenté l'essor des machines de jeux comme le passage de formes de jeu « sociales »à d'autres « asociales ». Les parieurs traditionnels et les employés des bureaux de paris considèrent eux aussi les paris et les jeux sur machines comme deux activités distinctes et de valeur différente. L'auteure montre ici qu'une partie des qualités de l'expérience du jeu sur machines observées ailleurs se retrouvent dans les bureaux de paris, mais que les auteurs ont exagéré les différences entre paris traditionnels et jeux sur machines, pour des raisons structurelles. Les parieurs traditionnels et les employés ont intérêt à distinguer leurs activités de celles des nouveaux venus. La réponse aux nouveaux modes de jeu dans les bureaux de paris, médiée socialement mais aussi par l'expérience, est très instructive pour l'étude plus large des jeux de paris et de leur réglementation.  相似文献   

15.
REGULAR ARTICLES     
《Biometrics》2006,62(4):1282-1290
Generalized Additive Modeling with Implicit Variable Selection by Likelihood‐Based Boosting L'utilisation des modèles additifs généralisés dans l’analyse statistique de données souffre de la restriction à quelques variables explicatives et du problème du choix des paramètres de lissage. Le «boosting» d’un modèle additif généralisé contourne ces problèmes par l’intermédiaire d’un ajustement par étapes d’algorithmes d'apprentissage faibles. Une procédure d’ajustement est dérivée qui fonctionne pour toutes les familles de distribution exponentielle simple, incluant les variables réponse binomiale, de Poisson et normales. La procédure combine la sélection de variables et la détermination du degré approprié de lissage. Comme algorithmes d’apprentissages faibles, sont considérés les splines de régression pénalisés et les «stumps» pénalisés nouvellement introduits. Les estimations des déviations standard et les critères d’arrêt qui sont des problèmes notoires dans les procédures itératives sont basés sur une matrice chapeau approchée. La méthode est montrée comme étant un fort compétiteur par rapport aux procédures habituelles pour ajuster des modèles additifs généralisés. En particulier, il fonctionne très bien dans des situations à haute dimensionnalité avec beaucoup de variables de nuisance dans le prédicteur. Variable Selection for Logistic Regression Using a Prediction‐Focused Information Criterion L’utilisation de critères d’information pour guider la sélection des variables est habituelle en biostatistique. Nous proposons de nouvelles versions du critère de l’information ciblée (CIC) pour sélectionner les variables en régression logistique. Ce critère fournit des ensembles de variables qui dépendent de la cible à estimer. Sous sa forme standard, le CIC mesure l’erreur quadratique moyenne associée à l’estimateur de la quantité d’intérêt dans le modèle sélectionné. Nous proposons des formulations plus générales du CIC, autorisant d’autres mesures de risque, comme celles fondées, par exemple, sur l’erreur‐Lp. Quand on s’intéresse à la prédiction d’un événement, comme c’est souvent le cas dans les applications médicales, nous construisons un CIC fondé sur une mesure naturelle du risque, le taux d’erreurs. Une étude par simulation et l’application à une étude concernant la rétinopathie diabétique illustrent l’intérêt d’un critère de l’information dépendant à la fois de la quantité d’intérêt et de la mesure de risque choisie. A Goodness‐of‐Fit Test for Multinomial Logistic Regression Cet article propose un test d’adéquation d’un modèle logistique à des réponses multinomiales ou binomiales. Il s’agit d’un test du score de l’hypothèse nulle d’adéquation contre l’hypothèse alternative que les résidus de sous‐échantillons proches dans l’espace des covariables ont tendance à se ressembler. La statistique de test est une somme de carrés de résidus lissés qui peut s’interpréter comme un test du score dans un modèle mixte. La spécification de la distance dans l’espace des covariables permet de choisir l’hypothèse contre laquelle le test est dirigé et d’en faire soit un test omnibus, soit un test ad hoc de l’adéquation par rapport à l’effet de certaines covariables du modèle ou par rapport à certaines modalités d’une réponse multinomiale. A Generalized Response Surface Model with Varying Relative Potency for Assessing Drug Interaction Lors de l’administration simultanée de plusieurs traitements les investigateurs cherchent souvent àétablir quel est le type d’interaction entre les substances: potentialisation, synergie ou antagonisme. De nombreux modèles de surface de réponse, basés sur le modèle d’additivité de Loewe, exigent que le rapport d’activité (ou la puissance relative) soit constant et certains d’entre eux utilisent un seul paramètre pour décrire le type d’interaction. L’hypothèse d’un rapport d’activité constant est cependant trop restrictive et les modèles à un paramètre sont inadéquats quand le type d’interaction varie en fonction des combinaisons des substances. Nous proposons un modèle généralisé de surface de réponse utilisant une fonction de la dose au lieu d’un paramètre unique pour décrire l’écart à l’additivité. Le modèle proposé peut incorporer également des variations des rapports d’activité variables entre plusieurs substances. La capacité du modèle à décrire les différentes formes d’interaction est illustrée par des exemples et des simulations. Semiparametric Analysis of Zero‐Inflated Count Data La recherche médicale et de santé publique est souvent impliquée dans l’analyse de données de comptage qui contiennent une grande proportion de zéros, telles que le nombre d’attaques cardiaques et le nombre de jours d’arrêt de travail dans une période donnée. Pour modéliser de telles données, on utilise généralement un modèle de régression de Poisson avec un grand nombre de zéros, qui suppose une hétérogénéité en deux points dans la population caractérisée par un effet binaire aléatoire. Les sujets sont grossièrement séparés en deux catégories, le groupe à faible risque pour les comptages à zéro, et le groupe à haut risque (ou normal) pour lequel on peut utiliser un modèle de régression de Poisson. Le but principal est d’identifier les variables explicatives qui ont des effets significatifs sur (i) la probabilité que le sujet appartienne au groupe à faible risque au moyen d’une régression logistique; et (ii) la taille des comptages sachant que le sujet est issu du groupe à haut risque, au moyen d’un modèle de régression de Poisson où les effets des covariables sont supposés liés linéairement au logarithme naturel de la moyenne des comptages. Dans cet article, nous construisons un modèle semi‐paramétrique de régression de Poisson à zéro augmenté qui postule une relation possiblement non linéaire entre le logarithme naturel de la moyenne des comptages et une covariable particulière. Nous proposons une méthode de criblage pour l’estimation par maximum de vraisemblance. Les propriétés asymptotiques de cette méthode d’estimation sont discutées. Nous montrons que, sous certaines conditions assez faibles, les estimateurs sont asymptotiquement efficaces et normalement distribuées. Des études de simulation ont été réalisées pour voir les performances de la méthode proposée. Pour l’illustrer, cette méthode a été utilisée sur un jeu de données provenant d’une enquête de santé publique en Indonésie, où la variable d’intérêt est le nombre de jours d’arrêt de travail dus à la maladie pendant une période de quatre semaines Semiparametric Analysis of Two‐Level Bivariate Binary Data Dans les études médicales, des réponses binaires appariées sont souvent observées pour des sujets étudiés au cours du temps ou pour des grappes. L'intérêt premier est d'étudier comment l'association bivariée et les risques marginaux univariés sont affectés par des mesures répétées sur chaque sujet. Pour atteindre ce but, nous proposons une classe très générale de modèles binaires bivariés semi‐paramétriques. Les effets spécifiques du sujet inclus dans le log odds‐ratio bivarié et les composantes logit univariées sont supposées suivre un processus non paramétrique de Dirichlet (DP). Nous proposons une méthode hybride pour faire de l'inférence basée sur le modèle. Dans la construction de la méthode hybride proposée, l'estimation des paramètres est faite en implémentant un algorithme de Monte‐Carlo EM (MCEM). La méthodologie proposée est illustrée par une étude de l'efficacité du Tibolone, pour réduire les problèmes liées à la ménopause rencontrés par les femmes indiennes. Une étude de simulation est aussi conduite pour évaluer l 'efficacité de la nouvelle méthodologie. A Nonlinear Model with Latent Process for Cognitive Evolution Using Multivariate Longitudinal Data La cognition n’est pas directement mesurable. Elle est évaluée à l’aide d’une batterie de tests psychométriques qui peuvent être considérés comme des mesures quantitatives bruitées de la cognition. L’objectif de cet article est de proposer un modèle permettant de décrire la cognition non observée chez les personnes âgées et d’évaluer l’impact de variables explicatives directement dessus. Le processus latent défini en temps continu et représentant la cognition est modélisé par un modèle linéaire mixte prenant en compte des variables dépendantes du temps et les tests psychométriques sont ensuite définis comme des transformations nonlinéaires paramétrées du processus latent. L’estimation des paramètres à la fois dans le modèle mixte et dans les transformations nonlinéaires est obtenue en maximisant la vraisemblance observée et des méthodes graphiques sont utilisées pour évaluer l’adéquation du modèle. La méthode est appliquée aux données de la cohorte prospective française PAQUID. Low‐Rank Scale‐Invariant Tensor Product Smooths for Generalized Additive Mixed Models Une méthode générale est présentée pour construire des fonctions de lissage basées sur des produits tensoriels de faible rang et utilisées comme composantes de GAMs ou de GAMMs. Une approche de type régression pénalisée est adoptée dans laquelle chaque produit tensoriel de plusieurs variables est construit à partir des lisseurs de chaque variable prise séparément, ces lisseurs «marginaux»étant définis avec une fonction de faible rang et associée à une pénalité quadratique sur les fluctuations. Les lisseurs offrent plusieurs avantages (i) ils ont une pénalité sur les fluctuations pour chaque covariable et sont donc insensibles à une transformation linéaire des covariables, les rendant utiles quand il n’y a pas de façon naturelle pour mettre à l’échelle les covariables entre elles; (ii) ils ont un plage utile du degré de lissage personnalisable, à la différence de la pénalité unique des lisseurs par produit tensoriels qui sont invariants à l’échelle; (iii) le rang relativement bas des lisseurs fait qu’ils sont numériquement efficients; (iv) les pénalités des lisseurs sont aisément interprétables en terme de forme de la fonction; (v) les lisseurs peuvent être générés complètement automatiquement à partir des fonctions de lissage marginales et des pénalités quadratiques associées, donnant au modélisateur une flexibilité considérable pour choisir la combinaison de base des pénalités la plus apporpriée à chaque tâche de modélisation; (vi) les lisseurs peuvent aisément être écrits comme des composants d’un modèle mixte linéaire ou linéaire généralisé standard, permettant de les utiliser comme des composants de la riche famille de tels modèles implémentés dans des logiciels standard et d’avoir l’avantage de méthodes numériques efficientes et stables qui ont été développées pour de tels modèles. Une petite étude de simulation montre que les méthodes peuvent favorablement se comparer aux méthodes ANOVA avec splines lissants récemment développées. Joint Modeling of Survival and Longitudinal Data: Likelihood Approach Revisited L’approche par le maximum de vraisemblance a permis de modéliser conjointement, dans les études longitudinales, le délai de survie et ses covariables longitudinales. Des effets aléatoires dans le processus longitudinal est souvent utilisé pour modéliser les délais de survie au travers d’un modèle à risques proportionnels, et cela fait appel à un algorithme EM pour rechercher l’Estimateur du Maximum de Vraisemblance (MLEs). Plusieurs problèmes sont étudiés ici, à savoir la robustesse du MLEs par rapport à un écart à l’hypothèse de normalité des effets aléatoires, ainsi que les difficultés pour obtenir des estimateurs fiables de l’écart type du MLEs via l’approche par la vraisemblance. Nous apportons des éclaircissements sur la propriété de robustesse et suggérons de passer outre les difficultés de la fiabilité de l’estimateur des écart‐types en utilisant des procédures de bootstrap. Des simulations et des analyses de données illustrent nos propos. Bayesian Semiparametric Dynamic Frailty Models for Multiple Event Time Data Beaucoup d’études biomédicales collectent des données sur le délai d’apparition d’un événement de santé, qui peut se produire de manière répétitive, comme les infections, les hospitalisations, les rechutes de la maladie, ou les évolutions tumorales. Pour analyser de telles données, il est nécessaire de prendre en compte la dépendance intra‐sujet entre les délais de ces multiples événements. Motivé par des données d’étude sur les tumeurs palpables, cet article propose un modèle dynamique de fragilité, et une approche inférentielle Bayesienne semi‐paramétrique. Le modèle à risques proportionnels est généralisé pour incorporer une fragilité spécifique à l’individu qui change de manière dynamique avec l’âge, tout en s’accommodant aux risques non‐proportionnels. Les hypothèses paramétriques sur la distribution de fragilité sont évitées en utilisant le processus de Dirichlet comme un a priori pour la fragilité partagée ainsi que pour les innovations multiples sur cette fragilité. En centrant le modèle semi‐paramétrique sur un modèle gamma dynamique conditionnellement‐conjugué, nous facilitons la programmation a postériori et nous évaluons convenablement le manque d’ajustement du modèle paramétrique. La méthode que nous proposons est appliquée à des données issues d’une étude de chimio‐prévention. Interval Mapping of Quantitative Trait Loci for Time‐to‐Event Data with the Proportional Hazards Mixture Cure Model Les modèles de mélange normaux pour établir des cartes génétiques par intervalle ont été un outil fondamental pour l’analyse de traits quantitatifs (QTL) sur des organismes expérimentaux. Quand le phénotype principal étudié est un événement retardé dans le temps, il est naturel d’utiliser alors des modèles de survie, tels que le modèle à risques proportionnels de Cox plutôt que le modèle de mélange normal pour modéliser un tel phénotype. Un enjeu supplémentaire dans la modélisation du temps jusqu’àévénement est de considérer que la population étudiée peut être composée de sujets susceptibles et de sujets non susceptibles. Dans cet article, nous proposons un modèle de mélange semi‐paramétrique à risques proportionnels permettant de prendre en compte une fraction de sujets non atteints, et qui permette de considérer des valeurs manquantes parmi les covariables. Nous discutons les applications de ce modèle à la cartographie des régions chromosomiques QTL, quand le trait principal est un événement apparaissant dans le temps au sein d’une population mixte de patients susceptibles ou non de présenter l’événement. Ce modèle peut être utilisé pour caractériser ces effets QTL, à la fois sur la susceptibilité et sur la distribution du temps jusqu’àévénement, et d’estimer la position de ces QTL. Ce modèle peut intégrer naturellement l’effet conjoint d’autres facteurs de risque. Les estimations par maximum de vraisemblance des paramètres du modèle ainsi que de leur variance peuvent être obtenues numériquement à l’aide d’un EM algorithme. Les méthodes proposées sont évaluées par des simulations sous des conditions couramment rencontrées en pratique et illustrées sur un jeu de données réelles comportant des temps de survie de souris infectées par Listeria monocytogenes. Une extension du modèle aux intervalles multiples est également discutée. Feature‐Specific Penalized Latent Class Analysis for Genomic Data Les données de la génomique sont souvent caractérisées par un nombre important de variables catégorielles mesurées chez un nombre relativement faible d’individus. Certaines de ces variables peuvent être absentes ou non informatives. Un exemple de telles données est la perte d’hétérozygocité (PH), une variable dichotomique observée sur un nombre limité de marqueurs génétiques. Nous considérons d’abord un modèle de classes latentes où, conditionnellement à l’appartenance non observée à l’une des k classes, les variables sont indépendantes avec des probabilités déterminées par un modèle régressif de faible dimension q. A l’aide d’une famille de pénalités incluant l’arête et le lasso, nous étendons ce modèle aux problèmes de plus grande dimension. Enfin, nous présentons une carte orthogonale qui transforme l’espace marqueurs en un espace de ‘caractéristiques’ pour lequel le modèle contraint a un meilleur pouvoir prédictif. Nous illustrons ces méthodes sur des données de PH recueillies sur 19 marqueurs chez 93 patients présentant une tumeur cérébrale. Pour ce jeu de données, la méthode de classe latente non pénalisée ne produit pas d’estimations. De plus, nous montrons que les classes a posteriori obtenues avec cette méthode sont associées à la survie des patients. Quantifying Genomic Imprinting in the Presence of Linkage L’analyse de liaison génétique classique confère le même poids à l’analyse des transmissions des allèles marqueurs paternels et maternels ce qui conduit à une nette baisse de puissance si les gènes étudiés sont soumis au phénomène d’empreinte parentale. Plusieurs stratégies ont été proposées pour prendre en compte les empreintes parentales dans le cadre de l’analyse de liaison modèle‐indépendante des traits binaires. Cependant, aucune de ces méthodes ne propose l’identification et la quantification du phénomène d’empreinte parentale en présence de liaison. En outre, les méthodes disponibles reposent sur l’analyse de paires de germains atteints et décomposent artificiellement les fratries de taille supérieure au prix d’une perte de puissance certaine. Nous proposons ici une approche globale, le MLB‐I (Maximum Likelihood Binomial – Imprinting), pour l’analyse de fratries de toute taille, qui associe i) un test de liaison prenant en compte le phénomène d’empreinte parentale, ii) un test d’empreinte parentale en présence de liaison, iii) un test du caractère complet ou partiel de l’empreinte. Par ailleurs, l’empreinte parentale est quantifiée au moyen d’un indicateur original. La distribution des trois statistiques proposées est dérivée et validée sous leur hypothèse nulle respective par étude de simulation sous différents modèles de transmission génétique. La puissance des tests est également évaluée. Cette méthode est directement applicable au criblage entier du génome comme l’illustre l’analyse de fratries avec des germains atteints de lèpre. Notre approche fournit un nouvel outil pour la dissection de l’empreinte parentale en analyse de liaison modèle‐indépendante, et sera d’un intérêt majeur pour identifier et évaluer la contribution des gènes soumis à empreinte parentale dans les maladies génétiques complexes. A Method for Estimating Penetrance from Families Sampled for Linkage Analysis Quand on découvre un variant génétique en ségrégation avec une maladie, il peut être intéressant d’estimer le risque de la maladie (ou le risque spécifiquement associéà l’âge) pour les individus porteurs du variant. Les familles ayant contribuéà la découverte du variant doivent généralement compter plusieurs porteurs et, de ce fait, si le variant est rare, elles peuvent constituer une source intéressante de sujets d’étude pour l’estimation du risque. Mais ces familles, qui ont attiré l’attention des chercheurs sur le gène en question, peuvent de ce fait ne pas être représentatives de la relation existant entre le statut de porteur du gène et le risque de maladie dans la population. Utiliser ces familles pour estimer le risque pourrait affecter d’un biais l’association trouvée entre le variant et le risque. Le but de cet article est de présenter une méthode d’ajustement pour ce biais potentiel quand on utilise les familles de l’analyse de liaison pour estimer le risque. A Unified Approach for Simultaneous Gene Clustering and Differential Expression Identification Bien que la classification non‐supervisée et l’identification de gènes différentiellement exprimés soient d’importance égale dans la plupart des études utilisant les puces à ADN, ces deux problèmes sont souvent traités de façon indépendante. Clairement, cette stratégie n’est pas la plus efficace pour extraire l’information. L’objectif principal de cet article est de développer une méthode statistique cohérente qui permette de classifier et de détecter simultanément les gènes différentiellement exprimés. Grâce à l’échange d’informations entre ces deux opérations, l’approche proposée produit une classification des gènes plus adéquate et est plus sensible pour identifier les gènes différentiellement exprimés. L’amélioration par rapport aux méthodes existantes est illustrée à la fois par nos résultats de simulations et par une étude de cas. Shrunken p‐Values for Assessing Differential Expression with Applications to Genomic Data Analysis Pour beaucoup de problèmes liés aux technologies produisant des données à grande échelle, l’inférence statistique implique des centaines ou des milliers d’hypothèses. Récemment, beaucoup d’attention a été dévolue aux tests multiples; on s’est concentré en particulier sur le taux de faux positifs. Dans cet article, nous considérons une autre procédure d’estimation nommée «p‐valeurs rétrécies pour l’évaluation de l’expression différentielle» (SPADE). Les estimateurs sont inspirés du principe de risque issu de la théorie de la décision et conduisent à une méthode complètement nouvelle d’ajustement des p‐valeurs obtenues lors de tests multiples. De plus, la théorie de la décision permet de dériver une règle de décision pour contrôler le nombre de faux positifs. Nous présentons des résultats théoriques et illustrons la méthodologie proposée à l’aide de simulations et d’une application à des données d’expression issues d’une étude sur le cancer de la prostate. Fragment Length Distributions and Collision Probabilities for AFLP Markers L’AFLP est une technique d'empreinte digitale d'ADN fréquemment utilisée en sciences végétales et animales. Un de ses inconvénients est l'occurrence de fragments multiples d'ADN de même longueur dans une simple ligne d'AFLP, que nous appelons une collision. Dans cet article nous quantifions le problème. Le problème bien connu du jour de naissance joue un rôle. Le calcul des probabilités de collision exige une distribution de la longueur du fragment (fld). Nous discutons trois manières d'estimer le fld: basé sur des considérations théoriques, sur la détermination in‐silico en utilisant des données de séquence d'ADN d'Arabidopsis thaliana, ou sur l'estimation directe à partir des données d'AFLP. Dans le dernier cas nous employons un modèle linéaire généralisé avec lissage monotone des probabilités de longueur de fragment. Des probabilités de collision sont calculées à partir de deux perspectives, en supposant des comptages connus de fragment et en supposant de comptages connus de bande. Nous comparons des résultats pour un certain nombre de fld, s'étendant de l'uniformitéà la dissymétrie la plus forte. La conclusion est que les collisions se produisent souvent, avec des probabilités plus élevées pour des nombres plus élevés de bandes, pour des distributions plus dissymétriques et, à un moindre degré, pour de plus petits intervalles de marquage. Pour un génome végétal typique un AFLP avec 19 bandes est susceptible de contenir la première collision. Des implications pratiques des collisions sont discutées. Des exemples d'AFLP de la laitue et de la chicorée sont employés en guise d’illustration. Susceptibility of Biallelic Haplotype and Genotype Frequencies to Genotyping Error Avec la mise à disposition de techniques de génotypage à haut débit ainsi que des bases de données génétiques, la recherche d'association entre des polymorphismes de substitution et un trait complexe est devenue un domaine important de recherche méthodologique en génétique médicale. Cependant, les erreurs de génotypage même relativement faibles peuvent conduire à de fausses associations et diminuer la puissance statistique. Nous proposons une approche systématique pour étudier comment des erreurs de génotypage peuvent changer les distributions génotypiques d'un échantillon. Le cas général à M‐marqueurs est réduit à celui d'un seul marqueur en identifiant la structure sous‐jacente du produit tenseur de la matrice des errors. La méthode et les conclusions s'appliquent au modèle général d'erreur; nous donnons des résultats détaillés pour le modèle à“erreur allélique" qui dépend à la fois du locus marqueur et de l'allèle présent. Les erreurs multiples sont traitées à partir du processus de diffusion associéà l'espace des distributions génotypiques. Nous montrons que certaines distributions génotypiques et haplotypiques restent inchangées en présence d'erreurs de génotypage et que ces erreurs rendent généralement la distribution plus proche de la distribution stable. Dans le cadre d'étude d'association cas‐témoins, cela conduit à une perte de puissance en présence d'erreurs de génotypage non‐différentielles et à une augmentation de l'erreur de type I pour des erreurs différentielles. De plus, nous montrons que des erreurs de génotypage sous le modèle à“erreur allélique" ne modifient pas l'équilibre d'Hardy‐Weinberg au niveau génotypique. Sous ce type d'erreurs, nous identifions les distributions les plus affectées. Comme elles correspondent aux situations où les allèles sont rares et les marqueurs en fort déséquilibre de liaison, une attention toute particulière aux erreurs de génotypage est recommandée en présence d'associations cas‐témoins observées au niveau allélique ou haplotypique. Statistical Analysis for Haplotype‐Based Matched Case–Control Studies En utilisant des données génotypiques déphasées, nous étudions l’inférence statistique de l’association entre une maladie et un haplotype dans des études cas‐témoins. L’inférence statistique pour les données d’haplotype est compliquée due à l’ambiguïté des phases de génotypes. Une méthode basée sur une équation d’estimation est développée pour estimer des odds ratios et tester des associations maladie – haplotype. La méthode peut potentiellement être appliquée au test de l’interaction haplotype – environnement. Des études de simulations montrent les bonnes performances de la méthode. La performance de la méthode en présence de déviations de l’équilibre de Hardy‐Weinberg est aussi étudiée. Optimization of Two‐Stage Genetic Designs Where Data Are Combined Using an Accurate and Efficient Approximation for Pearson's Statistic Dans la recherche des gènes associés à telle ou telle pathologie, les études cas‐témoin réalisées en deux étapes successives suscitent un intérêt croissant, en raison de la réduction des coûts de génotypage qu’elles permettent. De plus, au lieu d’analyser séparément les données de la deuxième étape, on peut effectuer un test plus puissant en regroupant les données des deux étapes. Cependant, il n’est alors pas possible d’utiliser les tests classiques, puisque seuls sont sélectionnés, pour la deuxième étape, les marqueurs jugés significatifs lors de la première étape; de surcroît, parce qu’elles portent en partie sur les mêmes données, les statistiques de test utilisées lors de chacune des deux étapes sont nécessairement corrélées entre elles. Or, on ne dispose pas d’approximations théoriques pour les tests les plus courants; quant aux simulations, leur lourdeur calculatoire, dans ce contexte spécifique, peut s’avérer problématique. C’est pourquoi nous proposons une approximation performante – c’est‐à‐dire à la fois précise et rapide en termes de temps de calcul CPU – pour la distribution de la statistique de Pearson associée à des tables de contingence 2 x m dans les études en deux étapes avec données poolées. Nous avons utilisé cette approximation dans le cadre d’une méthode itérative de recherche de plans optimaux en deux étapes. Les simulations effectuées étayent la fiabilité de notre approximation, et les résultats numériques confirment que l’utilisation de plans en deux étapes réduit de façon substantielle la quantité des génotypages à réaliser. En choisissant de pooler les données (plutôt que ne pas les pooler), on diminue en moyenne les tailles d’échantillons de 15% et le nombre de génotypages de 5%. Case‐Cohort Designs and Analysis for Clustered Failure Time Data Les plans de type cas‐cohorte apportent un schéma efficient et économique pour l’étude de facteurs de risque de maladies non fréquentes dans une large cohorte. Ils demandent le recueil de covariables pour les événements vérifiés au sein de toute la cohorte, et pour les individus d’une sous‐cohorte sélectionnée au début du suivi. Dans la littérature, les plans cas‐cohorte ont été très étudiés mais seulement dans le cadre de données univariées. Dans cet article, nous proposons des plans de type cas‐cohorte pour des données de durée multivariées. Une procédure d’estimation s’appuyant sur un modèle d’indépendance est utilisée pour estimer les paramètres de régression dans le modèle marginal des hasards proportionnels, où on laisse non spécifiée la structure de corrélation entre individus d’une même classe. On développe les propriétés statistiques des estimateurs proposés. Des études de simulations permettent d’étudier la performance des estimateurs proposés, et de comparer les qualités statistiques. On illustre la méthode proposée à l’aide de données provenant de l’étude TRIAD. A Semiparametric Empirical Likelihood Method for Biased Sampling Schemes with Auxiliary Covariates Nous considérons une procédure d’inférence semi‐paramétrique pour des données d’études épidémiologiques conduites selon un plan d’échantillonnage à deux composantes oùà la fois un échantillonnage aléatoire simple et des échantillons de résultats multiples ou de résultats auxiliaires sont observés. Ce plan de sondage permet aux enquêteurs de sur‐échantillonner certaines sous‐populations dans le but d’avoir plus d’informations sur le modèle de régression tout en améliorant la connaissance de la population sous‐jacente à travers le plan d’échantillonnage aléatoire simple. Nous restreignons notre étude à des dispositifs dans lesquels il n’y a pas d’information additionnelle sur la cohorte‐parent et où la probabilité d’échantillonnage est non identifiable. Notre problématique est motivée par une étude destinée àévaluer l’association entre le niveau de mutation du gène EGFR et la réponse anti‐tumorale à une thérapie ciblée EGFR parmi des patients ayant un cancer pulmonaire (hors anaplasique à petites cellules). La méthode proposée s’applique à la fois à des réponses binaires et multinomiales et admet une fonction de lien arbitraire dans le cadre des modèles linéaires généralisés. Des études de simulations montrent que l’estimateur proposé a des bonnes propriétés pour des petits échantillons. La méthode est illustrée par un exemple. Augmented Designs to Assess Immune Response in Vaccine Trials Ce papier introduit des méthodes utilisables dans les essais cliniques de vaccins pour aider à savoir si la réponse immunitaire à un vaccin est vraiment la cause d’une réduction du taux d’infection. Cela n’est pas facile car la réponse immunitaire à un vaccin(par exemple, contre le VIH) n’est observée que dans le groupe vacciné. Si nous savions ce qu’aurait été la réponse immunitaire spécifique au vaccin anti‐VIH dans le groupe placebo s’il avait été vacciné, cette réponse pourrait être traitée comme une covariable et son interaction avec le traitement pourrait être évaluée. De même, le taux d’infection en fonction de la valeur de cette covariable pourrait être comparé entre les deux groupes et appuierait le rôle causal de la réponse immunitaire si le risque infectieux diminuait en relation avec une réponse immunitaire accrue au vaccin uniquement dans le groupe vacciné. Nous introduisons deux méthodes d’inférence sur la réponse immunitaire spécifique. La première consiste à vacciner tout le monde avant le démarrage de l’essai par un autre vaccin sans rapport avec le vaccin anti‐VIH, par exemple le vaccin anti‐rabique. La randomisation garantit que la relation entre les réponses immunitaires au vaccin anti‐rabique et au vaccin anti‐VIH observée dans le groupe vacciné est la même que celle qui aurait pu être observée dans le groupe placebo. Nous déduisons une réponse au vaccin anti‐VIH pour les sujets sous placebo à partir de leur réponse au vaccin anti‐rabique et d’un modèle de prédiction dans le groupe vacciné. La deuxième méthode consiste à vacciner tous les sujets du groupe placebo non infectés à la fin de l’essai par le vaccin anti‐VIH et à enregistrer leur réponse immunitaire. Nous supposons que la réponse à la fin de l’essai est la même que ce qu’elle aurait été au début. Nous pouvons donc en déduire quelle aurait été la réponse immunitaire chez les sujets infectés du groupe placebo. De tels schémas peuvent aider àélucider le rôle de la réponse immunitaire dans la prévention des infections. Plus précisément, ils pourraient aider à décider l’amélioration ou l’abandon d’un vaccin anti‐VIH ayant montré une efficacité médiocre dans un essai de phase III. Statistical Inference in a Stochastic Epidemic SEIR Model with Control Intervention: Ebola as a Case Study Un modèle stochastique susceptible‐exposé‐infecté‐résistant (SEIR) à temps discret pour les maladies infectieuses est développé dans le but d’estimer les paramètres à partir de la série d'incidence quotidienne et de la série de mortalité d’une épidémie d'Ebola dans la république démocratique du Congo en 1995. La série d’incidence montre beaucoup de comptages faibles voir nuls ce qui nécessite une approche de modélisation stochastique. Pour identifier la nature stochastique des transitions entre les compartiments, nous spécifions des distributions binomiales conditionnelles appropriées. De plus, une fonction temporelle simple du taux transmission est introduite pour prendre en compte l’effet des interventions. Nous développons des méthodes MCMC pour l’inférence basée sur les distributions a posteriori des paramètres. L’algorithme est étendu pour intégrer numériquement des variables d’état du modèle non observées. Ceci conduit à un modèle stochastique réaliste qui peut être utiliser par des épidémiologistes pour étudier les dynamiques d’une maladies et l’effet des interventions. Measurement Error in a Random Walk Model with Applications to Population Dynamics Les abondances des populations naturelles sont rarement connues. Elles sont estimées avec une certaine imprécision. Cette erreur de mesure a des conséquences sur les analyses ultérieures, comme la modélisation de la dynamique de la population et l'estimation des abondances probables dans le futur. Cet article analyse certaines questions encore ouvertes sur les conséquences de l'erreur de mesure sur la dynamique d'un modèle simple, la marche aléatoire avec dérive, et propose de nouvelles méthodes de correction de l'erreur de mesure. Nous présentons un éventail large de modèles d'erreur de mesure qui tolèrent à la fois l'hétéroscédasticité et de possibles corrélations entre erreurs de mesure, et nous fournissons des résultats analytiques sur les biais des estimateurs ignorant l'erreur de mesure. Nos nouveaux estimateurs incluent à la fois la méthode des moments et des «pseudo estimateurs» résultant de la synthèse d'estimations observées d'abondances de population et d'estimations de paramètres du modèle d'erreur de mesure. Nous dérivons les propriétés asymptotiques de notre méthode et des méthodes existantes et comparons leurs performances en échantillons finis par simulation. Nous analysons aussi les implications pratiques de ces méthodes en les utilisant pour analyser deux jeux de données réels de dynamique de populations. Multistage Evaluation of Measurement Error in a Reliability Study Nous proposons des procédures de tests séquentiels pour la planification et l’analyse dans des études de fiabilité pour évaluer l’erreur de mesure d’une exposition. Nos schémas permettent l’évaluation répétitive de la fiabilité des mesures, et un arrêt de test lorsque l’erreur de mesure est mise en évidence précocement dans les limites de tolérance. Nos méthodes sont développées et les valeurs critiques calculées pour un certain nombre de schémas à deux étapes. Nos méthodes sont illustrées à l’aide d’un exemple évaluant la fiabilité de bio marqueurs associés au stress oxydatif. Effects of Residual Smoothing on the Posterior of the Fixed Effects in Disease‐Mapping Models Les modèles de cartographie de maladies pour des données aréolaires ont souvent des effets fixes pour mesurer l'effet de covariables variant spatialement et des effets aléatoires avec un a priori autorégressif conditionnel (CAR) pour prendre en compte la corrélation spatiale. Dans de telles régressions spatiales, l'objectif peut être d'estimer les effets fixes en prenant en compte la corrélation spatiale. Mais ajouter les effets aléatoires CAR peut provoquer de grands changements dans la moyenne et la variance a posteriori des effets fixes, comparé au modèle de régression non‐spatial. Ce papier explore l'impact de l'ajout des effets aléatoires spatiaux sur les estimations des effets fixes et la variance a posteriori. Des diagnostiques sont proposés pour mesurer l'inflation de la variance a posteriori due à la colinéarité entre les covariables à effets fixes et les effets aléatoires CAR et de mesurer chaque influence des régions sur le changement des estimations des effets fixes lorsque des effets aléatoires CAR sont ajoutés. Un nouveau modèle qui allège la colinéarité entre les covariables à effet fixe et les effets aléatoires CAR est développé. Des extensions des ces méthodes à des modèles pour données ponctuellement référencées sont discutées. Equivalence of Truncated Count Mixture Distributions and Mixtures of Truncated Count Distributions Ce papier porte sur la modélisation de données de comptage avec une troncation en zéro. Une famille de densités paramétrique de comptage est considérée. Le mélange tronqué de densités de cette famille est différent du mélange de densités tronquées de la même famille. Alors que le premier modèle est plus naturel à formuler et interpréter, le deuxième est théoriquement plus facile à traiter. Il est montré que pour n'importe quelle distribution mélangeante conduisant à un mélange tronqué, une distribution mélangeante (d'habitude différente) peut être trouvée, si bien que le mélange associé de distributions tronquées est égale au mélange tronqué et vice versa. Ceci implique que les surfaces de vraisemblance pour les deux situations s'accordent, et dans ce sens les deux modèles sont équivalents. Les modèles de données de comptage avec troncation en zéro sont utilisés fréquemment en capture‐recapture pour estimer la taille de la population et il est montré que les deux estimateurs de Horvitz‐Thompson associés à ces deux modèles sont en accord. En particulier il est possible d'obtenir des résultats forts pour les mélanges de densités de Poisson tronquées incluant une construction globale fiable de l'unique estimateur NPMLE de la distribution mélangeante, ce qui implique un estimateur unique pour la taille de la population. Le bénéfice de ce résultat réside dans le fait qu'il est valide de travailler avec le mélange de densités de comptage tronquées, qui est moins attractif pour le praticien mais théoriquement plus facile. Les mélanges de densités de comptage tronquées forment un modèle linéaire convexe, pour lesquels une théorie a été développée incluant une théorie du maximum de vraisemblance globale aussi bien que des approches algorithmiques. Une fois que le problème a été résolu dans cette classe, il devrait être facile de revenir au problème original par une transformation explicitement donnée. Des applications de ces idées sont données, spécialement dans le cas de la famille de Poisson tronquée. New Approximations to the Malthusian Parameter Des approximations du paramètre malthusien d’un processus de branchement age‐dépendant sont obtenues en fonction des moments de la distribution du temps de survie, en utilisant un lien avec la théorie du renouvellement. Plusieurs exemples montrent que nos nouvelles approximations sont plus précises que celles actuellement utilisées, même lorsqu’elles ne sont basées que sur les deux premiers moments. Ces nouvelles approximations sont étendues pour s’adapter à une forme de division cellulaire asymétrique rencontrées chez certaines espèces de levures. Nous montrons qu’elles sont d’efficience élevée lorsqu’on les utilise dans un cadre inférentiel. Adaptive Web Sampling Une classe flexible d'échantillonnage adaptatif est introduit pour échantillonner dans un contexte de réseau ou spatial. Les sélections sont réalisées séquentiellement avec un mélange de lois basé sur un ensemble actif qui change lorsque l'échantillonnage progresse en utilisant des relations de réseau ou spatiales ainsi que des valeurs de l'échantillon. Les nouveaux plans de sondage ont des avantages certains comparés aux plans adaptatifs préexistants et aux plans par dépistage de liens, incluant un contrôle sur les tailles d'échantillons et sur la proportion de l'effort alloué aux sélections adaptatives. Une inférence efficace implique un moyennage sur tous les chemins consistant avec la statistique suffisante minimale. Une méthode de réechantillonnage par chaîne de Markov permet de réaliser l'inférence. Les plans sont évalués dans des dispositifs de réseaux ou spatiaux en utilisant deux populations empiriques: une population humaine cachée à risque pour le VIH/Sida et une population d'oiseaux irrégulièrement distribuée. Motor Unit Number Estimation—A Bayesian Approach Toute contraction musculaire dépend de l’état de fonctionnement des unités motrices. Dans des maladies comme la sclérose latérale amyotrophique (SLA), la perte progressive des unités motrices conduit à la paralysie. Une difficulté majeure dans la recherche d’un traitement pour ces maladies réside dans l’absence d’une mesure fiable de la progression de la maladie. Une mesure possible serait l’estimation du nombre d’unités motrices restant en vie. Toutes les méthodes proposées pour l’estimation du nombre d’unités motrices (ENUM) pendant près de 30 ans ont été confrontées à des objections pratiques et théoriques. Notre but est de développer une méthode ENUM surmontant ces objections. Nous enregistrons le potentiel d’activité musculaire composé (PAMC) d’un muscle donnée, en réponse à un stimulus électrique gradué appliqué au nerf. Lorsque l’intensité du stimulus augmente le seuil de chaque unité motrice est dépassé, et la valeur du PAMC augmente jusqu’à ce qu’une réponse maximale soit atteinte. Cependant, le potentiel seuil requis pour l’excitation d’un axone n’est pas une valeur précise, mais fluctue dans un petit intervalle, ce qui conduit à une activation probabiliste des unités motrices, en réponse à un stimulus donné. En cas de recouvrement des intervalles seuils des unités motrices, on peut être en présence d’alternatives dues à un nombre variable d’unités motrices activées en réponse au stimulus. Ceci signifie que les incréments de la valeur du PAMC correspondent à l’activation de différentes combinaisons d’unités motrices. Pour un stimulus fixé la variabilité du PAMC, rapportée par sa variance, peut être utilisée pour piloter une ENUM à l’aide d’une méthode de Poisson. Cependant cette méthode repose les hypothèses d’une part de distribution de Poisson pour le nombre d’unités motrices activées, et d’autre part de taille fixe et identique pour tous les potentiels d’activation des unités motrices (PAUM) simples. Ces hypothèses ne sont pas nécessairement justifiées. Nous proposons une méthodologie bayésienne pour l’analyse des données électrophysiologiques en vue de l’estimation du nombre d’unités motrices. Notre méthode ENUM incorpore la variabilité des seuils, la variabilité intra‐ et inter‐ PAUM simples, et une variabilité de base. Notre modèle ne donne pas seulement le nombre le plus probable d’unités motrices, mais fournit également des informations sur la population formée par ces unités, et sur les unités individuelles. Nous utilisons les méthodes MCMC pour obtenir l’information sur les caractéristiques des unités motrices individuelles, sur la population des unités motrices, et le BIC pour ENUM. Nous testons notre méthode ENUM sur trois sujets. Notre méthodes fournit une estimation reproductible pour un patient atteint de SLA sévère mais stable. Dans une étude de série, nous montrons la chute du nombre des unités motrices chez un patient présentant une maladie rapidement évolutive. Enfin, avec le dernier patient, nous montrons que notre méthode permet d’estimer de grands nombres d’unités motrices. Extension of the Rank Sum Test for Clustered Data: Two‐Group Comparisons with Group Membership Defined at the Subunit Level Le test de somme des rangs de Wilcoxon est largement utilisé pour comparer deux groupes de données non normales. Ce test suppose l'indépendance des unités d'échantillonnage à la fois entre les groupes et à l'intérieur des groupes. En ophtalmologie, les données concernent souvent les deux yeux d'un même individu, qui sont hautement corrélées. Dans les essais cliniques en ophtalmologie, la randomisation est effectuée au niveau de l'individu, mais l'unité d'analyse est l'?il. Si l'?il est utilisé comme unité dans l'analyse, alors la formule usuelle de la variance du test de somme des rangs de Wilcoxon doit être modifiée pour tenir compte de la dépendance à l'intérieur des grappes. Dans certains dispositifs avec données en grappes, où l'unité d'analyse est la sous‐unité, l'appartenance au groupe doit être définies au niveau de la sous‐unité. Par exemple, dans certains essais cliniques en ophtalmologie, des traitements différents peuvent être appliqués à chaque ?il de certains patients, alors que le même traitement peut être appliqué aux deux yeux d'autres patients. En général, il peut y avoir des covariables binaires spécifiques de l'?il (cotées comme ‘exposé' ou ‘non exposé') et l'on souhaite comparer des résultats distribués non normalement entre yeux exposés ou non exposés au moyen d'un test de somme des rangs de Wilcoxon tout en prenant en compte les grappes. Dans cet article, nous présentons une formule corrigée pour la variance de la statistique de la somme des rangs de Wilcoxon en présence de covariables spécifiques de l'?il (sous‐unité). Nous l'appliquons pour comparer des scores de démangeaison chez des patients qui ont une allergie oculaire entre yeux traités par des gouttes actives ou des gouttes placebo, sachant que certains patients reçoivent les mêmes gouttes dans les deux yeux, alors que d'autres patients reçoivent des gouttes différentes dans chaque oeil. Nous présentons également des comparaisons entre le test de Wilcoxon pour des grappes, et chacune des approches par tests de rangs signés et modèle mixte, et nous montrons des différences très notables de puissance en faveur du test de Wilcoxon pour grappes dans certains dispositifs.  相似文献   

16.
To gain some idea of cervical screening in Otago and Southland (two southern provinces of New Zealand), before the implementation of a national cervical cancer prevention programme, a questionnaire was sent to all doctors identified as smear takers. Questionnaires were returned by 75% of the doctors. Only 53.8% of practice nurses were involved in taking smears. Well Women Clinics staffed by nurses were not widespread in either province. Just under half (46.4%) of doctors took cervical smears as part of a health check programme. Sixty-three per cent (63.3%) routinely performed a pelvic examination when taking a smear. Surprisingly few doctors were familiar with the technique of placing spatula and cytobrush samples on one slide, a manoeuvre which could significantly reduce the workload of the cytology laboratories. Only a minority of doctors were aware of a new sampler which can provide samples equivalent to combined spatular-cytobrush smears. There was confusion over the timing of a repeat smear following two normal ones. the recommended interval of 3 years was only complied with by 44.2% of doctors. However, 71.4% of respondents did remind women to have smears. the study indicates that many doctors already provide patients with a good cervical screening service, and this augers well for the national screening programme. Afin d'abtenir des informations sur le dépistage du cancer du col utérin dans les provinces d'Otago et de Southland (2 provinces du sud de la Nouvelle Zélande), préalablement au lancement d'un programme de prévention, un questionnaire a été envoyéà tous les médecins susceptibles de réaliser des frottis. Ces questionnaires ont été renvoyés par 75% d'entre eux. Seulement 53.8% des infirmiéres sont concernées par la réalisation des frottis. Les ‘Well Women Clinics’dirigées par des infirmiéres ne sont pas très répandues dans ces deux provinces. Moins de la moitié des médecins (46.4%) font des frottis dans le cadre d'un programme de bilan de santé. Soixante trois pourcent (63.3%) font un examen pelvien systématique lorsqu'ils réalisent un frottis. De façon surprenante, peu de médecins sont familiarisés avec la technique de l'étalement sur une même lame de la spatule et de la cytobrush, technique qui réduit notable-ment le travail des laboratoires de cytologie. eule une minorité de médecins est au courant de l'existence de ce nouveau système permettant d'obtenir l'equivalent d'un frottis combinéà la spatule et à la cytobrush. Une confusion a été constatée à propos de l'intervalle recommandé après 2 frottis normaux. Les médecins se sont conformés à l'intervalle recommandé de 3 ans pour 44.2% d'entre eux. Cependant 71.4% des médecins répondeurs rappellent à leurs patientes qu'elles doivent faire pratiquer des frottis. Cette étude montre que de nombreux médecins proposent une bonne utilisation du dépistage du cancer du col à leurs patientes, signe de bonne augure pour le programme national de dépistage. Um die Lage hinsichtlich eines gynäkologischen Screenings in den beiden südlichen Provinzen von Neuseeland, Otago und Southland, zu erfassen, wurden Fragebogen an alle Ärzte verschickt von welchen bekannt wer, daß sie Abstriche herstellen. 75% der Fragebogen wurden beantwortet. Nur in 53.8% der Praxen waren die Schwestern mit der Herstellung der Abstriche betraut. In beiden Provinzen gab es kaum ‘Well Women Clinics’. Etwas weniger als die Hälfte (46.4%) der Ärzte fertigen Cervikalabstrich im Rahmen eines Gesundheitscheques an, 63% (63.3%) von diesen führte routinemäßig gleichzeitig eine Beckenuntersuchung durch. Überraschenderweise waren nur wenige Ärzte mit der Technik Spatel-und Cytobrushmaterial auf einem einzigen Objektträger aufzutragen vertraut, nur eine Minderheit kannte neue Verfahren, die dem kombinierten Spatel- und Cytobrushabstrich entsprechen. Es herrschte Unklarheit hinsichtlich der Kontrollzeiträume nach 2 normalen Abstrichen. Der empfohlene Zeitraum von 3 Jahren war nur 44.2% der Ärzte bekannt. Trotzdem forderten 71.4% die Patientinnen auf, Abstriche herstellen zu lassen. Die Studie zeigt, daß viele Ärzte ihre Patientinnen bereits mit einem guten Screeningprogramm versorgen und bietet somit gute Voraussetzungen für ein nationales Screeningprogramm.  相似文献   

17.
Corinne Bocquel 《Grana》2013,52(6):413-420
Good preservation and storage of birch pollen (Betula verrucosa Ehrh.) is desirable for two reasons; for one it enables a deeper knowledge of the biological state of the pollen and for the other, since birch pollen is a bio-indicator of air quality, its study under optimal conditions (preservation and biological state) at the biological, structural, ionic and immunological level is essential for analysing the effect of atmospheric pollution on the pollen. For this reason this study has involved both pollen collected under natural conditions and pollen from urban sites (in situ). For a period of two and half years we have studied different methods of preservation and different storage temperatures by in vitro germination tests on a 10% sucrose Heslop-Harrison medium using rehydrated pollen. The best preservation is obtained with freeze-drying for half an hour and subsequent storage at 80°C. The in vitro germination test on in situ pollen shows that the germination percentage is a reliable parameter for estimating the impact of atmospheric pollution on pollen because it varies in accordance with the degree of pollution at the urban sites.

La mise au point de la conservation et du stockage du pollen de Bouleau (Betula verrucosa Ehrh.) présente un double intérêt; d'une part elle permet d'approfondir la connaissance de la qualité de l'air, d'acte fort l'étude dans les meilleures conditions possibles au niveau biologique, structural, ionique et immunologique, est indispensable pour analyser l'action de la pollution atmosphérique sur ces pollens. En conséquence ce travail a été mené sur des pollens témoins et sur des pollens récoltés dans des sites urbains in situ. Durant deux ans et demi, nous avons réalisé des tests de germination, sur le milieu Heslop-Harrison (saccharose 10%) et avec des pollens ayant subi une réhydratation, pour analyser la fiabilité de différentes méthodes de conservation et de stockage de — 80°C. Les tests de germination in vitro sur les pollens in situ montrent que le pourcentage de germination est un paramètre fiable pour l'impact de la pollution atmosphérique sur les pollens, en effet ce pourcentage varie en fonction du degré de pollution des sites urbains.  相似文献   

18.
Cytohistological correlation as a measure of quality assurance of a cytology laboratory In a hospital-based cytology screening programme for the early detection of preinvasive lesions of the uterine cervix, 166 women with abnormal smears (human papillomavirus (HPV) changes, cervical intraepithelial neoplasia (CIN) and invasive carcinoma) were referred to the central colposcopy clinic between January 1989 and December 1991. The colposcopist (V.S.) was able to take a direct biopsy in 156 cases. In the remaining 10 cases, biopsy could not be taken because of unsatisfactory colposcopy. A cytohistological correlation was obtained in 121/156 (77.5%) cases, and the remaining 35 cases showed a disparity in diagnosis. These were reviewed by one of us (P.S.) and the reasons for underdiagnosis/false negatives and overdiagnosis/false-positive results were analysed. It was found that sampling error was the cause of false negativity and underdiagnosis in most cases, while interpretative errors resulted in the overdiagnosis and false-positive smears. The reasons for interpretative errors were studied in detail. Les corrélations cyto-histologiques comme mesure de l'assurance qualité dans un laboratoire de cytologie Dans le cadre d'un programme hospitalier de dépistage précoce des lésions précurseurs et des lésions invasives du col utérin, 166 femmes ayant un frottis anormal (lésions virales à HPV, CIN, carcinome infiltrant) ont été vues dans le service central de colposcopie entre janvier 1989 et décembre 1991. Dans 156 cas, le colposcopiste (VS) a pu réaliser une biopsie. Dans les 10 cas restants, la colposcopie n'était pas satisfaisante et la biopsie n'a pas été pratiquée. Une corrélation cyto-histologique a pu être établie dans 121 cas sur 156 (77, 5%) avec, dans 35 cas, constatation d'une discordance diagnostique. Ces cas ont été revus par l'un de nous (PS) et les raisons de cette sous-évaluation diagnostique/faux-négatifs et de surévaluation diagnostique/faux-positifs, ont été analysées. Cette analyse montre que le prélèvement est à l'origine des faux-négatifs et de la sous-évaluation diagnostique dans la majorité des cas, alors que l'erreur d'interprétation est responsable de la surévaluation diagnostique et des faux-positifs. Les sources d'erreur d'interprétation ont été étudiées dans le détail. Die Korrelation zwischen Zytologie und Histologie als Massnahme der Qualitatssicherung eines zytologischen Labors Im Rahmen des Screeningprogramms eines Krankenhauses wurden 166 Frauen mit auffälligen Befunden (HPV, CIN oder invasive Karzinome) zwischen Januar 1989 und Dezember 1991 einer zentralen Kolposkopieklinik überwiesen. Biopsien konnten in 156 Fällen gewonnen werden, während das kolposkopische Bild dies in 10 Fällen nicht rechtfertigte. Übereinstimmung zwischen Zytologie und Histologie wurde in 121/156 (77,5%) erzielt. Abweichungen ergaben sich in 35 Fällen, die genau analysiert wurden. Entnahmefehler verursachten die meisten falsch negativen und unterbewerteten Fälle, während falsch positive und zu hoch bewertete Fälle auf Interpretationsfehlern beruhten. Diese wurden genau studiert.  相似文献   

19.
Reporting rates for abnormal and inadequate cervical smears have been compared during a 5-year period in nine laboratories and related to targets and achievable ranges recently recommended by the National Health Service Cervical Screening Programme (NHSCSP). There was improved consistency in rates for all grades of abnormality as well as inadequate smears. the average rate for moderate and severe dyskaryosis combined increased to 1.6%, which is the target recommended by the NHSCSP, and the standard deviation fell from 0.52 to 0.27. Although average rates for mild dyskaryosis and borderline nuclear change combined and inadequate smears both remained within the achievable range recommended by the NHSCSP, four laboratories were above the upper limit for each of those categories in the final year. During the 5 years of the study there was a fall in the number of ‘inflammatory’smears coded as negative with a recommendation for early repeat. Only one laboratory still uses that category. the challenge for the future lies in controlling high rates for minor abnormalities and inadequate smears while maintaining acceptable rates for moderate and severe dyskaryosis. Comparison of reporting rates is regarded by the participating laboratories as a useful adjunct to external quality assurance. Les taux des frottis cervico-utérins anormaux et inadéquats ont été comparés sur une période de cinq ans pour neuf laboratoires et évalues par rapport aux objectifs et aux intervalles de valeur récemment publiés dans les recommandations du programme de dépistage cervico-utérin du NHS (NHSCSP). Une amélioration de l'homogenéïté des taux de tous les grades d'anomalies aussi bien que celui des frottis inadéquats a été observée. Les taux moyens de toutes les catégories ont augmentés. Le taux moyen de I'ensemble des dyscaryoses modérées et sévères, a augmenté pour atteindre 1,6%, ce qui est I'objectif recommandé par le NHSCSP, et I'ecart type est passé de 0,52 à 0,27. Bien que les taux moyens de l'ensemble des dyscaryoses légéres et des modifications nucléaires “borderline” (BNC) sgient restés dans l'intervalle recommandé par le NHSCSP, quatre laboratoires étaient audessus de la limite supérieure pour chacune de ces catégories, au cours de la derniére année. Au cours des cinq années de cette étude, il y a eu une chute du nombre des “frottis inflammatoires” codés comme négatifs mais où un contrôle rapproaché avait été recommandé. Un seul laboratoire utilise encore cette catégorie. Pour le futur, le challenge se situe au nivau du contrôle des taux élevés d'anomalies mineures et de frottis inadéquats tout en maintenant des taux acceptables de lésions de dyscaryoses moyennes à sévères. La comparaison des taux des différentes catégories de frottis est considérée comme une aide très utile pour I'assurance de qualité externe pour les différents laboratoires participants. Der Anteil abnormer und nicht verwertbarer Abstriche wurde über einen Zeitraum von fünf Jahren zwischen neun Labors und den Empfehlungen des National, Health Service Cervical Screening Programme (NHSCSP) verglichen. Es ergab sich eine bessere Übereinstimmung für alle Anomalien sowie die Rate nichtauswertbarer Abstriche. Der Anteil mässinger und schwerer Dysplasien zusammengefasst stieg auf 1,6% und entsprach damit der Vorgabe des NHSCSP. Die Standardab-weichung sank von 0,52 auf 0,27. Obgleich auch der Anteil der leichten Dysplasien und borderline-Fälle im Bereich der NHSCSP-Empfehlungen blieben lagen dennoch vier Labors auch im letzten Jahr oberhalb der Grenzwerte. Im Untersuchungszeitraum sank die Zahl der als enzündlich beurteilten und zur Kontrolle empfohlenen Fälle. Nur eines der Labors benützt diese Beurteilung noch. Die Forderung der Zukunft wird die Senkung der nichtauswertbaren Präparate und leichten Dysplasien unter Beibehaltung des Standards für mässige und schwere Dysplasien sein. Der Vergleich der Beurteilungen zwischen Labors wird als nützliche Ergänzung der externen Qualitätssicherung angesehen.  相似文献   

20.
READER REACTION     
《Biometrics》2005,61(3):896-897
R. M. Fewster , J. L. Laake , and S. T. Buckland 856 Melville et Welsh (2001, Biometrics 57, 1130–1137) considèrent une approche de l'échantillonnage d'un transect en ligne en employant une étude de calibration séparée pour estimer la fonction de détection g. Ils présentent une étude de simulation opposant leurs résultats à ceux bien piètres d'un estimateur traditionnel, appelé l'estimateur “Buckland” et référencé dans Buckland et al. (1993, London, Chapman and Hall). Les résultats médiocres de l'estimateur “Buckland” peuvent être expliqués par : (i) l'estimateur est prévu pour des données de distance non tronquées, mais appliqué par Melville et Welsh à des données de distance tronquées ; (ii) les données de distance n'étaient pas fusionnées le long des transects, à l'opposé des pratiques courantes ; (iii) le biais de l'estimateur était évalué par rapport à une grille fixe plutôt que randomisée des lignes de transects. Nous examinons en détail les points précédents et nous montrons que les méthodes traditionnelles marchent bien lorsqu'on les applique correctement. Nous mettons aussi l'accent sur le fait que ce que Melville et Welsh appellent estimateur “Buckland” n'est pas un estimateur recommandé par Buckland et al. pour les applications pratiques d'échantillonnage. R. V. Gueorguieva 862 Souvent dans des études longitudinales ou dans des analyses de classification on observe simultanément des variables à réponse binaires et des variables continues qui doivent être modélisées conjointement. Dans une publication récente Dunson, Chen et Harry, 2003 (DCH) proposent une approche bayésienne pour modéliser en commun les résultats binaires et les résultats continus ; ils illustrent cette approche avec un exemple sur des données de toxicité. Dans cette note nous démontrons comment un logiciel standard (PROC NLMIXED dans SAS) peut être employé pour obtenir des estimations du maximum de vraisemblance d'un modèle dont le paramétrage est une alternative à celui utilisé par DCH pour cet exemple. Nous suggérons également qu'un modèle plus général avec les effets aléatoires additionnel ajuste mieux les données. Une anomalie apparente entre les estimations obtenues par DCH et les estimations obtenues plus tôt par Catalano et Ryan en 1992 est également résolu. La question du biais concernant l'effet dose est discutée. L'approche du maximum de vraisemblance est applicable aux situations générales avec des résultats de différents types et n'exige ni spécification à priori ni programmation supplémentaire. S. Pledger 868 Dorazio et Royle (2003, Biometrics 59, 351–364) ont étudié le comportement de trois modèles de mélange pour l'analyse des données de capture‐recapture en population fermée, en présence d'une hétérogénéité de capture entre individus. Leurs simulations provenaient d'une distribution béta‐binomiale, et leurs analyses étaient faites à partir des modèles béta‐binomial, logit‐normal, ou de mélange fini (à classes latentes). Dans cette réponse, des simulations à partir de distributions nombreuses et variées permettent d'avoir une vision plus large de la valeur relative de la distribution béta‐binomiale et des modèles de mélange fini, et donnent un premier aperçu des situations dans lesquelles ces modèles sont utiles.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号