首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
An evaluation of ‘rapid review’ as a method of quality control of cervical smears using the AxioHOME miscroscope One method of quality control which has recently been recommended by professional bodies in the UK is the ‘rapid review’ method. This involves the microscopic 30 s review of all negative cervical smears with the intention of flagging potential missed abnormalities. Although it has been suggested that rapid review is better than 10% random rescreening of negative smears, the efficiency and efficacy of this method of quality control have not been thoroughly evaluated. We have used the AxioHOME system, which can record the area of a slide covered and the screening time, to investigate slide coverage during rapid review quality control, as performed by 15 cytoscreeners and MLSOs reviewing a test set of 22 slides each. The test set comprised 18 negative slides, three positive slides, and one unsatisfactory slide. We have recorded two distinct methods of rapid review in use amongst cytotechnologists, the step method and the whole slide method. The data show that rapid review takes longer on average than the recommended 30 s, the mean screening times being 76 s and 82 s for the step and whole slide methods, respectively. Abnormal smears were missed on three of 15 occasions by the step method (sensitivity 80%, positive predictive value 85%), and on seven of 30 occasions by the whole slide method (sensitivity 76.6%, positive predictive value 45%). However, the 95% confidence intervals were wide (57.7–90.7% for the step method, and 51.9–95.7% for the whole slide method). Analysis of scanning tracks and screening rates shows significant flaws in the methodology of rapid review. Abnormal cells were not identified, although dyskaryotic cells were included in the scanning track on nine occasions, seven using the whole slide method and two using the step method. On one occasion (using the step method) abnormal cells were not identified because they were not included in the scanning track. Further research is in progress to determine optimal methods of rapid review, and whether the rapid review technique is as effective as automated screening systems for quality assurance in cytology. Evaluation de la technique de ‘Relecture Rapide’ comme méthode de contrôle de qualité des frottis cervico-utérins, à l'aide du microscope AxioHOME Une des méthodes de contrôle de qualité récemment recommandée par le corps professionnel du Royaume Uni est la méthode dite de ‘relecture rapide’. Cette méthode consiste en une deuxième lecture d'une durée de trente secondes de tous les frottis cervicaux négatifs et dont l'objectif est de détecter les anomalies ayant pu échapper au premier examen. Bien qu'il ait été suggéré que cette méthode de relecture rapide soit meilleure que la relecture de 10% des frottis négatifs tirés au sort, le rendement et l'efficacité de cette méthode de contrôle de qualité n'ont pas été évalués complètement. Nous avons utilisé le système AxioHOME capable d'enregistrer la plage de la lame qui a été explorée ainsi que le temps de lecture afin d'étudier la surface explorée au cours de cette relecture rapide telle qu'elle a pu être pratiquée par quinze cytotechniciens et MLSOs, chacun ayant relu une série test de vingt deux lames. Cette série test comprenait dix huit lames négatives, trois lames positives et un frottis non satisfaisant. Nous avons noté que les cytotechniciens utilisaient deux méthodes de relecture rapide différentes, la méthode ‘pas à pas’ et la méthode ‘globale’. Les données montrent que la relecture rapide prend, en moyenne, un temps supérieur aux trente secondes recommandées, la moyenne des temps de lecture étant de 76 secondes et de 82 secondes respectivement pour la méthode ‘pas à pas’ et la méthode ‘globale’. Les anomalies n'ont pas été détectées dans trois cas sur quinze par la méthode ‘pas à pas’ (sensibilité 80%, valeur prédictive positive 85%), et dans 7 cas sur 30 par la méthode globale (sensibilité 76,6%, valeur prédictive positive 45%). Toutefois, l'intervalle de confiance à 95% est important (57,7%-90,7% pour la méthode ‘pas à pas’ et 51,9%-95,7% pour la méthode globale). L'analyse des surfaces balayées et des taux de détection montre des points faibles significatifs de cette méthodologie de relecture rapide. Dans 9 cas, les anomalies n'ont pas été identifiées alors que des cellules dyskaryotiques étaient présentes dans les plages balayées au cours de la relecture (sept utilisant la méthode globale et deux utilisant la méthode ‘pas à pas’). Dans un cas (avec la méthode ‘pas à pas’) les cellules anormales n'ont pas été identifiées parce qu'elles étaient absentes des plages de relecture. Des études sont en cours afin de déterminer quelles sont les méthodes optimales de relecture rapide et si ces techniques de relecture rapide sont aussi efficaces que les systèmes de lecture automatisée pour l'assurance de qualité en cytologie cervico-utérine. ‘Rapid Review’ als Methode der Qualitätskontrolle gynäkologischer Abstriche, Überprüfung mit dem AxioHOME-Mikroskop Die empfohlene ‘Rapid Review’ Kontrolle aller negativen Abstriche in nur 30 Sekunden anstelle des Nachscreenens von 10% der Präparate ist in ihrer Zuverlässigkeit bislang nicht überprüft worden. Mit Hilfe des AxioHOME-Mikroskops ist es möglich sowohl die ausgewertete Fläche, als auch die erforderliche Zeit zu erfassen. 15 Auswerter prüften mit der Methode jeweils einen Testsatz von 22 Präparaten. Er enhielt 18 negative, 3 positive und 1 nichtauswertbaren Abstrich. Getestet wurden zwei verschiedene Vorgehensweisen: die schrittweise und die das ganze Präparat erfassende. Beide erfordern mehr Zeit als 30 Sekunden; der mittlere Zeitaufwand betrug für die Schrittmethode 76 und für die Ganzheitsmethode 82 Sekunden. Die Schrittmethode verfehlte 3/15 Anomalien (Sensitivität 80%, positiver prädiktiver Wert 85%), die Ganzheitsmethode 7/30 (Sensitivität 76,6%, positiver prädiktiver Wert 45%). Der 95% Konfi denzbereich reichte für die Schrittmethode von 57,5–90,7% und für die Ganzheitsmethode von 51,9–95,7%). Die Analyse deckt wesentliche Schwachstellen des Rapid Review-Verfahrens auf. In 9 Fällen lagen nicht erkannte Zellatypien in den kontroll ierten Bahnen (7 bei des Schrittmethode, 2 bei der Ganzheitsmethode). Einmal lagen sie bei der Schrittmethode ausserhalb der geprüften Bahnen. Weitere Studien werden prüfen ab das Rapid Review-Verfahren automatisierten Systemen vergleichbar ist.  相似文献   

2.
Reporting rates for abnormal and inadequate cervical smears have been compared during a 5-year period in nine laboratories and related to targets and achievable ranges recently recommended by the National Health Service Cervical Screening Programme (NHSCSP). There was improved consistency in rates for all grades of abnormality as well as inadequate smears. the average rate for moderate and severe dyskaryosis combined increased to 1.6%, which is the target recommended by the NHSCSP, and the standard deviation fell from 0.52 to 0.27. Although average rates for mild dyskaryosis and borderline nuclear change combined and inadequate smears both remained within the achievable range recommended by the NHSCSP, four laboratories were above the upper limit for each of those categories in the final year. During the 5 years of the study there was a fall in the number of ‘inflammatory’smears coded as negative with a recommendation for early repeat. Only one laboratory still uses that category. the challenge for the future lies in controlling high rates for minor abnormalities and inadequate smears while maintaining acceptable rates for moderate and severe dyskaryosis. Comparison of reporting rates is regarded by the participating laboratories as a useful adjunct to external quality assurance. Les taux des frottis cervico-utérins anormaux et inadéquats ont été comparés sur une période de cinq ans pour neuf laboratoires et évalues par rapport aux objectifs et aux intervalles de valeur récemment publiés dans les recommandations du programme de dépistage cervico-utérin du NHS (NHSCSP). Une amélioration de l'homogenéïté des taux de tous les grades d'anomalies aussi bien que celui des frottis inadéquats a été observée. Les taux moyens de toutes les catégories ont augmentés. Le taux moyen de I'ensemble des dyscaryoses modérées et sévères, a augmenté pour atteindre 1,6%, ce qui est I'objectif recommandé par le NHSCSP, et I'ecart type est passé de 0,52 à 0,27. Bien que les taux moyens de l'ensemble des dyscaryoses légéres et des modifications nucléaires “borderline” (BNC) sgient restés dans l'intervalle recommandé par le NHSCSP, quatre laboratoires étaient audessus de la limite supérieure pour chacune de ces catégories, au cours de la derniére année. Au cours des cinq années de cette étude, il y a eu une chute du nombre des “frottis inflammatoires” codés comme négatifs mais où un contrôle rapproaché avait été recommandé. Un seul laboratoire utilise encore cette catégorie. Pour le futur, le challenge se situe au nivau du contrôle des taux élevés d'anomalies mineures et de frottis inadéquats tout en maintenant des taux acceptables de lésions de dyscaryoses moyennes à sévères. La comparaison des taux des différentes catégories de frottis est considérée comme une aide très utile pour I'assurance de qualité externe pour les différents laboratoires participants. Der Anteil abnormer und nicht verwertbarer Abstriche wurde über einen Zeitraum von fünf Jahren zwischen neun Labors und den Empfehlungen des National, Health Service Cervical Screening Programme (NHSCSP) verglichen. Es ergab sich eine bessere Übereinstimmung für alle Anomalien sowie die Rate nichtauswertbarer Abstriche. Der Anteil mässinger und schwerer Dysplasien zusammengefasst stieg auf 1,6% und entsprach damit der Vorgabe des NHSCSP. Die Standardab-weichung sank von 0,52 auf 0,27. Obgleich auch der Anteil der leichten Dysplasien und borderline-Fälle im Bereich der NHSCSP-Empfehlungen blieben lagen dennoch vier Labors auch im letzten Jahr oberhalb der Grenzwerte. Im Untersuchungszeitraum sank die Zahl der als enzündlich beurteilten und zur Kontrolle empfohlenen Fälle. Nur eines der Labors benützt diese Beurteilung noch. Die Forderung der Zukunft wird die Senkung der nichtauswertbaren Präparate und leichten Dysplasien unter Beibehaltung des Standards für mässige und schwere Dysplasien sein. Der Vergleich der Beurteilungen zwischen Labors wird als nützliche Ergänzung der externen Qualitätssicherung angesehen.  相似文献   

3.
A set of 300 vaginal smears was interpreted by 13 cytologists from six European laboratories, who were requested to report inadequate and suboptimal smears. the set had been appropriately seeded to reach approximately 10% inadequate and 20% suboptimal smear frequency. According to the majority report, 230 smears were classified as adequate (76.7%), 43 as inadequate (14.3%), and 27 as suboptimal (9.0%). Agreement with the majority report ranged from 52% to 91% (average 78%). Kappa statistics for reporting inadequate smears showed a high level of agreement for five cytologists, and fair to good agreement for eight. In contrast, K statistics for reporting suboptimal smears showed fair to good agreement with the majority report only in five instances, whereas agreement was poor for eight cytologists. ‘Inadequate smear’rates may be used to compare the quality of smears received in different laboratories, as there is a high level of agreement among cytologists as to what constitutes an inadequate smear. However, this is not true for ‘suboptimal smear’ rates, and more precise reporting criteria must be defined and tested if an intermediate category is to be retained to report poor quality smears: more precise reporting criteria must be defined and tested if an intermediate category is to be retained to report poor quality smears. Une série de 300 frottis cervico-vaginaux a été examinee par 13 cytologistes appartenant à 6 laboratoires européens auxquels il avait été demandé de signaler les frottis inadéquats et sub-optimaux. Cette série de frottis a été constituée de façon à atteindre approximativement une fréquence de 10% de frottis inadéquats et de 20% de frottis sub-optimaux. Si I'on considère les réponses faites par la majorité des cytologistes, 230 frottis ont été classés adéquats (76,7%), 43 classés inadéquats (14,3%), et 27 comme sub-optimaux (9,0%). La concordance avec les réponses de la majorité des cytologistes varie de 52%à 91% (moyenne 78%). Concernant le signalement des frottis inadéquats, le test Kappa est excellent pour 5 cytologistes et moyen à bon pour les 8 autres. Au contraire, pour le signalement des frottis sub-optimaux, le test Kappa montre un accord moyen à bon avec les réponses de la majorité seulement dans 5 cas alors que I'agrément est mauvais pour 8 cytologistes. La fréquence des frottis inadéquats peut être utilisée pour comparer la qualité de prélèvement du frottis dans différents laboratoires, alors que les comparaisons de la fréquence des frottis sub-optimaux sont discutables, du fait d'un biais de diagnostic évident. Des critéres plus précis pour le signalement des frottis sub-optimaux doivent étre définis et testés si cette catégorie doit être retenue pour rapporter les frottis de mauvaise qualité. 300 Abstriche wurden durch 13 Zytologen aus 6 europäischen Laboratorien hinsichtlich der Kriterien ‘unbrauchbar’und ‘suboptimal’beurteilt. Die Sammlung enthielt etwa 10% unbrauchbare und 20% suboptimale Präparate. Mehrheitlich wurden 230 Abstriche als auswertbar (76,7%), 43 als unbrauchbar (14,3%) und 27 als suboptimal (9,0%) bezeichnet. Die Statistik ergab hinsichtlich der unbrauchbaren Abstriche eine ausgezeichnete Ûbereinstimmung für 5 und eine gute Ûbereinstim-mung für 8 Zytologen. Demgegenüber zeigte sich hinsichtlich der Beurteilung suboptimal nur 5mal eine gute und 8mal eine schlechte Ûbereinstimmung. Damit ist die Kategorie suboptimal ungeeignet zum Vergleich und bedarf einer genaueren Definition wenn sie für die Qualitätskontrolle eingesetzt werden soll.  相似文献   

4.
Evaluation of proficiency testing as a method of assessing competence to screen cervical smears Regular proficiency testing of pathologists and cytotechnologists who undertake the analysis of cervical smears has been carried out in cytology laboratories in the North Thames (West) Region since 1989. The protocol followed is one that has been adopted nationally. Since the scheme started, laboratory personnel from 17 cytology laboratories in the Region have participated and seven rounds of testing have been completed. Nine hundred and seventy-one tests were carried out and a pass rate of 96.4% was recorded. Two hundred and forty-seven cytologists took the test on at least one occasion and 63 cytologists took part in all seven rounds. Our results indicate that proficiency testing is capable of detecting cytologists who consistently perform below an acceptable standard and require retraining. They also show that even the most competent screeners can miss an abnormal smear. Seven cytologists who had proved their competence to screen on six occasions, missed an abnormal smear on the seventh, despite the fact that they were screening under test conditions when their vigilance should have been at its peak. Our findings indicate that false-negative reporting will inevitably occur during manual screening, and emphasize the need for further research into the causes and prevention of screening error. Evaluation des tests d'aptitude comme méthode d'appréciation de la compétence à lire les frottis cervico-utérins de dépistage Le passage régulier de tests d'aptitude pour les pathologistes et les cytotechniciens qui prennent en charge l'analyse de frottis cervico-utérins est utilisé dans les laboratoires de cytologie de la région North Thames (West) depuis 1989. Le protocole choisi est l'un de ceux qui ont été adoptés au niveau national. Depuis le début de ce programme, 7 sessions de tests ont été organisées et le personnel de 17 laboratoires de cytologie de la région a participé. Neuf cent soixante et onze tests ont été pratiqués et le taux de participation enregistré est de 96,4%. Deux cent quarante sept cytologistes ont fait le test au moins une fois et 63 cytologistes ont passé les 7 sessions de tests. Nos résultats indiquent que les tests d'apitude sont capables d'identifier les cytologistes qui ont besoin d'une formation car leur résultats aux tests sont régulièrement en dessous des standards acceptables. Ils montrent également que même les “screeners” les plus compétents peuvent passer à côté d'un frottis anormal. Sept cytologistes ayant montré leur compétence pour la lecture des frottis de dépistage sur 6 tests n'ont pas été capable de détecter un frottis anormal sur le septième test, bien que cette lecture ait été faite dans des conditions de test où leur vigilance aurait dû être à son maximum. Ces résultats indiquent qu'il est impossible d‘éviter les faux négatifs au cours du “screening manuel” et confirment la n?essité de poursuivre les recherches sur les causes des erreurs de lecture et sur leur prévention. Die Ergebnisse der Laistungstests als Grundlage für die Fähigkeit gynäkologische Abstriche auszuwerten Regelmässige Leistungstests von Zytopathologen und Zytotechnikerinnen beim Auswerten gynäkologischer Abstriche wurden seit 1989 in den Labors der Nord-Themse Region durchgeführt. Das Testprotokoll entspricht dem landesweit angewandten. Inzwischen nahmen 17 Labors an insgesamt 7 Testrunden teil. Die Gesamtzahl der Tests beträgt 971 wobei 96,4% der Teilnehmer die Tests bestanden. 247 Teilnehmer nahmen an zumindest einem Test, 63 an allen sieben teil. Die Auswertungen ergaben, dass auf diese Weise Zytologen mit unterdurch schnittlicher Leistung identifiziert und einem Zusatztraining zugeführt werden können. Sie zeigen aber auch, dass selbst die Erfahrendsten gelegentlich positive Befunde übersehen. Sieben Teilnehmer begingen diesen Fehler nach sechs fehlerfreien Durchgängen beim siebten Test trotz der bekannten Testsituation. Dies bedeutet, dass Fehler bei nichtautomatischer Auswertung unvermeidbar sind. Die Ursachenforschung muss weitergeführt werden.  相似文献   

5.
Cytohistological correlation as a measure of quality assurance of a cytology laboratory In a hospital-based cytology screening programme for the early detection of preinvasive lesions of the uterine cervix, 166 women with abnormal smears (human papillomavirus (HPV) changes, cervical intraepithelial neoplasia (CIN) and invasive carcinoma) were referred to the central colposcopy clinic between January 1989 and December 1991. The colposcopist (V.S.) was able to take a direct biopsy in 156 cases. In the remaining 10 cases, biopsy could not be taken because of unsatisfactory colposcopy. A cytohistological correlation was obtained in 121/156 (77.5%) cases, and the remaining 35 cases showed a disparity in diagnosis. These were reviewed by one of us (P.S.) and the reasons for underdiagnosis/false negatives and overdiagnosis/false-positive results were analysed. It was found that sampling error was the cause of false negativity and underdiagnosis in most cases, while interpretative errors resulted in the overdiagnosis and false-positive smears. The reasons for interpretative errors were studied in detail. Les corrélations cyto-histologiques comme mesure de l'assurance qualité dans un laboratoire de cytologie Dans le cadre d'un programme hospitalier de dépistage précoce des lésions précurseurs et des lésions invasives du col utérin, 166 femmes ayant un frottis anormal (lésions virales à HPV, CIN, carcinome infiltrant) ont été vues dans le service central de colposcopie entre janvier 1989 et décembre 1991. Dans 156 cas, le colposcopiste (VS) a pu réaliser une biopsie. Dans les 10 cas restants, la colposcopie n'était pas satisfaisante et la biopsie n'a pas été pratiquée. Une corrélation cyto-histologique a pu être établie dans 121 cas sur 156 (77, 5%) avec, dans 35 cas, constatation d'une discordance diagnostique. Ces cas ont été revus par l'un de nous (PS) et les raisons de cette sous-évaluation diagnostique/faux-négatifs et de surévaluation diagnostique/faux-positifs, ont été analysées. Cette analyse montre que le prélèvement est à l'origine des faux-négatifs et de la sous-évaluation diagnostique dans la majorité des cas, alors que l'erreur d'interprétation est responsable de la surévaluation diagnostique et des faux-positifs. Les sources d'erreur d'interprétation ont été étudiées dans le détail. Die Korrelation zwischen Zytologie und Histologie als Massnahme der Qualitatssicherung eines zytologischen Labors Im Rahmen des Screeningprogramms eines Krankenhauses wurden 166 Frauen mit auffälligen Befunden (HPV, CIN oder invasive Karzinome) zwischen Januar 1989 und Dezember 1991 einer zentralen Kolposkopieklinik überwiesen. Biopsien konnten in 156 Fällen gewonnen werden, während das kolposkopische Bild dies in 10 Fällen nicht rechtfertigte. Übereinstimmung zwischen Zytologie und Histologie wurde in 121/156 (77,5%) erzielt. Abweichungen ergaben sich in 35 Fällen, die genau analysiert wurden. Entnahmefehler verursachten die meisten falsch negativen und unterbewerteten Fälle, während falsch positive und zu hoch bewertete Fälle auf Interpretationsfehlern beruhten. Diese wurden genau studiert.  相似文献   

6.
To gain some idea of cervical screening in Otago and Southland (two southern provinces of New Zealand), before the implementation of a national cervical cancer prevention programme, a questionnaire was sent to all doctors identified as smear takers. Questionnaires were returned by 75% of the doctors. Only 53.8% of practice nurses were involved in taking smears. Well Women Clinics staffed by nurses were not widespread in either province. Just under half (46.4%) of doctors took cervical smears as part of a health check programme. Sixty-three per cent (63.3%) routinely performed a pelvic examination when taking a smear. Surprisingly few doctors were familiar with the technique of placing spatula and cytobrush samples on one slide, a manoeuvre which could significantly reduce the workload of the cytology laboratories. Only a minority of doctors were aware of a new sampler which can provide samples equivalent to combined spatular-cytobrush smears. There was confusion over the timing of a repeat smear following two normal ones. the recommended interval of 3 years was only complied with by 44.2% of doctors. However, 71.4% of respondents did remind women to have smears. the study indicates that many doctors already provide patients with a good cervical screening service, and this augers well for the national screening programme. Afin d'abtenir des informations sur le dépistage du cancer du col utérin dans les provinces d'Otago et de Southland (2 provinces du sud de la Nouvelle Zélande), préalablement au lancement d'un programme de prévention, un questionnaire a été envoyéà tous les médecins susceptibles de réaliser des frottis. Ces questionnaires ont été renvoyés par 75% d'entre eux. Seulement 53.8% des infirmiéres sont concernées par la réalisation des frottis. Les ‘Well Women Clinics’dirigées par des infirmiéres ne sont pas très répandues dans ces deux provinces. Moins de la moitié des médecins (46.4%) font des frottis dans le cadre d'un programme de bilan de santé. Soixante trois pourcent (63.3%) font un examen pelvien systématique lorsqu'ils réalisent un frottis. De façon surprenante, peu de médecins sont familiarisés avec la technique de l'étalement sur une même lame de la spatule et de la cytobrush, technique qui réduit notable-ment le travail des laboratoires de cytologie. eule une minorité de médecins est au courant de l'existence de ce nouveau système permettant d'obtenir l'equivalent d'un frottis combinéà la spatule et à la cytobrush. Une confusion a été constatée à propos de l'intervalle recommandé après 2 frottis normaux. Les médecins se sont conformés à l'intervalle recommandé de 3 ans pour 44.2% d'entre eux. Cependant 71.4% des médecins répondeurs rappellent à leurs patientes qu'elles doivent faire pratiquer des frottis. Cette étude montre que de nombreux médecins proposent une bonne utilisation du dépistage du cancer du col à leurs patientes, signe de bonne augure pour le programme national de dépistage. Um die Lage hinsichtlich eines gynäkologischen Screenings in den beiden südlichen Provinzen von Neuseeland, Otago und Southland, zu erfassen, wurden Fragebogen an alle Ärzte verschickt von welchen bekannt wer, daß sie Abstriche herstellen. 75% der Fragebogen wurden beantwortet. Nur in 53.8% der Praxen waren die Schwestern mit der Herstellung der Abstriche betraut. In beiden Provinzen gab es kaum ‘Well Women Clinics’. Etwas weniger als die Hälfte (46.4%) der Ärzte fertigen Cervikalabstrich im Rahmen eines Gesundheitscheques an, 63% (63.3%) von diesen führte routinemäßig gleichzeitig eine Beckenuntersuchung durch. Überraschenderweise waren nur wenige Ärzte mit der Technik Spatel-und Cytobrushmaterial auf einem einzigen Objektträger aufzutragen vertraut, nur eine Minderheit kannte neue Verfahren, die dem kombinierten Spatel- und Cytobrushabstrich entsprechen. Es herrschte Unklarheit hinsichtlich der Kontrollzeiträume nach 2 normalen Abstrichen. Der empfohlene Zeitraum von 3 Jahren war nur 44.2% der Ärzte bekannt. Trotzdem forderten 71.4% die Patientinnen auf, Abstriche herstellen zu lassen. Die Studie zeigt, daß viele Ärzte ihre Patientinnen bereits mit einem guten Screeningprogramm versorgen und bietet somit gute Voraussetzungen für ein nationales Screeningprogramm.  相似文献   

7.
Résumé Nous avions constaté précédemment que les frottis de culture de colibacille en bouillon additionné de lauryl-sulfate ou de laurylsulfonate de soude à 2,5% montrent, au sein des bactéries, des granulations identiques aux images nucléaires fournies par la méthode deRobinow. Dans cette note, nous montrons que l'emploi de ces détersifs à la concentration de 5%, permet, tout comme la méthode deRobinow, de mettre en évidence les noyax bactériens dans les frottis, de cultures développées sur milieux normaux.  相似文献   

8.
The p53 gene encodes a 393 amino acid nuclear phosphoprotein that appears to act as a cell cycle checkpoint, possibly by transactivating other target genes. Abnormalities of the p53 gene are common in a wide range of human tumours and are associated in many cases with immunologically detectable p53 protein. Detection of p53 immunoreactivity is uncommon in normal cells, but is frequently seen in neoplasia. Here we define the optimum conditions for the detection of p53 immunoreactivity in cytological material, including fixation and storage. Immersion in acetone-methanol for 10 min is optimal, and after air drying, smears or cytospin preparations can be stored at - 70°C for at least 6 months. We describe the range of controls necessary, including the use of positive control cell lines with known mutations of the p53 gene and defined abnormalities of p53 protein. Negative controls should include cell lines (or strains) with no p53 abnormality as well as the conventional negative immunological controls. It is only with these technical caveats and controls that p53 immunoreactivity can be performed reliably on cytological specimens. Le géne p53 code pour une phosphoprotéine nucléaire de 393 acides aminés qui semble jouer en rôle dans la régulation du cycle cellulaire, probablement par transactivation d'autres gènes cibles. Les anomalies du gène p53 sont présentes dans un large éventail de tumeurs humaines et sont associées a la présence d'une protéine p53 détectable immunologiquement. La détection d'une immunoréactivité anti p53 est rare dans les cellules normales alors qu'elle est fréquente dans les tumeurs. Nous avons défini dans ce travail les conditions optimales pour la détection de l'immunoréactivité anti p53 sur matériel cytologique, y compris les conditions de fixation et de conservation. L'immersion dans l'acétone-méthanol pendant 10 minutes est optimale. Aprés séchage à l'air, les frottis ou les préparations par cytocentrifugation peuvent être stockés à—70°C pendant au moins 6 mois. Nous décrivons aussi l'éventail des contrôles nécessaires incluant I'utilisation, comme contrôle positif, de lignées cellulaires avec des mutations connues du gène p53 et des anomalies définies de la protéine p53. Les contrôles négatifs doivent comporter des lignées cellulaires (ou des espèces) sans anomalie de p53 ainsi que les contrôles immunologiques négatifs convrentionnels. C'est seulement lorsque ces précautions techniques et ces contrôles sont respectés que l'immunoréactivité anti p53 peut être étudiée valablement sur les prélèvements cytologiques. Das p53 kodiert ein aus 393 Aminosären bestehendes Phosphoprotein, das offensichtlich den Zellzyklus blockiert, möglicherweise durch Aktivierung anderer Gene. Veränderungen des p53-Gens wurden in zahlreichen menschlischen Tumoren nachgewiesen, sodaß eine positive Reaktion in Neoplasien häufig, in Normalzellen jedoch ungewöhnlich ist. Die optimalen Bedingungen für den p53-Nachweis in cytologischem Material werden hinsichtlich Fixation und Lagerung untersucht. Eine 10minütige Aceton-Methanol-Fixierung mit anschlies-sender Lufttrocknung erlaubt die Lagerung von Ausstrichen und Cytozentrifugen-präparaten bei - 70°C für mindestens 6 Monate. Die erforderlichen Kontrollen einschließlich positiver Zellinien mit bekannten Mutationen des p53-Gens und definierten Anomalien des Proteins werden beschrieben. Negativkontrollen sollten Zellinien ohne p53-Anomalie ebenso umfassen wie die üblichen negativen immunologischen Kontrollen. Nur unter diesen Bedingungen ist ein zuverlässiger Nachweis von p53 mögloch.  相似文献   

9.
Les larves néonates d'Acanthoscelides obtectus Say (Col. Bruchidae) doivent percer le tégument des graines de Phaseolus vulguris pour effectuer leur développement dans les cotylédons. Ce tégument représente une véritable barrière tant mécanique que chimique. La dureté de celui-ci est un facteur important qui influence la fréquence de pénétration larvaire. Nous le montrons en contrôlant la teneur en eau du tégument un des facteurs déterminant de la dureté de celui-cl. l'âge des graines influence aussi la fréquence de percement indépendamment de la teneur en eau du tégument.  相似文献   

10.
Between January 1989 and May 1990, the Department of Cytology of Llandough Hospital examined 784 pleural fluid cytological preparations, 99 of which were also examined as paraffin wax sections of clots that had formed. to assess whether this practice yields worthwhile information, we reviewed the cytology and clot sections of 99 patients with pleural effusions and correlated the results with subsequent histology and review of clinical case notes. the specificities of each method separately and when combined was high: 92% clot section, 85% smear cytology and 85% combined. the sensitivity using clot section alone was 49%, smear cytology alone 46% and in combination, 54%. Analysis showed no significant difference between these sensitivities. When pleural fluid clot formation occurs, we recommend the continued examination of clot sections, since it yields an increase in positive diagnoses, albeit not statistically significant. Entre janvier 1989 et mai 1990, 784 préparations cytologiques de liquides pleuraux ont été examinées dans le département de Cytologie de l'Hôpital Llandough. Parmi ces 784 cas, 99 contenaient un coagulum qui a fait l'objet également de coupes histologiques apres inclusion en paraffine. Afin de déterminer si cette pratique apporte une information intéressante, la cytologie de ces 99 patients et les coupes obtenues á partir du coagulum ont été revues, puis les résultats one été corrélés avec les résultats histologiques et avec I'analyse des données cliniques. Les valeurs de la spécificité de chacune des méthodes et des deux méthodes associées sont élevées: 92% pout les coupes du coagulum, 85% pour la cytologie d'étalement et 85% pour les deux méthodes combinées. Les valeurs pour la sensibilité sont de 49% pour les coupes de coagulum, de 46% pour la cytologie seule et de 54% en combinant les deux methodes. L'analyse ne met pas en évidence de différence significativé de sensibilitk entre les méthodes. Lorsqu'un coagulum s'est formé dans un liquide pleural, nous recornmandons de poursuivre la pratique de l'inclusion en paraffine et de coupe de ce coagulum puisque cette pratique aboutit à une augmentation du taux de diagnostics positifs, même si la différence n'est pas démontrée statistiquement. Das zytologische Labor des Llandough Hospitals untersuchte zwischen Januar 1989 und Mai 1990 784 Pleurapunktate. Von 99 wurden ausserdem paraffinge-schnittone Clotpräparate angefertigt. Um den Wert dieses Verfahrens zu überprüfen wurden diese Ergebnisse mit späteren histologischen Proben und der Patientengeschichte korreliert. Die Spezifitaten betrugen: 92% für Clot, 85% für Ausstriche und 85% für die Kombination. Die Sensitivitäten: 49% für Clot, 46% für Ausstriche und 54% für die Kombination. Die Unterschiede sind statistisch nicht signifikant, trotzdem sollten Gerinnsel bei Vorhandensein histologisch verarbeitet werden.  相似文献   

11.
《Biometrics》2008,64(2):669-669
Simple, Defensible Sample Sizes Based on Cost Efficiency Il est d'usage de choisir une taille d'échantillon garantissant une puissance de test de 80% ou plus, sans prendre en compte le coût impliqué. Mais dans la pratique les chercheurs comme les financeurs ne peuvent souvent pas ignorer les coûts. Nous proposons ici et nous justifions une nouvelle approche pour choisir la taille d'échantillon en fonction de la rentabilité, définie comme le rapport de la valeur scientifique et/ou pratique projetée de l'étude à son coût total. Nous montrons que la valeur projetée d'une étude, pour une large variété de définitions de cette valeur, offre des rendements marginaux décroissants quand la taille de l'échantillon augmente. Nous pouvons alors définir deux choix simples qui peuvent être défendus comme étant plus rentables que tout échantillon de taille supérieure. La première méthode choisit la taille d'échantillon qui minimise le coût moyen par sujet. La deuxième choisit la taille d'échantillon qui minimise le coût total divisé par la racine carrée de la taille d'échantillon. Cette dernière méthode est en théorie plus justifiable pour des études innovantes, mais elle reste raisonnablement satisfaisante et peut se justifier aussi dans d'autres cas. Par exemple, si la valeur projetée de l'étude est proportionnelle à la puissance du test d'une hypothèse donnée et que le coût total est une fonction linéaire de la taille d'échantillon, alors cette méthode garantit une puissance supérieure à 90% ou une rentabilité supérieure à celle de tout échantillon assurant cette puissance. Ces méthodes sont faciles à appliquer, basées sur des données fiables, et bien justifiées. Elles devraient donc être considérées comme des solutions acceptables pour remplacer les méthodes classiques courantes.  相似文献   

12.
Résumé Avant de considérer un virus d'insecte comme potentiellement utilisable en lutte microbiologique, on doit tenir compte non seulement de son identification et de sa standardisation mais aussi de la méthode de production. La pureté et la qualité des préparations de virus sont avant tout une fonction de sa méthode de production. Parmi les méthodes disponibles, la production de virus par multiplication sur insectes élevés sur milieux artificiels, offre présentement la meilleure voie pour obtenir un produit de qualité. Les virus d'insectes peuvent être identifiés par leurs caractères physiques, morphologiques, chimiques aussi bien que par les tests sérologiques et de spécificité vis-à-vis des h?tes. Cependant, aucune de ces méthodes prises isolément n'est adéquate. Dans l'état actuel des connaissances, l'utilisation conjointe des deux derniers tests fournit les meilleurs éléments pour l'identification spécifique d'un virus d'insecte. La standardisation d'un virus devrait être basée à la fois sur sa capacité à produire la maladie et sur le dénombrement des corps d'inclusion. La variation constatée dans la mesure de l'activité virale peut être une conséquence de la présence de particules de virus libérées, du nombre de particules virales dans les corps d'inclusion, de la taille et de la constitution chimique de ceux-ci ou de la présence de biotypes secondaires. Diverses techniques, le plus souvent basées sur des études de dose léthale et de temps de mortalité, peuvent être employées pour l'estimation de l'activité insecticide des préparations de virus. Quelle que soit la technique utiliséc, il est nécessaire de déterminer aussi précisément que possible, les paramètres de la méthode de titrage et d'estimer et de présenter statistiquement les résultats.   相似文献   

13.
《Biometrics》2008,64(3):1007-1008
Y. K. Cheung 940 Simple Sequential Boundaries for Treatment Selection in Multi‐Armed Randomized Clinical Trials with a Control Dans une situation où, avec des ressources trop limitées pour réaliser des comparaisons systématiques avec un standard, on veut étudier un grand nombre de traitements, il peut être utile de conduire un essai à plusieurs bras pour éliminer précocement les traitements inintéressants. Quand l’étude a des critères de jugement dont l’évaluation est relativement rapide, comme l’évaluation d’un volume de lésion à partir d’une image chez les patients victimes d’une attaque, des analyses intermédiaires fréquentes sont éthiquement et pratiquement souhaitables pour les cliniciens. Dans cet article je propose une classe de frontières pour les essais à plusieurs bras, dans lesquels l’objectif est soit la sélection d’un traitement donnant une amélioration significative par rapport au groupe contrôle, soit la déclaration de la futilité de la recherche si il n’existe pas de tel traitement. Les limites proposées sont faciles àétablir en aveugle et peuvent être appliquées à un calendrier d’examens évolutif. Il est simple de calibrer l’essai par rapport à un niveau de confiance fixéà l’avance et cela peut être fait quand le taux de réponse dans le groupe contrôle n’est que connu que par intervalle. Une des méthodes proposées est appliquée pour redéfinir un essai de sélection avec un critère de jugement fourni par imagerie chez des patients avec une attaque aiguë, on le compare par simulations à un dispositif optimal à deux étapes. En moyenne, la méthode proposée emploie des échantillons de taille plus faible que la méthode en deux étapes, cet avantage devient substantiel quand il existe un traitement supérieur au contrôle. L. Liu, X. Huang, and J. O'Quigley 950 Analysis of Longitudinal Data in the Presence of Informative Observational Times and a Dependent Terminal Event, with Application to Medical Cost Data Dans les études observationnelles longitudinales, les mesures répétées sont souvent recueillies à des temps d’observation informatifs. De plus, il peut exister un événement terminal dépendant tel que le décès qui interrompt le suivi. Par exemple les patients en moins bonne santé chercheront plus à se faire soigner et les coûts pour chaque visite ont tendance àêtre plus élevés. Ils ont aussi des taux de mortalité plus élevés. Dans cet article, nous proposons un modèle à effets aléatoires de mesures répétées en présence à la fois de délais d’observation informatifs et d’un événement terminal dépendant. Trois sous‐modèles sont utilisés respectivement pour (1) l’intensité des temps d’observation récurrents, (2) la quantité d’observations répétées à chaque temps d’observation et (3) le risque instantané de décès. Des effets aléatoires corrélés sont inclus pour lier les trois sous modèles. L’estimation peut s’effectuer facilement par des techniques de quadrature gaussiennes, par exemple avec la procédure NLMIXED de SAS. La méthode proposée est illustrée par une analyse du processus de coûts générés chez des patients souffrant d’insuffisance cardiaque chronique. Les données sont extraites de la base de données cliniques CDR du système de santé de l’Université de Virginie. J. Cao, G. F. Fussmann, and J. O. Ramsay 959 Estimating a Predator‐Prey Dynamical Model with the Parameter Cascades Method Les équations différentielles ordinaires (EDO) sont largement utilisées pour décrire le comportement dynamique des populations en interaction, Cependant les systèmes EDO donnent rarement des solutions quantitatives proches des observations réelles de terrain ou des résultats expérimentaux, parce que les systèmes naturels sont soumis à un bruit environnemental ou démographique et que les écologistes sont dans l’incertitude pour paramétrer correctement leurs données. Dans cet article nous introduisons les « cascades de paramètres » pour améliorer l’estimation des paramètres EDO de manière à bien ajuster les solutions aux données réelles. Cette méthode est basée sur le lissage pénalisé modifié en définissant la pénalité par les EDO et en généralisant l’estimation profilée pour aboutir à une estimation rapide et à une bonne précision des paramètres EDO sur des données affectées de bruit. Cette méthode est appliquée à un ensemble d’EDO prévues à l’origine pour décrire un système prédateur‐proie expérimental soumis à des oscillations. Le nouveau paramétrage améliore considérablement l’ajustement du modèle EDO aux données expérimentales. La méthode révèle en outre que d’importantes hypothèses structurales sous‐jacentes au modèle EDO originel sont essentiellement correctes. La formulation mathématique des deux termes d’interaction non linéaire (réponses fonctionnelles) qui lient les EDO dans le modèle prédateur‐proie est validée par un estimateur non paramétrique des réponses fonctionnelles à partir des données réelles. Nous suggérons deux applications importantes des « cascades de paramètres »à la modélisation écologique. La méthode peut servir à estimer des paramètres quand les données sont soumises à des bruits ou manquantes, ou quand aucune estimée a priori fiable n’est disponible. La méthode peut par ailleurs aider à valider la qualité structurelle du modèle mathématique. D. S. Johnson, D. L. Thomas, J. M. Ver Hoef, and A. Christ 968 A General Framework for the Analysis of Animal Resource Selection from Telemetry Data Nous proposons un cadre général pour analyser des données télémétriques animales en utilisant des distributions pondérées. On montre que plusieurs interprétations du choix des ressources se présentent quand on compare la ressource utilisée à la ressource disponible. Le cadre général proposé permet de montrer que les modèles habituels de choix des ressources sont des cas particuliers du modèle général avec des hypothèses sur les déplacements et le comportement des animaux. On montre que le cadre des distributions pondérées permet de prendre facilement en compte des données télémétriques fortement autocorrélées, comme c’est typiquement le cas avec la technologie GPS assurant le suivi des animaux. Une analyse de données simulées utilisant plusieurs modèles construits dans le cadre proposé est présentée pour illustrer les gains possibles apportés par cette modélisation flexible. Le modèle est appliquéà des données sur l’ours brun du sud‐est de l’Alaska.  相似文献   

14.
In the Leiden region, the cervical cancer screening programme for the age group 35–54 years shifted in 1989 from one in which the smears were taken by specially trained paramedical personnel in health centres to a programme where the general practitioner is the smear taker. Hence, it is possible to compare the results of the two types of screening to evaluate whether involvement of general practitioners leads to better uptake of screening. In the 6 year period evaluated in this paper, the 3-yearly cytological rate per thousand for severe dysplasia or worse increased from 1.00 to 3.40; when stratified by age the positive rates were significantly higher. the histological rate per thousand for severe dysplasia increased from 0.60 to 2.09, and for carcinoma in situ from 0.35 to 1.36. All six invasive carcinomata were detected in the GP programme (0.31%). the general practitioner is clearly more able to attract the ‘high-risk’groups. Dans la reéion de Leiden, le programme de dépistage du cancer du col pour les tranches d'âge de 35–54 ans a été modifié en 1989. Le programme était initialement basé sur des frottis faits dans des centres de santé, par un personnel paramédical ayant suivi une formation particulière. Après 1989, le médecin généraliste est devenu le préleveur. II est done possible de comparer les résultats de ces 2 types de dépistage et d'apprécier si la participation des médecins généralistes a pour conséquence un meilleur dépistage. Au cours de la période d'étude, les taux pour 1000 de positivité cytologique pour les lésions graves (de type dysplasie sévère et plus) et par période de 3 ans ont augmenté de 1,00 à 3,40. Lorsque l'on stratifie sur l'âge, les taux de cas positifs sont significativement supérieurs. Le taux histologique des dysplasies sévères pour 1000 passe de 0,60 à 2,09 et celui du carcinome in situ de 0,35 à 1,36. Les 6 cas de carcinome invasif ont été détectés par le programme impliquant les médecins généralistes (0,31%). II est clair que le médecin généraliste est mieux placé pour dépister les patientes à“haut risque”. Im Bezirk von Leiden wurden die Abstriche der 35- bis 54 jährigen vor 1989 von speziell ausgebildeten Hilfskräften in Gesundheitszentren hergestellt, während diese Aufgabe dann von den Allgemeinmedizinern übernommen wurde. Dies erlaubt einen Vergleich zwische den Präparaten von zwei jeweils 3 Jahre umfassenden Perioden. Der Anteil schwerer Dysplasien und stärkerer Veränderungen nahm von 1.00 auf 3.40 pro Tausend zu. Der histologische Anteil der schweren Dysplasien erhöhte sich von 0.60 auf 2.09 und der der Carcinomata in situ von 0.35 auf 1.36. Alle 6 nachgewiesenen invasiven Carcinome wurden in den Abstrichen der Allgemeinmediziner entdeckt (0.31%o). Damit ist klar, daß die Allgemeinmediziner die Risikogruppen besser zu erfassen vermögen.  相似文献   

15.
Lorsque 2 femelles ou 3 femelles de l'ectoparasite D. vagabundus parasitent conjointement un même lot d'hôtes l'intensité du grégarisme larvaire s'accroît par rapport à celui observé en présence d'une seule femelle pondeuse. Cela se traduit par une augmentation significative du nombre moyen de descendants des 2 sexes mais la production moyenne en fils est toujours très inférieure à celle des filles. Cependant, lorsque la densité de femelles pondeuses passe de 1 à 3, le rapport des sexes mâles/femelles des descendants évolue vers l'unité traduisant une augmentation plus rapide de l'effectif des fils que des filles.  相似文献   

16.
La possibilité de nourrir la punaiseMacrolophus caliginosus Wagner à l'aide de milieux artificiels a été testée. En l'absence de végétal, les témoins nourris avec des ?ufs d'Ephestia kuehniella Zeller ont une survie médiocre et fournisent 33% d'adultes. Avec le meilleur milieu artificiel la survie est comparable à celle des témoins et 21 % d'adultes sont obtenus. Avec ce même milieu, mais en présence de feuille de géranium, la production d'adultes atteint 62%. Les compositions en acides aminés des punaises élevées avec le milieu montrent des écarts inférieurs à 20% par rapport aux témoins. Le développement complet deM. caliginosus nourri à l'aide de milieu artificiel a été obtenu. Le végétal joue un rôle important dans la biologie de ce prédateur.  相似文献   

17.
L'importance des pressions de sélection au cours des premières générations, dans des élevages en alimentation artificielle, est mise en évidence par l'étude de souches d 'Acrolepiopsis assectella Zeller soumises à des changements de régime alimentaire. l'évolution du taux de survie et de la durée du développement des larves a été suivie pendant les premières générations après le changement, et ultérieurement contrôlée au cours de plusieurs années d'élevage dans les mêmes conditions. Le taux de survie semble atteindre assez rapidement un équilibre, dont le niveau n'est pas indépendant de l'aliment consommé, tandis qu la durée du développement larvaire devient identique pour toutes les souches dès la quatrième génération. Ces phénomènes semblent correspondre à une adaptation des insectes à leurs conditions d'élevage, qui provoquent une sélection dans les populations d'origine.  相似文献   

18.
DISCUSSION PAPER     
《Biometrics》2007,63(3):979-979
Principal Stratification Designs to Estimate Input Data Missing Due to Death Nous nous intéressons à des études portant sur des cohortes d'individus après la survenue d'un événement critique, comme une blessure, et ayant les caractéristiques suivantes. Premièrement, les études sont conçues pour mesurer des variables d'“input”, qui décrivent la période avant l'événement critique, et pour caractériser la distribution des variables d'“input” dans la cohorte. Deuxièmement, les études sont conçues pour mesurer des variables d'“output”, principalement la mortalité après l'événement critique et pour caractériser la distribution prédictive (conditionnelle) de la mortalité connaissant les variables d'“input” dans la cohorte. De telles études présentent souvent la complication que les données d'“input” manquent pour ceux qui meurent peu après l'événement critique car le recueil des données est réalisé après l'événement. Les méthodes standard de prise en compte des “inputs” manquants, telles que les méthodes d'imputation ou de pondération basées sur l'hypothèse que l'on peut ignorer le processus de données manquantes, sont connues comme étant en général non valides quand le processus de données manquantes ne peut être ignoré, c'est à dire quand la distribution des “inputs” est différente chez ceux qui meurent et ceux qui survivent. Pour répondre à ce problème, nous proposons un nouveau schéma qui recueille et utilise l'information sur une autre variable importante—un traitement ou une variable sous contrôle externe, qui, si elle avait étéà son niveau optimal aurait pu empêcher le décès de ceux qui sont morts. Nous montrons que ce nouveau schéma peut être utilisé pour faire des inférences valides pour la distribution marginale des “inputs” dans la cohorte entière et pour la distribution conditionnelle de la mortalité connaissant les “inputs”, également dans la cohorte entière, même si le processus de données manquante ne peut être ignoré. Le contexte crucial que nous utilisons est la stratification principale basée sur les “outputs” potentiels, comme ici la mortalité après les deux niveaux de traitement. Nous montrons aussi à l'aide de données préliminaires sur des blessures, que notre approche peut donner des résultats qui sont plus raisonnables que les résultats obtenus par les méthodes standard, et ceci de façon relativement dramatique. Ainsi notre approche suggère que le recueil en routine de données sur des variables qui pourraient être utilisées comme traitement possible dans de telles études d'“inputs” et de mortalité devrait être fait en routine.  相似文献   

19.
《Biometrics》2008,64(3):1000-1007
I. Lobach, R. J. Carroll, C. Spinka, M. H. Gail, and N. Chatterjee 673 Haplotype‐Based Regression Analysis and Inference of Case‐‐Control Studies with Unphased Genotypes and Measurement Errors in Environmental Exposures Il est maintenant établi que le risque de développer une maladie dite complexe est sous l’influence conjointe de facteurs de susceptibilité génétiques, de facteurs d’exposition environnementaux et de leurs interactions potentielles. Chatterjee et caroll (2005) ont développé une méthode efficace de maximum de vraisemblance rétrospectif pour l’analyse des études cas‐témoins qui fait l’hypothèse d’indépendance des effets génétiques et environnementaux et qui autorise une distribution totalement non paramétriques des covariables environnementales. Spinka et al (2005) ont étendu cette approche aux études où certains types d’information, comme les phases haplotypiques, sont manquantes chez certains individus. Nous étendons cette approche aux situations où certaines exposition environnementales sont mesurées avec erreur. A l’aide d’un modèle de régression logistique polychotomique, nous permettons au statut maladie d’avoir K+1 niveaux. Nous proposons d’utiliser une pseudo‐vraisemblance and un algorithme EM associé pour l’estimation des paramètres. Nous démontrons leur consistance et dérivons la matrice de covariance asymptotique des estimations des paramètres lorsque la variance de l’erreur de mesure est connue et lorsqu’elle est estimée à l’aide de réplications. Les inférences avec des corrections de l’erreur de mesure sont compliquées par le fait que le test de Wald à des propriétés non satisfaisantes en présence d’un large nombre d’erreurs de mesure. Les techniques du rapport de vraisemblance sont connues pour être une alternative satisfaisante. Cependant, les tests du rapport de vraisemblance ne sont pas techniquement corrects dans cette situation car la fonction de vraisemblance est fondée sur un modèle incorrect, i.e. un modèle prospectif dans un schéma d’échantillonnage rétrospectif. Nous corrigeons les résultats asymptotiques standards pour prendre en compte le fait que le test du rapport de vraisemblance est fondé sur une fonction apparentéà la vraisemblance. Les performances de la méthode proposée sont illustrées avec des études de simulation dans le cas où l’information génétique est de type haplotypique et que les données manquantes viennent d’une ambigüité de phase lors de la reconstruction de ces haplotypes. Enfin, nous appliquons notre méthode à une étude d’association cas‐témoins entre la prise de calcium et le risque d’adénome colorectal. B. Mukherjee and N. Chatterjee 685 Exploiting Gene‐Environment Independence for Analysis of Case‐‐Control Studies: An Empirical Bayes‐Type Shrinkage Estimator to Trade‐Off between Bias and Efficiency L’analyse prospective habituelle de données de type cas‐témoin par la régression logistique conduit souvent à des estimateurs très imprécis des interactions gènes‐environnement, en raison du faible nombre de cas ou de témoins pour des croisements génotype‐exposition. Par contraste, sous l’hypothèse d’indépendance gène‐environnement, par les méthodes actuelles rétrospectives, y compris l’approche «cas seulement », on peut estimer les paramètres d’interaction de manière beaucoup plus précise, mais on peut avoir un biais important lorsque l’hypothèse sous‐jacente d’indépendance gène‐environnement n’est pas respectée. Dans cet article, nous proposons un nouvel estimateur de type Bayésien empirique pour analyser des données cas‐témoin, permettant d’assouplir l’hypothèse d’indépendance gène‐environnement en s’appuyant sur les données. Dans le cas particulier d’un gène binaire et d’une exposition binaire, la méthode conduit à un estimateur du paramètre log odds‐ratio de l’interaction sous forme simple explicite, correspondant à une moyenne pondérée des estimateurs usuels « cas seulement » et cas‐témoin. Nous décrivons également une méthode générale pour l’obtention du nouvel estimateur et de sa variance dans le schéma rétrospectif au maximum de vraisemblance proposé par Chatterjee et Carroll (2005). Des simulations et des exemples sur données réelles montrent que l’estimateur proposé marque bien l’équilibre entre le biais et l’efficacité selon la réelle association gène‐environnement et la taille d’échantillon pour une étude donnée. Z. Cai, M. Kuroki, J. Pearl, and J. Tian 695 Bounds on Direct Effects in the Presence of Confounded Intermediate Variables Cet article traite le problème de l’estimation de l’effet directement attribuable au traitement (average controlled direct effect : ACDE) dans l’analyse d’un critère final, lorsque des facteurs de confusion non mesurés adviennent entre la mesure d’une variable intermédiaire et ce critère final. En effet, même lorsque ces facteurs de confusion ne perturbent pas l’estimation de l’effet total (qui est alors identifiable), ils rendent non identifiable l’effet direct attribuable au traitement. Kaufman et coll. (2005) ont utilisé un logiciel de programmation linéaire pour trouver les minimum et maximum des valeurs possibles de l’ACDE pour des données numériques particulières. En utilisant la méthode de programmation linéaire symbolique de Balke–Pearl (1997), nous dérivons ici des formules analytiques pour les limites supérieure et inférieure de l’ACDE sous diverses hypothèses de monotonie. Ces valeurs‐limites sont toujours valides. Dans le domaine de la recherche clinique, elles permettent d’évaluer, de façon abordable en termes de calcul, l’effet directement attribuable au traitement. Elles permettent ainsi d’éclairer l’expérimentateur sur le sens dans lequel s’exerce l’effet attribuable au traitement, ainsi que sur la précision des estimations. T. J. VanderWeele 702 The Sign of the Bias of Unmeasured Confounding Les variables de confusion non mesurées constituent un problème fréquent lorsqu’on veut faire de l’inférence dans des études observationnelles. Nous proposons un théorème qui permet, dans certaines circonstances, de tirer des conclusions sur le signe du biais généré par une variable de confusion non mesurée. Plus précisément, il est possible de déterminer le signe du biais quand il existe des relations monotones d’une part entre la variable de confusion non mesurée et le traitement et, d’autre part, entre la variable de confusion non mesurée et le critère de jugement. Les conditions d’application du théorème sont discutées ainsi que les avantages et les inconvénients liés à son utilisation pour déterminer le sens du biais de la confusion non mesurée. M. Zhang, A. A. Tsiatis, and M. Davidian 707 Improving Efficiency of Inferences in Randomized Clinical Trials Using Auxiliary Covariates L’objectif premier d’un essai clinique randomisé est de comparer deux traitements ou plus. Par exemple, dans un essai à deux bras avec une réponse continue, on peut s’intéresser à la différence des moyennes; avec plus de deux traitements, la comparaison peut être basée sur des différences appariées. Avec des réponses binaires, des odds ratio appariés ou des log odds ratio peuvent être utilisés. En général, les comparaisons peuvent être basées sur des paramètres ayant un sens, dans un modèle statistique pertinent. Des analyses standards pour l’estimation et les tests dans ce contexte, sont typiquement basées sur les données collectées de la réponse et du traitement seulement. Dans beaucoup d’essais, une information sur une covariable auxiliaire peut également être disponible et il est intéressant d’exploiter ces données pour améliorer l’efficacité des inférences. En prenant une perspective de théorie semi‐paramétrique, nous proposons une approche largement applicable à l’ajustement de covariables auxiliaires pour obtenir des estimateurs plus efficaces et des tests pour les paramètres de traitement dans l’analyse d’essais cliniques randomisés. Des simulations et des applications démontrent la performance des ces méthodes. C. J. Lloyd 716 A New Exact and More Powerful Unconditional Test of No Treatment Effect from Binary Matched Pairs Nous considérons le problème du test de la différence des probabilités du succès de paires binaires couplées. Commençant par trois tests standard inexacts, le paramètre de nuisance est d’abord estimé et ensuite la dépendance résiduelle éliminée par maximisation, produisant ce que j’appelle la p‐valeur de E+M. On montre que cette p‐valeur, basée sur la statistique de McNemar, est numériquement supérieure aux suggestions précédentes, y compris les p‐valeurs partiellement maximisées telles qu’elles sont décrites dans Berger et Sidik (2003). La dernière méthode cependant peut avoir des avantages du point de vue des calculs pour de grands échantillons. G. Wei and D. E. Schaubel 724 Estimating Cumulative Treatment Effects in the Presence of Nonproportional Hazards Souvent, dans les études médicales portant sur le délai d’apparition d’un événement, l’effet traitement n’est pas constant au cours du temps. Dans le cas du modèle de Cox, la solution la plus fréquente est d’utiliser un modèle qui suppose que soit l’effet traitement est constant par intervalle, soit qu’il varie lentement au cours du temps (le modèle de Cox à risques non proportionnels). Cette approche a au moins deux limitations majeures. Premièrement, il est généralement difficile d’évaluer si la forme du paramètre choisi pour l’effet traitement est correct. Deuxièmement, en présence de risques non proportionnels, les investigateurs sont habituellement plus intéressés par l’effet traitement cumulé plutôt que par l’effet traitement instantané (c’est‐à‐dire déterminer si et quand les fonctions de survie se croisent). Par conséquent, nous proposons un estimateur pour l’effet global du traitement en présence de risques non proportionnels. Notre estimateur est fondé sur le risque de base cumulé estimé sous un modèle de Cox stratifié. Aucune hypothèse n’est nécessaire quant à la forme de la fonction concernant l’absence de proportionnalité. Les propriétés asymptotiques des estimateurs proposés sont déduites, et les propriétés dans le cas d’échantillons de taille finie sont évaluées par des simulations. L’estimation et les intervalles de confiance de l’estimateur peuvent être calculés simultanément. La méthode proposée est appliquée à des données provenant du registre national des rejets d’organes canadien. B. R. Logan, J. P. Klein, and M.‐J. Zhang 733 Comparing Treatments in the Presence of Crossing Survival Curves: An Application to Bone Marrow Transplantation Dans certaines études cliniques comparant des traitements en terme de courbes de survie, les chercheurs peuvent anticiper que les courbes de survie se croiseront à un certain point, aboutissant à s’intéresser à la comparaison de la survie à long terme. Cependant, la simple comparaison des courbes de survie à un point donné peut être inefficace, et l’utilisation d’un test du log‐rank pondéré peut être trop sensible aux différences initiales dans la survie. Nous formulons le problème comme celui de tester les différences des courbes de survie après un temps pré‐spécifié, et proposons une variété de techniques pour tester cette hypothèse. Nous étudions ces méthodes en utilisant des simulations et les illustrons sur une étude comparant la survie pour des transplantations autologues et allogéniques de moelle. R. Song, M. R. Kosorok, and J. Cai 741 Robust Covariate‐Adjusted Log‐Rank Statistics and Corresponding Sample Size Formula for Recurrent Events Data Des évènements récurrents se rencontrent fréquemment dans les essais cliniques. Cet article développe des statistiques robustes du log‐rank ajustées pour des covariables, appliquées à des évènements récurrents en nombre arbitraire avec censure indépendante et la formule de taille d’échantillon correspondante. Les tests du log‐rank proposés sont robustes pour différents procédés de génération de données et ajustés pour des covariables prédictives. Ils se ramènent au cadre développé par Kong et Slud (1997) dans le cas d’un événement unique. La formule de taille d’échantillon repose sur la normalité asymptotique des statistiques du log‐rank ajustées pour des covariables sous certaines alternatives locales et sous un modèle pour les covariables au baseline dans le contexte d’évènements récurrents. Quand la taille de l’effet est petite et quand les covariables au baseline n’apportent pas une information significative sur les temps de survenue, elle se ramène à la même forme que celle de Schoenfeld (1983) dans les cas d’un événement unique ou de temps de survenue indépendants pour un sujet. Nous réalisons des simulations pour étudier le contrôle de l’erreur de type I et pour comparer la puissance de plusieurs méthodes sur des échantillons finis. La formule de taille d’échantillon proposée est illustrée à partir des données d’un essai de la rhDNase. J. D. Nielsen and C. B. Dean 751 Clustered Mixed Nonhomogeneous Poisson Process Spline Models for the Analysis of Recurrent Event Panel Data Un modèle semi paramétrique flexible pour analyser des données de comptage longitudinales provenant de mélanges est présenté. Les données de comptage en panel se réfèrent ici à des données de comptage sur des évènements récurrents collectés comme le nombre d’évènements qui sont arrivés durant une période de suivi spécifique. Le modèle suppose que les comptages pour chaque sujet sont générés par des mélanges de processus de Poisson non homogènes avec des fonctions d’intensité lissées modélisées par des splines pénalisés. Les effets des covariables dépendant du temps sont aussi incorporés dans le modèle dans l’intensité du processus en utilisant les fonctions splines. Des mélanges discrets de ces modèles splines de processus non homogènes de Poisson extraient l’information fonctionnelle provenant des grappes sous‐jacentes représentant les sous populations cachées. La motivation de ce travail est une expérience pour tester l’efficacité de phéromones en interrompant le processus d’accouplement de papillons tortriciae de l’écorce du cerisier. Les papillons matures proviennent de sous populations cachées mais distinctes et on s’intéressait au contrôle des réponses des sous populations. Des effets aléatoires intra‐grappes sont utilisés pour prendre en compte les structures de corrélation et l’hétérogénéité communes à ce genre de données. Une approche pour faire de l’inférence par équations d’estimation, requérant seulement des hypothèses faibles, est développée et les propriétés à distance finie des fonctions d’estimation proposées sont étudiées empiriquement par simulation. R. M. Elashoff, G. Li, and N. Li 762 A Joint Model for Longitudinal Measurements and Survival Data in the Presence of Multiple Failure Types Dans ce papier, nous étudions un modèle conjoint pour des mesures longitudinales et des données de survie à risques compétitifs. Notre modèle conjoint fournit une approche souple pour prendre en compte les données manquantes possiblement non ignorables dans les mesures longitudinales dues aux sorties d’étude. Il s’agit aussi d’une extension des modèles conjoints précédents avec un seul type d’événements, offrant une voie possible pour modéliser les événements censurés informativement comme un risque compétitif. Notre modèle consiste en un sous‐modèle linéaire à effets mixtes pour le critère longitudinal et un sous‐modèle de fragilitéà risques proportionnels cause spécifique (Prentice et al., 1978, Biometrics 34, 541–554) pour les données de survie à risques compétitifs, liés l’un à l’autre par des effets aléatoires latents. Nous proposons d’obtenir les estimations du maximum de vraisemblance des paramètres par un algorithme EM et d’estimer leurs écarts‐types en utilisant une méthode de vraisemblance profilée. La méthode développée fonctionne bien dans nos études de simulation et est appliquée à un essai clinique sur les atteintes pulmonaires de la sclérodermie. S. Goetgeluk and S. Vansteelandt 772 Conditional Generalized Estimating Equations for the Analysis of Clustered and Longitudinal Data Un problème commun et important dans des plans d’échantillonnage en grappes est que l’effet des expositions intra‐grappes (c’est‐à‐dire des expositions qui varient dans les grappes) sur le résultat peut être confondu avec des facteurs mesurés ou non des facteurs du niveau de la grappe (c’est‐à‐dire des mesures qui ne changent pas à l’intérieur des grappes). Quand certains résultats sont malades/non expliqués, l’estimation de cet effet par l’intermédiaire de modèles de moyenne de la population ou de modèles à effets aléatoires peut introduire un biais. Nous adaptons ce fait en développant une théorie générale de l’analyse de données en grappes qui permet une estimation convergente et asymptotiquement normale des effets (CAN) des expositions intra‐grappes en présence des niveaux de confusion du niveau de grappe. Des estimateurs efficaces semi‐paramétriques sont obtenus en résolvant les équations d’estimation conditionnelles généralisées (CGEE). Nous comparons cette approche à une proposition populaire de Neuhaus et Kalbfleisch (1998) qui séparent l’effet d’exposition en composantes intra‐grappes ou entre grappes à l’intérieur d’un modèle aléatoire avec une constante. Nous constatons que cette dernière approche fournit des estimateurs convergents et efficaces quand le modèle est linéaire, mais qu’elle est moins flexible en termes de spécification de modèles. Avec des modèles non‐linéaires, cette approche peut aboutir à des estimateurs non convergents et inefficaces, bien que le biais reste faible dans la majorité des cas pratiques. Y. Ma, W. Tang, C. Feng, and X. M. Tu 781 Inference for Kappas for Longitudinal Study Data: Applications to Sexual Health Research De nombreuses recherches comportementales, médicales, psycho‐sociales ou de santé utilisent des mesures de la fiabilité des instruments ou de la concordance entre juges pour évaluer les propriétés psychométriques de leurs instruments, le niveau de consensus en matière de diagnostic médical, ou la fiabilité d’une variable de substitution. L’indice de concordance le plus fréquemment utilisé pour des réponses catégorielles est le coefficient kappa de Cohen. Aujourd’hui, dans de nombreuses études, on observe des réponses corrélées, ce qui complique ou invalide l’inférence à partir des méthodes antérieures. En outre, les problèmes posés par les observations incomplètes sont particulièrement gênants dans les études longitudinales, de plus en plus nombreuses, et l’absence de méthodes adaptées entrave le développement des recherches. L’approche que nous présentons repose sur une nouvelle classe d’estimateurs des coefficients kappa qui prend en compte les difficultés que l’on rencontre dans les études longitudinales où interviennent plusieurs évaluateurs, en particulier celles liées aux observations incomplètes. Nous illustrons la méthode à partir de données réelles concernant le sexe et la santé. B. J. Reich and J. S. Hodges 790 Modeling Longitudinal Spatial Periodontal Data: A Spatially Adaptive Model with Tools for Specifying Priors and Checking Fit La perte d’attachement (AL) ou longueur sous la racine dentaire qui n’est plus attachée à l’os par le ligament parodontal est une mesure habituelle de la maladie parodontale. Dans cet article, nous développons un modèle spatio‐temporel de surveillance de la progression de l’AL. Notre modèle est une extension de l’a‐priori conditionnel autorégressif (CAR), qui lisse spatialement les estimations vers leurs voisins. Cependant, puisque l’AL présente souvent des accès de grandes valeurs dans l’espace et dans le temps, nous proposons un modèle spatiotemporel CAR non‐stationnaire qui permet au degré de lissage temporel et spatial de varier dans les différentes régions de la bouche. Pour celà, nous attribuons à chaque site de mesure d’AL son propre ensemble de paramètres de variance, et lissons les variances avec des a‐priori spatiaux. Nous suggérons une heuristique pour mesurer la complexité des variances site‐spécifiques, et nous l’utilisons pour sélectionner les a‐priori qui garantissent que les paramètres du modèle sont bien identifiés. Sur des données d’un essai clinique, le modèle améliore la qualité de l’ajustement par rapport au modèle usuel dynamique CAR pour 90 des 99 mesures d’AL. Y. Guan 800 A KPSS Test for Stationarity for Spatial Point Processes Nous proposons une méthode formelle pour tester la stationnarité d’un processus spatial ponctuel. La statistique de test proposée est basée sur l’intégrale des carrés des écarts entre les nombres d’événements observés et leur moyenne sous l’hypothèse de stationnarité. Nous montrons que la statistique de test obtenue converge en loi vers une fonctionnelle d’un mouvement brownien bidimensionnel. Pour appliquer le test, nous comparons la statistique calculée aux valeurs critiques à l’extrémité supérieure de cette fonctionnelle. Notre méthode suppose seulement une condition de dépendance faible pour le processus, mais ne requiert aucun modèle paramétrique pour cela. De la sorte, elle peut être appliquée à une large classe de modèles de processus spatiaux ponctuels. Nous étudions l’efficacité du test à la fois par des simulations et des applications à deux exemples sur données réelles où la non stationnaritéétait préalablement envisagée en se basant sur des aspects graphiques. Notre test confirme cette non stationnarité suspectée dans les deux cas. W. Zucchini, D. Raubenheimer, and I. L. MacDonald 807 Modeling Time Series of Animal Behavior by Means of a Latent‐State Model with Feedback Nous décrivons une famille de modèles adaptés aux séries temporelles de comportement nutritionnel animal. Les modèles incluent un état non observé pouvant être interprété comme l’état de motivation de l’animal, et un mécanisme pour donner cet état en retour du comportement observé. Nous discutons des méthodes d’évaluation et de maximisation de la vraisemblance d’une série observée de comportements, de l’estimation des paramètres, et de l’inférence pour la plus probable séquence d’états sous‐jacents. Nous indiquons plusieurs extensions de ces modèles, incorporant des effets aléatoires. Nous appliquons ces méthodes à l’analyse du comportement nutritionnel des chenilles Helicoverpa armigera, et nous démontrons ainsi le potentiel de cette famille de modèles dans l’étude des comportements. R. King and S. P. Brooks 816 On the Bayesian Estimation of a Closed Population Size in the Presence of Heterogeneity and Model Uncertainty Nous considérons l’estimation de la taille d’une population fermée, qui présente souvent un intérêt pour des populations animales sauvages, en utilisant une étude de capture‐recapture. L’estimation de la taille totale de population peut être très sensible au choix du modèle utilisé pour l’ajuster aux données. Nous considérons une approche bayésienne, dans laquelle nous considérons chacun des huit modèles plausibles originellement décrits par Otis et al. (1978) dans un contexte simple, incluant des modèles avec une composante individuelle d’hétérogénéité. Nous montrons comment nous pouvons obtenir une estimation moyenne de la population totale, incluant simultanément le paramètre et l’incertitude du modèle. Pour illustrer la méthodologie nous effectuons d’abord une étude de simulation et nous analysons deux ensembles de données où la taille de population est connue, avant de considérer un exemple réel concernant une population de dauphins du nord‐est de l’Ecosse. A. J. Branscum and T. E. Hanson 825 Bayesian Nonparametric Meta‐Analysis Using Polya Tree Mixture Models Un objectif habituel dans une méta‐analyse est l’estimation d’une mesure d’effet unique en utilisant les données de plusieurs études qui sont toutes dessinées pour traiter la même question scientifique. Parce que les études sont typiquement réalisées dans des lieux géographiquement dispersés, les développements récents dans l’analyse statistique des données de méta‐analyses impliquent l’utilisation de modèles avec effets aléatoires qui tiennent compte de la variabilité entre études attribuable aux différences d’environnement, de démographie, de génétique, et d’autres sources d’hétérogeneïté entre les populations. En se fondant sur la théorie asymptotique, les statistiques résumées propres à chaque étude sont modélisées selon des distributions normales représentant les vraies mesures d’effets latents. Dans un deuxième temps une approche paramétrique modélise ces mesures latentes au moyen d’une distribution normale, qui est uniquement une supposition commode dénuée de justification théorique. Pour éliminer l’influence de modèles paramétriques par trop restrictifs sur l’inférence, nous considérons une classe plus large de distributions pour les effets aléatoires. Nous développons un nouveau modèle de mélange d’arbres de Polya Bayesien non paramétrique et hiérarchique. Nous présentons une méthodologie pour tester un modèle de mélange d’arbre de Polya contre un modèle avec effets aléatoires normaux. Ces méthodes fournissent aux chercheurs une approche immédiate pour conduire une analyse de sensibilité de la normalité des effets aléatoires. Une application impliquant une méta‐analyse d’études épidémiologiques pour caractériser l’association entre la consommation d’alcool et le cancer du sein est présentée qui, alliée à des résultats issus de données simulées, met en lumière la performance des mélanges d’arbre de Polya en présence de non‐normalité des mesures d’effet dans la population d’origine. G. Massonnet, P. Janssen, and T. Burzykowski 834 Fitting Conditional Survival Models to Meta‐Analytic Data by Using a Transformation Toward Mixed‐Effects Models Les modèles à fragilité sont communément utilisés pour modéliser des survies sur données en ‘clusters’. Les approches classiques pour ajuster des modèles de fragilité sont basées sur la vraisemblance. Nous proposons une approche alternative dans laquelle le problème initial d'« ajustement d’un modèle de fragilité» est reformulé en le problème d’« ajustement d’un modèle linéaire mixte » grâce à l’utilisation d’un modèle de transformation. Nous montrons que le principe de transformation s’applique aussi aux modèles multivariés à odds proportionnels ainsi qu’aux modèles de risques additifs multivariés. Il permet de plus de faire le lien entre des méthodes séparées en ce sens qu’il fournit un moyen général d’ajuster des modèles conditionnels pour des données de survie multivariées en utilisant la méthodologie des modèles mixtes. Nous nous centrons sur les modèles à fragilité afin d’étudier les caractéristiques spécifiques de la méthode proposée. En nous basant sur une étude de simulation nous montrons que la méthode proposée produit une alternative correcte et simple pour l’ajustement de modèles à fragilité sur des données présentant un nombre suffisamment grand de classes et des tailles d’échantillons modérées à grande à l’intérieur de niveaux de sous‐groupes de covariables. La méthode proposée est appliquée à des données provenant de 27 essais randomisés sur des cancers colorectaux avancés, disponibles par l’intermédiaire du groupe de Meta‐Analyse du Cancer. R. A. Hubbard, L. Y. T. Inoue, and J. R. Fann 843 Modeling Nonhomogeneous Markov Processes via Time Transformation Les études longitudinales constituent un outil puissant pour représenter la progression des maladies chroniques. Ces études sont habituellement menées avec des patients examinés lors de visites périodiques, donnant ainsi des données de type panel. Dans ce schéma d’observation, les temps exacts de transitions entre les états de la maladie, et la séquence suivie des états de la maladie sont inconnus, et les modèles à base de processus de Markov sont souvent utilisés pour décrire la progression. La plupart des applications reposant sur les processus markoviens supposent l’homogénéité par rapport au temps, autrement dit que les taux de transition sont constants au cours du temps. Cette hypothèse n’est pas satisfaite lorsque les taux de transition dépendent du temps à compter du début de la maladie. Cependant, peu d’outils statistiques existent pour prendre en compte cette non‐homogénéité. Nous proposons des modèles dans lesquels l’échelle de temps d’un processus de Markov non‐homogène est transformée en une échelle de temps opérationnelle par rapport à laquelle le processus est homogène. Nous développons une méthode pour l’estimation jointe de la transformation de temps et de la matrice d’intensité de transition pour le processus homogène transformé. Nous établissons une estimation au maximum de vraisemblance utilisant l’algorithme du score de Fisher par des études de simulation, et nous comparons la performance de notre méthode par rapport à des modèles homogènes et des modèles homogènes par morceaux. Nous appliquons notre méthodologie à une étude sur la progression du délire dans une cohorte de receveurs de transplantation de cellules souche, et nous montrons que notre méthode identifie les tendances temporelles dans l’incidence du délire et dans la récupération. C. C. Drovandi and A. N. Pettitt 851 Multivariate Markov Process Models for the Transmission of Methicillin‐Resistant Staphylococcus Aureus in a Hospital Ward L’Aureus Staphylococcus résistant à la méthicilline (SARM) est un pathogène qui continue d’être un problème majeur à l’hôpital. Nous développons des modèles et des algorithmes de calcul basés sur des données observées d’incidences hebdomadaires pour estimer les paramètres de transmission du MRSA. Nous étendons le modèle déterministe de McBryde, Pettitt et McElwain (2007) impliquant une population sous‐jacente de patients colonisés par MRSA et de personnels soignants qui décrit, parmi d’autres processus, la transmission entre patients non colonisés et personnels soignants colonisés et vice‐versa. Nous développons de nouveaux modèles de Markov bivariés et trivariés pour inclure l’incidence de telle façon que les taux de transmission estimés puissent être basés directement sur de nouvelles colonisations plutôt qu’indirectement sur la prévalence. La sensibilité imparfaite de la détection du pathogène est modélisée en utilisant un processus markovien caché. Les avantages de notre approche incluent (i) l’hypothèse d’une valeur discrète pour le nombre de personnels soignants colonisés, (ii) deux paramètres de transmission pouvant être incorporés dans la vraisemblance, (iii) la vraisemblance dépend du nombre de nouveaux cas pour améliorer la précision de l’inférence, (iv) les enregistrements individuels des patients ne sont pas requis, et (v) la possibilité d’une détection imparfaite de la colonisation est incorporée. Nous comparons notre approche avec celle utilisée par McBryde et al (2007), basée sur une approximation qui élimine les personnels soignants du modèle, utilisant une chaîne de Markov par Monte Carlo et des données individuelles des patients. Nous appliquons ces modèles à des données de colonisation de SARM, collectées dans de petites unités de soins intensifs (ICU) à l’hôpital Princesse Alexandra, Brisbane, Australie. A. R. Cook, G. J. Gibson, and C. A. Gilligan 860 Optimal Observation Times in Experimental Epidemic Processes Cet article décrit une méthode de choix de temps d’observation de processus stochastiques destinés à maximiser les espérances des informations de leurs paramètres. On considère deux modèles généralement utilisés pour des processus épidémiologiques: un processus simple de mort et un processus épidémique de susceptibilité d’infection (SI) avec des sources doubles d’infection se développant de l’intérieur ou de l’extérieur de la population. La recherche du plan optimal emploie des méthodes bayésiennes de calcul pour explorer l’espace expérimental commun paramètre‐donnée, combinéà une méthode connue sous le nom de fermeture de moment d’approximation de la vraisemblance pour rendre efficace l’étape d’acceptation. Pour les processus considérés, on montre que choisir un petit nombre d’observations de façon optimale est presqu’aussi bon que collecter des observations de manière plus intensive, pratique générale dans nombre d’expériences épidémiologiques. L’analyse du processus simple de mort permet une comparaison entre l’approche bayésienne intégrale et des dispositifs localement optimaux autour d’une estimation ponctuelle d’a priori basée sur des résultats asymptotiques. On démontre la robustesse de l’approche pour des a priori mal spécifiés du processus épidémique SI, pour lequel le problème de la faisabilité informatique du calcul de la vraisemblance exclut des plans optimaux. Nous montrons que des plans optimaux déduits d’une approche bayésienne sont semblables à des études d’observations d’une épidémie simple et à des études impliquant des épidémies répétées dans des sous‐populations indépendantes. Un optimum différent existe, cependant, quand l’objectif est de maximiser le gain de l’information basée sur des a priori informatifs ou non: ceci a des implications quand une expérience est conçue pour convaincre un observateur naïf ou sceptique plutôt que pour consolider la connaissance d’un observateur mieux informé. On présente quelques prolongements de ces méthodes, comprenant le choix de critères d’information et l’extension à d’autres processus épidémiologiques avec des probabilités de transition. K. F. Lam, J. V. Deshpande, E. H. Y. Lau, U. V. Naik‐Nimbalkar, P. S. F. Yip, and Ying Xu 869 A Test for Constant Fatality Rate of an Emerging Epidemic: With Applications to Severe Acute Respiratory Syndrome in Hong Kong and Beijing L’étiologie, la pathogénie et le pronostic d’une maladie récemment émergente sont généralement inconnus aux cliniciens. Des interventions et des traitements efficaces aussi précoces que possible garantissent la réduction du caractère fatal de la maladie à un minimum, et la suppression de traitements inadéquats. Dans ce contexte, la capacitéà extraire le plus d’informations hors des données disponibles est critique à la possibilité d’importantes prises de décision. L’inefficacité d’un traitement peut être reflétée par une mortalité constante avec le temps tandis qu’un traitement efficace mène normalement à un taux de décès décroissant. Un test statistique pour une mortalité constante avec le temps est proposé dans cet article. La statistique proposée converge vers un mouvement Brownien sous l’hypothèse nulle. Les caractéristiques spécifiques du mouvement Brownien permettent d’analyser également la distribution des premiers temps de passage à partir de tests séquentiels. Ceci permet à l’hypothèse nulle du taux de décès constant d’être rejetée le plus rapidement possible dès que l’évidence statistique devient suffisante. Les études de simulation montrent que les performances du test proposé sont bonnes et qu’il est très sensible pour trouver un taux de mortalité décroissant. Le test proposé est appliqué aux données du syndrome respiratoire aigu sévère (SARS) à Hong Kong et Beijing. J. Peng, C.‐I. C. Lee, K. A. Davis, and W. Wang 877 Stepwise Confidence Intervals for Monotone Dose–Response Studies Dans les études de dose‐réponse un des points les plus importants est l’identification de la dose minimum efficace (minimum effective dose – MED), qui est définie comme la plus petite dose pour laquelle la réponse moyenne est meilleure que celle obtenue pour une dose nulle de contrôle, en terme de différence clinique significative. Les courbes doses‐réponses sont parfois monotones. Pour trouver la MED plusieurs auteurs ont proposé des procédures de test du genre up and down, basées sur des contrastes entre les moyennes. Dans cet article, pour identifier la MED, on propose une amélioration de la méthode de Marcus et Peritz (1976, Journal of the Royal Statistical Society, Series B 38, 157–161) et on développe une application de la méthode DR de Hsu et Berger (1999, Journal of the American Statistical Society 94, 468–482) pour construire, sous des hypothèses de monotonicité, la borne inférieure de l’intervalle de confiance pour la différence entre la réponse à une dose quelconque non nulle et celle du contrôle. La méthode proposée est illustrée par des exemples numériques et on présente des comparaisons de puissance obtenues par simulations. M. Ding, G. L. Rosner, and P. Müller 886 Bayesian Optimal Design for Phase II Screening Trials Dans la littérature, la plupart des plans de screening en phase 2 considèrent un traitement à la fois. Chaque étude est considérée isolément. Nous proposons une approche décisionnelle plus systématique pour le processus de screening de phase 2. Le plan séquentiel permet une plus grande efficacité et un meilleur apprentissage sur les traitements. L’approche incorpore un modèle Bayesien hiérarchique qui permet d’une façon formelle la combinaison d’information entre différentes études reliées entre elles, et améliore l’estimation dans de petits échantillons en exploitant l’information venant des autres traitements. Le plan incorpore une fonction d’utilité qui prend en compte le coût d’échantillonnage et le possible retour sur investissement. Des simulations par ordinateur montrent que cette méthode a une forte probabilité d’écarter des traitements à faible taux de succès et de faire évoluer en phase 3 des traitements à fort taux de succès. A. Vexler, A. Liu, E. Eliseeva, and E. F. Schisterman 895 Maximum Likelihood Ratio Tests for Comparing the Discriminatory Ability of Biomarkers Subject to Limit of Detection Dans cet article, nous étudions la comparaison des aires sous courbes ROC (Receiver Operating Characteristic) corrélées, des biomarqueurs diagnostiques dont les mesures sont soumises à une limite de détection (LOD), source d’erreur de mesure issue de la sensibilité instrumentale en épidémiologie. Nous proposons et nous examinons les tests du rapport des vraisemblances avec des caractéristiques opérationnelles qui sont aisément obtenues sous méthodologie classique du maximum de vraisemblance. R. Li and L. Nie 904 Efficient Statistical Inference Procedures for Partially Nonlinear Models and their Applications Motivés par une analyse d’un jeu de données réelles dans le domaine de l’écologie, nous sommes amenés à considérer une classe de modèles partiellement non linéaires où l’on note à la fois la présence d’une composante non paramétrique et d’une composante paramétrique. Nous développons deux nouvelles procédures d’estimation pour l’estimation des paramètres de la composante paramétrique. La consistance et la normalité asymptotique des estimateurs sont établies. Puis nous proposons ensuite une procédure d’estimation et une procédure de test F généralisé pour la composante non paramétrique dans les modèles partiellement non linéaires. Des propriétés asymptotiques de la nouvelle procédure d’estimation et le test statistique s’en déduisent. Les qualités des échantillons finis des procédures d’inférence proposées sont évaluées par des études de simulations de Monte Carlo. Une application dans le domaine de l’écologie est utilisée pour illustrer la méthode proposée E. Deschepper, O. Thas, and J. P. Ottoy 912 Tests and Diagnostic Plots for Detecting Lack‐of‐Fit for Circular‐Linear Regression Models Les diagnostics pour la régression et les tests de défaut d’ajustement sont principalement focalisés sur les modèles linéaires de régression linéaire. Lorsque les points sont distribués sur la circonférence d’un cercle, des difficultés apparaissent car il n’existe pas de point de départ ou d’origine. La plupart des tests classiques de défauts d’ajustement exigent de choisir arbitrairement une origine, mais des choix différents peuvent conduire à des conclusions différentes. Nous proposons un outil graphique d’ajustement et un test de défaut d’ajustement qui n’exige pas de point naturel initial. La méthode est basée sur des « résidus régionaux » qui sont définis sur des arcs de cercle. La méthode graphique localise formellement et visualise des sous ensembles d’observations dont l’ajustement n’est pas satisfaisant sur le cercle. Un exemple de données issues du domaine alimentaire est utilisé pour exhiber les problèmes mentionnés auparavant avec les tests classiques d’ajustement et pour illustrer la force de la méthode basée sur les « résidus régionaux » pour détecter et localiser les points de départ d’hypothèse de non effet. Une petite étude de simulation montre la bonne performance du test des « résidus régionaux » dans les deux cas d’écart global ou local du modèle. Puis ces idées sont étendues au cas ou il y a plus d’une variable explicative. B. Xie, W. Pan, and X. Shen 921 Variable Selection in Penalized Model‐Based Clustering Via Regularization on Grouped Parameters L’analyse en grappes modèle‐dépendante pénalisée a été proposée dans le cadre de données de haute dimension mais de petite taille d’échantillon comme celles rencontrées dans les études génomiques. En particulier, elle peut être utilisée pour la sélection de variables. Un nouveau schéma de régularisation est proposé pour regrouper ensemble plusieurs paramètres associés à la même variable au sein des grappes. Nous montrons analytiquement et numériquement que ce schéma est plus efficace que la conventionnelle pénalité L1 pour la sélection de variable. De plus, nous développons une stratégie pour combiner ce schéma de groupement avec le groupement de variables structurées. Des études de simulation et des applications aux données d’expression des micropuces pour la découverte de sous‐types cancéreux illustrent les avantages de notre nouvelle approche par rapport à plusieurs méthodes existantes. S. H. Lee, J. Lim, M. Vannucci, E. Petkova, M. Preter, and D. F. Klein 931 Order‐Preserving Dimension Reduction Procedure for the Dominance of Two Mean Curves with Application to Tidal Volume Curves Le travail présenté ici est issu d’une étude de cas reposant sur des tracés, à dimension et fréquence élevées, de capacité vitale respiratoire effectués pendant des bouffées d’angoisse provoquées. L’objectif est de développer une procédure pour évaluer la significativité de la supériorité d’une courbe moyenne par rapport à une autre. L’idée essentielle de la méthode suggérée est de préserver l’ordre sur les moyennes tout en réduisant la dimensionnalité des données. La matrice des données observées est projetée sur un ensemble de matrices de rang inférieur sous une contrainte de positivité. Une procédure de test multivarié est alors appliquée dans cette dimension inférieure. Nous utilisons des données simulées pour illustrer les propriétés statistiques de la méthode de test proposée. Les résultats obtenus sur l’étude de cas confirment l’hypothèse préliminaire des investigateurs et fournit un support à leur objectif de construction d’un modèle expérimental pour la bouffée d’angoisse clinique chez les sujets normaux.  相似文献   

20.
L’objectif de ce travail est d’étudier l’influence des températures hivernales sur la survie des B. tabaci adultes. Les individus sont soumis à un cycle de températures qui correspond aux températures observées pendant les 24 heures d’une des journées les plus froides de l’hiver du sud de la France (Perpignan). L’évolution de ces températures est reproduite en conditions contrôlées, et les individus sont exposés à un, trois ou quatre de ces cycles. Après un cycle de 24 heures, le taux de survie moyen des individus est de 73,5% alors que celui du lot témoin est de 85%. Après une exposition à 3 cycles, le taux moyen de survie reste encore relativement élevé (44,4%). Les chances de survivre à 4 cycles de 24 heures est de 7,4%. Le Nord méditerranéen semble être une zone tampon pour le maintien en extérieur des populations de B. tabaci car ni les températures minimales régulièrement enregistrées, ni leur durée, ne sont clairement limitantes.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号