首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
Smear preparations were made from cells harvested from pleural fluid from 90 patients with breast cancer and stained for transferrin receptor (TRFr) and insulin-like growth factor-I receptor (IGF-Ir) using an immunocytochemical technique. the results were correlated with those from 36 benign effusion smears. In malignant smears from the breast cancer cases TRFr was demonstrated in 84.4% of the cellular deposits and IGF-Ir in 91.1%. TRFr was demonstrated in two (11%) of the tuberculous effusion smears and in six (100%) effusions from patients with collagen disease. IGF-Ir was not demonstrated in any of the smears from patients with benign disease. the sensitivity and specificity of TRFr staining were 84.4% and 77.7%, respectively, and for IGF-Ir staining were 91.1% and 100%, respectively. the underlying metabolic changes in the tumour cells which give rise to positive staining with these markers are discussed. Les préparations cytologiques ont été obtenues à partir de cellules recueillies dans le liquide pleural chez 90 patientes ayant un cancer du sein puis ont fait I'objet de techniques immunocytochimiques pour mettre en évidence les récepteurs de la Transferrine (TRF-r) et du facteur de croissance Insulin Like-I (IGF-Ir). Les résultats ont été corrélés avec ceux obtenus sur 36 épanchements bénins. Dans les étalements provenant de patientes traitées pour cancer du sein, TRF-r est positif dans 84,4% des groupements cellulaires et I'IGF-Ir dans 91,1%. Une activité pour le TRF-r est observée dans deux cas (11%) d'epanchements tuberculeux et dans les 6 cas (100Y0) d'épanchement survenant chez des patients atteints de collagénose. Aucune activité IGF-Ir n'est présente dans les cellules des épanchements des patients atteints d'affection bénigne. La sensibilité et la spécificité de I'activité TRF-r sont de 84,4% et de 77% respectivement, celles de I'activité IGF-Ir étant de 91,1% et de 100% respectivement. Les modifications métaboloques sous-jacentes á la positivité en immunocytologie des cellules tumorales avec ces marqueurs sont discutiés. Ausstriche von Pleuraergüssen von 90 Patientinnen mit Mammakarzinom wurden hinsichtlich Tranferrinrezeptoren (TRF-r) und Insulinwachstumsrezeptor (IGF-r) untersucht. 36 benigne Ergüsse dienten als Vergleich. In tumorösen Ergüssen waren TFGr in 84,4% und IGFr in 91,1% nachweisbar. TRFr war ausserdem in 2 (11Y0) der tuberkulösen und 6 (100%) der rheumatischen Ergüsse positiv währen IGFr in keinem der benignen Fälle positiv ausfiel. Sensitivität und Spezifität waren für TRFr 84,4% bzw. 77,7% und IGFr 91,1y0 bzw. 100%. Die metabolischen Veränderungen der Tumorzellen werden diskutiert.  相似文献   

2.
Between January 1989 and May 1990, the Department of Cytology of Llandough Hospital examined 784 pleural fluid cytological preparations, 99 of which were also examined as paraffin wax sections of clots that had formed. to assess whether this practice yields worthwhile information, we reviewed the cytology and clot sections of 99 patients with pleural effusions and correlated the results with subsequent histology and review of clinical case notes. the specificities of each method separately and when combined was high: 92% clot section, 85% smear cytology and 85% combined. the sensitivity using clot section alone was 49%, smear cytology alone 46% and in combination, 54%. Analysis showed no significant difference between these sensitivities. When pleural fluid clot formation occurs, we recommend the continued examination of clot sections, since it yields an increase in positive diagnoses, albeit not statistically significant. Entre janvier 1989 et mai 1990, 784 préparations cytologiques de liquides pleuraux ont été examinées dans le département de Cytologie de l'Hôpital Llandough. Parmi ces 784 cas, 99 contenaient un coagulum qui a fait l'objet également de coupes histologiques apres inclusion en paraffine. Afin de déterminer si cette pratique apporte une information intéressante, la cytologie de ces 99 patients et les coupes obtenues á partir du coagulum ont été revues, puis les résultats one été corrélés avec les résultats histologiques et avec I'analyse des données cliniques. Les valeurs de la spécificité de chacune des méthodes et des deux méthodes associées sont élevées: 92% pout les coupes du coagulum, 85% pour la cytologie d'étalement et 85% pour les deux méthodes combinées. Les valeurs pour la sensibilité sont de 49% pour les coupes de coagulum, de 46% pour la cytologie seule et de 54% en combinant les deux methodes. L'analyse ne met pas en évidence de différence significativé de sensibilitk entre les méthodes. Lorsqu'un coagulum s'est formé dans un liquide pleural, nous recornmandons de poursuivre la pratique de l'inclusion en paraffine et de coupe de ce coagulum puisque cette pratique aboutit à une augmentation du taux de diagnostics positifs, même si la différence n'est pas démontrée statistiquement. Das zytologische Labor des Llandough Hospitals untersuchte zwischen Januar 1989 und Mai 1990 784 Pleurapunktate. Von 99 wurden ausserdem paraffinge-schnittone Clotpräparate angefertigt. Um den Wert dieses Verfahrens zu überprüfen wurden diese Ergebnisse mit späteren histologischen Proben und der Patientengeschichte korreliert. Die Spezifitaten betrugen: 92% für Clot, 85% für Ausstriche und 85% für die Kombination. Die Sensitivitäten: 49% für Clot, 46% für Ausstriche und 54% für die Kombination. Die Unterschiede sind statistisch nicht signifikant, trotzdem sollten Gerinnsel bei Vorhandensein histologisch verarbeitet werden.  相似文献   

3.
To gain some idea of cervical screening in Otago and Southland (two southern provinces of New Zealand), before the implementation of a national cervical cancer prevention programme, a questionnaire was sent to all doctors identified as smear takers. Questionnaires were returned by 75% of the doctors. Only 53.8% of practice nurses were involved in taking smears. Well Women Clinics staffed by nurses were not widespread in either province. Just under half (46.4%) of doctors took cervical smears as part of a health check programme. Sixty-three per cent (63.3%) routinely performed a pelvic examination when taking a smear. Surprisingly few doctors were familiar with the technique of placing spatula and cytobrush samples on one slide, a manoeuvre which could significantly reduce the workload of the cytology laboratories. Only a minority of doctors were aware of a new sampler which can provide samples equivalent to combined spatular-cytobrush smears. There was confusion over the timing of a repeat smear following two normal ones. the recommended interval of 3 years was only complied with by 44.2% of doctors. However, 71.4% of respondents did remind women to have smears. the study indicates that many doctors already provide patients with a good cervical screening service, and this augers well for the national screening programme. Afin d'abtenir des informations sur le dépistage du cancer du col utérin dans les provinces d'Otago et de Southland (2 provinces du sud de la Nouvelle Zélande), préalablement au lancement d'un programme de prévention, un questionnaire a été envoyéà tous les médecins susceptibles de réaliser des frottis. Ces questionnaires ont été renvoyés par 75% d'entre eux. Seulement 53.8% des infirmiéres sont concernées par la réalisation des frottis. Les ‘Well Women Clinics’dirigées par des infirmiéres ne sont pas très répandues dans ces deux provinces. Moins de la moitié des médecins (46.4%) font des frottis dans le cadre d'un programme de bilan de santé. Soixante trois pourcent (63.3%) font un examen pelvien systématique lorsqu'ils réalisent un frottis. De façon surprenante, peu de médecins sont familiarisés avec la technique de l'étalement sur une même lame de la spatule et de la cytobrush, technique qui réduit notable-ment le travail des laboratoires de cytologie. eule une minorité de médecins est au courant de l'existence de ce nouveau système permettant d'obtenir l'equivalent d'un frottis combinéà la spatule et à la cytobrush. Une confusion a été constatée à propos de l'intervalle recommandé après 2 frottis normaux. Les médecins se sont conformés à l'intervalle recommandé de 3 ans pour 44.2% d'entre eux. Cependant 71.4% des médecins répondeurs rappellent à leurs patientes qu'elles doivent faire pratiquer des frottis. Cette étude montre que de nombreux médecins proposent une bonne utilisation du dépistage du cancer du col à leurs patientes, signe de bonne augure pour le programme national de dépistage. Um die Lage hinsichtlich eines gynäkologischen Screenings in den beiden südlichen Provinzen von Neuseeland, Otago und Southland, zu erfassen, wurden Fragebogen an alle Ärzte verschickt von welchen bekannt wer, daß sie Abstriche herstellen. 75% der Fragebogen wurden beantwortet. Nur in 53.8% der Praxen waren die Schwestern mit der Herstellung der Abstriche betraut. In beiden Provinzen gab es kaum ‘Well Women Clinics’. Etwas weniger als die Hälfte (46.4%) der Ärzte fertigen Cervikalabstrich im Rahmen eines Gesundheitscheques an, 63% (63.3%) von diesen führte routinemäßig gleichzeitig eine Beckenuntersuchung durch. Überraschenderweise waren nur wenige Ärzte mit der Technik Spatel-und Cytobrushmaterial auf einem einzigen Objektträger aufzutragen vertraut, nur eine Minderheit kannte neue Verfahren, die dem kombinierten Spatel- und Cytobrushabstrich entsprechen. Es herrschte Unklarheit hinsichtlich der Kontrollzeiträume nach 2 normalen Abstrichen. Der empfohlene Zeitraum von 3 Jahren war nur 44.2% der Ärzte bekannt. Trotzdem forderten 71.4% die Patientinnen auf, Abstriche herstellen zu lassen. Die Studie zeigt, daß viele Ärzte ihre Patientinnen bereits mit einem guten Screeningprogramm versorgen und bietet somit gute Voraussetzungen für ein nationales Screeningprogramm.  相似文献   

4.
《Biometrics》2006,62(3):958-959
S. E. Wright and A. J. Bailer 886 Une expérience avec expositions intermittentes de toxicologie expérimentale fournit l'arrière plan de la discussion du dispositif. Le problème sous‐jacent est de décider quand échantillonner une réponse non linéaire pour minimiser la variance généralisée des estimations des paramètres. Une stratégie heuristique commode peut être appliquée au problème fournissant des dispositifs optimaux ou presque optimaux. L'efficacité de l'approche heuristique permet une exploration directe de la sensibilité de la solution proposée aux particularités de la situation telle que l'hétéroscédasticité, la densité des dates d'observation, les critères du dispositif, et les contraintes sur les valeurs des paramètres. On présente aussi brièvement une application de l'optimisation de dispositif pour le choix des doses dans une expérience de toxicologie de la reproduction. D. V. Mehrotra , X. Li , and P. B. Gilbert 893 Afin de justifier le plan de la première étude au monde visant une démonstration de principe (proof‐of‐concept ou POC) de l'efficacité d'un vaccin HIV basé sur l'immunité et relayé par la cellule, nous évaluons huit méthodes pour tester l'hypothèse nulle composite d'absence d'effet du vaccin soit sur l'incidence d'infection HIV, soit la valeur de la charge virale chez les patients infectés, en comparaison au placebo. Les deux premières méthodes utilisent un seul test appliqué aux valeurs mesurées ou aux rangs du poids de la maladie (BOI) qui combine l'infection et la charge virale. Les six autres méthodes combinent des tests séparés pour les deux critères utilisant des versions pondérées ou non du Z à 2 parties, des méthodes de Simes et de Fisher. A partir de simulations extensives réalisées pour construire l'essai POC type, les méthodes BOI révèlent en général une puissance faible de rejeter l'hypothèse nulle composite (et donc d'entreprendre un futur essai à grande échelle pour le vaccin). Les méthodes par combinaison de Simes et de Fisher non pondérées ont les meilleures performances dans l'ensemble. Un aspect important est que la conclusion est la même si le test de la composante relative à la charge virale est ajusté pour le biais que peut introduire le conditionnement par un événement (l'infection HIV) survenant après la randomisation. Cet ajustement est obtenu en utilisant un modèle de biais de sélection basé sur le cadre de la stratification principale de l'inférence causale. X. Huang , J. N. Cormier , and P. W. T. Pisters 901 Dans le traitement du cancer, les patients reçoivent habituellement une variété de traitements séquentiels. Les traitements initiaux administrés à la suite du diagnostic peuvent varier, comme les régimes de rattrapage suivants donnés après la rechute de la maladie. Cet article considère la situation où ni les traitements initiaux, ni les traitements de rattrapage sont randomisés. En faisant l'hypothèse qu'il n'y a pas de variables de confusion non mesurés, nous estimons les effets causaux conjoints sur la survie des traitements initiaux et de rattrapage, c'est‐à‐dire, les effets des séquences de traitement à deux niveaux. Pour chaque séquence de traitement individuelle, nous estimons la fonction de la distribution de survie et la durée de moyenne de survie restreinte. Les différentes séquences de traitement sont alors comparées en utilisant ces estimations et leurs covariances correspondantes. Des études de simulation sont conduites pour évaluer la performance des méthodes en incluant la sensibilitéà la violation de l'hypothèse de facteurs de confusion non mesurés. Les méthodes sont illustrées par une étude rétrospective de patients ayant un sarcome des parties molles, qui avait motivé cette recherche. D. E. Schaubel , R. A. Wolfe , and F. K. Port 910 L'analyse de la survie est souvent utilisée pour comparer des traitements expérimentaux et conventionnels. Dans les études observationnelles, la thérapie peut changer pendant le suivie. De telles modifications peuvent se résumer par des covariables dépendantes du temps. Étant donné la pénurie croissante de donneurs d'organes, des reins à plus haut risque provenant de donneurs à critères élargis (ECD) sont de plus en plus transplantés. Les candidats à la transplantation peuvent choisir d'accepter un organe ECD (thérapie expérimentale), ou de rester en dialyse et d'attendre la possibilité d'une transplantation non‐ECD ultérieure (thérapie conventionnelle). Une analyse dépendante du temps en trois groupes pour ce type de données implique l'estimation de paramètres correspondants aux deux covariables indicatrices dépendantes du temps représentant les transplantations ECD ou non‐ECD, chacune étant comparée à ceux qui restent en dialyse en liste d'attente. Cependant, l'estimation du hasard ratio ECD par cette analyse dépendante du temps ne considère pas le fait que les patients renonçant à une transplantation ECD ne sont pas destinés à rester en dialyse pour toujours, mais peuvent plus tard recevoir une transplantation non‐ECD. Nous proposons une nouvelle méthode d'estimation du bénéfice de la survie de la transplantation ECD relative à la thérapie conventionnelle (liste d'attente avec la possibilité d'une transplantation non‐ECD ultérieure). Comparée à cette méthode dépendante du temps, la méthode proposée caractérise de manière plus précise la structure des données et produit une estimation plus directe du bénéfice relative à une transplantation ECD. I. Ninan , O. Arancio , and D. Rabinowitz 918 L'émission de neurotransmetteurs par les neurones peut être étudiée par des mesures d'intensité de coloration des terminaisons synaptiques. Le problème est alors d'estimer une espérance dans une situation où, au lieu d'observer des variables aléatoires indépendantes de même espérance, on observe, avec erreur, des sommes aléatoires indépendantes de variables de même espérance sans connaître le nombre de termes de la sommation aléatoire. On présente ici une approche non paramétrique de ce problème d'estimation. La méthode est illustrée sur les données d'une expérience dans laquelle le colorant cationique styrylpyridinium FM4‐64 a été utilisé sur des cultures de neurones de l'hippocampe murin. B. Klingenberg and A. Agresti 921 Cet article considère des test globaux de différence entre vecteurs appariés de distributions binomiales provenant de 2 échantillons de données binaires multivariées dépendantes. La différence est définie, soit comme une non homogénéité des distributions marginales, soit comme une asymétrie de la distribution jointe. Pour détecter le premier type de différence, nous proposons une extension multivariée du test de McNemar et montrons que c'est un test du score généralisé sous une approche GEE. Des caractéristiques univariées, telles que la relation entre le test de Wald et le test du score, ou l'abandon de paires avec la même réponse s'étendent au cas multivarié et le test ne dépend pas de l'hypothèse de travail de la dépendance entre les composantes de la réponse multivariée. Pour des données éparses ou non équilibrées, comme cela arrive quand le nombre de variables est grand ou les proportions proches de zéro, le test est mis en oeuvre en utilisant le bootstrap, ou si c'est trop compliqué au point de vue calculatoire par une distribution de permutation. Nous appliquons le test à des données de toxicité pour un médicament, dans lequel 2 doses sont évaluées en comparant les réponses multiples des mêmes sujets à chacune d'entre elles.  相似文献   

5.
REGULAR ARTICLES     
《Biometrics》2006,62(2):636-643
  相似文献   

6.
《Biometrics》2006,62(2):643-643
R. A. Betensky , C. K. Christian , M. L. Gustafson , J. Daley , and M. J. Zinner 598 Le Groupe Leapfrog, un consortium de plus de 100 grands employeurs, qui déclare fournir collectivement l'assurance santéà plus de 33 millions de personnes, s'est réuni en 2000 dans le but d'utiliser les ressources du marché pour améliorer la qualité des soins de santé. Le résultat de l'initiative du groupe Leapfrog suggère la référence sélective des procédures complexes aux hôpitaux d'activitéélevée et détermine des seuils d'activité d'ensemble pour cinq procédures. Ceci a été basé sur l'hypothèse que les hôpitaux à faible volume d'activité présentent une mortalité plus élevée, ce qui peut être perçu comme l'hypothèse, en termes statistiques simplifiés, que le paramètre p de la binomiale est une fonction décroissante de n. L'analyse de la corrélation entre les rapports normalisés de la mortalité des hôpitaux (SMR, ie, le rapport de décès observés par rapport aux décès prévus) et les volumes d'activité des hôpitaux est révélatrice au sujet de l'hypothèse volume/mortalité. Cela présente un exemple pédagogique peu commun dans lequel la détection de la corrélation en présence de la dépendance non linéaire est d'intérêt primaire, alors que la corrélation au sens de Pearson est parfaitement adaptée. Les mesures non paramétriques fréquemment utilisées de l'association bivariée sont inadéquates, car elles ne peuvent pas faire de distinction entre la notion de corrélation et la notion de dépendance. T. A. Alonzo and J. M. Kittelson 605 La précision (sensitivité et spécificité) d'un nouveau test de dépistage peut être comparéà celui d'un test standard en appliquant les deux tests à un groupe de sujets pour lesquels le statut vis‐à‐vis de la maladie peut être déterminé par un « gold standard » (GS). Cependant, il n'est pas toujours possible d'utiliser le GS pour tous les sujets de l'étude. Par exemple, une étude est planifiée pour évaluer si le nouveau test de dépistage des cancers cervicaux (« ThinPrep ») est meilleur que le test standard (« Pap »), et dans ce cas, il n'est pas faisable (ou éthique) de déterminer le statut vis‐à‐vis de la maladie en réalisant une biopsie, dans le but d'identifier des femmes avec ou sans pathologie pour participer à l'étude. Quand le statut vis‐à‐vis de la maladie ne peut être connu pour tous les sujets de l'étude, la précision relative de deux tests de dépistage peut toujours être estimée en utilisant un schéma de dépistage positif apparié (PSP), dans lequel tous les sujets reçoivent les deux test de dépistage, mais n'ont le GS que si l'un des deux tests de dépistage est positif. Malheureusement, dans l'exemple des cancers cervicaux, le protocole PSP n'est pas non plus praticable puisqu'il n'est techniquement pas possible d'administrer et le ThinPrep et le Pap au même moment. Dans ce papier, nous évaluons un schéma de dépistage positif apparié randomisé (RPSP), dans lequel les sujets sont randomisés pour recevoir dans un premier temps un des deux tests de dépistage, et ils reçoivent l'autre test et le GS seulement si le premier test de dépistage est positif. Nous calculons les estimations du maximum de vraisemblance et les intervalles de confiance de la précision relative des deux tests de dépistage, et évaluons le comportement de ces estimations, sur petit échantillon, par des études de simulations. Des formules de calcul du nombre de sujets nécessaires sont appliquées à l'exemple d'essai de dépistage du cancer cervical, et l'efficacité du schéma DAPR est comparé avec d'autres schémas. G. Qin and X.‐H. Zhou 613 Pour un test diagnostic sur une échelle continué, l'indicateur le plus communément utilisé pour résumer la courbe ROC est l'aire sous la courbe (AUC) pour refléter la justesse de ce test diagnostic. Dans cet article, nous proposons une approche de vraisemblance empirique pour l'inférence sur l'AUC. Nous définissons tout d'abord un rapport de vraisemblance empirique pour l'AUC et nous montrons que sa distribution limite est un khi‐deux ajusté. Nous obtenons alors un intervalle de confiance pour l'AUC basé sur la vraisemblance empirique en utilisant la distribution du khi‐deux ajusté. Cette inférence par vraisemblance empirique pour l'AUC peut être étendue à des échantillons stratifiés, la distribution limite qui en résulte est alors une somme pondérée de khi‐deux indépendants. De plus nous avons réalisé des simulations pour comparer la performance relative de l'intervalle obtenu par l'approche de vraisemblance empirique par rapport aux intervalles obtenus avec l'approximation normale et par rééchantillonnage de type ?bootstrap?.  相似文献   

7.
REGULAR ARTICLES     
《Biometrics》2005,61(3):891-895
L. Cowen and C. J. Schwarz 657 Les Radio‐tags, en raison de leur détectabilitéélevée, sont souvent employés dans les études de capture re‐capture. Une qualité essentielle requise est que les Radio tags ne cessent pas de fonctionner pendant l'étude. Le dysfonctionnement d'un Radio tag avant la fin d'une étude peut conduire à sous‐estimer le taux de survie. Nous développons ici un modèle pour incorporer des données issues de radio tags déficients. Ce modèle a été appliqué aux smolts chinook (tshawytscha d'Oncorhynchus) sur la Colombia river WA. Les estimations des taux de survie obtenus à partir de ce modèle sont beaucoup plus grandes que celles observées dans l'analyse standard de Cormack‐Gaie‐Seber. M. A. Suchard , R. E. Weiss , and J. S. Sinsheimer 665 Les facteurs de Bayes pour comparer deux hypothèses ou plus en compétition sont souvent estimés en construisant un échantillon de chaînes de Markov (MCMC) pour explorer l'espace joint des hypothèses. Pour obtenir des estimations efficaces des facteurs de Bayes, Carlin et Chibb (1995) ont suggéré d'ajuster les odds a priori des hypothèses en compétition de telle sorte que les odds a posteriori soient approximativement un et d'estimer alors les facteurs de Bayes par simple division. Un sous‐produit est que l'on produit souvent plusieurs chaînes MCMC indépendantes, une seulement étant utilisée pour l'estimation. Nous étendons cette approche en proposant trois tests statistiques qui incorporent les résultats des différentes chaînes. Le premier suppose des tirages indépendants dans une chaîne et modélise la fonction indicatrice de l'hypothèse en utilisant une régression logistique pour différents choix des odds a priori. Les deux autres modèles plus complexes abandonnent l'hypothèse d'indépendance en permettant des dépendances retard dans les résultats des différentes chaînes. Ces modèles nous permettent d'estimer l'incertitude dans nos calculs des facteurs de Bayes et d'utiliser pleinement les différentes chaînes MCMC, même si les a priori des odds varient de chaîne à chaîne. Nous appliquons ces méthodes de calcul des facteurs de Bayes pour tester la monophyllie dans deux exemples de phylogénie. Le premier exemple explore la relation d'un pathogène inconnu à un ensemble de pathogènes connus. L'identification de la relation monophyllique du pathogène inconnu peut influer sur le choix de l'antibiotique dans une perspective clinique. Le second exemple se concentre sur la détection des recombinaisons du virus VIH. Pour une application clinique potentielle, ces types d'analyse devraient être achevés aussi efficacement que possible. J. Zhu , J. C. Eickhoff , and P. Yan 674 Des observations de réponses spatio‐temporelles multiples se présentent souvent dans les études environnementales et écologiques. Alors que les modèles purement spatiaux de réponses univariées dans les familles exponentielles de distribution ont progressé au cours des dernières années (e.g. Diggle et al., 1998; Zhang, 2002), peu d'outils statistiques sont disponibles pour des réponse multivariées qui ne sont pas nécessairement Gaussiennes. Une exception cependant est le modèle à facteur commun développé pour des données spatiales multivariées par Wang et Wall (2003). Le but de cet article est d'étendre ce modèle multivarié uniquement spatial et de proposer une classe flexible de modèles linéaires généralisés de variables latentes appliqués à des données multivariées spatio‐temporelles. L'inférence statistique repose sur des estimées du maximum de vraisemblance et de leurs écarts‐type obtenues par l'algorithme EM de Monte Carlo. Nous proposons aussi une nouvelle méthode d'ajustement automatique de la taille de l'échantillon Monte Carlo, qui facilite la convergence de l'algorithme EM et présente ainsi quelque intérêt indépendant. La méthodologie est illustrée par une étude écologique du pin rouge en réponse à des attaques de charançon de l'écorce dans une forêt du Wisconsin. Y.‐G. Wang , X. Lin , and M. Zhu 684 Les méthodes robustes sont utiles pour assurer des inférences statistiques fiables en cas de légers écarts aux hypothèses du modèle. La méthode très largement utilisée des équations d'estimation peut être “robustifiée” en remplaçant les résidus standardisés par les M‐résidus. Si les résidus de Pearson sont supposés centrés sans biais, les estimations des paramètres par l'approche robuste sont asymptotiquement biaisés lorsque les distributions des erreurs ne sont pas symétriques. Nous proposons une méthode pour corriger ce biais. Nos études numériques extensives montrent que la méthode proposée peut réduire ce biais substantiellement. On donne des exemples d'illustration. R. J. Cook , W. Wei , and G. Y. Yi 692 Nous proposons des méthodes semi‐paramétriques pour estimer et tester l'effet d'un traitement en présence d'un événement récurrent observé sur des périodes multiples, avec prise en compte de la censure. Ces méthodes reposent sur l'estimation de fonctions avec pour hypothèse de travail un modèle de Poisson mixte sous lequel les effets aléatoires individuels peuvent être éliminés par conditionnement. Des tests statistiques robustes dérivés de pseudo‐scores sont obtenus par estimation “sandwich” de la variance. L' efficacité relative des analyses conditionnelle et marginale est évaluée de façon analytique sous un modèle mixte de Poisson à temps homogènes. La robustesse et la puissance empirique de l'approche semi‐paramétrique sont étudiées au moyen de simulations. Des adaptations pour prendre en compte les événements récurrents survenant dans des essais en cross‐over sont décrites et ces méthodes sont appliquées aux données d'un essai en cross‐over sur deux périodes chez des patients souffrant d'asthme bronchique. X. Song and Y. Huang 702 Plusieurs méthodes de modélisation fonctionnelle ont été proposées, en présence d'erreur de mesure des covariables avec le modèle de taux proportionnels. Sont inclus dans ces méthodes, l'estimateur du score conditionnel (Tsiatis and Davidian, 2001, Biometrika 88, 447–458) l'estimateur avec correction paramétrique (Nakamura, 1992, Biometrics 48, 829–838) et l'estimateur avec correction non paramétrique (Huang and Wang, 2000, Journal of the American Statistical Association 95, 1209–1219) dans l'ordre d'hypothèses de plus en plus faible sur l'erreur. Bien qu'ils soient tous consistants, chacun de ces estimateurs souffre de possibles difficultés en présence de petits échantillons ou d'erreurs de mesure substantielles. Dans cet article, ayant observé que les estimateurs du score conditionnel ou avec corrections paramétriques étaient asymptotiquement équivalents pour une erreur normale, nous avons cherché quelle était leur performance relative pour des échantillons de taille finie et remarqué que le premier était le meilleur. Ceci signifie une approche générale affinée des méthodes de correction paramétriques et non paramétriques. Les corrections affinées des estimateurs sont asymptotiquement équivalentes à leurs correspondantes standards, mais ont des propriétés numériques améliorées et sont plus performantes lorsque les estimations standards n'existent pas ou sont extrêmes. Nous présentons des résultats de simulations et une application de ces méthodes à un essai clinique sur le HIV. A.‐C. Andrei and S. Murray 715 Ce travail étudie l'analyse séquentielle de données de survie appariées en utilisant une nouvelle classe de tests non‐paramétriques, fondés sur un log‐rank pondéré apparié (PWLR), et les tests à partir de Kaplan‐Meier pondérés appariés (PWKM). Pendant le déroulement d'un essai chacun de ces tests peut alternativement être considéré comme la statistique la plus extrême. En suivant l'évolution de PEMAX, le maximum des différences absolues du PWLR standardisé et du PWKM, on a, à la fois, les avantages des tests de rangs et les avantages des autres tests. Par des simulations on montre que l'utilisation de PEMAX contrôle le risque de type I et est quasiment aussi puissant que l'utilisation du meilleur des deux tests. Ceci, que l'hypothèse des hasards proportionnels soit respectée ou non. Désormais, PEMAX préserve la puissance de façon plus robuste que chacun des deux tests pris individuellement, tout en restant relativement simple à mettre en place et à utiliser dans une analyse. Un exemple, à partir de l'étude “Early Treatment Diabetic Retinopathy Study” (ETDRS), est donné. B. Lu 721 Dans les études d'observation avec un traitement dépendant du temps et des covariables dépendant du temps, il est souhaitable d'équilibrer la distribution des covariables à chaque instant. Un score de propension (“propensity score”) dépendant du temps basé sur le modèle de Cox à risques proportionnels est proposé et utilisé pour apparier les sujets exposés au risque. Il est montré que l'appariement sur ce score de propension permet d'obtenir une distribution équilibrée des covariables dans les groupes traité et non traité. Un appariement optimal avec divers plans est mis en place et comparé dans une étude de traitement chirurgical, cytoscopie et hydrodistention, pour une maladie chronique de la vessie, la cystite interstitielle. Des simulations suggèrent aussi que l'analyse statistique après appariement est plus performante que l'analyse sans appariement en terme d'estimation et d'intervalle de confiance. M. Naskar , K. Das , and J. G. Ibrahim 729 Une classe très générale de distributions de survie multivariées est utilisée pour analyser des données groupées de défaillance, sujettes à la censure et à des modes multiples de défaillance. Conditionnellement à des quantités spécifiques au groupe, la distribution jointe du temps de défaillance et de la variable indicatrice de l'évènement peuvent s'exprimer comme un mélange de la distribution des temps de défaillance dûs à un certain type (ou spécifique d'une cause) et de la distribution marginale du type de défaillance. Nous supposons ici que les distributions marginales des différents types de défaillance sont de fonctions logistiques de certaines covariables. Les quantités spécifiques au groupe sont soumises à une certaine distribution inconnue qui cause la fragilité. La distribution de fragilité est modélisée non paramétriquement par un processus de Dirichlet (DP). Dans une telle approche semi paramétrique une méthode hybride d'estimation est proposée basée sur l'algorithme pondéré du restaurant chinois (WCR) qui nous aide à générer des observations à partir de la distribution prédictive de la fragilité. L'algorithme de Monte‐Carlo ECM (MCEMC) joue un rôle vital pour obtenir des estimations des paramètres qui établissent l'importance des effets des facteurs causaux pour les défaillances d'un certain type. Une étude de simulation est conduite pour étudier la consistance de notre méthodologie. La méthodologie proposée est utilisée pour analyser des données réelles de contamination par le virus VIH sur une cohorte de femmes prostituées du Sénégal. F. Bretz , J. C. Pinheiro , and M. Branson 738 Traditionnellement, les stratégies d'analyse de données issues d'études dose‐réponse se partagent en deux grandes catégories : les procédures de comparaisons multiples et la modélisation. L'approche par modélisation suppose une relation fonctionnelle entre la réponse et la dose – celle‐ci est ici considérée comme un facteur quantitatif –, selon un modèle paramétrique spécifiéà l'avance. On utilise alors ce modèle pour estimer la dose permettant d'obtenir un niveau donné de réponse, mais la validité des conclusions dépend fortement de la pertinence du modèle de dose‐réponse, le vrai modèle étant a priori inconnu. A l'inverse, les procédures de comparaisons multiples considèrent la dose comme un facteur qualitatif et font très peu d'hypothèses – voire aucune – sur le modèle de dose‐réponse sous‐jacent. Avec ces procédures, il s'agira souvent d'identifier la dose minimale efficace, statistiquement significative et susceptible de produire un effet biologique considéré comme intéressant. Une des approches possibles est de tester la significativité de contrastes comparant différents niveaux de dose, tout en contrôlant le risque global de Type I. Ce type de procédure est relativement robuste ; cependant, l'inférence ne peut bien sûr pas sélectionner d'autres doses que celles utilisées dans l'étude. Dans cet article, nous décrivons une stratégie unifiée d'analyse de données issues d'études dose‐réponse, stratégie qui combine les techniques de comparaisons multiples et de modélisation. Nous supposons en fait l'existence de plusieurs modèles candidats, tous paramétriques, et utilisons des techniques de comparaisons multiples pour choisir le modèle le plus vraisemblable vis‐à‐vis de la vraie courbe dose‐réponse sous‐jacente, tout en contrôlant le risque global de Type I. On utilise alors le modèle ainsi sélectionné pour cerner, à l'aide d'une approche inférentielle, les doses les mieux appropriées. J. O'Quigley 749 La méthode de ré‐évaluation séquentielle (CRM) est un algorithme pour la recherche de dose qui s'appuie sur une remise à jour dynamique. Comme d'autres méthodes dynamiques, la CRM fournit une estimation de la dose courante qui correspond à un percentile cible. Cette dose, calculée à partir de tous les sujets inclus, sera utilisée pour la prochaine expérience. La mise en oeuvre de cette ré‐évaluation est possible grâce à l'utilisation d'un modèle simple. Dans l'état actuel des choses ni la CRM ni toute autre méthode dynamique permet d'estimer un percentile cible à partir de données rétrospectives, sauf dans le cas exceptionnel où le modèle simplifié génère les données. Dans cet article notre attention se porte sur un problème spécifique, à savoir l'analyse rétrospective par la CRM de données générées par un mécanisme arbitraire. Nous montrons comment procéder de façon cohérente. La méthodologie proposée n'est pas limitée à ce schéma particulier et s'applique à d'autres plans expérimentaux où l'estimation de la dose est faite par une mise à jour dynamique. L'analyse rétrospective pose un certain nombre de difficultés pour ces plans, en particulier la CRM, car ces plans ont la propriété d'exploiter un modèle de travail sous paramétré. On ne peut répondre à la question ‐ quel aurait été le résultat si on avait utilisé un autre plan expérimental. Néanmoins on peut fournir une estimation de ce résultat. Ceci a de nombreuses applications. Z.‐F. Yu and P. J. Catalano 757 Les effets neurotoxiques d'agents chimiques sont souvent analysés dans le cadre d'études contrôlées sur des rongeurs, pour de multiples variables (binaires et continues) collectées en routine. L'un des objectifs est d'évaluer le risque afin de déterminer les doses optimales non toxiques. De telles études sont cependant confrontées à deux problèmes majeurs concernant les variables continues. Premièrement, il est difficile, pour de telles variables, d'évaluer le risque et de définir une dose de référence. Lorsque le risque est associéà la survenue d'un événement, il peut clairement être défini de façon binaire par la survenue ou non de l'événement. Définir le risque de façon similaire pour des variables continues est moins évident. Dans ce cas, l'événement est souvent défini par un ensemble de valeurs inférieures à un certain seuil, la distribution de ces valeurs étant supposée normale ou log normale. Deuxièmement, alors que, pour de telles études, les variables continues sont traditionnellement analysées séparément, des travaux récents conseillent plutôt d'utiliser des modèles multivariés. Nous proposons une méthode pour modéliser et quantifier le risque associéà des variables continues bivariées. Il s'agit d'une extension des méthodes existantes de régression par quantiles. L'approche basée sur une vraisemblance, permet de dissocier les modèles dose‐réponse de chaque variable, tout en tenant compte de la corrélation bivariée et de la caractérisation globale du risque. L'approche utilisée pour estimer une dose de référence est analogue à celle utilisée pour des variables binaires, sans qu'il soit nécessaire de spécifier un seuil arbitraire. Nous illustrons nos méthodes avec des données issues d'une étude de neurotoxicité de l'exposition de rats au triethyltin. L. Huang , M.‐H. Chen , and J. G. Ibrahim 767 Nous proposons des méthodes bayésiennes pour estimer les paramètres de modèles linéaires généralisés (GLM) avec des données de covariables manquantes qu'on ne peut pas négliger. Nous montrons que lorsqu'une distribution uniforme a priori impropre est employée pour les coefficients de régression, ? , du modèle multinomial de sélection du mécanisme d'obtention des données manquantes, la distribution jointe a posteriori sera toujours impropre si (i) toutes les covariables manquantes sont discrètes et si un coefficient constant est inclus dans le modèle de sélection du mécanisme d'obtention de données manquantes, ou (ii) au moins une covariable est continue et non bornée. Ce caractère impropre se manifestera indifféremment que les a priori propres ou non soient spécifiés pour les paramètres de régression, β , du GLM ou des paramètres, α , de la distribution de la covariable. Pour résoudre ce problème, nous proposons une nouvelle classe d'a priori propres pour les coefficients de régression, ? , dans le modèle de sélection du mécanisme de données manquantes. Ces a priori sont robustes et intéressants pour le calcul au sens où les inférences concernant les β ne sont pas sensibles au choix des hyperparamètres des a priori de ? et qu'ils facilitent un schéma d'échantillonnage de Gibbs qui conduit à une convergence accélérée. De surplus, nous étendons le critère d'évaluation du modèle de Chen, Dey et Ibrahim (2004), appelémesure L pondérée, au GLM et aux problèmes des données manquantes de même que nous étendons le Critère d'Information de Déviance (DIC) de Spiegelhalter et al. (2002) pour évaluer si le mécanisme d'obtention des données manquantes peut être ignoré ou non. Un nouvel algorithme de Monte Carlo de chaîne de Markov est aussi développé pour mener à bien les calculs des a posteriori. Plusieurs simulations sont faites pour étudier la performance des critères bayésiens proposés et la sensibilité aux spécifications a priori. Des ensembles de données provenant d'un essai clinique sur une tumeur mélanique et d'une étude sur le cancer du foie sont présentés pour mieux illustrer las méthodes proposées. A. Golightly and D. J. Wilkinson 781 Cet article traite de l'estimation de constantes de taux dans des modèles stochastiques de processus intra‐cellulaire. Le modèle stochastique discret de cinétique sous jacent est remplacé par une approximation (par équation différentielle stochastique) où le bruit blanc modélise le comportement stochastique et on identifie le modèle utilise sur des intervalles de temps réguliers. L'estimation implique l'utilisation de m‐1 observations latentes entre chaque couples de dates d'observation. Les méthodes MCMC sont alors utilisées pour échantillonner la distribution a posteriori du processus latent et les paramètres du modèle. La méthodologie est appliquée à l'estimation des paramètres d'un processus d'auto régulation des gènes chez un procaryote. G. Diao and D. Y. Lin 789 Les méthodes statistiques pour détecter les gènes qui influencent des caractères quantitatifs à l'aide de marqueurs génétiques sont bien développées pour des phénotypes distribués normalement et complètement observés. De nombreuses expériences impliquent des phénotypes liés à un temps d'échec, qui ont des distributions asymétriques, et qui sont habituellement sujets à censure à cause des perdus de vue aléatoire, des échecs pour des causes en compétition ou de la limitation de la durée de l'expérience. Dans cet article nous développons des méthodes statistiques semi‐paramétriques pour cartographier des Locus de Caractères Quantitatifs (LCQ) basés sur des phénotypes à temps d'échec avec censure. Nous formulons les effets du génotype LCQ sur le temps d'échec au moyen du modèle à risques proportionnels de Cox (1972) et dérivons des procédures d'inférence efficaces basées sur la vraisemblance. De plus, nous montrons comment évaluer la signification statistique quand on recherche les LCQ dans plusieurs régions du génome complet. Des études extensives par simulation démontrent que les méthodes proposées ont de bonnes performances en pratique. Les applications à deux études animales sont présentées. W. Briggs and D. Ruppert 799 Doit‐on pratiquer des mammographies de précaution chez des femmes d'âge moyen en bonne santé? Les chirurgiens doivent‐ils utiliser le score TRISS bien connu pour prédire la chance de survie de leurs patients? Ce sont des exemples de questions auxquelles on est confronté lorsqu'on décide d'utiliser une prédiction de type Oui/Non. Pour retenir une prédiction nous devons montrer qu'elle est qu'elle est plus intéressante que serait notre meilleure vision en absence de prédiction. Le calcul d'une mesure permet d'identifier l'erreur lorsque la prédiction est erronée et d'examiner les performances passées de la prédiction compte tenu de cette erreur. On développe un test statistique dans ce but. Les prédictions qui seront acceptées par ce test seront dites avoir de la compétence. Seules les prédictions compétentes devraient être utilisées. On montrera des méthodes graphiques et numériques pour montrer la compétence. L'utilité des mammographies est étudiée par cette voie. O. Thas and J. C. W. Rayner 808 Dans cet article, nous construisons trois tests d'ajustement lissés pour tester une distribution ZIP contre des alternatives générales lisses au sens de Neyman. Nous appliquons nos tests à un ensemble de données auparavant présenté comme ZIP‐distribué, et nous montrons que le modèle ZIP ne décrit pas correctement les données. En cas de rejet de l'hypothèse nulle de modèle ZIP, les composantes individuelles de la statistique de test, qui sont directement liées à des paramètres interprétables dans un modèle lissé, peuvent être utilisées pour l'examen d'une distribution alternative.  相似文献   

8.
L'importance des pressions de sélection au cours des premières générations, dans des élevages en alimentation artificielle, est mise en évidence par l'étude de souches d 'Acrolepiopsis assectella Zeller soumises à des changements de régime alimentaire. l'évolution du taux de survie et de la durée du développement des larves a été suivie pendant les premières générations après le changement, et ultérieurement contrôlée au cours de plusieurs années d'élevage dans les mêmes conditions. Le taux de survie semble atteindre assez rapidement un équilibre, dont le niveau n'est pas indépendant de l'aliment consommé, tandis qu la durée du développement larvaire devient identique pour toutes les souches dès la quatrième génération. Ces phénomènes semblent correspondre à une adaptation des insectes à leurs conditions d'élevage, qui provoquent une sélection dans les populations d'origine.  相似文献   

9.
Erhard Schulz  Markus Lueke 《Grana》2013,52(4-5):254-259
A pollen calendar of traditionally produced honeys in Gaya/southern Niger was established for a two year period. The region is situated in the transition zone from the sahelian to the sudanian savannas. In this area honey represents an appreciated source for further income for the cultivators. Palynological investigations of the honey samples showed that the bees regularly exploit a restricted number of trees and bushes, such as Combretum, Terminalia or Guiera throughout the whole year or Lannaea, Parkia and Bombax during the winter and spring. Other Sudanian trees and bushes are only occasionally visited in addition. During the dry season Gramineae are also exploited because of the sap provided by the Aphids. In their pollen spectra the honeys reflect both the vegetation types and the agrarian systems of the region as for as can be traced from their collection time and from observations on the flowering period of the trees and bushes visited.

Ein zweijähriger Pollenkalender konnte für die Region Gaya/Südniger mit Hilfe traditionell produzierter Honige aufgestellt werden. Die Region liegt im Übergang von den sahelischen zu den sudanischen Savannen. In dieser Region ist Honig eine willkommene zusätzliche Einkommensquelle für die Bauer. Die pollenanalytischen Untersuchungen zeigen, daß nur eine begrenzte Zahl von Bäumen und Stäuchern regelmäßig von den Bienen besucht wird, Combretum, Terminalia und Guiera über das ganze Jahr und Parkia, Lannaea und Bombax innerhalb der Wintersaison. Eine größere Zahl sudanischer Elemente wird nur zufällig genutzt. Während der Trockenzeit werden auch Gräser abgesammelt, hauptsächlich wegen des Honigsaftes, der von Aphiden produziert wird.

Die Honige spiegeln die Vegetationstypen der Region und deren Agrarsysteme in ihren Pollenspektrum und können auch durch den Vergleich mit den Blühperioden der entsprechenden Bäume und Sträucher in ihrer Produktionszeit bestimmt werden.

Les études de mélissopalynologie présentées portent sur la région de Gaya au Sud du Niger. A partir des spectres polliniques obtenus par l'analyse des miels de production traditionelle il a été possible d'établir un calendrier pollinique.

La région de Gaya est située dans une zone de transition entre les savanes sahéliennes et soudaniennes. C'est dans cette partie du Niger que la production de miel est la plus élevée et fournit un surplus économique notable pour les cultivateurs.

Les investigations palynologiques ont montré que les abeilles visitent régulièrement un nombre restreint d'arbres et d'arbustres tels Combretum, Terminalia et Guiera pendant toute l'anné, ainsi Parkia, Lannaea et Bombax durant la période hivernale. A la saison sèche, les graminées sont également exploitées pour Ieurs exsudats dus aux Aphides.

Les spectres polliniques reflètent parfaitement les principaux types de végétation et des systèmes agaires de la région durant la période de production mellifère, par comparaison avec la saison de floraison des arbres et des arbustres butinés.  相似文献   

10.
REGULAR ARTICLES     
《Biometrics》2006,62(3):952-958
  相似文献   

11.
Le déroulement de divers types de phagocytoses, et de la formation de granulomes hémocytaires a été analysé en détail en utilisant la microcinématographie image par image. Ces réactions de défense ont été reproduitesin vitro sur les systèmes hémocytaires des mollusquesHelix etZonites, et ont permis de montrer pour les bactéries (Streptococcus) les différents stades de l'englobement direct et rapide des corps bactériens, ainsi que les mouvements orientés des pseudopodes accompagnés de déplacements des cellules qui aboutissent à l'incorporation des germes. Il a été observé que des hémocytes parviennent à phagocyter même des filaments myceliens de taille importante (Metarrhizium) par un processus lent consistant en la fixation progressive de la cellule qui plie le mycelium. Enfin, toute l'évolution de la formation des granulomes multicellulaires a été suivie d'une manière ininterrompue, notamment l'attraction des premières cellules, l'afflux et la superposition de plus en plus serrée d'hémocytes en nombre croissant, jusqu'à l'arrêt de l'évolution de cette réaction. Ces résultats mettent en évidence l'acquisition par les cellules groupées autour du champignon d'une attraction nette sur d'autres hémocytes, déclenchant de leur part une réaction d'adhésion. Ils montrent enfin que l'association de la reproductionin vitro des réactions cellulaires avec la technique microcinématographique est un principe d'étude particulièrement intéressant pour suivre la dynamique des réactions de défense à l'échelle cellulaire, et l'action de substances chimiques ou d'influences microbiennes sur ces processus.  相似文献   

12.
《Biometrics》2005,61(3):895-896
S. Matsui 816 Cet article développe des méthodes d'analyse stratifiée d'effets additifs ou multiplicatifs sur des critères binaires, dans le cadre d'essais randomisés avec défaut d'observance. Ces méthodes reposent sur une fonction d'estimation pondérée, garantissant une fonction d'estimation non biaisée à condition que la randomisation soit réalisée par strate. Quand les poids sont connus d'avance, l'estimateur obtenu est une extension naturelle de celui issu de la méthode d'estimation par variable instrumentale pour analyses stratifiées, et les bornes des intervalles de confiance dérivés des tests sont les solutions d'une équation quadratique du paramètre d'intérêt. Les poids optimaux qui maximisent l'efficacité asymptotique intègrent la variabilité inter‐strates de l'observance. Une évaluation basée sur l'efficacité asymptotique relative montre que l'efficacité peut être substantiellement améliorée en utilisant les poids optimaux plutôt que les poids conventionnels, lesquels n'intègrent pas la variabilité inter‐strates de l'observance. Enfin, ces méthodes d'analyse sont appliquées à une étude portant sur la maladie cardiaque coronarienne. L. Li , J. Shao , and M. Palta 824 Une erreur de mesure sur une covariable dans une régression est typiquement considérée pour agir d'une manière additive ou multiplicative sur la valeur de la vraie covariable. Cependant, une telle hypothèse ne tiens pas pour l'erreur de mesure sur la respiration dans les troubles du sommeil (SDB) dans l'étude de la Wisconsin Sleep Cohort Study (WSCS). La vraie covariable dans la sévérité de SDB, et le substitut observé est le nombre de pauses respiratoires par unité de temps de sommeil, qui a une distribution semi continue non négative. Avec une point masse de zéro. Nous proposons un modèle d'erreur de mesure à variable latente pour la structure d'erreur dans cette situation et l'implémentons dans un modèle linéaire mixte. La procédure d'estimation est similaire à une calibration dans une régression mais met en jeu une hypothèse sur la distribution de la variable latente. Les stratégies de modélisation et d'ajustement sont explorées et illustrées au travers de l'exemple du WSCS. J. P. Buonaccorsi , P. Laake , and M. B. Veierød 831 Cette note vise à clarifier les conditions sous lesquelles une analyse naïve impliquant un prédicteur entaché d'erreurs de classification induira un biais sur les coefficients de régression associés aux autres prédicteurs du modèle, prédicteurs dont on suppose qu'ils sont, pour leur part, parfaitement mesurés. Nous levons ici une incohérence apparente entre de précédents résultats et un résultat lié aux erreurs de mesure d'une variable continue dans une régression linéaire. Nous montrons que, de la même façon qu'une erreur portant sur une variable continue, une erreur de classification (même si elle n'est pas liée aux autres prédicteurs) induit un biais dans l'estimation des coefficients associés aux prédicteurs mesurés sans erreur, à moins que la variable entachée d'erreurs et les autres prédicteurs ne soient indépendants. Les biais conditionnels et asymptotiques sont discutés dans le cadre de la régression linéaire et explorés numériquement à travers l'exemple de la relation entre, d'une part, le poids à la naissance, et, d'autre part, le poids de la mère et le fait qu'elle fume ou non. J. Roy and X. Lin 837 Nous abordons les problèmes d'estimation dans les modèles linéaires généralisés pour données longitudinales avec sorites d'étude informative. Lorsqu'un individu sort de l'étude, non seulement la valeur de la variable réponse est manquante, mais souvent les valeurs de certaines covariables sont elles aussi non‐observées. Cependant, les modèles existants pour sortie d'étude informative supposent que les covariables soient complètement observées. Cette condition n'est pas réaliste en présence de covariables variant au cours du temps. Tout d'abord, nous étudions le biais asymptotique résultant de l'application des méthodes existantes, où les covariables temporelles manquantes sont gérées de manière naïve, c'est‐à‐dire (1) en utilisant seulement la valeur de base (“baseline”); (2) en reportant les valeurs de la dernière date d'observation, ou (3) en supposant qu'on peut ignorer les valeurs manquantes. Notre analyse de biais asymptotique montre que ces approches naïves produisent des estimateurs non consistants des paramètres. Dans un deuxième temps, nous proposons un modèle de sélection/transition qui autorise des sorties d'études avec valeurs manquantes, aussi bien sur les covariables explicatives que sur la variable réponse. Nous utilisons l'algorithme EM pour l'inférence de ce modèle. Nous illustrons la méthode proposée sur les données d'une étude longitudinale concernant des femmes infectées par le VIH. B. I. Graubard and T. R. Fears 847 Le risque attribuable ajusté (RA) est la proportion d'individus malades dans une population sujette à une exposition. Nous envisageons des estimations pour le RA ajusté basés sur les rapports de chance (odds ratios) à partir de régression logistique pour ajuster sur les effets confondus. Des méthodes de fonction d'influence utilisées en échantillonnage d'enquêtes sont appliquées pour obtenir des expressions simples et facilement programmables pour estimer la variance de^RA. Ces estimateurs de variance peuvent être appliqués à des données d'études de cas‐témoins, transversales et de cohortes avec ou sans appariement fréquentiel ou individuel et à des dispositifs échantillonnés qui vont de simples échantillons aléatoires à des échantillons groupés, stratifiés en plusieurs étapes et pondérés (par échantillonnage) du type de ceux utilisés dans les enquêtes nationales sur les ménages. L'estimation de la variance de^RA est illustrée au moyen de: (i) une étude transversale avec groupement en plusieurs étapes avec stratification pondérée issue de la troisième enquête nationale de santé et d'examens sur l'asthme de l'enfance, et (ii) une étude de cas‐témoins avec appariement fréquentiel dans le mélanome cutané malin.  相似文献   

13.
La durée de conservation dans deux types de sol: une tourbe de pH=3,5 et une terre argilo-sableuse de pH=6,6, de trois agents pathogènes pour les larves du Hanneton commun,Melolontha melolontha L.:Bacillus popilliae var.melolontha, Rickettsiella melolonthae, Entomopoxvirus melolonthae a été étudiée en contaminant par le broyat de larves atteintes de chacune des maladies 4 litres de ces deux substrats qui ont été répartis en boîtes de polystyrène et en pots à fleurs placés soit dans un sol engazonné à l'extérieur, soit en laboratoire à 5°, 13° et 20°C. A intervalles réguliers des larves jeunes ont été mises en élevage à 20°C dans ces substrats contaminés. Après 4 ans le virus détermine sensiblement la même mortalité quelles que soient les modalités de conservation du sol. Mais l'altération du pouvoir pathogène en fonction du temps se traduit par une augmentation très signifcative des délais de manifestation de la maladie. Par contre la bactérie et la rickettsie perdent beaucoup de leur activité au bout de deux ans. La persistance d'un pouvoir pathogène des rickettsies introduites dans le sol est facilitée lorsqu'il s'agit de terre plutôt que de tourbe et si celle-ci est maintenue à basse température. Les conséquences épizootiologiques de ces résultats sont décrites en fonction du cycle évolutif du Hanneton commun: un délai de survie du germe de deux ans est nécessaire pour le maintien d'une maladie des vers blancs dans un site donné compte tenu de la période, de cette aurée, pendant laquelle l'activité larvaire est nulle ou insuffisante pour assurer la contamination des insectes, lorsque celle-ci s'effectue par voie orale.  相似文献   

14.
READER REACTION     
《Biometrics》2006,62(1):321-321
Lors d'une récente discussion sur les critères de Prentice (1989) concernant les variables de remplacement (surrogate endpoints) et le rôle joué dans ce contexte par les meta‐analyses, Alonso et al. (Biometrics 60, 724–728) développent quelques idées, parmi lesquelles une proposition de construire une mesure chiffrant la puissance d'une variable de remplacement par rapport aux critères de Prentice, quantifiés par la réduction de la vraisemblance. Quoique nouvelle ici on peut rencontrer la même idée ailleurs et la mesure d'Alonso et col, telle que présentée dans leur article, aura besoin de modification afin de pouvoir être utilisée en général. Sans cela la mesure est influencée par la censure même quand cette dernière reste indépendante du mécanisme de survie. Toutefois il existe une solution simple. La mesure d'Alonso et coll s'encadre facilement avec une théorie bien établie. Une fois modifiée alors pour la présence de censure la mesure peut être utilisée sans difficulté. Il est particulièrement intéressant de constater la grande disponibilité d'un logiciel, SAS, fournissant un coefficient qui, moyennant une transformation élémentaire, s'approche d'une valeur équivalente dans la population.  相似文献   

15.
Reporting rates for abnormal and inadequate cervical smears have been compared during a 5-year period in nine laboratories and related to targets and achievable ranges recently recommended by the National Health Service Cervical Screening Programme (NHSCSP). There was improved consistency in rates for all grades of abnormality as well as inadequate smears. the average rate for moderate and severe dyskaryosis combined increased to 1.6%, which is the target recommended by the NHSCSP, and the standard deviation fell from 0.52 to 0.27. Although average rates for mild dyskaryosis and borderline nuclear change combined and inadequate smears both remained within the achievable range recommended by the NHSCSP, four laboratories were above the upper limit for each of those categories in the final year. During the 5 years of the study there was a fall in the number of ‘inflammatory’smears coded as negative with a recommendation for early repeat. Only one laboratory still uses that category. the challenge for the future lies in controlling high rates for minor abnormalities and inadequate smears while maintaining acceptable rates for moderate and severe dyskaryosis. Comparison of reporting rates is regarded by the participating laboratories as a useful adjunct to external quality assurance. Les taux des frottis cervico-utérins anormaux et inadéquats ont été comparés sur une période de cinq ans pour neuf laboratoires et évalues par rapport aux objectifs et aux intervalles de valeur récemment publiés dans les recommandations du programme de dépistage cervico-utérin du NHS (NHSCSP). Une amélioration de l'homogenéïté des taux de tous les grades d'anomalies aussi bien que celui des frottis inadéquats a été observée. Les taux moyens de toutes les catégories ont augmentés. Le taux moyen de I'ensemble des dyscaryoses modérées et sévères, a augmenté pour atteindre 1,6%, ce qui est I'objectif recommandé par le NHSCSP, et I'ecart type est passé de 0,52 à 0,27. Bien que les taux moyens de l'ensemble des dyscaryoses légéres et des modifications nucléaires “borderline” (BNC) sgient restés dans l'intervalle recommandé par le NHSCSP, quatre laboratoires étaient audessus de la limite supérieure pour chacune de ces catégories, au cours de la derniére année. Au cours des cinq années de cette étude, il y a eu une chute du nombre des “frottis inflammatoires” codés comme négatifs mais où un contrôle rapproaché avait été recommandé. Un seul laboratoire utilise encore cette catégorie. Pour le futur, le challenge se situe au nivau du contrôle des taux élevés d'anomalies mineures et de frottis inadéquats tout en maintenant des taux acceptables de lésions de dyscaryoses moyennes à sévères. La comparaison des taux des différentes catégories de frottis est considérée comme une aide très utile pour I'assurance de qualité externe pour les différents laboratoires participants. Der Anteil abnormer und nicht verwertbarer Abstriche wurde über einen Zeitraum von fünf Jahren zwischen neun Labors und den Empfehlungen des National, Health Service Cervical Screening Programme (NHSCSP) verglichen. Es ergab sich eine bessere Übereinstimmung für alle Anomalien sowie die Rate nichtauswertbarer Abstriche. Der Anteil mässinger und schwerer Dysplasien zusammengefasst stieg auf 1,6% und entsprach damit der Vorgabe des NHSCSP. Die Standardab-weichung sank von 0,52 auf 0,27. Obgleich auch der Anteil der leichten Dysplasien und borderline-Fälle im Bereich der NHSCSP-Empfehlungen blieben lagen dennoch vier Labors auch im letzten Jahr oberhalb der Grenzwerte. Im Untersuchungszeitraum sank die Zahl der als enzündlich beurteilten und zur Kontrolle empfohlenen Fälle. Nur eines der Labors benützt diese Beurteilung noch. Die Forderung der Zukunft wird die Senkung der nichtauswertbaren Präparate und leichten Dysplasien unter Beibehaltung des Standards für mässige und schwere Dysplasien sein. Der Vergleich der Beurteilungen zwischen Labors wird als nützliche Ergänzung der externen Qualitätssicherung angesehen.  相似文献   

16.
DISCUSSION PAPER     
《Biometrics》2007,63(3):979-979
Principal Stratification Designs to Estimate Input Data Missing Due to Death Nous nous intéressons à des études portant sur des cohortes d'individus après la survenue d'un événement critique, comme une blessure, et ayant les caractéristiques suivantes. Premièrement, les études sont conçues pour mesurer des variables d'“input”, qui décrivent la période avant l'événement critique, et pour caractériser la distribution des variables d'“input” dans la cohorte. Deuxièmement, les études sont conçues pour mesurer des variables d'“output”, principalement la mortalité après l'événement critique et pour caractériser la distribution prédictive (conditionnelle) de la mortalité connaissant les variables d'“input” dans la cohorte. De telles études présentent souvent la complication que les données d'“input” manquent pour ceux qui meurent peu après l'événement critique car le recueil des données est réalisé après l'événement. Les méthodes standard de prise en compte des “inputs” manquants, telles que les méthodes d'imputation ou de pondération basées sur l'hypothèse que l'on peut ignorer le processus de données manquantes, sont connues comme étant en général non valides quand le processus de données manquantes ne peut être ignoré, c'est à dire quand la distribution des “inputs” est différente chez ceux qui meurent et ceux qui survivent. Pour répondre à ce problème, nous proposons un nouveau schéma qui recueille et utilise l'information sur une autre variable importante—un traitement ou une variable sous contrôle externe, qui, si elle avait étéà son niveau optimal aurait pu empêcher le décès de ceux qui sont morts. Nous montrons que ce nouveau schéma peut être utilisé pour faire des inférences valides pour la distribution marginale des “inputs” dans la cohorte entière et pour la distribution conditionnelle de la mortalité connaissant les “inputs”, également dans la cohorte entière, même si le processus de données manquante ne peut être ignoré. Le contexte crucial que nous utilisons est la stratification principale basée sur les “outputs” potentiels, comme ici la mortalité après les deux niveaux de traitement. Nous montrons aussi à l'aide de données préliminaires sur des blessures, que notre approche peut donner des résultats qui sont plus raisonnables que les résultats obtenus par les méthodes standard, et ceci de façon relativement dramatique. Ainsi notre approche suggère que le recueil en routine de données sur des variables qui pourraient être utilisées comme traitement possible dans de telles études d'“inputs” et de mortalité devrait être fait en routine.  相似文献   

17.
J. Chazeau 《BioControl》1974,19(2):183-193
Afin de préciser l'action prédatrice deStethorus madecassus surTetranychus neocaledonicus, la consommation des différents stades du prédateur a été étudiée dans une enceinte à température constante. A 25°, la consommation totale est de 494 ?ufs de tétranyque pour l'ensemble des 4 stades larvaires. A cette température, elle est de 46,8 femelles de tétranyque par jour pour une femelle fécondée deStethorus, 21,3 pour un mâle, et 13,1 pour une femelle vierge. Des essais complémentaires en conditions ambiantes naturelles ont permis de s'assurer de la validité de ces résultats. Les tests à 20° et 30° montrent que, dans cet intervalle, la consommation des adultes double sensiblement pour une élévation de température de 5°, et qu'une forte corrélation positive existe entre la voracité et la fécondité individuelles des femelles.  相似文献   

18.
La possibilité de nourrir la punaiseMacrolophus caliginosus Wagner à l'aide de milieux artificiels a été testée. En l'absence de végétal, les témoins nourris avec des ?ufs d'Ephestia kuehniella Zeller ont une survie médiocre et fournisent 33% d'adultes. Avec le meilleur milieu artificiel la survie est comparable à celle des témoins et 21 % d'adultes sont obtenus. Avec ce même milieu, mais en présence de feuille de géranium, la production d'adultes atteint 62%. Les compositions en acides aminés des punaises élevées avec le milieu montrent des écarts inférieurs à 20% par rapport aux témoins. Le développement complet deM. caliginosus nourri à l'aide de milieu artificiel a été obtenu. Le végétal joue un rôle important dans la biologie de ce prédateur.  相似文献   

19.
Pour déterminer la ration minimale d'eau nécessaire à la survie de Locusta migratoria migratorioides (R. et F.) adulte et les repercussions d'un stress hydrique prolongé sur le fonctionnement ovarien, nous avons séparé le facteur eau du facteur aliment en élevant les criquets de l'éclosion à l'âge adulte avec des germinations de blé lyophilisé, selon une technique décrite par Louveaux et al. (1980). Il est montré que la quantité d'aliments ingérée augmente avec la quantité d'eau bue (r = 0,91). La relation linéaire déterminée permet inversement, connaissant les quantités d'aliments ingérés, d'évaluer à 300 μl la ration quotidienne d'un criquet ayant un accès non limité à l'eau de boisson. Les femelles qui n'ont reçu que 50 μl d'eau par jour (j.) sont mortes avant le 9ème jour de traitement. La survie est assurée à partir de 100 μl/j. L'avancement de la vitellogenèse est également en relation avec la quantité d'eau absorbée quotidiennement. Aucun développement ovarien ne se produit jusqu'à 100 μl/j. Une vitellogenèse ralentie commence à partir de 150 μl/j. et elle devient normale à 300 μl/j. avec des pontes comparables à celles des témoins nourris de blé frais.  相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号