首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
Le déroulement de divers types de phagocytoses, et de la formation de granulomes hémocytaires a été analysé en détail en utilisant la microcinématographie image par image. Ces réactions de défense ont été reproduitesin vitro sur les systèmes hémocytaires des mollusquesHelix etZonites, et ont permis de montrer pour les bactéries (Streptococcus) les différents stades de l'englobement direct et rapide des corps bactériens, ainsi que les mouvements orientés des pseudopodes accompagnés de déplacements des cellules qui aboutissent à l'incorporation des germes. Il a été observé que des hémocytes parviennent à phagocyter même des filaments myceliens de taille importante (Metarrhizium) par un processus lent consistant en la fixation progressive de la cellule qui plie le mycelium. Enfin, toute l'évolution de la formation des granulomes multicellulaires a été suivie d'une manière ininterrompue, notamment l'attraction des premières cellules, l'afflux et la superposition de plus en plus serrée d'hémocytes en nombre croissant, jusqu'à l'arrêt de l'évolution de cette réaction. Ces résultats mettent en évidence l'acquisition par les cellules groupées autour du champignon d'une attraction nette sur d'autres hémocytes, déclenchant de leur part une réaction d'adhésion. Ils montrent enfin que l'association de la reproductionin vitro des réactions cellulaires avec la technique microcinématographique est un principe d'étude particulièrement intéressant pour suivre la dynamique des réactions de défense à l'échelle cellulaire, et l'action de substances chimiques ou d'influences microbiennes sur ces processus.  相似文献   

2.
《Biometrics》2005,61(3):895-896
S. Matsui 816 Cet article développe des méthodes d'analyse stratifiée d'effets additifs ou multiplicatifs sur des critères binaires, dans le cadre d'essais randomisés avec défaut d'observance. Ces méthodes reposent sur une fonction d'estimation pondérée, garantissant une fonction d'estimation non biaisée à condition que la randomisation soit réalisée par strate. Quand les poids sont connus d'avance, l'estimateur obtenu est une extension naturelle de celui issu de la méthode d'estimation par variable instrumentale pour analyses stratifiées, et les bornes des intervalles de confiance dérivés des tests sont les solutions d'une équation quadratique du paramètre d'intérêt. Les poids optimaux qui maximisent l'efficacité asymptotique intègrent la variabilité inter‐strates de l'observance. Une évaluation basée sur l'efficacité asymptotique relative montre que l'efficacité peut être substantiellement améliorée en utilisant les poids optimaux plutôt que les poids conventionnels, lesquels n'intègrent pas la variabilité inter‐strates de l'observance. Enfin, ces méthodes d'analyse sont appliquées à une étude portant sur la maladie cardiaque coronarienne. L. Li , J. Shao , and M. Palta 824 Une erreur de mesure sur une covariable dans une régression est typiquement considérée pour agir d'une manière additive ou multiplicative sur la valeur de la vraie covariable. Cependant, une telle hypothèse ne tiens pas pour l'erreur de mesure sur la respiration dans les troubles du sommeil (SDB) dans l'étude de la Wisconsin Sleep Cohort Study (WSCS). La vraie covariable dans la sévérité de SDB, et le substitut observé est le nombre de pauses respiratoires par unité de temps de sommeil, qui a une distribution semi continue non négative. Avec une point masse de zéro. Nous proposons un modèle d'erreur de mesure à variable latente pour la structure d'erreur dans cette situation et l'implémentons dans un modèle linéaire mixte. La procédure d'estimation est similaire à une calibration dans une régression mais met en jeu une hypothèse sur la distribution de la variable latente. Les stratégies de modélisation et d'ajustement sont explorées et illustrées au travers de l'exemple du WSCS. J. P. Buonaccorsi , P. Laake , and M. B. Veierød 831 Cette note vise à clarifier les conditions sous lesquelles une analyse naïve impliquant un prédicteur entaché d'erreurs de classification induira un biais sur les coefficients de régression associés aux autres prédicteurs du modèle, prédicteurs dont on suppose qu'ils sont, pour leur part, parfaitement mesurés. Nous levons ici une incohérence apparente entre de précédents résultats et un résultat lié aux erreurs de mesure d'une variable continue dans une régression linéaire. Nous montrons que, de la même façon qu'une erreur portant sur une variable continue, une erreur de classification (même si elle n'est pas liée aux autres prédicteurs) induit un biais dans l'estimation des coefficients associés aux prédicteurs mesurés sans erreur, à moins que la variable entachée d'erreurs et les autres prédicteurs ne soient indépendants. Les biais conditionnels et asymptotiques sont discutés dans le cadre de la régression linéaire et explorés numériquement à travers l'exemple de la relation entre, d'une part, le poids à la naissance, et, d'autre part, le poids de la mère et le fait qu'elle fume ou non. J. Roy and X. Lin 837 Nous abordons les problèmes d'estimation dans les modèles linéaires généralisés pour données longitudinales avec sorites d'étude informative. Lorsqu'un individu sort de l'étude, non seulement la valeur de la variable réponse est manquante, mais souvent les valeurs de certaines covariables sont elles aussi non‐observées. Cependant, les modèles existants pour sortie d'étude informative supposent que les covariables soient complètement observées. Cette condition n'est pas réaliste en présence de covariables variant au cours du temps. Tout d'abord, nous étudions le biais asymptotique résultant de l'application des méthodes existantes, où les covariables temporelles manquantes sont gérées de manière naïve, c'est‐à‐dire (1) en utilisant seulement la valeur de base (“baseline”); (2) en reportant les valeurs de la dernière date d'observation, ou (3) en supposant qu'on peut ignorer les valeurs manquantes. Notre analyse de biais asymptotique montre que ces approches naïves produisent des estimateurs non consistants des paramètres. Dans un deuxième temps, nous proposons un modèle de sélection/transition qui autorise des sorties d'études avec valeurs manquantes, aussi bien sur les covariables explicatives que sur la variable réponse. Nous utilisons l'algorithme EM pour l'inférence de ce modèle. Nous illustrons la méthode proposée sur les données d'une étude longitudinale concernant des femmes infectées par le VIH. B. I. Graubard and T. R. Fears 847 Le risque attribuable ajusté (RA) est la proportion d'individus malades dans une population sujette à une exposition. Nous envisageons des estimations pour le RA ajusté basés sur les rapports de chance (odds ratios) à partir de régression logistique pour ajuster sur les effets confondus. Des méthodes de fonction d'influence utilisées en échantillonnage d'enquêtes sont appliquées pour obtenir des expressions simples et facilement programmables pour estimer la variance de^RA. Ces estimateurs de variance peuvent être appliqués à des données d'études de cas‐témoins, transversales et de cohortes avec ou sans appariement fréquentiel ou individuel et à des dispositifs échantillonnés qui vont de simples échantillons aléatoires à des échantillons groupés, stratifiés en plusieurs étapes et pondérés (par échantillonnage) du type de ceux utilisés dans les enquêtes nationales sur les ménages. L'estimation de la variance de^RA est illustrée au moyen de: (i) une étude transversale avec groupement en plusieurs étapes avec stratification pondérée issue de la troisième enquête nationale de santé et d'examens sur l'asthme de l'enfance, et (ii) une étude de cas‐témoins avec appariement fréquentiel dans le mélanome cutané malin.  相似文献   

3.
《Biometrics》2006,62(3):958-959
S. E. Wright and A. J. Bailer 886 Une expérience avec expositions intermittentes de toxicologie expérimentale fournit l'arrière plan de la discussion du dispositif. Le problème sous‐jacent est de décider quand échantillonner une réponse non linéaire pour minimiser la variance généralisée des estimations des paramètres. Une stratégie heuristique commode peut être appliquée au problème fournissant des dispositifs optimaux ou presque optimaux. L'efficacité de l'approche heuristique permet une exploration directe de la sensibilité de la solution proposée aux particularités de la situation telle que l'hétéroscédasticité, la densité des dates d'observation, les critères du dispositif, et les contraintes sur les valeurs des paramètres. On présente aussi brièvement une application de l'optimisation de dispositif pour le choix des doses dans une expérience de toxicologie de la reproduction. D. V. Mehrotra , X. Li , and P. B. Gilbert 893 Afin de justifier le plan de la première étude au monde visant une démonstration de principe (proof‐of‐concept ou POC) de l'efficacité d'un vaccin HIV basé sur l'immunité et relayé par la cellule, nous évaluons huit méthodes pour tester l'hypothèse nulle composite d'absence d'effet du vaccin soit sur l'incidence d'infection HIV, soit la valeur de la charge virale chez les patients infectés, en comparaison au placebo. Les deux premières méthodes utilisent un seul test appliqué aux valeurs mesurées ou aux rangs du poids de la maladie (BOI) qui combine l'infection et la charge virale. Les six autres méthodes combinent des tests séparés pour les deux critères utilisant des versions pondérées ou non du Z à 2 parties, des méthodes de Simes et de Fisher. A partir de simulations extensives réalisées pour construire l'essai POC type, les méthodes BOI révèlent en général une puissance faible de rejeter l'hypothèse nulle composite (et donc d'entreprendre un futur essai à grande échelle pour le vaccin). Les méthodes par combinaison de Simes et de Fisher non pondérées ont les meilleures performances dans l'ensemble. Un aspect important est que la conclusion est la même si le test de la composante relative à la charge virale est ajusté pour le biais que peut introduire le conditionnement par un événement (l'infection HIV) survenant après la randomisation. Cet ajustement est obtenu en utilisant un modèle de biais de sélection basé sur le cadre de la stratification principale de l'inférence causale. X. Huang , J. N. Cormier , and P. W. T. Pisters 901 Dans le traitement du cancer, les patients reçoivent habituellement une variété de traitements séquentiels. Les traitements initiaux administrés à la suite du diagnostic peuvent varier, comme les régimes de rattrapage suivants donnés après la rechute de la maladie. Cet article considère la situation où ni les traitements initiaux, ni les traitements de rattrapage sont randomisés. En faisant l'hypothèse qu'il n'y a pas de variables de confusion non mesurés, nous estimons les effets causaux conjoints sur la survie des traitements initiaux et de rattrapage, c'est‐à‐dire, les effets des séquences de traitement à deux niveaux. Pour chaque séquence de traitement individuelle, nous estimons la fonction de la distribution de survie et la durée de moyenne de survie restreinte. Les différentes séquences de traitement sont alors comparées en utilisant ces estimations et leurs covariances correspondantes. Des études de simulation sont conduites pour évaluer la performance des méthodes en incluant la sensibilitéà la violation de l'hypothèse de facteurs de confusion non mesurés. Les méthodes sont illustrées par une étude rétrospective de patients ayant un sarcome des parties molles, qui avait motivé cette recherche. D. E. Schaubel , R. A. Wolfe , and F. K. Port 910 L'analyse de la survie est souvent utilisée pour comparer des traitements expérimentaux et conventionnels. Dans les études observationnelles, la thérapie peut changer pendant le suivie. De telles modifications peuvent se résumer par des covariables dépendantes du temps. Étant donné la pénurie croissante de donneurs d'organes, des reins à plus haut risque provenant de donneurs à critères élargis (ECD) sont de plus en plus transplantés. Les candidats à la transplantation peuvent choisir d'accepter un organe ECD (thérapie expérimentale), ou de rester en dialyse et d'attendre la possibilité d'une transplantation non‐ECD ultérieure (thérapie conventionnelle). Une analyse dépendante du temps en trois groupes pour ce type de données implique l'estimation de paramètres correspondants aux deux covariables indicatrices dépendantes du temps représentant les transplantations ECD ou non‐ECD, chacune étant comparée à ceux qui restent en dialyse en liste d'attente. Cependant, l'estimation du hasard ratio ECD par cette analyse dépendante du temps ne considère pas le fait que les patients renonçant à une transplantation ECD ne sont pas destinés à rester en dialyse pour toujours, mais peuvent plus tard recevoir une transplantation non‐ECD. Nous proposons une nouvelle méthode d'estimation du bénéfice de la survie de la transplantation ECD relative à la thérapie conventionnelle (liste d'attente avec la possibilité d'une transplantation non‐ECD ultérieure). Comparée à cette méthode dépendante du temps, la méthode proposée caractérise de manière plus précise la structure des données et produit une estimation plus directe du bénéfice relative à une transplantation ECD. I. Ninan , O. Arancio , and D. Rabinowitz 918 L'émission de neurotransmetteurs par les neurones peut être étudiée par des mesures d'intensité de coloration des terminaisons synaptiques. Le problème est alors d'estimer une espérance dans une situation où, au lieu d'observer des variables aléatoires indépendantes de même espérance, on observe, avec erreur, des sommes aléatoires indépendantes de variables de même espérance sans connaître le nombre de termes de la sommation aléatoire. On présente ici une approche non paramétrique de ce problème d'estimation. La méthode est illustrée sur les données d'une expérience dans laquelle le colorant cationique styrylpyridinium FM4‐64 a été utilisé sur des cultures de neurones de l'hippocampe murin. B. Klingenberg and A. Agresti 921 Cet article considère des test globaux de différence entre vecteurs appariés de distributions binomiales provenant de 2 échantillons de données binaires multivariées dépendantes. La différence est définie, soit comme une non homogénéité des distributions marginales, soit comme une asymétrie de la distribution jointe. Pour détecter le premier type de différence, nous proposons une extension multivariée du test de McNemar et montrons que c'est un test du score généralisé sous une approche GEE. Des caractéristiques univariées, telles que la relation entre le test de Wald et le test du score, ou l'abandon de paires avec la même réponse s'étendent au cas multivarié et le test ne dépend pas de l'hypothèse de travail de la dépendance entre les composantes de la réponse multivariée. Pour des données éparses ou non équilibrées, comme cela arrive quand le nombre de variables est grand ou les proportions proches de zéro, le test est mis en oeuvre en utilisant le bootstrap, ou si c'est trop compliqué au point de vue calculatoire par une distribution de permutation. Nous appliquons le test à des données de toxicité pour un médicament, dans lequel 2 doses sont évaluées en comparant les réponses multiples des mêmes sujets à chacune d'entre elles.  相似文献   

4.
La durée de conservation dans deux types de sol: une tourbe de pH=3,5 et une terre argilo-sableuse de pH=6,6, de trois agents pathogènes pour les larves du Hanneton commun,Melolontha melolontha L.:Bacillus popilliae var.melolontha, Rickettsiella melolonthae, Entomopoxvirus melolonthae a été étudiée en contaminant par le broyat de larves atteintes de chacune des maladies 4 litres de ces deux substrats qui ont été répartis en boîtes de polystyrène et en pots à fleurs placés soit dans un sol engazonné à l'extérieur, soit en laboratoire à 5°, 13° et 20°C. A intervalles réguliers des larves jeunes ont été mises en élevage à 20°C dans ces substrats contaminés. Après 4 ans le virus détermine sensiblement la même mortalité quelles que soient les modalités de conservation du sol. Mais l'altération du pouvoir pathogène en fonction du temps se traduit par une augmentation très signifcative des délais de manifestation de la maladie. Par contre la bactérie et la rickettsie perdent beaucoup de leur activité au bout de deux ans. La persistance d'un pouvoir pathogène des rickettsies introduites dans le sol est facilitée lorsqu'il s'agit de terre plutôt que de tourbe et si celle-ci est maintenue à basse température. Les conséquences épizootiologiques de ces résultats sont décrites en fonction du cycle évolutif du Hanneton commun: un délai de survie du germe de deux ans est nécessaire pour le maintien d'une maladie des vers blancs dans un site donné compte tenu de la période, de cette aurée, pendant laquelle l'activité larvaire est nulle ou insuffisante pour assurer la contamination des insectes, lorsque celle-ci s'effectue par voie orale.  相似文献   

5.
La nervation des élytres d’Acrididae de la région ouest paléarctique a été étudiée au moyen de 2 méthodes de morphométrie de manière à faire ressortir les caractères adaptatifs relatifs à la stridulation et les marqueurs de phylogénie. Huit Points de Repère (PR) situés dans la région proximale des élytres, incluant le champ médian, ont été considérés pour l’analyse de morphométrie géométrique. L’importance relative des champs a été appréhendée par ACP. Il apparaît que le dimorphisme sexuel des PR caractérise les espèces à stridulation de forte intensité chez le mâle (Gomphocerinae et Stethophyma grossum). Les mâles présentent par rapport aux femelles un élargissement des champs sous-costaux antérieur et postérieur, et du champ radial, lié à un déplacement distal de la bifurcation entre les radiales antérieure et postérieure, ce qui entraîne un élargissement de la surface de résonance. L’élargissement du champ cubital antérieur est une déformation propre à la tribu des Locustini et n’a pas de valeur adaptative apparente.  相似文献   

6.
Le diabète est un des principaux facteurs de risques cardio-vasculaires et son exploration biologique permet de dépister, voire de prévenir, par un bon suivi, les conséquences de type athéromateux de cette pathologie. Lors d’une table ronde organisée en partenariat avec la société Tosoh Bioscience, nous avons réuni des experts cliniciens et biologistes pour débattre des objectifs actuels recommandés pour le dépistage et le suivi du diabétique vis-à-vis des risques cardio-vasculaires.  相似文献   

7.
8.
La possibilité de nourrir la punaiseMacrolophus caliginosus Wagner à l'aide de milieux artificiels a été testée. En l'absence de végétal, les témoins nourris avec des ?ufs d'Ephestia kuehniella Zeller ont une survie médiocre et fournisent 33% d'adultes. Avec le meilleur milieu artificiel la survie est comparable à celle des témoins et 21 % d'adultes sont obtenus. Avec ce même milieu, mais en présence de feuille de géranium, la production d'adultes atteint 62%. Les compositions en acides aminés des punaises élevées avec le milieu montrent des écarts inférieurs à 20% par rapport aux témoins. Le développement complet deM. caliginosus nourri à l'aide de milieu artificiel a été obtenu. Le végétal joue un rôle important dans la biologie de ce prédateur.  相似文献   

9.
Interaction between mycorrhizal Basidiomycetes and pine roots in presence of indol-3yl-acetic acid. — La croissance de deux Basidomycètes mycorrhizateurs, Suillus variegatus (Sw. ex Fr.) et S. granulatus (L. ex Fr.) O. Kuntze a été rendue possible dans un milieu contenant au départ des quantités d'acide indol-3yl-acétique (AIA) inhibitrices pour ces champignons. Pour obtenir ce résultat, il a suffi d'ajouter au miliceu, des racines isolées et vivantes de pin (Pinus sylvestris L. et P. resinosa Ait.). Plus la quantité d'AIA ajoutée au départ était grande, plus il fallait de racines pour renverser l'inhibition. L'exsudat des racines n'a produit aucun effet comparable. Des mesures effectuées sur une solution d'IAI ont montré que les racines isolées de pin peuvent accumuler rapidement cette substance. Le taux d'accumulation est maximum aux valeurs de pH inférieures à 4.0 et devient très faible au voisinage de la neutralité. L'auteur formule l'hypothèse qu'au cours de la formation des mycorrhizes ectotrophes chez le pin, la racine en accumulant l'AIA favorise la croissance du champignon en prévenant l'auto-inhibition de son mycélium par l'AIA qu'il produit.  相似文献   

10.
In 1931‐2, Henry Balfour, the Curator of the Pitt Rivers Museum at the University of Oxford, decided to create a systematic archive out of the collection of ethnographic photographs that he had actively collected for the Museum over many years. The result was a series of thematically arranged boxes intended to form a cross‐cultural research resource. The archival groupings formed pose a series of questions about the legacy of cultural comparativism in the twentieth century as it emerged from Victorian socio‐cultural evolutionism and typological classification, and how it has been rethought within a shifting intellectual rationale for the ethnographic museum in more recent times. The article both examines the specific genealogy and broader historical contexts for the comparative method within the Pitt Rivers Museum itself, as well placing it within the context of other archival projects of the 1930s. Through a comparison with the photograph collection of the Warburg Institute, which was reorganized along similar lines at a similar period, we understand Balfour's project not simply as a final efflorescence of Victorian museum anthropology, but also as part of a wider universalizing archival movement of the inter‐war period. The article seeks to understand why the archive series Balfour created was not continued by subsequent curators at the Museum, arguing that the postcolonial period brought with it significant challenges to the identity and role of ethnographic museums, and especially the intellectual underpinnings of cultural comparativism, and that these challenges were engaged with by reinterpreting arrangement by type within a general humanist agenda.

Résumé

En 1931‐1932, Henry Balfour, conservateur du Pitt Rivers Museum à l'Université d'Oxford, décida de créer des archives systématiques à partir de la collection de photographies ethnographiques qu'il avait recueillie au fil des années pour son musée. Le résultat tient dans une série de boîtes classées par thèmes, censées constituer une ressource pour les recherches interculturelles. Les regroupements ainsi archivés posent une série de questions sur l'héritage du comparativisme culturel au XXème siècle, tel qu'il est né de l'évolutionnisme socioculturel victorien et de la classification typologique, et la manière dont il a été repensé plus récemment, avec l'évolution du cadre de justification intellectuelle du musée ethnographique. L'article examine spécifiquement la généalogie de la méthode comparative et, plus largement, son contexte historique, au Pitt Rivers Museum lui‐même et dans le contexte d'autres projets d'archivage des années 1930. Une comparaison avec la collection photographique de l'Institut Warburg, réorganisé vers la même époque et selon des principes similaires, fait apparaître le projet de Balfour non plus simplement comme une simple efflorescence de l'anthropologie muséographique victorienne, mais aussi comme un élément d'un mouvement d'archivage plus large, universalisant, pendant l'entre‐deux‐guerres. L'article cherche à comprendre pourquoi la série d'archives créée par Balfour n'a pas été continuée par les conservateurs suivants du musée. Selon l'auteur, la période postcoloniale a fortement remis en question l'identité et le rôle des musées ethnographiques et notamment les fondements intellectuels du comparativisme culturel, et la réponse à cette remise en question a pris la forme d'une réinterprétation de la classification typologique au sein d'un système global humaniste.  相似文献   

11.
Après un développement endoparasite, la larve de Phanerotoma flavitestacea Fischer devient ectoparasite et sarcophage des chenilles d'Anagasta kuehniella. L'analyse chimique de la larve ectoparasite in toto, avant et après ingestion de l'hôte d'une part, des ressources alimentaires du parasite constituées par la chenille d'autre part permet de dresser un bilan biochimique. Le poids sec de la larve, ainsi que les lipides, les substances azotées et le glycogène subissent une augmentation importante et significative au cours de la phase sarcophage, en un temps relativement court. Les taux de conversion de la nourriture ingérée en substances du corps ont des valeurs élevées, ce qui indique que la larve ectoparasite assimile avec un très bon rendement les matières ingérées. Il faut également noter la nature nettement lipidique du catabolisme au cours de cette phase. Les résultats acquis sur la composition qualitative et quantitative des constituants du parasite sont discutés également en relation avec son alimentation.  相似文献   

12.
READER REACTION     
《Biometrics》2006,62(3):959-959
M. Y. Kim , X. Xue , and Y. Du 929 Cai et Zeng (2004) ont récemment proposé une méthode pour déterminer la puissance d'une étude de cohorte, lorsqu'il n'y a qu'une seule variable d'exposition, qu'elle est binaire et que le taux d'événements est faible. Nous montrons ici que l'on obtient quasiment les mêmes valeurs de puissance avec une méthode usuelle pour étude cas‐témoins. Or, avec l'approche cas‐témoins, les calculs de taille d'échantillon peuvent être menés avec les logiciels courants, ce qui constitue un avantage. Par ailleurs, nous proposons une formule pour calculer la puissance associée à une étude de cohorte lorsque l'événement étudié n'est pas un événement rare. H. Holzmann , A. Munk , and W. Zucchini 934 Nous étudions l'identifiabilité des modèles de mélange utilisés dans le contexte de l'estimation d'effectifs par capture‐recapture en population fermée. Ce type de modèles permet de tenir compte de l'hétérogénéité des probabilités de capture entre individus, mais leur validité a récemment été remise en cause par Link (2003) [Biometrics 59, 1123‐1130], en raison de leur non‐identifiabilité. Nous donnons un critère général d'identifiabilité de la distribution de mélange, et nous l'appliquons pour déterminer l'identifiabilité dans des familles de distributions de mélange couramment utilisées dans ce contexte, notamment les mélanges de lois finies et de Beta. Notre analyse concerne aussi les cas binomial et à distribution géométrique. Dans un exemple, nous soulignons la différence avec les problèmes d'identifiabilité rencontrés dans les modèles classiques de mélanges de lois binomiales.  相似文献   

13.
Depuis déjà quelques temps une réflexion est menée pour fixer les bonnes pratiques de laboratoire en immuno-hématologie érythrocytaire et devrait se finaliser sous la forme d’un arrêté du ministre délégué à la santé.  相似文献   

14.
REGULAR ARTICLES     
《Biometrics》2006,62(3):952-958
  相似文献   

15.
L'importance des pressions de sélection au cours des premières générations, dans des élevages en alimentation artificielle, est mise en évidence par l'étude de souches d 'Acrolepiopsis assectella Zeller soumises à des changements de régime alimentaire. l'évolution du taux de survie et de la durée du développement des larves a été suivie pendant les premières générations après le changement, et ultérieurement contrôlée au cours de plusieurs années d'élevage dans les mêmes conditions. Le taux de survie semble atteindre assez rapidement un équilibre, dont le niveau n'est pas indépendant de l'aliment consommé, tandis qu la durée du développement larvaire devient identique pour toutes les souches dès la quatrième génération. Ces phénomènes semblent correspondre à une adaptation des insectes à leurs conditions d'élevage, qui provoquent une sélection dans les populations d'origine.  相似文献   

16.
《Biometrics》2008,64(2):669-669
Simple, Defensible Sample Sizes Based on Cost Efficiency Il est d'usage de choisir une taille d'échantillon garantissant une puissance de test de 80% ou plus, sans prendre en compte le coût impliqué. Mais dans la pratique les chercheurs comme les financeurs ne peuvent souvent pas ignorer les coûts. Nous proposons ici et nous justifions une nouvelle approche pour choisir la taille d'échantillon en fonction de la rentabilité, définie comme le rapport de la valeur scientifique et/ou pratique projetée de l'étude à son coût total. Nous montrons que la valeur projetée d'une étude, pour une large variété de définitions de cette valeur, offre des rendements marginaux décroissants quand la taille de l'échantillon augmente. Nous pouvons alors définir deux choix simples qui peuvent être défendus comme étant plus rentables que tout échantillon de taille supérieure. La première méthode choisit la taille d'échantillon qui minimise le coût moyen par sujet. La deuxième choisit la taille d'échantillon qui minimise le coût total divisé par la racine carrée de la taille d'échantillon. Cette dernière méthode est en théorie plus justifiable pour des études innovantes, mais elle reste raisonnablement satisfaisante et peut se justifier aussi dans d'autres cas. Par exemple, si la valeur projetée de l'étude est proportionnelle à la puissance du test d'une hypothèse donnée et que le coût total est une fonction linéaire de la taille d'échantillon, alors cette méthode garantit une puissance supérieure à 90% ou une rentabilité supérieure à celle de tout échantillon assurant cette puissance. Ces méthodes sont faciles à appliquer, basées sur des données fiables, et bien justifiées. Elles devraient donc être considérées comme des solutions acceptables pour remplacer les méthodes classiques courantes.  相似文献   

17.
REGULAR ARTICLES     
《Biometrics》2006,62(2):636-643
  相似文献   

18.
DISCUSSION PAPER     
《Biometrics》2007,63(3):979-979
Principal Stratification Designs to Estimate Input Data Missing Due to Death Nous nous intéressons à des études portant sur des cohortes d'individus après la survenue d'un événement critique, comme une blessure, et ayant les caractéristiques suivantes. Premièrement, les études sont conçues pour mesurer des variables d'“input”, qui décrivent la période avant l'événement critique, et pour caractériser la distribution des variables d'“input” dans la cohorte. Deuxièmement, les études sont conçues pour mesurer des variables d'“output”, principalement la mortalité après l'événement critique et pour caractériser la distribution prédictive (conditionnelle) de la mortalité connaissant les variables d'“input” dans la cohorte. De telles études présentent souvent la complication que les données d'“input” manquent pour ceux qui meurent peu après l'événement critique car le recueil des données est réalisé après l'événement. Les méthodes standard de prise en compte des “inputs” manquants, telles que les méthodes d'imputation ou de pondération basées sur l'hypothèse que l'on peut ignorer le processus de données manquantes, sont connues comme étant en général non valides quand le processus de données manquantes ne peut être ignoré, c'est à dire quand la distribution des “inputs” est différente chez ceux qui meurent et ceux qui survivent. Pour répondre à ce problème, nous proposons un nouveau schéma qui recueille et utilise l'information sur une autre variable importante—un traitement ou une variable sous contrôle externe, qui, si elle avait étéà son niveau optimal aurait pu empêcher le décès de ceux qui sont morts. Nous montrons que ce nouveau schéma peut être utilisé pour faire des inférences valides pour la distribution marginale des “inputs” dans la cohorte entière et pour la distribution conditionnelle de la mortalité connaissant les “inputs”, également dans la cohorte entière, même si le processus de données manquante ne peut être ignoré. Le contexte crucial que nous utilisons est la stratification principale basée sur les “outputs” potentiels, comme ici la mortalité après les deux niveaux de traitement. Nous montrons aussi à l'aide de données préliminaires sur des blessures, que notre approche peut donner des résultats qui sont plus raisonnables que les résultats obtenus par les méthodes standard, et ceci de façon relativement dramatique. Ainsi notre approche suggère que le recueil en routine de données sur des variables qui pourraient être utilisées comme traitement possible dans de telles études d'“inputs” et de mortalité devrait être fait en routine.  相似文献   

19.
REGULAR ARTICLES     
《Biometrics》2005,61(3):891-895
L. Cowen and C. J. Schwarz 657 Les Radio‐tags, en raison de leur détectabilitéélevée, sont souvent employés dans les études de capture re‐capture. Une qualité essentielle requise est que les Radio tags ne cessent pas de fonctionner pendant l'étude. Le dysfonctionnement d'un Radio tag avant la fin d'une étude peut conduire à sous‐estimer le taux de survie. Nous développons ici un modèle pour incorporer des données issues de radio tags déficients. Ce modèle a été appliqué aux smolts chinook (tshawytscha d'Oncorhynchus) sur la Colombia river WA. Les estimations des taux de survie obtenus à partir de ce modèle sont beaucoup plus grandes que celles observées dans l'analyse standard de Cormack‐Gaie‐Seber. M. A. Suchard , R. E. Weiss , and J. S. Sinsheimer 665 Les facteurs de Bayes pour comparer deux hypothèses ou plus en compétition sont souvent estimés en construisant un échantillon de chaînes de Markov (MCMC) pour explorer l'espace joint des hypothèses. Pour obtenir des estimations efficaces des facteurs de Bayes, Carlin et Chibb (1995) ont suggéré d'ajuster les odds a priori des hypothèses en compétition de telle sorte que les odds a posteriori soient approximativement un et d'estimer alors les facteurs de Bayes par simple division. Un sous‐produit est que l'on produit souvent plusieurs chaînes MCMC indépendantes, une seulement étant utilisée pour l'estimation. Nous étendons cette approche en proposant trois tests statistiques qui incorporent les résultats des différentes chaînes. Le premier suppose des tirages indépendants dans une chaîne et modélise la fonction indicatrice de l'hypothèse en utilisant une régression logistique pour différents choix des odds a priori. Les deux autres modèles plus complexes abandonnent l'hypothèse d'indépendance en permettant des dépendances retard dans les résultats des différentes chaînes. Ces modèles nous permettent d'estimer l'incertitude dans nos calculs des facteurs de Bayes et d'utiliser pleinement les différentes chaînes MCMC, même si les a priori des odds varient de chaîne à chaîne. Nous appliquons ces méthodes de calcul des facteurs de Bayes pour tester la monophyllie dans deux exemples de phylogénie. Le premier exemple explore la relation d'un pathogène inconnu à un ensemble de pathogènes connus. L'identification de la relation monophyllique du pathogène inconnu peut influer sur le choix de l'antibiotique dans une perspective clinique. Le second exemple se concentre sur la détection des recombinaisons du virus VIH. Pour une application clinique potentielle, ces types d'analyse devraient être achevés aussi efficacement que possible. J. Zhu , J. C. Eickhoff , and P. Yan 674 Des observations de réponses spatio‐temporelles multiples se présentent souvent dans les études environnementales et écologiques. Alors que les modèles purement spatiaux de réponses univariées dans les familles exponentielles de distribution ont progressé au cours des dernières années (e.g. Diggle et al., 1998; Zhang, 2002), peu d'outils statistiques sont disponibles pour des réponse multivariées qui ne sont pas nécessairement Gaussiennes. Une exception cependant est le modèle à facteur commun développé pour des données spatiales multivariées par Wang et Wall (2003). Le but de cet article est d'étendre ce modèle multivarié uniquement spatial et de proposer une classe flexible de modèles linéaires généralisés de variables latentes appliqués à des données multivariées spatio‐temporelles. L'inférence statistique repose sur des estimées du maximum de vraisemblance et de leurs écarts‐type obtenues par l'algorithme EM de Monte Carlo. Nous proposons aussi une nouvelle méthode d'ajustement automatique de la taille de l'échantillon Monte Carlo, qui facilite la convergence de l'algorithme EM et présente ainsi quelque intérêt indépendant. La méthodologie est illustrée par une étude écologique du pin rouge en réponse à des attaques de charançon de l'écorce dans une forêt du Wisconsin. Y.‐G. Wang , X. Lin , and M. Zhu 684 Les méthodes robustes sont utiles pour assurer des inférences statistiques fiables en cas de légers écarts aux hypothèses du modèle. La méthode très largement utilisée des équations d'estimation peut être “robustifiée” en remplaçant les résidus standardisés par les M‐résidus. Si les résidus de Pearson sont supposés centrés sans biais, les estimations des paramètres par l'approche robuste sont asymptotiquement biaisés lorsque les distributions des erreurs ne sont pas symétriques. Nous proposons une méthode pour corriger ce biais. Nos études numériques extensives montrent que la méthode proposée peut réduire ce biais substantiellement. On donne des exemples d'illustration. R. J. Cook , W. Wei , and G. Y. Yi 692 Nous proposons des méthodes semi‐paramétriques pour estimer et tester l'effet d'un traitement en présence d'un événement récurrent observé sur des périodes multiples, avec prise en compte de la censure. Ces méthodes reposent sur l'estimation de fonctions avec pour hypothèse de travail un modèle de Poisson mixte sous lequel les effets aléatoires individuels peuvent être éliminés par conditionnement. Des tests statistiques robustes dérivés de pseudo‐scores sont obtenus par estimation “sandwich” de la variance. L' efficacité relative des analyses conditionnelle et marginale est évaluée de façon analytique sous un modèle mixte de Poisson à temps homogènes. La robustesse et la puissance empirique de l'approche semi‐paramétrique sont étudiées au moyen de simulations. Des adaptations pour prendre en compte les événements récurrents survenant dans des essais en cross‐over sont décrites et ces méthodes sont appliquées aux données d'un essai en cross‐over sur deux périodes chez des patients souffrant d'asthme bronchique. X. Song and Y. Huang 702 Plusieurs méthodes de modélisation fonctionnelle ont été proposées, en présence d'erreur de mesure des covariables avec le modèle de taux proportionnels. Sont inclus dans ces méthodes, l'estimateur du score conditionnel (Tsiatis and Davidian, 2001, Biometrika 88, 447–458) l'estimateur avec correction paramétrique (Nakamura, 1992, Biometrics 48, 829–838) et l'estimateur avec correction non paramétrique (Huang and Wang, 2000, Journal of the American Statistical Association 95, 1209–1219) dans l'ordre d'hypothèses de plus en plus faible sur l'erreur. Bien qu'ils soient tous consistants, chacun de ces estimateurs souffre de possibles difficultés en présence de petits échantillons ou d'erreurs de mesure substantielles. Dans cet article, ayant observé que les estimateurs du score conditionnel ou avec corrections paramétriques étaient asymptotiquement équivalents pour une erreur normale, nous avons cherché quelle était leur performance relative pour des échantillons de taille finie et remarqué que le premier était le meilleur. Ceci signifie une approche générale affinée des méthodes de correction paramétriques et non paramétriques. Les corrections affinées des estimateurs sont asymptotiquement équivalentes à leurs correspondantes standards, mais ont des propriétés numériques améliorées et sont plus performantes lorsque les estimations standards n'existent pas ou sont extrêmes. Nous présentons des résultats de simulations et une application de ces méthodes à un essai clinique sur le HIV. A.‐C. Andrei and S. Murray 715 Ce travail étudie l'analyse séquentielle de données de survie appariées en utilisant une nouvelle classe de tests non‐paramétriques, fondés sur un log‐rank pondéré apparié (PWLR), et les tests à partir de Kaplan‐Meier pondérés appariés (PWKM). Pendant le déroulement d'un essai chacun de ces tests peut alternativement être considéré comme la statistique la plus extrême. En suivant l'évolution de PEMAX, le maximum des différences absolues du PWLR standardisé et du PWKM, on a, à la fois, les avantages des tests de rangs et les avantages des autres tests. Par des simulations on montre que l'utilisation de PEMAX contrôle le risque de type I et est quasiment aussi puissant que l'utilisation du meilleur des deux tests. Ceci, que l'hypothèse des hasards proportionnels soit respectée ou non. Désormais, PEMAX préserve la puissance de façon plus robuste que chacun des deux tests pris individuellement, tout en restant relativement simple à mettre en place et à utiliser dans une analyse. Un exemple, à partir de l'étude “Early Treatment Diabetic Retinopathy Study” (ETDRS), est donné. B. Lu 721 Dans les études d'observation avec un traitement dépendant du temps et des covariables dépendant du temps, il est souhaitable d'équilibrer la distribution des covariables à chaque instant. Un score de propension (“propensity score”) dépendant du temps basé sur le modèle de Cox à risques proportionnels est proposé et utilisé pour apparier les sujets exposés au risque. Il est montré que l'appariement sur ce score de propension permet d'obtenir une distribution équilibrée des covariables dans les groupes traité et non traité. Un appariement optimal avec divers plans est mis en place et comparé dans une étude de traitement chirurgical, cytoscopie et hydrodistention, pour une maladie chronique de la vessie, la cystite interstitielle. Des simulations suggèrent aussi que l'analyse statistique après appariement est plus performante que l'analyse sans appariement en terme d'estimation et d'intervalle de confiance. M. Naskar , K. Das , and J. G. Ibrahim 729 Une classe très générale de distributions de survie multivariées est utilisée pour analyser des données groupées de défaillance, sujettes à la censure et à des modes multiples de défaillance. Conditionnellement à des quantités spécifiques au groupe, la distribution jointe du temps de défaillance et de la variable indicatrice de l'évènement peuvent s'exprimer comme un mélange de la distribution des temps de défaillance dûs à un certain type (ou spécifique d'une cause) et de la distribution marginale du type de défaillance. Nous supposons ici que les distributions marginales des différents types de défaillance sont de fonctions logistiques de certaines covariables. Les quantités spécifiques au groupe sont soumises à une certaine distribution inconnue qui cause la fragilité. La distribution de fragilité est modélisée non paramétriquement par un processus de Dirichlet (DP). Dans une telle approche semi paramétrique une méthode hybride d'estimation est proposée basée sur l'algorithme pondéré du restaurant chinois (WCR) qui nous aide à générer des observations à partir de la distribution prédictive de la fragilité. L'algorithme de Monte‐Carlo ECM (MCEMC) joue un rôle vital pour obtenir des estimations des paramètres qui établissent l'importance des effets des facteurs causaux pour les défaillances d'un certain type. Une étude de simulation est conduite pour étudier la consistance de notre méthodologie. La méthodologie proposée est utilisée pour analyser des données réelles de contamination par le virus VIH sur une cohorte de femmes prostituées du Sénégal. F. Bretz , J. C. Pinheiro , and M. Branson 738 Traditionnellement, les stratégies d'analyse de données issues d'études dose‐réponse se partagent en deux grandes catégories : les procédures de comparaisons multiples et la modélisation. L'approche par modélisation suppose une relation fonctionnelle entre la réponse et la dose – celle‐ci est ici considérée comme un facteur quantitatif –, selon un modèle paramétrique spécifiéà l'avance. On utilise alors ce modèle pour estimer la dose permettant d'obtenir un niveau donné de réponse, mais la validité des conclusions dépend fortement de la pertinence du modèle de dose‐réponse, le vrai modèle étant a priori inconnu. A l'inverse, les procédures de comparaisons multiples considèrent la dose comme un facteur qualitatif et font très peu d'hypothèses – voire aucune – sur le modèle de dose‐réponse sous‐jacent. Avec ces procédures, il s'agira souvent d'identifier la dose minimale efficace, statistiquement significative et susceptible de produire un effet biologique considéré comme intéressant. Une des approches possibles est de tester la significativité de contrastes comparant différents niveaux de dose, tout en contrôlant le risque global de Type I. Ce type de procédure est relativement robuste ; cependant, l'inférence ne peut bien sûr pas sélectionner d'autres doses que celles utilisées dans l'étude. Dans cet article, nous décrivons une stratégie unifiée d'analyse de données issues d'études dose‐réponse, stratégie qui combine les techniques de comparaisons multiples et de modélisation. Nous supposons en fait l'existence de plusieurs modèles candidats, tous paramétriques, et utilisons des techniques de comparaisons multiples pour choisir le modèle le plus vraisemblable vis‐à‐vis de la vraie courbe dose‐réponse sous‐jacente, tout en contrôlant le risque global de Type I. On utilise alors le modèle ainsi sélectionné pour cerner, à l'aide d'une approche inférentielle, les doses les mieux appropriées. J. O'Quigley 749 La méthode de ré‐évaluation séquentielle (CRM) est un algorithme pour la recherche de dose qui s'appuie sur une remise à jour dynamique. Comme d'autres méthodes dynamiques, la CRM fournit une estimation de la dose courante qui correspond à un percentile cible. Cette dose, calculée à partir de tous les sujets inclus, sera utilisée pour la prochaine expérience. La mise en oeuvre de cette ré‐évaluation est possible grâce à l'utilisation d'un modèle simple. Dans l'état actuel des choses ni la CRM ni toute autre méthode dynamique permet d'estimer un percentile cible à partir de données rétrospectives, sauf dans le cas exceptionnel où le modèle simplifié génère les données. Dans cet article notre attention se porte sur un problème spécifique, à savoir l'analyse rétrospective par la CRM de données générées par un mécanisme arbitraire. Nous montrons comment procéder de façon cohérente. La méthodologie proposée n'est pas limitée à ce schéma particulier et s'applique à d'autres plans expérimentaux où l'estimation de la dose est faite par une mise à jour dynamique. L'analyse rétrospective pose un certain nombre de difficultés pour ces plans, en particulier la CRM, car ces plans ont la propriété d'exploiter un modèle de travail sous paramétré. On ne peut répondre à la question ‐ quel aurait été le résultat si on avait utilisé un autre plan expérimental. Néanmoins on peut fournir une estimation de ce résultat. Ceci a de nombreuses applications. Z.‐F. Yu and P. J. Catalano 757 Les effets neurotoxiques d'agents chimiques sont souvent analysés dans le cadre d'études contrôlées sur des rongeurs, pour de multiples variables (binaires et continues) collectées en routine. L'un des objectifs est d'évaluer le risque afin de déterminer les doses optimales non toxiques. De telles études sont cependant confrontées à deux problèmes majeurs concernant les variables continues. Premièrement, il est difficile, pour de telles variables, d'évaluer le risque et de définir une dose de référence. Lorsque le risque est associéà la survenue d'un événement, il peut clairement être défini de façon binaire par la survenue ou non de l'événement. Définir le risque de façon similaire pour des variables continues est moins évident. Dans ce cas, l'événement est souvent défini par un ensemble de valeurs inférieures à un certain seuil, la distribution de ces valeurs étant supposée normale ou log normale. Deuxièmement, alors que, pour de telles études, les variables continues sont traditionnellement analysées séparément, des travaux récents conseillent plutôt d'utiliser des modèles multivariés. Nous proposons une méthode pour modéliser et quantifier le risque associéà des variables continues bivariées. Il s'agit d'une extension des méthodes existantes de régression par quantiles. L'approche basée sur une vraisemblance, permet de dissocier les modèles dose‐réponse de chaque variable, tout en tenant compte de la corrélation bivariée et de la caractérisation globale du risque. L'approche utilisée pour estimer une dose de référence est analogue à celle utilisée pour des variables binaires, sans qu'il soit nécessaire de spécifier un seuil arbitraire. Nous illustrons nos méthodes avec des données issues d'une étude de neurotoxicité de l'exposition de rats au triethyltin. L. Huang , M.‐H. Chen , and J. G. Ibrahim 767 Nous proposons des méthodes bayésiennes pour estimer les paramètres de modèles linéaires généralisés (GLM) avec des données de covariables manquantes qu'on ne peut pas négliger. Nous montrons que lorsqu'une distribution uniforme a priori impropre est employée pour les coefficients de régression, ? , du modèle multinomial de sélection du mécanisme d'obtention des données manquantes, la distribution jointe a posteriori sera toujours impropre si (i) toutes les covariables manquantes sont discrètes et si un coefficient constant est inclus dans le modèle de sélection du mécanisme d'obtention de données manquantes, ou (ii) au moins une covariable est continue et non bornée. Ce caractère impropre se manifestera indifféremment que les a priori propres ou non soient spécifiés pour les paramètres de régression, β , du GLM ou des paramètres, α , de la distribution de la covariable. Pour résoudre ce problème, nous proposons une nouvelle classe d'a priori propres pour les coefficients de régression, ? , dans le modèle de sélection du mécanisme de données manquantes. Ces a priori sont robustes et intéressants pour le calcul au sens où les inférences concernant les β ne sont pas sensibles au choix des hyperparamètres des a priori de ? et qu'ils facilitent un schéma d'échantillonnage de Gibbs qui conduit à une convergence accélérée. De surplus, nous étendons le critère d'évaluation du modèle de Chen, Dey et Ibrahim (2004), appelémesure L pondérée, au GLM et aux problèmes des données manquantes de même que nous étendons le Critère d'Information de Déviance (DIC) de Spiegelhalter et al. (2002) pour évaluer si le mécanisme d'obtention des données manquantes peut être ignoré ou non. Un nouvel algorithme de Monte Carlo de chaîne de Markov est aussi développé pour mener à bien les calculs des a posteriori. Plusieurs simulations sont faites pour étudier la performance des critères bayésiens proposés et la sensibilité aux spécifications a priori. Des ensembles de données provenant d'un essai clinique sur une tumeur mélanique et d'une étude sur le cancer du foie sont présentés pour mieux illustrer las méthodes proposées. A. Golightly and D. J. Wilkinson 781 Cet article traite de l'estimation de constantes de taux dans des modèles stochastiques de processus intra‐cellulaire. Le modèle stochastique discret de cinétique sous jacent est remplacé par une approximation (par équation différentielle stochastique) où le bruit blanc modélise le comportement stochastique et on identifie le modèle utilise sur des intervalles de temps réguliers. L'estimation implique l'utilisation de m‐1 observations latentes entre chaque couples de dates d'observation. Les méthodes MCMC sont alors utilisées pour échantillonner la distribution a posteriori du processus latent et les paramètres du modèle. La méthodologie est appliquée à l'estimation des paramètres d'un processus d'auto régulation des gènes chez un procaryote. G. Diao and D. Y. Lin 789 Les méthodes statistiques pour détecter les gènes qui influencent des caractères quantitatifs à l'aide de marqueurs génétiques sont bien développées pour des phénotypes distribués normalement et complètement observés. De nombreuses expériences impliquent des phénotypes liés à un temps d'échec, qui ont des distributions asymétriques, et qui sont habituellement sujets à censure à cause des perdus de vue aléatoire, des échecs pour des causes en compétition ou de la limitation de la durée de l'expérience. Dans cet article nous développons des méthodes statistiques semi‐paramétriques pour cartographier des Locus de Caractères Quantitatifs (LCQ) basés sur des phénotypes à temps d'échec avec censure. Nous formulons les effets du génotype LCQ sur le temps d'échec au moyen du modèle à risques proportionnels de Cox (1972) et dérivons des procédures d'inférence efficaces basées sur la vraisemblance. De plus, nous montrons comment évaluer la signification statistique quand on recherche les LCQ dans plusieurs régions du génome complet. Des études extensives par simulation démontrent que les méthodes proposées ont de bonnes performances en pratique. Les applications à deux études animales sont présentées. W. Briggs and D. Ruppert 799 Doit‐on pratiquer des mammographies de précaution chez des femmes d'âge moyen en bonne santé? Les chirurgiens doivent‐ils utiliser le score TRISS bien connu pour prédire la chance de survie de leurs patients? Ce sont des exemples de questions auxquelles on est confronté lorsqu'on décide d'utiliser une prédiction de type Oui/Non. Pour retenir une prédiction nous devons montrer qu'elle est qu'elle est plus intéressante que serait notre meilleure vision en absence de prédiction. Le calcul d'une mesure permet d'identifier l'erreur lorsque la prédiction est erronée et d'examiner les performances passées de la prédiction compte tenu de cette erreur. On développe un test statistique dans ce but. Les prédictions qui seront acceptées par ce test seront dites avoir de la compétence. Seules les prédictions compétentes devraient être utilisées. On montrera des méthodes graphiques et numériques pour montrer la compétence. L'utilité des mammographies est étudiée par cette voie. O. Thas and J. C. W. Rayner 808 Dans cet article, nous construisons trois tests d'ajustement lissés pour tester une distribution ZIP contre des alternatives générales lisses au sens de Neyman. Nous appliquons nos tests à un ensemble de données auparavant présenté comme ZIP‐distribué, et nous montrons que le modèle ZIP ne décrit pas correctement les données. En cas de rejet de l'hypothèse nulle de modèle ZIP, les composantes individuelles de la statistique de test, qui sont directement liées à des paramètres interprétables dans un modèle lissé, peuvent être utilisées pour l'examen d'une distribution alternative.  相似文献   

20.
A. Dejean 《BioControl》1991,36(1):29-54
Résumé L'activité prédatrice de 12 sociétés d'Oecophylla longinoda Latreille a été étudiée durant 124 h d'observations pendant lesquelles 2 482 proies ont été capturées. La prédation s'exerce sur les arbres supportant les nids ainsi que sur des territoires ?secondaires? habituellement situés sur le sol. Les 7 situations suivantes sont comparées: 1) En forêt, durant les périodes ?habituelles?; 2) Durant le passage d'une colonne de Magnans; 3) Le territoire de chasse ?secondaire? d'une société installée sur un arbre situé en bordure de rivière correspond à une zone où de nombreux insectes se concentrent pour s'abreuver; 4) L'arbre support est un manguier dont on suit le cycle biologique (inter-saison, floraison, fruits m?rs) et son impact sur la prédation par lesOecophylla; 5) On compare la situation ?habituelle? à ce qui se passe lorsqu'un essaimage de Termites est rabattu sur les territoires d'une société; 6) Le territoire ?secondaire? est situé sous la véranda d'une maison éclairée chaque nuit où de nombreux insectes ailés sont attirés; 7) Les territoires ?secondaires? de 2 sociétés étant contigus, on compare les périodes de combats aux périodes calmes. Les territoires ?secondaires? sont situés sur des zones de concentration en proies (insectes de la litière des forêts, zones où ils viennent s'abreuver, attraction par la lumière, la nuit). LesOecophylla y capturent souvent des insectes aptères, cas relativement rare sur l'arbre support. Ces territoires sont défendus contre les ouvrières d'autres sociétés. Du fait de leur territorialité très marquée avec surveillance permanente du territoire et un recrutement très efficace, lesOecophylla répondent très rapidement à toute prolifération en proies. A cela s'ajoute une grande diversité de proies potentielles de sorte que cette espèce peut être considérée comme très efficace en lutte biologique, les ouvrières réagissant spécifiquement à toute abondance d'un type d'insecte. Pour une société comprenant 12 calies, le nombre de proies capturées par an est de l'ordre de 45 000. Ramené à un nombre équivalent d'individus et de jours d'activité, il est du même ordre que celui desFormica lugubris (Cherix, 1986).   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号