首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
Depuis 2004, des hybridations en captivité ont été expérimentées entre Saga pedo (Pallas 1771), espèce parthénogénétique, et diverses espèces affines bisexuées des Balkans : Saga hellenica Kaltenbach 1967, Saga rammei Kaltenbach 1965, Saga campbelli Uvarov 1921. Des accouplements avec formation de spermatophore se vérifient dans tous les cas. Les premières éclosions, issues de l’accouplement d’une femelle de S. pedo avec un mâle de S. rammei, se sont produites en avril 2006.  相似文献   

2.
L’analyse cytogénétique de quatre espèces européennes de Saginae, dont les caryotypes n’avaient jamais été étudiés, la ré-investigation de celui de Saga pedo (Pallas 1771), la prise en compte des données publiées, et le résultat d’investigations sur le terrain, permettent de proposer une reconstitution de leur phylogénie. Les caryotypes les plus ancestraux semblent être ceux de Saga ornata Burmeister 1839 et de Saga cappadocica Werner 1903, publiés antérieurement, dont tous les autosomes seraient acrocentriques. La fusion de deux paires de leurs chromosomes aboutirait aux caryotypes de Saga natoliae Serville 1839 et de Saga hellenica Kaltenbach 1967, comportant une paire de grands submétacentriques. Ces deux caryotypes se différencient par une inversion péricentrique touchant ces grands chromosomes, probablement chez S. natoliae. Saga campbelli Uvarov 1921 et Saga rammei Kaltenbach 1965, ont acquis une fusion chromosomique de plus et possèdent donc deux paires de grands submétacentriques. Le caryotype de S. rammei détient en plus une particularité de son hétérochromatine. Enfin, le caryotype de S. pedo est tétraploïde, probablement formé de la juxtaposition de deux génomes diploïdes par hybridation. La particularité de l’hétérochromatine de S. rammei se retrouve chez S. pedo sur deux chromosomes différents. Alors que l’on pourrait attendre des quadruplets ou des doublets de chromosomes, il existe une grande diversité de chromosomes en copie unique. Ceci démontre qu’un fort taux de remaniements chromosomiques a modifié le caryotype de S. pedo, postérieurement à son passage à la tétraploïdie. Cette accumulation de remaniements, aboutissant à une forte hétérozygotie, peut s’expliquer par l’absence de filtre méiotique chez cette espèce parthénogénétique. Nos dernières prospections terrain dans le sud des Balkans, nous ont amené à découvrir une zone probable d’intergradation entre Saga pedo et certains taxons sexués affines. L’analyse chromosomique des individus de cette région va sans doute se révéler d’une importance essentielle pour la poursuite de nos recherches.  相似文献   

3.
À la suite de captures de larves effectuées dans les Monts Bamboutos (Ouest du Cameroun) et de leurs mises en élevage, les auteurs décrivent le mâle, la nymphe et la larve d’Anopheles deemingi Service, 1970 dont seule une femelle était connue. Ils décrivent aussi la nymphe et la femelle d’une nouvelle espèce: Anopheles eouzani n. sp. qui a été capturée dans ces mêmes Monts Bamboutos mais à une altitude supérieure à 2 000 m.  相似文献   

4.
Dans les zones de savanes de l’Afrique, un genre d’abeille, Lipotriches Gerstaecker 1858, s’est spécialisé dans la collecte du pollen de graminées. Un site de nidification et l’aire de butinage de Lipotriches notabilis ont été suivis pendant trois années dans la région de Ngaoundéré au Cameroun. Le régime alimentaire pollinique est composé presque exclusivement du pollen de graminées, notamment Brachiaria ruziziensis abondant dans cette région. Le maïs est aussi visité et l’abeille contribue indirectement à la pollinisation par la mise en suspension dans l’air du pollen. Comme les graminées n’offrent pas de ressource sucrée, les femelles comme les mâles de L. notabilis butinent de temps en temps les Asteraceae pour la collecte de nectar. La consommation du pollen de graminées par les femelles a été aussi observée. Lespèce niche en bourgades dont la taille varie d’une dizaine à une centaine de nids. Le nid creusé dans un sol horizontal est du type progressif. Il comprend un tumulus, une cheminée verticale, un conduit principal vertical pouvant atteindre 65 cm de profondeur et en moyenne 3 conduits latéraux obliques de 4 à 16 cm aboutissant dans une ou plusieurs cellules successives. Les cellules des conduits latéraux sont approvisionnées simultanément et fermées de manière régressive. On compte un maximum de 10 cellules par nid. Généralement un nid est habité par une seule femelle, mais certains nids sont habités par deux ou trois. Lactivité de butinage de cette espèce est limitée dans la matinée. Dès 7 heures, elle s’envole pour le site de butinage. Après 11 heures, il n’y a généralement plus de nids ouverts. Les mâles n’ont pas été aperçus au niveau du site de nidification et l’accouplement a lieu sur le site de butinage. La période d’activité commence avec la saison des pluies en avril et se termine au début de la saison sèche en décembre, avec la fanaison des graminées.  相似文献   

5.
REGULAR ARTICLES     
《Biometrics》2006,62(4):1282-1290
Generalized Additive Modeling with Implicit Variable Selection by Likelihood‐Based Boosting L'utilisation des modèles additifs généralisés dans l’analyse statistique de données souffre de la restriction à quelques variables explicatives et du problème du choix des paramètres de lissage. Le «boosting» d’un modèle additif généralisé contourne ces problèmes par l’intermédiaire d’un ajustement par étapes d’algorithmes d'apprentissage faibles. Une procédure d’ajustement est dérivée qui fonctionne pour toutes les familles de distribution exponentielle simple, incluant les variables réponse binomiale, de Poisson et normales. La procédure combine la sélection de variables et la détermination du degré approprié de lissage. Comme algorithmes d’apprentissages faibles, sont considérés les splines de régression pénalisés et les «stumps» pénalisés nouvellement introduits. Les estimations des déviations standard et les critères d’arrêt qui sont des problèmes notoires dans les procédures itératives sont basés sur une matrice chapeau approchée. La méthode est montrée comme étant un fort compétiteur par rapport aux procédures habituelles pour ajuster des modèles additifs généralisés. En particulier, il fonctionne très bien dans des situations à haute dimensionnalité avec beaucoup de variables de nuisance dans le prédicteur. Variable Selection for Logistic Regression Using a Prediction‐Focused Information Criterion L’utilisation de critères d’information pour guider la sélection des variables est habituelle en biostatistique. Nous proposons de nouvelles versions du critère de l’information ciblée (CIC) pour sélectionner les variables en régression logistique. Ce critère fournit des ensembles de variables qui dépendent de la cible à estimer. Sous sa forme standard, le CIC mesure l’erreur quadratique moyenne associée à l’estimateur de la quantité d’intérêt dans le modèle sélectionné. Nous proposons des formulations plus générales du CIC, autorisant d’autres mesures de risque, comme celles fondées, par exemple, sur l’erreur‐Lp. Quand on s’intéresse à la prédiction d’un événement, comme c’est souvent le cas dans les applications médicales, nous construisons un CIC fondé sur une mesure naturelle du risque, le taux d’erreurs. Une étude par simulation et l’application à une étude concernant la rétinopathie diabétique illustrent l’intérêt d’un critère de l’information dépendant à la fois de la quantité d’intérêt et de la mesure de risque choisie. A Goodness‐of‐Fit Test for Multinomial Logistic Regression Cet article propose un test d’adéquation d’un modèle logistique à des réponses multinomiales ou binomiales. Il s’agit d’un test du score de l’hypothèse nulle d’adéquation contre l’hypothèse alternative que les résidus de sous‐échantillons proches dans l’espace des covariables ont tendance à se ressembler. La statistique de test est une somme de carrés de résidus lissés qui peut s’interpréter comme un test du score dans un modèle mixte. La spécification de la distance dans l’espace des covariables permet de choisir l’hypothèse contre laquelle le test est dirigé et d’en faire soit un test omnibus, soit un test ad hoc de l’adéquation par rapport à l’effet de certaines covariables du modèle ou par rapport à certaines modalités d’une réponse multinomiale. A Generalized Response Surface Model with Varying Relative Potency for Assessing Drug Interaction Lors de l’administration simultanée de plusieurs traitements les investigateurs cherchent souvent àétablir quel est le type d’interaction entre les substances: potentialisation, synergie ou antagonisme. De nombreux modèles de surface de réponse, basés sur le modèle d’additivité de Loewe, exigent que le rapport d’activité (ou la puissance relative) soit constant et certains d’entre eux utilisent un seul paramètre pour décrire le type d’interaction. L’hypothèse d’un rapport d’activité constant est cependant trop restrictive et les modèles à un paramètre sont inadéquats quand le type d’interaction varie en fonction des combinaisons des substances. Nous proposons un modèle généralisé de surface de réponse utilisant une fonction de la dose au lieu d’un paramètre unique pour décrire l’écart à l’additivité. Le modèle proposé peut incorporer également des variations des rapports d’activité variables entre plusieurs substances. La capacité du modèle à décrire les différentes formes d’interaction est illustrée par des exemples et des simulations. Semiparametric Analysis of Zero‐Inflated Count Data La recherche médicale et de santé publique est souvent impliquée dans l’analyse de données de comptage qui contiennent une grande proportion de zéros, telles que le nombre d’attaques cardiaques et le nombre de jours d’arrêt de travail dans une période donnée. Pour modéliser de telles données, on utilise généralement un modèle de régression de Poisson avec un grand nombre de zéros, qui suppose une hétérogénéité en deux points dans la population caractérisée par un effet binaire aléatoire. Les sujets sont grossièrement séparés en deux catégories, le groupe à faible risque pour les comptages à zéro, et le groupe à haut risque (ou normal) pour lequel on peut utiliser un modèle de régression de Poisson. Le but principal est d’identifier les variables explicatives qui ont des effets significatifs sur (i) la probabilité que le sujet appartienne au groupe à faible risque au moyen d’une régression logistique; et (ii) la taille des comptages sachant que le sujet est issu du groupe à haut risque, au moyen d’un modèle de régression de Poisson où les effets des covariables sont supposés liés linéairement au logarithme naturel de la moyenne des comptages. Dans cet article, nous construisons un modèle semi‐paramétrique de régression de Poisson à zéro augmenté qui postule une relation possiblement non linéaire entre le logarithme naturel de la moyenne des comptages et une covariable particulière. Nous proposons une méthode de criblage pour l’estimation par maximum de vraisemblance. Les propriétés asymptotiques de cette méthode d’estimation sont discutées. Nous montrons que, sous certaines conditions assez faibles, les estimateurs sont asymptotiquement efficaces et normalement distribuées. Des études de simulation ont été réalisées pour voir les performances de la méthode proposée. Pour l’illustrer, cette méthode a été utilisée sur un jeu de données provenant d’une enquête de santé publique en Indonésie, où la variable d’intérêt est le nombre de jours d’arrêt de travail dus à la maladie pendant une période de quatre semaines Semiparametric Analysis of Two‐Level Bivariate Binary Data Dans les études médicales, des réponses binaires appariées sont souvent observées pour des sujets étudiés au cours du temps ou pour des grappes. L'intérêt premier est d'étudier comment l'association bivariée et les risques marginaux univariés sont affectés par des mesures répétées sur chaque sujet. Pour atteindre ce but, nous proposons une classe très générale de modèles binaires bivariés semi‐paramétriques. Les effets spécifiques du sujet inclus dans le log odds‐ratio bivarié et les composantes logit univariées sont supposées suivre un processus non paramétrique de Dirichlet (DP). Nous proposons une méthode hybride pour faire de l'inférence basée sur le modèle. Dans la construction de la méthode hybride proposée, l'estimation des paramètres est faite en implémentant un algorithme de Monte‐Carlo EM (MCEM). La méthodologie proposée est illustrée par une étude de l'efficacité du Tibolone, pour réduire les problèmes liées à la ménopause rencontrés par les femmes indiennes. Une étude de simulation est aussi conduite pour évaluer l 'efficacité de la nouvelle méthodologie. A Nonlinear Model with Latent Process for Cognitive Evolution Using Multivariate Longitudinal Data La cognition n’est pas directement mesurable. Elle est évaluée à l’aide d’une batterie de tests psychométriques qui peuvent être considérés comme des mesures quantitatives bruitées de la cognition. L’objectif de cet article est de proposer un modèle permettant de décrire la cognition non observée chez les personnes âgées et d’évaluer l’impact de variables explicatives directement dessus. Le processus latent défini en temps continu et représentant la cognition est modélisé par un modèle linéaire mixte prenant en compte des variables dépendantes du temps et les tests psychométriques sont ensuite définis comme des transformations nonlinéaires paramétrées du processus latent. L’estimation des paramètres à la fois dans le modèle mixte et dans les transformations nonlinéaires est obtenue en maximisant la vraisemblance observée et des méthodes graphiques sont utilisées pour évaluer l’adéquation du modèle. La méthode est appliquée aux données de la cohorte prospective française PAQUID. Low‐Rank Scale‐Invariant Tensor Product Smooths for Generalized Additive Mixed Models Une méthode générale est présentée pour construire des fonctions de lissage basées sur des produits tensoriels de faible rang et utilisées comme composantes de GAMs ou de GAMMs. Une approche de type régression pénalisée est adoptée dans laquelle chaque produit tensoriel de plusieurs variables est construit à partir des lisseurs de chaque variable prise séparément, ces lisseurs «marginaux»étant définis avec une fonction de faible rang et associée à une pénalité quadratique sur les fluctuations. Les lisseurs offrent plusieurs avantages (i) ils ont une pénalité sur les fluctuations pour chaque covariable et sont donc insensibles à une transformation linéaire des covariables, les rendant utiles quand il n’y a pas de façon naturelle pour mettre à l’échelle les covariables entre elles; (ii) ils ont un plage utile du degré de lissage personnalisable, à la différence de la pénalité unique des lisseurs par produit tensoriels qui sont invariants à l’échelle; (iii) le rang relativement bas des lisseurs fait qu’ils sont numériquement efficients; (iv) les pénalités des lisseurs sont aisément interprétables en terme de forme de la fonction; (v) les lisseurs peuvent être générés complètement automatiquement à partir des fonctions de lissage marginales et des pénalités quadratiques associées, donnant au modélisateur une flexibilité considérable pour choisir la combinaison de base des pénalités la plus apporpriée à chaque tâche de modélisation; (vi) les lisseurs peuvent aisément être écrits comme des composants d’un modèle mixte linéaire ou linéaire généralisé standard, permettant de les utiliser comme des composants de la riche famille de tels modèles implémentés dans des logiciels standard et d’avoir l’avantage de méthodes numériques efficientes et stables qui ont été développées pour de tels modèles. Une petite étude de simulation montre que les méthodes peuvent favorablement se comparer aux méthodes ANOVA avec splines lissants récemment développées. Joint Modeling of Survival and Longitudinal Data: Likelihood Approach Revisited L’approche par le maximum de vraisemblance a permis de modéliser conjointement, dans les études longitudinales, le délai de survie et ses covariables longitudinales. Des effets aléatoires dans le processus longitudinal est souvent utilisé pour modéliser les délais de survie au travers d’un modèle à risques proportionnels, et cela fait appel à un algorithme EM pour rechercher l’Estimateur du Maximum de Vraisemblance (MLEs). Plusieurs problèmes sont étudiés ici, à savoir la robustesse du MLEs par rapport à un écart à l’hypothèse de normalité des effets aléatoires, ainsi que les difficultés pour obtenir des estimateurs fiables de l’écart type du MLEs via l’approche par la vraisemblance. Nous apportons des éclaircissements sur la propriété de robustesse et suggérons de passer outre les difficultés de la fiabilité de l’estimateur des écart‐types en utilisant des procédures de bootstrap. Des simulations et des analyses de données illustrent nos propos. Bayesian Semiparametric Dynamic Frailty Models for Multiple Event Time Data Beaucoup d’études biomédicales collectent des données sur le délai d’apparition d’un événement de santé, qui peut se produire de manière répétitive, comme les infections, les hospitalisations, les rechutes de la maladie, ou les évolutions tumorales. Pour analyser de telles données, il est nécessaire de prendre en compte la dépendance intra‐sujet entre les délais de ces multiples événements. Motivé par des données d’étude sur les tumeurs palpables, cet article propose un modèle dynamique de fragilité, et une approche inférentielle Bayesienne semi‐paramétrique. Le modèle à risques proportionnels est généralisé pour incorporer une fragilité spécifique à l’individu qui change de manière dynamique avec l’âge, tout en s’accommodant aux risques non‐proportionnels. Les hypothèses paramétriques sur la distribution de fragilité sont évitées en utilisant le processus de Dirichlet comme un a priori pour la fragilité partagée ainsi que pour les innovations multiples sur cette fragilité. En centrant le modèle semi‐paramétrique sur un modèle gamma dynamique conditionnellement‐conjugué, nous facilitons la programmation a postériori et nous évaluons convenablement le manque d’ajustement du modèle paramétrique. La méthode que nous proposons est appliquée à des données issues d’une étude de chimio‐prévention. Interval Mapping of Quantitative Trait Loci for Time‐to‐Event Data with the Proportional Hazards Mixture Cure Model Les modèles de mélange normaux pour établir des cartes génétiques par intervalle ont été un outil fondamental pour l’analyse de traits quantitatifs (QTL) sur des organismes expérimentaux. Quand le phénotype principal étudié est un événement retardé dans le temps, il est naturel d’utiliser alors des modèles de survie, tels que le modèle à risques proportionnels de Cox plutôt que le modèle de mélange normal pour modéliser un tel phénotype. Un enjeu supplémentaire dans la modélisation du temps jusqu’àévénement est de considérer que la population étudiée peut être composée de sujets susceptibles et de sujets non susceptibles. Dans cet article, nous proposons un modèle de mélange semi‐paramétrique à risques proportionnels permettant de prendre en compte une fraction de sujets non atteints, et qui permette de considérer des valeurs manquantes parmi les covariables. Nous discutons les applications de ce modèle à la cartographie des régions chromosomiques QTL, quand le trait principal est un événement apparaissant dans le temps au sein d’une population mixte de patients susceptibles ou non de présenter l’événement. Ce modèle peut être utilisé pour caractériser ces effets QTL, à la fois sur la susceptibilité et sur la distribution du temps jusqu’àévénement, et d’estimer la position de ces QTL. Ce modèle peut intégrer naturellement l’effet conjoint d’autres facteurs de risque. Les estimations par maximum de vraisemblance des paramètres du modèle ainsi que de leur variance peuvent être obtenues numériquement à l’aide d’un EM algorithme. Les méthodes proposées sont évaluées par des simulations sous des conditions couramment rencontrées en pratique et illustrées sur un jeu de données réelles comportant des temps de survie de souris infectées par Listeria monocytogenes. Une extension du modèle aux intervalles multiples est également discutée. Feature‐Specific Penalized Latent Class Analysis for Genomic Data Les données de la génomique sont souvent caractérisées par un nombre important de variables catégorielles mesurées chez un nombre relativement faible d’individus. Certaines de ces variables peuvent être absentes ou non informatives. Un exemple de telles données est la perte d’hétérozygocité (PH), une variable dichotomique observée sur un nombre limité de marqueurs génétiques. Nous considérons d’abord un modèle de classes latentes où, conditionnellement à l’appartenance non observée à l’une des k classes, les variables sont indépendantes avec des probabilités déterminées par un modèle régressif de faible dimension q. A l’aide d’une famille de pénalités incluant l’arête et le lasso, nous étendons ce modèle aux problèmes de plus grande dimension. Enfin, nous présentons une carte orthogonale qui transforme l’espace marqueurs en un espace de ‘caractéristiques’ pour lequel le modèle contraint a un meilleur pouvoir prédictif. Nous illustrons ces méthodes sur des données de PH recueillies sur 19 marqueurs chez 93 patients présentant une tumeur cérébrale. Pour ce jeu de données, la méthode de classe latente non pénalisée ne produit pas d’estimations. De plus, nous montrons que les classes a posteriori obtenues avec cette méthode sont associées à la survie des patients. Quantifying Genomic Imprinting in the Presence of Linkage L’analyse de liaison génétique classique confère le même poids à l’analyse des transmissions des allèles marqueurs paternels et maternels ce qui conduit à une nette baisse de puissance si les gènes étudiés sont soumis au phénomène d’empreinte parentale. Plusieurs stratégies ont été proposées pour prendre en compte les empreintes parentales dans le cadre de l’analyse de liaison modèle‐indépendante des traits binaires. Cependant, aucune de ces méthodes ne propose l’identification et la quantification du phénomène d’empreinte parentale en présence de liaison. En outre, les méthodes disponibles reposent sur l’analyse de paires de germains atteints et décomposent artificiellement les fratries de taille supérieure au prix d’une perte de puissance certaine. Nous proposons ici une approche globale, le MLB‐I (Maximum Likelihood Binomial – Imprinting), pour l’analyse de fratries de toute taille, qui associe i) un test de liaison prenant en compte le phénomène d’empreinte parentale, ii) un test d’empreinte parentale en présence de liaison, iii) un test du caractère complet ou partiel de l’empreinte. Par ailleurs, l’empreinte parentale est quantifiée au moyen d’un indicateur original. La distribution des trois statistiques proposées est dérivée et validée sous leur hypothèse nulle respective par étude de simulation sous différents modèles de transmission génétique. La puissance des tests est également évaluée. Cette méthode est directement applicable au criblage entier du génome comme l’illustre l’analyse de fratries avec des germains atteints de lèpre. Notre approche fournit un nouvel outil pour la dissection de l’empreinte parentale en analyse de liaison modèle‐indépendante, et sera d’un intérêt majeur pour identifier et évaluer la contribution des gènes soumis à empreinte parentale dans les maladies génétiques complexes. A Method for Estimating Penetrance from Families Sampled for Linkage Analysis Quand on découvre un variant génétique en ségrégation avec une maladie, il peut être intéressant d’estimer le risque de la maladie (ou le risque spécifiquement associéà l’âge) pour les individus porteurs du variant. Les familles ayant contribuéà la découverte du variant doivent généralement compter plusieurs porteurs et, de ce fait, si le variant est rare, elles peuvent constituer une source intéressante de sujets d’étude pour l’estimation du risque. Mais ces familles, qui ont attiré l’attention des chercheurs sur le gène en question, peuvent de ce fait ne pas être représentatives de la relation existant entre le statut de porteur du gène et le risque de maladie dans la population. Utiliser ces familles pour estimer le risque pourrait affecter d’un biais l’association trouvée entre le variant et le risque. Le but de cet article est de présenter une méthode d’ajustement pour ce biais potentiel quand on utilise les familles de l’analyse de liaison pour estimer le risque. A Unified Approach for Simultaneous Gene Clustering and Differential Expression Identification Bien que la classification non‐supervisée et l’identification de gènes différentiellement exprimés soient d’importance égale dans la plupart des études utilisant les puces à ADN, ces deux problèmes sont souvent traités de façon indépendante. Clairement, cette stratégie n’est pas la plus efficace pour extraire l’information. L’objectif principal de cet article est de développer une méthode statistique cohérente qui permette de classifier et de détecter simultanément les gènes différentiellement exprimés. Grâce à l’échange d’informations entre ces deux opérations, l’approche proposée produit une classification des gènes plus adéquate et est plus sensible pour identifier les gènes différentiellement exprimés. L’amélioration par rapport aux méthodes existantes est illustrée à la fois par nos résultats de simulations et par une étude de cas. Shrunken p‐Values for Assessing Differential Expression with Applications to Genomic Data Analysis Pour beaucoup de problèmes liés aux technologies produisant des données à grande échelle, l’inférence statistique implique des centaines ou des milliers d’hypothèses. Récemment, beaucoup d’attention a été dévolue aux tests multiples; on s’est concentré en particulier sur le taux de faux positifs. Dans cet article, nous considérons une autre procédure d’estimation nommée «p‐valeurs rétrécies pour l’évaluation de l’expression différentielle» (SPADE). Les estimateurs sont inspirés du principe de risque issu de la théorie de la décision et conduisent à une méthode complètement nouvelle d’ajustement des p‐valeurs obtenues lors de tests multiples. De plus, la théorie de la décision permet de dériver une règle de décision pour contrôler le nombre de faux positifs. Nous présentons des résultats théoriques et illustrons la méthodologie proposée à l’aide de simulations et d’une application à des données d’expression issues d’une étude sur le cancer de la prostate. Fragment Length Distributions and Collision Probabilities for AFLP Markers L’AFLP est une technique d'empreinte digitale d'ADN fréquemment utilisée en sciences végétales et animales. Un de ses inconvénients est l'occurrence de fragments multiples d'ADN de même longueur dans une simple ligne d'AFLP, que nous appelons une collision. Dans cet article nous quantifions le problème. Le problème bien connu du jour de naissance joue un rôle. Le calcul des probabilités de collision exige une distribution de la longueur du fragment (fld). Nous discutons trois manières d'estimer le fld: basé sur des considérations théoriques, sur la détermination in‐silico en utilisant des données de séquence d'ADN d'Arabidopsis thaliana, ou sur l'estimation directe à partir des données d'AFLP. Dans le dernier cas nous employons un modèle linéaire généralisé avec lissage monotone des probabilités de longueur de fragment. Des probabilités de collision sont calculées à partir de deux perspectives, en supposant des comptages connus de fragment et en supposant de comptages connus de bande. Nous comparons des résultats pour un certain nombre de fld, s'étendant de l'uniformitéà la dissymétrie la plus forte. La conclusion est que les collisions se produisent souvent, avec des probabilités plus élevées pour des nombres plus élevés de bandes, pour des distributions plus dissymétriques et, à un moindre degré, pour de plus petits intervalles de marquage. Pour un génome végétal typique un AFLP avec 19 bandes est susceptible de contenir la première collision. Des implications pratiques des collisions sont discutées. Des exemples d'AFLP de la laitue et de la chicorée sont employés en guise d’illustration. Susceptibility of Biallelic Haplotype and Genotype Frequencies to Genotyping Error Avec la mise à disposition de techniques de génotypage à haut débit ainsi que des bases de données génétiques, la recherche d'association entre des polymorphismes de substitution et un trait complexe est devenue un domaine important de recherche méthodologique en génétique médicale. Cependant, les erreurs de génotypage même relativement faibles peuvent conduire à de fausses associations et diminuer la puissance statistique. Nous proposons une approche systématique pour étudier comment des erreurs de génotypage peuvent changer les distributions génotypiques d'un échantillon. Le cas général à M‐marqueurs est réduit à celui d'un seul marqueur en identifiant la structure sous‐jacente du produit tenseur de la matrice des errors. La méthode et les conclusions s'appliquent au modèle général d'erreur; nous donnons des résultats détaillés pour le modèle à“erreur allélique" qui dépend à la fois du locus marqueur et de l'allèle présent. Les erreurs multiples sont traitées à partir du processus de diffusion associéà l'espace des distributions génotypiques. Nous montrons que certaines distributions génotypiques et haplotypiques restent inchangées en présence d'erreurs de génotypage et que ces erreurs rendent généralement la distribution plus proche de la distribution stable. Dans le cadre d'étude d'association cas‐témoins, cela conduit à une perte de puissance en présence d'erreurs de génotypage non‐différentielles et à une augmentation de l'erreur de type I pour des erreurs différentielles. De plus, nous montrons que des erreurs de génotypage sous le modèle à“erreur allélique" ne modifient pas l'équilibre d'Hardy‐Weinberg au niveau génotypique. Sous ce type d'erreurs, nous identifions les distributions les plus affectées. Comme elles correspondent aux situations où les allèles sont rares et les marqueurs en fort déséquilibre de liaison, une attention toute particulière aux erreurs de génotypage est recommandée en présence d'associations cas‐témoins observées au niveau allélique ou haplotypique. Statistical Analysis for Haplotype‐Based Matched Case–Control Studies En utilisant des données génotypiques déphasées, nous étudions l’inférence statistique de l’association entre une maladie et un haplotype dans des études cas‐témoins. L’inférence statistique pour les données d’haplotype est compliquée due à l’ambiguïté des phases de génotypes. Une méthode basée sur une équation d’estimation est développée pour estimer des odds ratios et tester des associations maladie – haplotype. La méthode peut potentiellement être appliquée au test de l’interaction haplotype – environnement. Des études de simulations montrent les bonnes performances de la méthode. La performance de la méthode en présence de déviations de l’équilibre de Hardy‐Weinberg est aussi étudiée. Optimization of Two‐Stage Genetic Designs Where Data Are Combined Using an Accurate and Efficient Approximation for Pearson's Statistic Dans la recherche des gènes associés à telle ou telle pathologie, les études cas‐témoin réalisées en deux étapes successives suscitent un intérêt croissant, en raison de la réduction des coûts de génotypage qu’elles permettent. De plus, au lieu d’analyser séparément les données de la deuxième étape, on peut effectuer un test plus puissant en regroupant les données des deux étapes. Cependant, il n’est alors pas possible d’utiliser les tests classiques, puisque seuls sont sélectionnés, pour la deuxième étape, les marqueurs jugés significatifs lors de la première étape; de surcroît, parce qu’elles portent en partie sur les mêmes données, les statistiques de test utilisées lors de chacune des deux étapes sont nécessairement corrélées entre elles. Or, on ne dispose pas d’approximations théoriques pour les tests les plus courants; quant aux simulations, leur lourdeur calculatoire, dans ce contexte spécifique, peut s’avérer problématique. C’est pourquoi nous proposons une approximation performante – c’est‐à‐dire à la fois précise et rapide en termes de temps de calcul CPU – pour la distribution de la statistique de Pearson associée à des tables de contingence 2 x m dans les études en deux étapes avec données poolées. Nous avons utilisé cette approximation dans le cadre d’une méthode itérative de recherche de plans optimaux en deux étapes. Les simulations effectuées étayent la fiabilité de notre approximation, et les résultats numériques confirment que l’utilisation de plans en deux étapes réduit de façon substantielle la quantité des génotypages à réaliser. En choisissant de pooler les données (plutôt que ne pas les pooler), on diminue en moyenne les tailles d’échantillons de 15% et le nombre de génotypages de 5%. Case‐Cohort Designs and Analysis for Clustered Failure Time Data Les plans de type cas‐cohorte apportent un schéma efficient et économique pour l’étude de facteurs de risque de maladies non fréquentes dans une large cohorte. Ils demandent le recueil de covariables pour les événements vérifiés au sein de toute la cohorte, et pour les individus d’une sous‐cohorte sélectionnée au début du suivi. Dans la littérature, les plans cas‐cohorte ont été très étudiés mais seulement dans le cadre de données univariées. Dans cet article, nous proposons des plans de type cas‐cohorte pour des données de durée multivariées. Une procédure d’estimation s’appuyant sur un modèle d’indépendance est utilisée pour estimer les paramètres de régression dans le modèle marginal des hasards proportionnels, où on laisse non spécifiée la structure de corrélation entre individus d’une même classe. On développe les propriétés statistiques des estimateurs proposés. Des études de simulations permettent d’étudier la performance des estimateurs proposés, et de comparer les qualités statistiques. On illustre la méthode proposée à l’aide de données provenant de l’étude TRIAD. A Semiparametric Empirical Likelihood Method for Biased Sampling Schemes with Auxiliary Covariates Nous considérons une procédure d’inférence semi‐paramétrique pour des données d’études épidémiologiques conduites selon un plan d’échantillonnage à deux composantes oùà la fois un échantillonnage aléatoire simple et des échantillons de résultats multiples ou de résultats auxiliaires sont observés. Ce plan de sondage permet aux enquêteurs de sur‐échantillonner certaines sous‐populations dans le but d’avoir plus d’informations sur le modèle de régression tout en améliorant la connaissance de la population sous‐jacente à travers le plan d’échantillonnage aléatoire simple. Nous restreignons notre étude à des dispositifs dans lesquels il n’y a pas d’information additionnelle sur la cohorte‐parent et où la probabilité d’échantillonnage est non identifiable. Notre problématique est motivée par une étude destinée àévaluer l’association entre le niveau de mutation du gène EGFR et la réponse anti‐tumorale à une thérapie ciblée EGFR parmi des patients ayant un cancer pulmonaire (hors anaplasique à petites cellules). La méthode proposée s’applique à la fois à des réponses binaires et multinomiales et admet une fonction de lien arbitraire dans le cadre des modèles linéaires généralisés. Des études de simulations montrent que l’estimateur proposé a des bonnes propriétés pour des petits échantillons. La méthode est illustrée par un exemple. Augmented Designs to Assess Immune Response in Vaccine Trials Ce papier introduit des méthodes utilisables dans les essais cliniques de vaccins pour aider à savoir si la réponse immunitaire à un vaccin est vraiment la cause d’une réduction du taux d’infection. Cela n’est pas facile car la réponse immunitaire à un vaccin(par exemple, contre le VIH) n’est observée que dans le groupe vacciné. Si nous savions ce qu’aurait été la réponse immunitaire spécifique au vaccin anti‐VIH dans le groupe placebo s’il avait été vacciné, cette réponse pourrait être traitée comme une covariable et son interaction avec le traitement pourrait être évaluée. De même, le taux d’infection en fonction de la valeur de cette covariable pourrait être comparé entre les deux groupes et appuierait le rôle causal de la réponse immunitaire si le risque infectieux diminuait en relation avec une réponse immunitaire accrue au vaccin uniquement dans le groupe vacciné. Nous introduisons deux méthodes d’inférence sur la réponse immunitaire spécifique. La première consiste à vacciner tout le monde avant le démarrage de l’essai par un autre vaccin sans rapport avec le vaccin anti‐VIH, par exemple le vaccin anti‐rabique. La randomisation garantit que la relation entre les réponses immunitaires au vaccin anti‐rabique et au vaccin anti‐VIH observée dans le groupe vacciné est la même que celle qui aurait pu être observée dans le groupe placebo. Nous déduisons une réponse au vaccin anti‐VIH pour les sujets sous placebo à partir de leur réponse au vaccin anti‐rabique et d’un modèle de prédiction dans le groupe vacciné. La deuxième méthode consiste à vacciner tous les sujets du groupe placebo non infectés à la fin de l’essai par le vaccin anti‐VIH et à enregistrer leur réponse immunitaire. Nous supposons que la réponse à la fin de l’essai est la même que ce qu’elle aurait été au début. Nous pouvons donc en déduire quelle aurait été la réponse immunitaire chez les sujets infectés du groupe placebo. De tels schémas peuvent aider àélucider le rôle de la réponse immunitaire dans la prévention des infections. Plus précisément, ils pourraient aider à décider l’amélioration ou l’abandon d’un vaccin anti‐VIH ayant montré une efficacité médiocre dans un essai de phase III. Statistical Inference in a Stochastic Epidemic SEIR Model with Control Intervention: Ebola as a Case Study Un modèle stochastique susceptible‐exposé‐infecté‐résistant (SEIR) à temps discret pour les maladies infectieuses est développé dans le but d’estimer les paramètres à partir de la série d'incidence quotidienne et de la série de mortalité d’une épidémie d'Ebola dans la république démocratique du Congo en 1995. La série d’incidence montre beaucoup de comptages faibles voir nuls ce qui nécessite une approche de modélisation stochastique. Pour identifier la nature stochastique des transitions entre les compartiments, nous spécifions des distributions binomiales conditionnelles appropriées. De plus, une fonction temporelle simple du taux transmission est introduite pour prendre en compte l’effet des interventions. Nous développons des méthodes MCMC pour l’inférence basée sur les distributions a posteriori des paramètres. L’algorithme est étendu pour intégrer numériquement des variables d’état du modèle non observées. Ceci conduit à un modèle stochastique réaliste qui peut être utiliser par des épidémiologistes pour étudier les dynamiques d’une maladies et l’effet des interventions. Measurement Error in a Random Walk Model with Applications to Population Dynamics Les abondances des populations naturelles sont rarement connues. Elles sont estimées avec une certaine imprécision. Cette erreur de mesure a des conséquences sur les analyses ultérieures, comme la modélisation de la dynamique de la population et l'estimation des abondances probables dans le futur. Cet article analyse certaines questions encore ouvertes sur les conséquences de l'erreur de mesure sur la dynamique d'un modèle simple, la marche aléatoire avec dérive, et propose de nouvelles méthodes de correction de l'erreur de mesure. Nous présentons un éventail large de modèles d'erreur de mesure qui tolèrent à la fois l'hétéroscédasticité et de possibles corrélations entre erreurs de mesure, et nous fournissons des résultats analytiques sur les biais des estimateurs ignorant l'erreur de mesure. Nos nouveaux estimateurs incluent à la fois la méthode des moments et des «pseudo estimateurs» résultant de la synthèse d'estimations observées d'abondances de population et d'estimations de paramètres du modèle d'erreur de mesure. Nous dérivons les propriétés asymptotiques de notre méthode et des méthodes existantes et comparons leurs performances en échantillons finis par simulation. Nous analysons aussi les implications pratiques de ces méthodes en les utilisant pour analyser deux jeux de données réels de dynamique de populations. Multistage Evaluation of Measurement Error in a Reliability Study Nous proposons des procédures de tests séquentiels pour la planification et l’analyse dans des études de fiabilité pour évaluer l’erreur de mesure d’une exposition. Nos schémas permettent l’évaluation répétitive de la fiabilité des mesures, et un arrêt de test lorsque l’erreur de mesure est mise en évidence précocement dans les limites de tolérance. Nos méthodes sont développées et les valeurs critiques calculées pour un certain nombre de schémas à deux étapes. Nos méthodes sont illustrées à l’aide d’un exemple évaluant la fiabilité de bio marqueurs associés au stress oxydatif. Effects of Residual Smoothing on the Posterior of the Fixed Effects in Disease‐Mapping Models Les modèles de cartographie de maladies pour des données aréolaires ont souvent des effets fixes pour mesurer l'effet de covariables variant spatialement et des effets aléatoires avec un a priori autorégressif conditionnel (CAR) pour prendre en compte la corrélation spatiale. Dans de telles régressions spatiales, l'objectif peut être d'estimer les effets fixes en prenant en compte la corrélation spatiale. Mais ajouter les effets aléatoires CAR peut provoquer de grands changements dans la moyenne et la variance a posteriori des effets fixes, comparé au modèle de régression non‐spatial. Ce papier explore l'impact de l'ajout des effets aléatoires spatiaux sur les estimations des effets fixes et la variance a posteriori. Des diagnostiques sont proposés pour mesurer l'inflation de la variance a posteriori due à la colinéarité entre les covariables à effets fixes et les effets aléatoires CAR et de mesurer chaque influence des régions sur le changement des estimations des effets fixes lorsque des effets aléatoires CAR sont ajoutés. Un nouveau modèle qui allège la colinéarité entre les covariables à effet fixe et les effets aléatoires CAR est développé. Des extensions des ces méthodes à des modèles pour données ponctuellement référencées sont discutées. Equivalence of Truncated Count Mixture Distributions and Mixtures of Truncated Count Distributions Ce papier porte sur la modélisation de données de comptage avec une troncation en zéro. Une famille de densités paramétrique de comptage est considérée. Le mélange tronqué de densités de cette famille est différent du mélange de densités tronquées de la même famille. Alors que le premier modèle est plus naturel à formuler et interpréter, le deuxième est théoriquement plus facile à traiter. Il est montré que pour n'importe quelle distribution mélangeante conduisant à un mélange tronqué, une distribution mélangeante (d'habitude différente) peut être trouvée, si bien que le mélange associé de distributions tronquées est égale au mélange tronqué et vice versa. Ceci implique que les surfaces de vraisemblance pour les deux situations s'accordent, et dans ce sens les deux modèles sont équivalents. Les modèles de données de comptage avec troncation en zéro sont utilisés fréquemment en capture‐recapture pour estimer la taille de la population et il est montré que les deux estimateurs de Horvitz‐Thompson associés à ces deux modèles sont en accord. En particulier il est possible d'obtenir des résultats forts pour les mélanges de densités de Poisson tronquées incluant une construction globale fiable de l'unique estimateur NPMLE de la distribution mélangeante, ce qui implique un estimateur unique pour la taille de la population. Le bénéfice de ce résultat réside dans le fait qu'il est valide de travailler avec le mélange de densités de comptage tronquées, qui est moins attractif pour le praticien mais théoriquement plus facile. Les mélanges de densités de comptage tronquées forment un modèle linéaire convexe, pour lesquels une théorie a été développée incluant une théorie du maximum de vraisemblance globale aussi bien que des approches algorithmiques. Une fois que le problème a été résolu dans cette classe, il devrait être facile de revenir au problème original par une transformation explicitement donnée. Des applications de ces idées sont données, spécialement dans le cas de la famille de Poisson tronquée. New Approximations to the Malthusian Parameter Des approximations du paramètre malthusien d’un processus de branchement age‐dépendant sont obtenues en fonction des moments de la distribution du temps de survie, en utilisant un lien avec la théorie du renouvellement. Plusieurs exemples montrent que nos nouvelles approximations sont plus précises que celles actuellement utilisées, même lorsqu’elles ne sont basées que sur les deux premiers moments. Ces nouvelles approximations sont étendues pour s’adapter à une forme de division cellulaire asymétrique rencontrées chez certaines espèces de levures. Nous montrons qu’elles sont d’efficience élevée lorsqu’on les utilise dans un cadre inférentiel. Adaptive Web Sampling Une classe flexible d'échantillonnage adaptatif est introduit pour échantillonner dans un contexte de réseau ou spatial. Les sélections sont réalisées séquentiellement avec un mélange de lois basé sur un ensemble actif qui change lorsque l'échantillonnage progresse en utilisant des relations de réseau ou spatiales ainsi que des valeurs de l'échantillon. Les nouveaux plans de sondage ont des avantages certains comparés aux plans adaptatifs préexistants et aux plans par dépistage de liens, incluant un contrôle sur les tailles d'échantillons et sur la proportion de l'effort alloué aux sélections adaptatives. Une inférence efficace implique un moyennage sur tous les chemins consistant avec la statistique suffisante minimale. Une méthode de réechantillonnage par chaîne de Markov permet de réaliser l'inférence. Les plans sont évalués dans des dispositifs de réseaux ou spatiaux en utilisant deux populations empiriques: une population humaine cachée à risque pour le VIH/Sida et une population d'oiseaux irrégulièrement distribuée. Motor Unit Number Estimation—A Bayesian Approach Toute contraction musculaire dépend de l’état de fonctionnement des unités motrices. Dans des maladies comme la sclérose latérale amyotrophique (SLA), la perte progressive des unités motrices conduit à la paralysie. Une difficulté majeure dans la recherche d’un traitement pour ces maladies réside dans l’absence d’une mesure fiable de la progression de la maladie. Une mesure possible serait l’estimation du nombre d’unités motrices restant en vie. Toutes les méthodes proposées pour l’estimation du nombre d’unités motrices (ENUM) pendant près de 30 ans ont été confrontées à des objections pratiques et théoriques. Notre but est de développer une méthode ENUM surmontant ces objections. Nous enregistrons le potentiel d’activité musculaire composé (PAMC) d’un muscle donnée, en réponse à un stimulus électrique gradué appliqué au nerf. Lorsque l’intensité du stimulus augmente le seuil de chaque unité motrice est dépassé, et la valeur du PAMC augmente jusqu’à ce qu’une réponse maximale soit atteinte. Cependant, le potentiel seuil requis pour l’excitation d’un axone n’est pas une valeur précise, mais fluctue dans un petit intervalle, ce qui conduit à une activation probabiliste des unités motrices, en réponse à un stimulus donné. En cas de recouvrement des intervalles seuils des unités motrices, on peut être en présence d’alternatives dues à un nombre variable d’unités motrices activées en réponse au stimulus. Ceci signifie que les incréments de la valeur du PAMC correspondent à l’activation de différentes combinaisons d’unités motrices. Pour un stimulus fixé la variabilité du PAMC, rapportée par sa variance, peut être utilisée pour piloter une ENUM à l’aide d’une méthode de Poisson. Cependant cette méthode repose les hypothèses d’une part de distribution de Poisson pour le nombre d’unités motrices activées, et d’autre part de taille fixe et identique pour tous les potentiels d’activation des unités motrices (PAUM) simples. Ces hypothèses ne sont pas nécessairement justifiées. Nous proposons une méthodologie bayésienne pour l’analyse des données électrophysiologiques en vue de l’estimation du nombre d’unités motrices. Notre méthode ENUM incorpore la variabilité des seuils, la variabilité intra‐ et inter‐ PAUM simples, et une variabilité de base. Notre modèle ne donne pas seulement le nombre le plus probable d’unités motrices, mais fournit également des informations sur la population formée par ces unités, et sur les unités individuelles. Nous utilisons les méthodes MCMC pour obtenir l’information sur les caractéristiques des unités motrices individuelles, sur la population des unités motrices, et le BIC pour ENUM. Nous testons notre méthode ENUM sur trois sujets. Notre méthodes fournit une estimation reproductible pour un patient atteint de SLA sévère mais stable. Dans une étude de série, nous montrons la chute du nombre des unités motrices chez un patient présentant une maladie rapidement évolutive. Enfin, avec le dernier patient, nous montrons que notre méthode permet d’estimer de grands nombres d’unités motrices. Extension of the Rank Sum Test for Clustered Data: Two‐Group Comparisons with Group Membership Defined at the Subunit Level Le test de somme des rangs de Wilcoxon est largement utilisé pour comparer deux groupes de données non normales. Ce test suppose l'indépendance des unités d'échantillonnage à la fois entre les groupes et à l'intérieur des groupes. En ophtalmologie, les données concernent souvent les deux yeux d'un même individu, qui sont hautement corrélées. Dans les essais cliniques en ophtalmologie, la randomisation est effectuée au niveau de l'individu, mais l'unité d'analyse est l'?il. Si l'?il est utilisé comme unité dans l'analyse, alors la formule usuelle de la variance du test de somme des rangs de Wilcoxon doit être modifiée pour tenir compte de la dépendance à l'intérieur des grappes. Dans certains dispositifs avec données en grappes, où l'unité d'analyse est la sous‐unité, l'appartenance au groupe doit être définies au niveau de la sous‐unité. Par exemple, dans certains essais cliniques en ophtalmologie, des traitements différents peuvent être appliqués à chaque ?il de certains patients, alors que le même traitement peut être appliqué aux deux yeux d'autres patients. En général, il peut y avoir des covariables binaires spécifiques de l'?il (cotées comme ‘exposé' ou ‘non exposé') et l'on souhaite comparer des résultats distribués non normalement entre yeux exposés ou non exposés au moyen d'un test de somme des rangs de Wilcoxon tout en prenant en compte les grappes. Dans cet article, nous présentons une formule corrigée pour la variance de la statistique de la somme des rangs de Wilcoxon en présence de covariables spécifiques de l'?il (sous‐unité). Nous l'appliquons pour comparer des scores de démangeaison chez des patients qui ont une allergie oculaire entre yeux traités par des gouttes actives ou des gouttes placebo, sachant que certains patients reçoivent les mêmes gouttes dans les deux yeux, alors que d'autres patients reçoivent des gouttes différentes dans chaque oeil. Nous présentons également des comparaisons entre le test de Wilcoxon pour des grappes, et chacune des approches par tests de rangs signés et modèle mixte, et nous montrons des différences très notables de puissance en faveur du test de Wilcoxon pour grappes dans certains dispositifs.  相似文献   

6.
《Biometrics》2008,64(3):1000-1007
I. Lobach, R. J. Carroll, C. Spinka, M. H. Gail, and N. Chatterjee 673 Haplotype‐Based Regression Analysis and Inference of Case‐‐Control Studies with Unphased Genotypes and Measurement Errors in Environmental Exposures Il est maintenant établi que le risque de développer une maladie dite complexe est sous l’influence conjointe de facteurs de susceptibilité génétiques, de facteurs d’exposition environnementaux et de leurs interactions potentielles. Chatterjee et caroll (2005) ont développé une méthode efficace de maximum de vraisemblance rétrospectif pour l’analyse des études cas‐témoins qui fait l’hypothèse d’indépendance des effets génétiques et environnementaux et qui autorise une distribution totalement non paramétriques des covariables environnementales. Spinka et al (2005) ont étendu cette approche aux études où certains types d’information, comme les phases haplotypiques, sont manquantes chez certains individus. Nous étendons cette approche aux situations où certaines exposition environnementales sont mesurées avec erreur. A l’aide d’un modèle de régression logistique polychotomique, nous permettons au statut maladie d’avoir K+1 niveaux. Nous proposons d’utiliser une pseudo‐vraisemblance and un algorithme EM associé pour l’estimation des paramètres. Nous démontrons leur consistance et dérivons la matrice de covariance asymptotique des estimations des paramètres lorsque la variance de l’erreur de mesure est connue et lorsqu’elle est estimée à l’aide de réplications. Les inférences avec des corrections de l’erreur de mesure sont compliquées par le fait que le test de Wald à des propriétés non satisfaisantes en présence d’un large nombre d’erreurs de mesure. Les techniques du rapport de vraisemblance sont connues pour être une alternative satisfaisante. Cependant, les tests du rapport de vraisemblance ne sont pas techniquement corrects dans cette situation car la fonction de vraisemblance est fondée sur un modèle incorrect, i.e. un modèle prospectif dans un schéma d’échantillonnage rétrospectif. Nous corrigeons les résultats asymptotiques standards pour prendre en compte le fait que le test du rapport de vraisemblance est fondé sur une fonction apparentéà la vraisemblance. Les performances de la méthode proposée sont illustrées avec des études de simulation dans le cas où l’information génétique est de type haplotypique et que les données manquantes viennent d’une ambigüité de phase lors de la reconstruction de ces haplotypes. Enfin, nous appliquons notre méthode à une étude d’association cas‐témoins entre la prise de calcium et le risque d’adénome colorectal. B. Mukherjee and N. Chatterjee 685 Exploiting Gene‐Environment Independence for Analysis of Case‐‐Control Studies: An Empirical Bayes‐Type Shrinkage Estimator to Trade‐Off between Bias and Efficiency L’analyse prospective habituelle de données de type cas‐témoin par la régression logistique conduit souvent à des estimateurs très imprécis des interactions gènes‐environnement, en raison du faible nombre de cas ou de témoins pour des croisements génotype‐exposition. Par contraste, sous l’hypothèse d’indépendance gène‐environnement, par les méthodes actuelles rétrospectives, y compris l’approche «cas seulement », on peut estimer les paramètres d’interaction de manière beaucoup plus précise, mais on peut avoir un biais important lorsque l’hypothèse sous‐jacente d’indépendance gène‐environnement n’est pas respectée. Dans cet article, nous proposons un nouvel estimateur de type Bayésien empirique pour analyser des données cas‐témoin, permettant d’assouplir l’hypothèse d’indépendance gène‐environnement en s’appuyant sur les données. Dans le cas particulier d’un gène binaire et d’une exposition binaire, la méthode conduit à un estimateur du paramètre log odds‐ratio de l’interaction sous forme simple explicite, correspondant à une moyenne pondérée des estimateurs usuels « cas seulement » et cas‐témoin. Nous décrivons également une méthode générale pour l’obtention du nouvel estimateur et de sa variance dans le schéma rétrospectif au maximum de vraisemblance proposé par Chatterjee et Carroll (2005). Des simulations et des exemples sur données réelles montrent que l’estimateur proposé marque bien l’équilibre entre le biais et l’efficacité selon la réelle association gène‐environnement et la taille d’échantillon pour une étude donnée. Z. Cai, M. Kuroki, J. Pearl, and J. Tian 695 Bounds on Direct Effects in the Presence of Confounded Intermediate Variables Cet article traite le problème de l’estimation de l’effet directement attribuable au traitement (average controlled direct effect : ACDE) dans l’analyse d’un critère final, lorsque des facteurs de confusion non mesurés adviennent entre la mesure d’une variable intermédiaire et ce critère final. En effet, même lorsque ces facteurs de confusion ne perturbent pas l’estimation de l’effet total (qui est alors identifiable), ils rendent non identifiable l’effet direct attribuable au traitement. Kaufman et coll. (2005) ont utilisé un logiciel de programmation linéaire pour trouver les minimum et maximum des valeurs possibles de l’ACDE pour des données numériques particulières. En utilisant la méthode de programmation linéaire symbolique de Balke–Pearl (1997), nous dérivons ici des formules analytiques pour les limites supérieure et inférieure de l’ACDE sous diverses hypothèses de monotonie. Ces valeurs‐limites sont toujours valides. Dans le domaine de la recherche clinique, elles permettent d’évaluer, de façon abordable en termes de calcul, l’effet directement attribuable au traitement. Elles permettent ainsi d’éclairer l’expérimentateur sur le sens dans lequel s’exerce l’effet attribuable au traitement, ainsi que sur la précision des estimations. T. J. VanderWeele 702 The Sign of the Bias of Unmeasured Confounding Les variables de confusion non mesurées constituent un problème fréquent lorsqu’on veut faire de l’inférence dans des études observationnelles. Nous proposons un théorème qui permet, dans certaines circonstances, de tirer des conclusions sur le signe du biais généré par une variable de confusion non mesurée. Plus précisément, il est possible de déterminer le signe du biais quand il existe des relations monotones d’une part entre la variable de confusion non mesurée et le traitement et, d’autre part, entre la variable de confusion non mesurée et le critère de jugement. Les conditions d’application du théorème sont discutées ainsi que les avantages et les inconvénients liés à son utilisation pour déterminer le sens du biais de la confusion non mesurée. M. Zhang, A. A. Tsiatis, and M. Davidian 707 Improving Efficiency of Inferences in Randomized Clinical Trials Using Auxiliary Covariates L’objectif premier d’un essai clinique randomisé est de comparer deux traitements ou plus. Par exemple, dans un essai à deux bras avec une réponse continue, on peut s’intéresser à la différence des moyennes; avec plus de deux traitements, la comparaison peut être basée sur des différences appariées. Avec des réponses binaires, des odds ratio appariés ou des log odds ratio peuvent être utilisés. En général, les comparaisons peuvent être basées sur des paramètres ayant un sens, dans un modèle statistique pertinent. Des analyses standards pour l’estimation et les tests dans ce contexte, sont typiquement basées sur les données collectées de la réponse et du traitement seulement. Dans beaucoup d’essais, une information sur une covariable auxiliaire peut également être disponible et il est intéressant d’exploiter ces données pour améliorer l’efficacité des inférences. En prenant une perspective de théorie semi‐paramétrique, nous proposons une approche largement applicable à l’ajustement de covariables auxiliaires pour obtenir des estimateurs plus efficaces et des tests pour les paramètres de traitement dans l’analyse d’essais cliniques randomisés. Des simulations et des applications démontrent la performance des ces méthodes. C. J. Lloyd 716 A New Exact and More Powerful Unconditional Test of No Treatment Effect from Binary Matched Pairs Nous considérons le problème du test de la différence des probabilités du succès de paires binaires couplées. Commençant par trois tests standard inexacts, le paramètre de nuisance est d’abord estimé et ensuite la dépendance résiduelle éliminée par maximisation, produisant ce que j’appelle la p‐valeur de E+M. On montre que cette p‐valeur, basée sur la statistique de McNemar, est numériquement supérieure aux suggestions précédentes, y compris les p‐valeurs partiellement maximisées telles qu’elles sont décrites dans Berger et Sidik (2003). La dernière méthode cependant peut avoir des avantages du point de vue des calculs pour de grands échantillons. G. Wei and D. E. Schaubel 724 Estimating Cumulative Treatment Effects in the Presence of Nonproportional Hazards Souvent, dans les études médicales portant sur le délai d’apparition d’un événement, l’effet traitement n’est pas constant au cours du temps. Dans le cas du modèle de Cox, la solution la plus fréquente est d’utiliser un modèle qui suppose que soit l’effet traitement est constant par intervalle, soit qu’il varie lentement au cours du temps (le modèle de Cox à risques non proportionnels). Cette approche a au moins deux limitations majeures. Premièrement, il est généralement difficile d’évaluer si la forme du paramètre choisi pour l’effet traitement est correct. Deuxièmement, en présence de risques non proportionnels, les investigateurs sont habituellement plus intéressés par l’effet traitement cumulé plutôt que par l’effet traitement instantané (c’est‐à‐dire déterminer si et quand les fonctions de survie se croisent). Par conséquent, nous proposons un estimateur pour l’effet global du traitement en présence de risques non proportionnels. Notre estimateur est fondé sur le risque de base cumulé estimé sous un modèle de Cox stratifié. Aucune hypothèse n’est nécessaire quant à la forme de la fonction concernant l’absence de proportionnalité. Les propriétés asymptotiques des estimateurs proposés sont déduites, et les propriétés dans le cas d’échantillons de taille finie sont évaluées par des simulations. L’estimation et les intervalles de confiance de l’estimateur peuvent être calculés simultanément. La méthode proposée est appliquée à des données provenant du registre national des rejets d’organes canadien. B. R. Logan, J. P. Klein, and M.‐J. Zhang 733 Comparing Treatments in the Presence of Crossing Survival Curves: An Application to Bone Marrow Transplantation Dans certaines études cliniques comparant des traitements en terme de courbes de survie, les chercheurs peuvent anticiper que les courbes de survie se croiseront à un certain point, aboutissant à s’intéresser à la comparaison de la survie à long terme. Cependant, la simple comparaison des courbes de survie à un point donné peut être inefficace, et l’utilisation d’un test du log‐rank pondéré peut être trop sensible aux différences initiales dans la survie. Nous formulons le problème comme celui de tester les différences des courbes de survie après un temps pré‐spécifié, et proposons une variété de techniques pour tester cette hypothèse. Nous étudions ces méthodes en utilisant des simulations et les illustrons sur une étude comparant la survie pour des transplantations autologues et allogéniques de moelle. R. Song, M. R. Kosorok, and J. Cai 741 Robust Covariate‐Adjusted Log‐Rank Statistics and Corresponding Sample Size Formula for Recurrent Events Data Des évènements récurrents se rencontrent fréquemment dans les essais cliniques. Cet article développe des statistiques robustes du log‐rank ajustées pour des covariables, appliquées à des évènements récurrents en nombre arbitraire avec censure indépendante et la formule de taille d’échantillon correspondante. Les tests du log‐rank proposés sont robustes pour différents procédés de génération de données et ajustés pour des covariables prédictives. Ils se ramènent au cadre développé par Kong et Slud (1997) dans le cas d’un événement unique. La formule de taille d’échantillon repose sur la normalité asymptotique des statistiques du log‐rank ajustées pour des covariables sous certaines alternatives locales et sous un modèle pour les covariables au baseline dans le contexte d’évènements récurrents. Quand la taille de l’effet est petite et quand les covariables au baseline n’apportent pas une information significative sur les temps de survenue, elle se ramène à la même forme que celle de Schoenfeld (1983) dans les cas d’un événement unique ou de temps de survenue indépendants pour un sujet. Nous réalisons des simulations pour étudier le contrôle de l’erreur de type I et pour comparer la puissance de plusieurs méthodes sur des échantillons finis. La formule de taille d’échantillon proposée est illustrée à partir des données d’un essai de la rhDNase. J. D. Nielsen and C. B. Dean 751 Clustered Mixed Nonhomogeneous Poisson Process Spline Models for the Analysis of Recurrent Event Panel Data Un modèle semi paramétrique flexible pour analyser des données de comptage longitudinales provenant de mélanges est présenté. Les données de comptage en panel se réfèrent ici à des données de comptage sur des évènements récurrents collectés comme le nombre d’évènements qui sont arrivés durant une période de suivi spécifique. Le modèle suppose que les comptages pour chaque sujet sont générés par des mélanges de processus de Poisson non homogènes avec des fonctions d’intensité lissées modélisées par des splines pénalisés. Les effets des covariables dépendant du temps sont aussi incorporés dans le modèle dans l’intensité du processus en utilisant les fonctions splines. Des mélanges discrets de ces modèles splines de processus non homogènes de Poisson extraient l’information fonctionnelle provenant des grappes sous‐jacentes représentant les sous populations cachées. La motivation de ce travail est une expérience pour tester l’efficacité de phéromones en interrompant le processus d’accouplement de papillons tortriciae de l’écorce du cerisier. Les papillons matures proviennent de sous populations cachées mais distinctes et on s’intéressait au contrôle des réponses des sous populations. Des effets aléatoires intra‐grappes sont utilisés pour prendre en compte les structures de corrélation et l’hétérogénéité communes à ce genre de données. Une approche pour faire de l’inférence par équations d’estimation, requérant seulement des hypothèses faibles, est développée et les propriétés à distance finie des fonctions d’estimation proposées sont étudiées empiriquement par simulation. R. M. Elashoff, G. Li, and N. Li 762 A Joint Model for Longitudinal Measurements and Survival Data in the Presence of Multiple Failure Types Dans ce papier, nous étudions un modèle conjoint pour des mesures longitudinales et des données de survie à risques compétitifs. Notre modèle conjoint fournit une approche souple pour prendre en compte les données manquantes possiblement non ignorables dans les mesures longitudinales dues aux sorties d’étude. Il s’agit aussi d’une extension des modèles conjoints précédents avec un seul type d’événements, offrant une voie possible pour modéliser les événements censurés informativement comme un risque compétitif. Notre modèle consiste en un sous‐modèle linéaire à effets mixtes pour le critère longitudinal et un sous‐modèle de fragilitéà risques proportionnels cause spécifique (Prentice et al., 1978, Biometrics 34, 541–554) pour les données de survie à risques compétitifs, liés l’un à l’autre par des effets aléatoires latents. Nous proposons d’obtenir les estimations du maximum de vraisemblance des paramètres par un algorithme EM et d’estimer leurs écarts‐types en utilisant une méthode de vraisemblance profilée. La méthode développée fonctionne bien dans nos études de simulation et est appliquée à un essai clinique sur les atteintes pulmonaires de la sclérodermie. S. Goetgeluk and S. Vansteelandt 772 Conditional Generalized Estimating Equations for the Analysis of Clustered and Longitudinal Data Un problème commun et important dans des plans d’échantillonnage en grappes est que l’effet des expositions intra‐grappes (c’est‐à‐dire des expositions qui varient dans les grappes) sur le résultat peut être confondu avec des facteurs mesurés ou non des facteurs du niveau de la grappe (c’est‐à‐dire des mesures qui ne changent pas à l’intérieur des grappes). Quand certains résultats sont malades/non expliqués, l’estimation de cet effet par l’intermédiaire de modèles de moyenne de la population ou de modèles à effets aléatoires peut introduire un biais. Nous adaptons ce fait en développant une théorie générale de l’analyse de données en grappes qui permet une estimation convergente et asymptotiquement normale des effets (CAN) des expositions intra‐grappes en présence des niveaux de confusion du niveau de grappe. Des estimateurs efficaces semi‐paramétriques sont obtenus en résolvant les équations d’estimation conditionnelles généralisées (CGEE). Nous comparons cette approche à une proposition populaire de Neuhaus et Kalbfleisch (1998) qui séparent l’effet d’exposition en composantes intra‐grappes ou entre grappes à l’intérieur d’un modèle aléatoire avec une constante. Nous constatons que cette dernière approche fournit des estimateurs convergents et efficaces quand le modèle est linéaire, mais qu’elle est moins flexible en termes de spécification de modèles. Avec des modèles non‐linéaires, cette approche peut aboutir à des estimateurs non convergents et inefficaces, bien que le biais reste faible dans la majorité des cas pratiques. Y. Ma, W. Tang, C. Feng, and X. M. Tu 781 Inference for Kappas for Longitudinal Study Data: Applications to Sexual Health Research De nombreuses recherches comportementales, médicales, psycho‐sociales ou de santé utilisent des mesures de la fiabilité des instruments ou de la concordance entre juges pour évaluer les propriétés psychométriques de leurs instruments, le niveau de consensus en matière de diagnostic médical, ou la fiabilité d’une variable de substitution. L’indice de concordance le plus fréquemment utilisé pour des réponses catégorielles est le coefficient kappa de Cohen. Aujourd’hui, dans de nombreuses études, on observe des réponses corrélées, ce qui complique ou invalide l’inférence à partir des méthodes antérieures. En outre, les problèmes posés par les observations incomplètes sont particulièrement gênants dans les études longitudinales, de plus en plus nombreuses, et l’absence de méthodes adaptées entrave le développement des recherches. L’approche que nous présentons repose sur une nouvelle classe d’estimateurs des coefficients kappa qui prend en compte les difficultés que l’on rencontre dans les études longitudinales où interviennent plusieurs évaluateurs, en particulier celles liées aux observations incomplètes. Nous illustrons la méthode à partir de données réelles concernant le sexe et la santé. B. J. Reich and J. S. Hodges 790 Modeling Longitudinal Spatial Periodontal Data: A Spatially Adaptive Model with Tools for Specifying Priors and Checking Fit La perte d’attachement (AL) ou longueur sous la racine dentaire qui n’est plus attachée à l’os par le ligament parodontal est une mesure habituelle de la maladie parodontale. Dans cet article, nous développons un modèle spatio‐temporel de surveillance de la progression de l’AL. Notre modèle est une extension de l’a‐priori conditionnel autorégressif (CAR), qui lisse spatialement les estimations vers leurs voisins. Cependant, puisque l’AL présente souvent des accès de grandes valeurs dans l’espace et dans le temps, nous proposons un modèle spatiotemporel CAR non‐stationnaire qui permet au degré de lissage temporel et spatial de varier dans les différentes régions de la bouche. Pour celà, nous attribuons à chaque site de mesure d’AL son propre ensemble de paramètres de variance, et lissons les variances avec des a‐priori spatiaux. Nous suggérons une heuristique pour mesurer la complexité des variances site‐spécifiques, et nous l’utilisons pour sélectionner les a‐priori qui garantissent que les paramètres du modèle sont bien identifiés. Sur des données d’un essai clinique, le modèle améliore la qualité de l’ajustement par rapport au modèle usuel dynamique CAR pour 90 des 99 mesures d’AL. Y. Guan 800 A KPSS Test for Stationarity for Spatial Point Processes Nous proposons une méthode formelle pour tester la stationnarité d’un processus spatial ponctuel. La statistique de test proposée est basée sur l’intégrale des carrés des écarts entre les nombres d’événements observés et leur moyenne sous l’hypothèse de stationnarité. Nous montrons que la statistique de test obtenue converge en loi vers une fonctionnelle d’un mouvement brownien bidimensionnel. Pour appliquer le test, nous comparons la statistique calculée aux valeurs critiques à l’extrémité supérieure de cette fonctionnelle. Notre méthode suppose seulement une condition de dépendance faible pour le processus, mais ne requiert aucun modèle paramétrique pour cela. De la sorte, elle peut être appliquée à une large classe de modèles de processus spatiaux ponctuels. Nous étudions l’efficacité du test à la fois par des simulations et des applications à deux exemples sur données réelles où la non stationnaritéétait préalablement envisagée en se basant sur des aspects graphiques. Notre test confirme cette non stationnarité suspectée dans les deux cas. W. Zucchini, D. Raubenheimer, and I. L. MacDonald 807 Modeling Time Series of Animal Behavior by Means of a Latent‐State Model with Feedback Nous décrivons une famille de modèles adaptés aux séries temporelles de comportement nutritionnel animal. Les modèles incluent un état non observé pouvant être interprété comme l’état de motivation de l’animal, et un mécanisme pour donner cet état en retour du comportement observé. Nous discutons des méthodes d’évaluation et de maximisation de la vraisemblance d’une série observée de comportements, de l’estimation des paramètres, et de l’inférence pour la plus probable séquence d’états sous‐jacents. Nous indiquons plusieurs extensions de ces modèles, incorporant des effets aléatoires. Nous appliquons ces méthodes à l’analyse du comportement nutritionnel des chenilles Helicoverpa armigera, et nous démontrons ainsi le potentiel de cette famille de modèles dans l’étude des comportements. R. King and S. P. Brooks 816 On the Bayesian Estimation of a Closed Population Size in the Presence of Heterogeneity and Model Uncertainty Nous considérons l’estimation de la taille d’une population fermée, qui présente souvent un intérêt pour des populations animales sauvages, en utilisant une étude de capture‐recapture. L’estimation de la taille totale de population peut être très sensible au choix du modèle utilisé pour l’ajuster aux données. Nous considérons une approche bayésienne, dans laquelle nous considérons chacun des huit modèles plausibles originellement décrits par Otis et al. (1978) dans un contexte simple, incluant des modèles avec une composante individuelle d’hétérogénéité. Nous montrons comment nous pouvons obtenir une estimation moyenne de la population totale, incluant simultanément le paramètre et l’incertitude du modèle. Pour illustrer la méthodologie nous effectuons d’abord une étude de simulation et nous analysons deux ensembles de données où la taille de population est connue, avant de considérer un exemple réel concernant une population de dauphins du nord‐est de l’Ecosse. A. J. Branscum and T. E. Hanson 825 Bayesian Nonparametric Meta‐Analysis Using Polya Tree Mixture Models Un objectif habituel dans une méta‐analyse est l’estimation d’une mesure d’effet unique en utilisant les données de plusieurs études qui sont toutes dessinées pour traiter la même question scientifique. Parce que les études sont typiquement réalisées dans des lieux géographiquement dispersés, les développements récents dans l’analyse statistique des données de méta‐analyses impliquent l’utilisation de modèles avec effets aléatoires qui tiennent compte de la variabilité entre études attribuable aux différences d’environnement, de démographie, de génétique, et d’autres sources d’hétérogeneïté entre les populations. En se fondant sur la théorie asymptotique, les statistiques résumées propres à chaque étude sont modélisées selon des distributions normales représentant les vraies mesures d’effets latents. Dans un deuxième temps une approche paramétrique modélise ces mesures latentes au moyen d’une distribution normale, qui est uniquement une supposition commode dénuée de justification théorique. Pour éliminer l’influence de modèles paramétriques par trop restrictifs sur l’inférence, nous considérons une classe plus large de distributions pour les effets aléatoires. Nous développons un nouveau modèle de mélange d’arbres de Polya Bayesien non paramétrique et hiérarchique. Nous présentons une méthodologie pour tester un modèle de mélange d’arbre de Polya contre un modèle avec effets aléatoires normaux. Ces méthodes fournissent aux chercheurs une approche immédiate pour conduire une analyse de sensibilité de la normalité des effets aléatoires. Une application impliquant une méta‐analyse d’études épidémiologiques pour caractériser l’association entre la consommation d’alcool et le cancer du sein est présentée qui, alliée à des résultats issus de données simulées, met en lumière la performance des mélanges d’arbre de Polya en présence de non‐normalité des mesures d’effet dans la population d’origine. G. Massonnet, P. Janssen, and T. Burzykowski 834 Fitting Conditional Survival Models to Meta‐Analytic Data by Using a Transformation Toward Mixed‐Effects Models Les modèles à fragilité sont communément utilisés pour modéliser des survies sur données en ‘clusters’. Les approches classiques pour ajuster des modèles de fragilité sont basées sur la vraisemblance. Nous proposons une approche alternative dans laquelle le problème initial d'« ajustement d’un modèle de fragilité» est reformulé en le problème d’« ajustement d’un modèle linéaire mixte » grâce à l’utilisation d’un modèle de transformation. Nous montrons que le principe de transformation s’applique aussi aux modèles multivariés à odds proportionnels ainsi qu’aux modèles de risques additifs multivariés. Il permet de plus de faire le lien entre des méthodes séparées en ce sens qu’il fournit un moyen général d’ajuster des modèles conditionnels pour des données de survie multivariées en utilisant la méthodologie des modèles mixtes. Nous nous centrons sur les modèles à fragilité afin d’étudier les caractéristiques spécifiques de la méthode proposée. En nous basant sur une étude de simulation nous montrons que la méthode proposée produit une alternative correcte et simple pour l’ajustement de modèles à fragilité sur des données présentant un nombre suffisamment grand de classes et des tailles d’échantillons modérées à grande à l’intérieur de niveaux de sous‐groupes de covariables. La méthode proposée est appliquée à des données provenant de 27 essais randomisés sur des cancers colorectaux avancés, disponibles par l’intermédiaire du groupe de Meta‐Analyse du Cancer. R. A. Hubbard, L. Y. T. Inoue, and J. R. Fann 843 Modeling Nonhomogeneous Markov Processes via Time Transformation Les études longitudinales constituent un outil puissant pour représenter la progression des maladies chroniques. Ces études sont habituellement menées avec des patients examinés lors de visites périodiques, donnant ainsi des données de type panel. Dans ce schéma d’observation, les temps exacts de transitions entre les états de la maladie, et la séquence suivie des états de la maladie sont inconnus, et les modèles à base de processus de Markov sont souvent utilisés pour décrire la progression. La plupart des applications reposant sur les processus markoviens supposent l’homogénéité par rapport au temps, autrement dit que les taux de transition sont constants au cours du temps. Cette hypothèse n’est pas satisfaite lorsque les taux de transition dépendent du temps à compter du début de la maladie. Cependant, peu d’outils statistiques existent pour prendre en compte cette non‐homogénéité. Nous proposons des modèles dans lesquels l’échelle de temps d’un processus de Markov non‐homogène est transformée en une échelle de temps opérationnelle par rapport à laquelle le processus est homogène. Nous développons une méthode pour l’estimation jointe de la transformation de temps et de la matrice d’intensité de transition pour le processus homogène transformé. Nous établissons une estimation au maximum de vraisemblance utilisant l’algorithme du score de Fisher par des études de simulation, et nous comparons la performance de notre méthode par rapport à des modèles homogènes et des modèles homogènes par morceaux. Nous appliquons notre méthodologie à une étude sur la progression du délire dans une cohorte de receveurs de transplantation de cellules souche, et nous montrons que notre méthode identifie les tendances temporelles dans l’incidence du délire et dans la récupération. C. C. Drovandi and A. N. Pettitt 851 Multivariate Markov Process Models for the Transmission of Methicillin‐Resistant Staphylococcus Aureus in a Hospital Ward L’Aureus Staphylococcus résistant à la méthicilline (SARM) est un pathogène qui continue d’être un problème majeur à l’hôpital. Nous développons des modèles et des algorithmes de calcul basés sur des données observées d’incidences hebdomadaires pour estimer les paramètres de transmission du MRSA. Nous étendons le modèle déterministe de McBryde, Pettitt et McElwain (2007) impliquant une population sous‐jacente de patients colonisés par MRSA et de personnels soignants qui décrit, parmi d’autres processus, la transmission entre patients non colonisés et personnels soignants colonisés et vice‐versa. Nous développons de nouveaux modèles de Markov bivariés et trivariés pour inclure l’incidence de telle façon que les taux de transmission estimés puissent être basés directement sur de nouvelles colonisations plutôt qu’indirectement sur la prévalence. La sensibilité imparfaite de la détection du pathogène est modélisée en utilisant un processus markovien caché. Les avantages de notre approche incluent (i) l’hypothèse d’une valeur discrète pour le nombre de personnels soignants colonisés, (ii) deux paramètres de transmission pouvant être incorporés dans la vraisemblance, (iii) la vraisemblance dépend du nombre de nouveaux cas pour améliorer la précision de l’inférence, (iv) les enregistrements individuels des patients ne sont pas requis, et (v) la possibilité d’une détection imparfaite de la colonisation est incorporée. Nous comparons notre approche avec celle utilisée par McBryde et al (2007), basée sur une approximation qui élimine les personnels soignants du modèle, utilisant une chaîne de Markov par Monte Carlo et des données individuelles des patients. Nous appliquons ces modèles à des données de colonisation de SARM, collectées dans de petites unités de soins intensifs (ICU) à l’hôpital Princesse Alexandra, Brisbane, Australie. A. R. Cook, G. J. Gibson, and C. A. Gilligan 860 Optimal Observation Times in Experimental Epidemic Processes Cet article décrit une méthode de choix de temps d’observation de processus stochastiques destinés à maximiser les espérances des informations de leurs paramètres. On considère deux modèles généralement utilisés pour des processus épidémiologiques: un processus simple de mort et un processus épidémique de susceptibilité d’infection (SI) avec des sources doubles d’infection se développant de l’intérieur ou de l’extérieur de la population. La recherche du plan optimal emploie des méthodes bayésiennes de calcul pour explorer l’espace expérimental commun paramètre‐donnée, combinéà une méthode connue sous le nom de fermeture de moment d’approximation de la vraisemblance pour rendre efficace l’étape d’acceptation. Pour les processus considérés, on montre que choisir un petit nombre d’observations de façon optimale est presqu’aussi bon que collecter des observations de manière plus intensive, pratique générale dans nombre d’expériences épidémiologiques. L’analyse du processus simple de mort permet une comparaison entre l’approche bayésienne intégrale et des dispositifs localement optimaux autour d’une estimation ponctuelle d’a priori basée sur des résultats asymptotiques. On démontre la robustesse de l’approche pour des a priori mal spécifiés du processus épidémique SI, pour lequel le problème de la faisabilité informatique du calcul de la vraisemblance exclut des plans optimaux. Nous montrons que des plans optimaux déduits d’une approche bayésienne sont semblables à des études d’observations d’une épidémie simple et à des études impliquant des épidémies répétées dans des sous‐populations indépendantes. Un optimum différent existe, cependant, quand l’objectif est de maximiser le gain de l’information basée sur des a priori informatifs ou non: ceci a des implications quand une expérience est conçue pour convaincre un observateur naïf ou sceptique plutôt que pour consolider la connaissance d’un observateur mieux informé. On présente quelques prolongements de ces méthodes, comprenant le choix de critères d’information et l’extension à d’autres processus épidémiologiques avec des probabilités de transition. K. F. Lam, J. V. Deshpande, E. H. Y. Lau, U. V. Naik‐Nimbalkar, P. S. F. Yip, and Ying Xu 869 A Test for Constant Fatality Rate of an Emerging Epidemic: With Applications to Severe Acute Respiratory Syndrome in Hong Kong and Beijing L’étiologie, la pathogénie et le pronostic d’une maladie récemment émergente sont généralement inconnus aux cliniciens. Des interventions et des traitements efficaces aussi précoces que possible garantissent la réduction du caractère fatal de la maladie à un minimum, et la suppression de traitements inadéquats. Dans ce contexte, la capacitéà extraire le plus d’informations hors des données disponibles est critique à la possibilité d’importantes prises de décision. L’inefficacité d’un traitement peut être reflétée par une mortalité constante avec le temps tandis qu’un traitement efficace mène normalement à un taux de décès décroissant. Un test statistique pour une mortalité constante avec le temps est proposé dans cet article. La statistique proposée converge vers un mouvement Brownien sous l’hypothèse nulle. Les caractéristiques spécifiques du mouvement Brownien permettent d’analyser également la distribution des premiers temps de passage à partir de tests séquentiels. Ceci permet à l’hypothèse nulle du taux de décès constant d’être rejetée le plus rapidement possible dès que l’évidence statistique devient suffisante. Les études de simulation montrent que les performances du test proposé sont bonnes et qu’il est très sensible pour trouver un taux de mortalité décroissant. Le test proposé est appliqué aux données du syndrome respiratoire aigu sévère (SARS) à Hong Kong et Beijing. J. Peng, C.‐I. C. Lee, K. A. Davis, and W. Wang 877 Stepwise Confidence Intervals for Monotone Dose–Response Studies Dans les études de dose‐réponse un des points les plus importants est l’identification de la dose minimum efficace (minimum effective dose – MED), qui est définie comme la plus petite dose pour laquelle la réponse moyenne est meilleure que celle obtenue pour une dose nulle de contrôle, en terme de différence clinique significative. Les courbes doses‐réponses sont parfois monotones. Pour trouver la MED plusieurs auteurs ont proposé des procédures de test du genre up and down, basées sur des contrastes entre les moyennes. Dans cet article, pour identifier la MED, on propose une amélioration de la méthode de Marcus et Peritz (1976, Journal of the Royal Statistical Society, Series B 38, 157–161) et on développe une application de la méthode DR de Hsu et Berger (1999, Journal of the American Statistical Society 94, 468–482) pour construire, sous des hypothèses de monotonicité, la borne inférieure de l’intervalle de confiance pour la différence entre la réponse à une dose quelconque non nulle et celle du contrôle. La méthode proposée est illustrée par des exemples numériques et on présente des comparaisons de puissance obtenues par simulations. M. Ding, G. L. Rosner, and P. Müller 886 Bayesian Optimal Design for Phase II Screening Trials Dans la littérature, la plupart des plans de screening en phase 2 considèrent un traitement à la fois. Chaque étude est considérée isolément. Nous proposons une approche décisionnelle plus systématique pour le processus de screening de phase 2. Le plan séquentiel permet une plus grande efficacité et un meilleur apprentissage sur les traitements. L’approche incorpore un modèle Bayesien hiérarchique qui permet d’une façon formelle la combinaison d’information entre différentes études reliées entre elles, et améliore l’estimation dans de petits échantillons en exploitant l’information venant des autres traitements. Le plan incorpore une fonction d’utilité qui prend en compte le coût d’échantillonnage et le possible retour sur investissement. Des simulations par ordinateur montrent que cette méthode a une forte probabilité d’écarter des traitements à faible taux de succès et de faire évoluer en phase 3 des traitements à fort taux de succès. A. Vexler, A. Liu, E. Eliseeva, and E. F. Schisterman 895 Maximum Likelihood Ratio Tests for Comparing the Discriminatory Ability of Biomarkers Subject to Limit of Detection Dans cet article, nous étudions la comparaison des aires sous courbes ROC (Receiver Operating Characteristic) corrélées, des biomarqueurs diagnostiques dont les mesures sont soumises à une limite de détection (LOD), source d’erreur de mesure issue de la sensibilité instrumentale en épidémiologie. Nous proposons et nous examinons les tests du rapport des vraisemblances avec des caractéristiques opérationnelles qui sont aisément obtenues sous méthodologie classique du maximum de vraisemblance. R. Li and L. Nie 904 Efficient Statistical Inference Procedures for Partially Nonlinear Models and their Applications Motivés par une analyse d’un jeu de données réelles dans le domaine de l’écologie, nous sommes amenés à considérer une classe de modèles partiellement non linéaires où l’on note à la fois la présence d’une composante non paramétrique et d’une composante paramétrique. Nous développons deux nouvelles procédures d’estimation pour l’estimation des paramètres de la composante paramétrique. La consistance et la normalité asymptotique des estimateurs sont établies. Puis nous proposons ensuite une procédure d’estimation et une procédure de test F généralisé pour la composante non paramétrique dans les modèles partiellement non linéaires. Des propriétés asymptotiques de la nouvelle procédure d’estimation et le test statistique s’en déduisent. Les qualités des échantillons finis des procédures d’inférence proposées sont évaluées par des études de simulations de Monte Carlo. Une application dans le domaine de l’écologie est utilisée pour illustrer la méthode proposée E. Deschepper, O. Thas, and J. P. Ottoy 912 Tests and Diagnostic Plots for Detecting Lack‐of‐Fit for Circular‐Linear Regression Models Les diagnostics pour la régression et les tests de défaut d’ajustement sont principalement focalisés sur les modèles linéaires de régression linéaire. Lorsque les points sont distribués sur la circonférence d’un cercle, des difficultés apparaissent car il n’existe pas de point de départ ou d’origine. La plupart des tests classiques de défauts d’ajustement exigent de choisir arbitrairement une origine, mais des choix différents peuvent conduire à des conclusions différentes. Nous proposons un outil graphique d’ajustement et un test de défaut d’ajustement qui n’exige pas de point naturel initial. La méthode est basée sur des « résidus régionaux » qui sont définis sur des arcs de cercle. La méthode graphique localise formellement et visualise des sous ensembles d’observations dont l’ajustement n’est pas satisfaisant sur le cercle. Un exemple de données issues du domaine alimentaire est utilisé pour exhiber les problèmes mentionnés auparavant avec les tests classiques d’ajustement et pour illustrer la force de la méthode basée sur les « résidus régionaux » pour détecter et localiser les points de départ d’hypothèse de non effet. Une petite étude de simulation montre la bonne performance du test des « résidus régionaux » dans les deux cas d’écart global ou local du modèle. Puis ces idées sont étendues au cas ou il y a plus d’une variable explicative. B. Xie, W. Pan, and X. Shen 921 Variable Selection in Penalized Model‐Based Clustering Via Regularization on Grouped Parameters L’analyse en grappes modèle‐dépendante pénalisée a été proposée dans le cadre de données de haute dimension mais de petite taille d’échantillon comme celles rencontrées dans les études génomiques. En particulier, elle peut être utilisée pour la sélection de variables. Un nouveau schéma de régularisation est proposé pour regrouper ensemble plusieurs paramètres associés à la même variable au sein des grappes. Nous montrons analytiquement et numériquement que ce schéma est plus efficace que la conventionnelle pénalité L1 pour la sélection de variable. De plus, nous développons une stratégie pour combiner ce schéma de groupement avec le groupement de variables structurées. Des études de simulation et des applications aux données d’expression des micropuces pour la découverte de sous‐types cancéreux illustrent les avantages de notre nouvelle approche par rapport à plusieurs méthodes existantes. S. H. Lee, J. Lim, M. Vannucci, E. Petkova, M. Preter, and D. F. Klein 931 Order‐Preserving Dimension Reduction Procedure for the Dominance of Two Mean Curves with Application to Tidal Volume Curves Le travail présenté ici est issu d’une étude de cas reposant sur des tracés, à dimension et fréquence élevées, de capacité vitale respiratoire effectués pendant des bouffées d’angoisse provoquées. L’objectif est de développer une procédure pour évaluer la significativité de la supériorité d’une courbe moyenne par rapport à une autre. L’idée essentielle de la méthode suggérée est de préserver l’ordre sur les moyennes tout en réduisant la dimensionnalité des données. La matrice des données observées est projetée sur un ensemble de matrices de rang inférieur sous une contrainte de positivité. Une procédure de test multivarié est alors appliquée dans cette dimension inférieure. Nous utilisons des données simulées pour illustrer les propriétés statistiques de la méthode de test proposée. Les résultats obtenus sur l’étude de cas confirment l’hypothèse préliminaire des investigateurs et fournit un support à leur objectif de construction d’un modèle expérimental pour la bouffée d’angoisse clinique chez les sujets normaux.  相似文献   

7.
Les espèces seychelloises du genre Cratopus Schoenherr 1823 sont révisées, et quatre nouveaux taxons sont décrits. Espèce de grande taille (16–19 mm), C. roberti n. sp. possède dix stries élytrales, des fémurs antérieurs portant de petits denticules, y compris sur la dent, et un revêtement squamuleux vert métallique, avec une bande blanche le long de la base et des côtés des élytres, ainsi que sur les côtés du prothorax. Long de 8–10 mm, C. venustus n. sp. se reconnait à ses téguments noirs et brillants, sa vestiture réduite bleu-vert métallique, ses douze stries élytrales de forts points, ainsi qu’à ses interstries 8 et 9 caréniformes. C. griseovestitus northislandensis n. ssp. diffère de la forme nominative C. griseovestitus griseovestitus Linell 1887 par ses téguments coriacés et sa vestiture métallique du dessus dense, à reflets cuivre doré ou verts, et non gris blanchâtre ou bleuâtre. C. griseovestitus fregata n. ssp. diffère de son côté de la forme nominative par ses téguments bruns plus ou moins foncés, saupoudrés de poils et de squamules très petits. Les synonymies de C. parcesquamosus Fairmaire 1893 et de C. abbotti Linell 1907 avec C. aurostriatus Fairmaire 1892 sont confirmées, et enfin un tableau de détermination des espèces seychelloises du genre est donné. Les Cratopus des Seychelles se divisent en un ensemble de trois espèces du groupe de griseovestitus, à large répartition, habitant les côtes et les îles coralliennes basses et probablement d’arrivée récente, et un ensemble de six espèces limitées aux îles granitiques, où cinq d’entre elles ont une distribution limitée à l’intérieur d’une île ou deux. Elles sont certainement de souche beaucoup plus ancienne. Les Cratopus des Seychelles sont folivores à l’état adulte, et souvent polyphages. Une liste de leurs plantes-hôtes connues est donnée.  相似文献   

8.
9.
Saga rhodiensis se révèle très proche de S. natoliae et ces deux taxons s’acceptent mutuellement pour la copulation. En outre, ils constituent, avec S. hellenica, un groupe assez homogène au niveau chromosomique. Sur le plan morphologique S. hellenica se distingue aisément des deux autres espèces, et aucun accouplement croisé n’a pu aboutir dans nos élevages. La découverte d’individus femelles de S. natoliae présentant les critères morphologiques de S. rhodiensis bien audelà de l’aire de distribution actuellement connue, nous interroge sur la pertinence de ces critères. Des investigations complémentaires sont nécessaires pour préciser le statut exact de S. rhodiensis.  相似文献   

10.
Les affinités fauniques et la délimitation même du Turkestan en tant qu’entité biogéographique sont mal connues ou controversées. Elles sont discutées ici dans le cadre d’une révision systématique des espèces d’abeilles rubicoles du genre Ceratina. Onze espèces, dont une nouvelle: Ceratina (Euceratina) haladai n. sp., y sont répertoriées. Trois espèces sont redécrites et une clé d’identification est proposée. Toutes ces espèces sont soit présentes dans la région ouest-paléarctique, soit de proches parentes d’espèces méditerranéennes. Aucune espèce ne présente d’affinités notables avec les taxons orientaux ou est-paléarctiques. La carte de distribution de chaque espèce est établie et comparée à la distribution des biomes régionaux. Comme elles sont très largement polylectiques, les plantes butinées ne constituent probablement pas un facteur limitant de leur distribution. A l’inverse, leur nidification rubicole les cantonne à des biotopes riches en ronces (Rubus species) ou en autres plantes à tiges creuses ou médullaires (par ex. Verbascum species). Ceci explique leur implantation plutôt synanthrope en montagne et le long des fleuves.  相似文献   

11.
Lorsque 2 femelles ou 3 femelles de l'ectoparasite D. vagabundus parasitent conjointement un même lot d'hôtes l'intensité du grégarisme larvaire s'accroît par rapport à celui observé en présence d'une seule femelle pondeuse. Cela se traduit par une augmentation significative du nombre moyen de descendants des 2 sexes mais la production moyenne en fils est toujours très inférieure à celle des filles. Cependant, lorsque la densité de femelles pondeuses passe de 1 à 3, le rapport des sexes mâles/femelles des descendants évolue vers l'unité traduisant une augmentation plus rapide de l'effectif des fils que des filles.  相似文献   

12.
13.
La nervation des élytres d’Acrididae de la région ouest paléarctique a été étudiée au moyen de 2 méthodes de morphométrie de manière à faire ressortir les caractères adaptatifs relatifs à la stridulation et les marqueurs de phylogénie. Huit Points de Repère (PR) situés dans la région proximale des élytres, incluant le champ médian, ont été considérés pour l’analyse de morphométrie géométrique. L’importance relative des champs a été appréhendée par ACP. Il apparaît que le dimorphisme sexuel des PR caractérise les espèces à stridulation de forte intensité chez le mâle (Gomphocerinae et Stethophyma grossum). Les mâles présentent par rapport aux femelles un élargissement des champs sous-costaux antérieur et postérieur, et du champ radial, lié à un déplacement distal de la bifurcation entre les radiales antérieure et postérieure, ce qui entraîne un élargissement de la surface de résonance. L’élargissement du champ cubital antérieur est une déformation propre à la tribu des Locustini et n’a pas de valeur adaptative apparente.  相似文献   

14.
15.
《Biometrics》2008,64(3):1007-1008
Y. K. Cheung 940 Simple Sequential Boundaries for Treatment Selection in Multi‐Armed Randomized Clinical Trials with a Control Dans une situation où, avec des ressources trop limitées pour réaliser des comparaisons systématiques avec un standard, on veut étudier un grand nombre de traitements, il peut être utile de conduire un essai à plusieurs bras pour éliminer précocement les traitements inintéressants. Quand l’étude a des critères de jugement dont l’évaluation est relativement rapide, comme l’évaluation d’un volume de lésion à partir d’une image chez les patients victimes d’une attaque, des analyses intermédiaires fréquentes sont éthiquement et pratiquement souhaitables pour les cliniciens. Dans cet article je propose une classe de frontières pour les essais à plusieurs bras, dans lesquels l’objectif est soit la sélection d’un traitement donnant une amélioration significative par rapport au groupe contrôle, soit la déclaration de la futilité de la recherche si il n’existe pas de tel traitement. Les limites proposées sont faciles àétablir en aveugle et peuvent être appliquées à un calendrier d’examens évolutif. Il est simple de calibrer l’essai par rapport à un niveau de confiance fixéà l’avance et cela peut être fait quand le taux de réponse dans le groupe contrôle n’est que connu que par intervalle. Une des méthodes proposées est appliquée pour redéfinir un essai de sélection avec un critère de jugement fourni par imagerie chez des patients avec une attaque aiguë, on le compare par simulations à un dispositif optimal à deux étapes. En moyenne, la méthode proposée emploie des échantillons de taille plus faible que la méthode en deux étapes, cet avantage devient substantiel quand il existe un traitement supérieur au contrôle. L. Liu, X. Huang, and J. O'Quigley 950 Analysis of Longitudinal Data in the Presence of Informative Observational Times and a Dependent Terminal Event, with Application to Medical Cost Data Dans les études observationnelles longitudinales, les mesures répétées sont souvent recueillies à des temps d’observation informatifs. De plus, il peut exister un événement terminal dépendant tel que le décès qui interrompt le suivi. Par exemple les patients en moins bonne santé chercheront plus à se faire soigner et les coûts pour chaque visite ont tendance àêtre plus élevés. Ils ont aussi des taux de mortalité plus élevés. Dans cet article, nous proposons un modèle à effets aléatoires de mesures répétées en présence à la fois de délais d’observation informatifs et d’un événement terminal dépendant. Trois sous‐modèles sont utilisés respectivement pour (1) l’intensité des temps d’observation récurrents, (2) la quantité d’observations répétées à chaque temps d’observation et (3) le risque instantané de décès. Des effets aléatoires corrélés sont inclus pour lier les trois sous modèles. L’estimation peut s’effectuer facilement par des techniques de quadrature gaussiennes, par exemple avec la procédure NLMIXED de SAS. La méthode proposée est illustrée par une analyse du processus de coûts générés chez des patients souffrant d’insuffisance cardiaque chronique. Les données sont extraites de la base de données cliniques CDR du système de santé de l’Université de Virginie. J. Cao, G. F. Fussmann, and J. O. Ramsay 959 Estimating a Predator‐Prey Dynamical Model with the Parameter Cascades Method Les équations différentielles ordinaires (EDO) sont largement utilisées pour décrire le comportement dynamique des populations en interaction, Cependant les systèmes EDO donnent rarement des solutions quantitatives proches des observations réelles de terrain ou des résultats expérimentaux, parce que les systèmes naturels sont soumis à un bruit environnemental ou démographique et que les écologistes sont dans l’incertitude pour paramétrer correctement leurs données. Dans cet article nous introduisons les « cascades de paramètres » pour améliorer l’estimation des paramètres EDO de manière à bien ajuster les solutions aux données réelles. Cette méthode est basée sur le lissage pénalisé modifié en définissant la pénalité par les EDO et en généralisant l’estimation profilée pour aboutir à une estimation rapide et à une bonne précision des paramètres EDO sur des données affectées de bruit. Cette méthode est appliquée à un ensemble d’EDO prévues à l’origine pour décrire un système prédateur‐proie expérimental soumis à des oscillations. Le nouveau paramétrage améliore considérablement l’ajustement du modèle EDO aux données expérimentales. La méthode révèle en outre que d’importantes hypothèses structurales sous‐jacentes au modèle EDO originel sont essentiellement correctes. La formulation mathématique des deux termes d’interaction non linéaire (réponses fonctionnelles) qui lient les EDO dans le modèle prédateur‐proie est validée par un estimateur non paramétrique des réponses fonctionnelles à partir des données réelles. Nous suggérons deux applications importantes des « cascades de paramètres »à la modélisation écologique. La méthode peut servir à estimer des paramètres quand les données sont soumises à des bruits ou manquantes, ou quand aucune estimée a priori fiable n’est disponible. La méthode peut par ailleurs aider à valider la qualité structurelle du modèle mathématique. D. S. Johnson, D. L. Thomas, J. M. Ver Hoef, and A. Christ 968 A General Framework for the Analysis of Animal Resource Selection from Telemetry Data Nous proposons un cadre général pour analyser des données télémétriques animales en utilisant des distributions pondérées. On montre que plusieurs interprétations du choix des ressources se présentent quand on compare la ressource utilisée à la ressource disponible. Le cadre général proposé permet de montrer que les modèles habituels de choix des ressources sont des cas particuliers du modèle général avec des hypothèses sur les déplacements et le comportement des animaux. On montre que le cadre des distributions pondérées permet de prendre facilement en compte des données télémétriques fortement autocorrélées, comme c’est typiquement le cas avec la technologie GPS assurant le suivi des animaux. Une analyse de données simulées utilisant plusieurs modèles construits dans le cadre proposé est présentée pour illustrer les gains possibles apportés par cette modélisation flexible. Le modèle est appliquéà des données sur l’ours brun du sud‐est de l’Alaska.  相似文献   

16.
17.
J. Kugler  Z. Wollberg 《BioControl》1967,12(4):363-379
Résumé Les auteurs décrivent le cycle évolutif et le comportement de ponte de l'Agrothereutes tunetanus Haber. (Ichneumonidae, Cryptinae) dans les conditions de laboratoire (25°C et 50–60% H.R.). Le développement des œufs des larves et des nymphes, le comportement des stades larvaires, les habitudes alimentaires, l'accouplement et le comportement pendant l'oviposition sont décrits. A. tunetanus est un parasite de l'Orgyia dubia Tausch., attaquant le dernier stade larvaire de la femelle après que celle-ci ait tissé son cocon, mais avant la nymphose. Le même degré d'activité de ponte du parasite est provoqué par le dernier stade larvaire et la nymphe des femelles h?tes. Une moindre activité est suscitée par les femelles m?res dans les cocons et le dernier stade larvaire male, tandis que l'activité de ponte provoquée par les nymphes males est presque nulle. Le nombre moyen d'œufs pondus par une femelle durant une seule attaque (entre 3 et 4) ne dépend pas (de manière significative) du nombre de cocons présents. Le nombre d'attaques effectuées parA. tunetanus en 24 heures dépend de la quantité de cocons disponibles, les facteurs limitants sont le nombre d'œufs m?rs dans de la femelle gravide et la quantité d'œfus pondus pendant chaque attaque. Avec 6 cocons en 24 heures, une femelle, au maximum de sa fécondité, arive à une moyenne de 3,27 attaques. La fécondité d'une femelle est en moyenne de 308 œufs.

Part of the M. Sc. thesis done under the supervision of the first author and submitted to the Department of Zoology of the Tel-Aviv University.  相似文献   

18.
19.
J. Chazeau 《BioControl》1974,19(2):183-193
Afin de préciser l'action prédatrice deStethorus madecassus surTetranychus neocaledonicus, la consommation des différents stades du prédateur a été étudiée dans une enceinte à température constante. A 25°, la consommation totale est de 494 ?ufs de tétranyque pour l'ensemble des 4 stades larvaires. A cette température, elle est de 46,8 femelles de tétranyque par jour pour une femelle fécondée deStethorus, 21,3 pour un mâle, et 13,1 pour une femelle vierge. Des essais complémentaires en conditions ambiantes naturelles ont permis de s'assurer de la validité de ces résultats. Les tests à 20° et 30° montrent que, dans cet intervalle, la consommation des adultes double sensiblement pour une élévation de température de 5°, et qu'une forte corrélation positive existe entre la voracité et la fécondité individuelles des femelles.  相似文献   

20.
Résumé

Ce travail a pour objectif l’étude de quelques aspects bio-écologiques de la cochenille violette, Parlatoria oleae Colvée 1880, bio-agresseur des cultures de l’Olivier en régions arides. Le suivi du cycle biologique ainsi que la démo-écologie de ce ravageur ont été réalisés grâce à des dénombrements périodiques des populations sur les différents organes de l’arbre (méthodes de Vasseur &; Schvester) de décembre 2010 à décembre 2011 dans la région d’Ain Touta (nord-est algérien). L’espèce y a montré deux générations par an : une génération printanière se développant entre avril et juillet et une génération automnale évoluant entre août et octobre. La ponte débuta en avril et s’échelonna jusqu‘à la fin septembre. L’exposition nord est la plus favorable à cette diaspine qui y trouve des conditions microclimatiques optimales pour son développement. La ponte moyenne est de 8 à 9 ?ufs par femelle. L’analyse statistique de l’effet des conditions climatiques étudiées (températures minimale, maximale et moyenne ; précipitations, gelée et indice d’aridité De Martone) sur les effectifs des différents stades, montre une grande variabilité d’un stade à un autre. L’analyse statistique établie révèle également que les effectifs de l’espèce présentent des variations très hautement significatives selon l’orientation dans l’arbre d’olive colonisé.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号