首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
Using James Clifford's notion of “ethnographic surrealism,” this paper focuses on the “surrealist” features of the film work of Jean Rouch. First, drawing extensively from an interview held with Rouch in May 1988, I outline the influence that the “ethnographic surrealism” of the 1930s had on Rouch. I then go on to discuss “surrealism” in Rouch's use of the camera, choice of subject matter, techniques of narration, and relationship to his subject. I conclude by demonstrating that Rouch's current work at the Cinémathèque Française and the Comité du Film Ethnographique offer excellent examples of his ability to cross disciplinary boundaries and thus extend the original spirit of “ethnographic surrealism” into the present.  相似文献   

2.
Jean Rouch and Edgar Morin's Chronicle of a Summer is held up as an innovative, seminal “work in the formation of cinéma‐vérité, and has a central position in the development of documentary and ethnographic filmmaking. Although much has been written about fthis film, little attention has been paid to the film's construction. This paper examines ‘elements of the editing structure of Chronicle of a Summer both to consider how this “work was shaped given the constraints of its production and intended reception and to ¦ analyze a relatively neglected aspect of documentary film practice.  相似文献   

3.
Too little known in the English‐speaking world, Jean Rouch died in 2004, leaving a prolific body of work. Influenced by the surrealists, by dance, cinema and music, his ‘shared anthropology’ and filmmaking began when he was an engineer in colonial West Africa during World War II—through friendship with African public works employees and revolt over the working and living conditions of the people forced to labour. Rouch saw his engineering, anthropology and filmmaking as creating with the concrete, ‘building bridges’. He did not renounce the ‘rational’, but wanted to supplement and broaden it with other ways of searching and knowing, always concerned with the relationship of the concrete material to the spiritual, dream and fantasy—working in the imaginative place where art meets science. This article discusses Rouch's ciné‐ethnography, focusing on a few of the many films he made.  相似文献   

4.
The true scope of Jean Rouch's international activities for the advancement of visual anthropology is little known. Few in the field today are aware that he was for more than 10 years the driving force of the Comité international du film ethnographique, where he was secretary-general as of 1958. It is thanks to his initiative, backed by UNESCO, that the first anthropologist–filmmakers were able to present their films (and often see them hotly debated) in Paris, Brussels, Prague, Venice, Florence, and Locarno. He was, together with sociologist Edgar Morin (with whom he would produce the influential film Chronique d'un été), one of the collaborators of the Florence Festival dei Popoli, then entirely devoted to ethnographic and sociological films. Here Luc de Heusch, closely associated to Jean Rouch throughout those intrepid times, chronicles the seminal years of visual anthropology.  相似文献   

5.
This article considers the multiple influences that have shaped Jean Rouch's ethnographic gaze upon the Songhay people of Niger. Marcel Griaule, Rouch's mentor, undoubtedly influenced his student's ethnographic approach to Songhay. But Rouch was equally influenced, I am convinced, by his direct and unforgettable confrontation with the mysteries of the Songhay world. After a discussion of the methodological and theoretical orientations of the Griaule school, I analyze Rouch's major ethnographic work, La Religion et la magie Songhay, focusing upon how Griaulian epistemology and Songhay realities molded the textual presentation. I then discuss several of Rouch's major films—Les Magiciens de Wanzerbé, The Lion Hunters, Les Maîtres Fous, and Tourou et Bitti, placing them within an ethnographic and epistemological context. This analysis leads to a consideration of Rouch's unrecognized contribution to anthropology.  相似文献   

6.
This article offers an overview of the very substantial body of films of ethnographic interest produced by French filmmakers working in Africa before Jean Rouch arrived on the scene. It identifies a number of genres. For the first two decades this work largely took the form of short films of reportage, mostly shot in North and West Africa by anonymous operators working for newsreel agencies. Then, in the 1920s, longer and technically more complex films based on transregional and even transcontinental expeditions began to appear. Films offering an inventory of cultural traditions in particular French colonies also emerged in this decade. Also to be considered are films based on extended field research, from the 1930s onwards. We conclude with a brief analysis of the originality of Jean Rouch as he developed a new form of ethnographic filmmaking in the late 1940s.  相似文献   

7.

In the Second Manifesto of Surrealism, issued by André Breton in 1929, surrealism was described as “a total recuperation of our psychic strength by a means of none other than vertiginous descent into ourselves, systematic illumination of the hidden places and progressive darkening of the other places, a perpetual walk in the forbidden zone”. Surrealism sought to represent the unconscious and forbidden zones of the psyche, of the body, of the noumenal world within, which offered access, for surrealists, to energies and intuitions repressed by “civilized” modes of perception. For Jean Rouch, the significance of surrealism, of automatic writing and ciné‐transe, rested in the potential escape they offered from the formal constraints of conventional film and of conventional perception and observation. In his celebration of ciné‐transe, and of the technological apparatus that makes it possible, it is possible to detect his desire for a freeing‐up of the constraints of consciousness—a desire to “write with the body”, to dream, to tap the unexplored power of the unconscious in its overturning of “reality”, of system, and of convention. As a phaneroscopic “wide‐angle lens”, surreality aimed to document the scientifically unexplainable, the immense experiential overload of ritual possession. It attempted to make visible, in the movement between observation and participation and across disjunctive points of view; the crossings‐over into the unconscious world by which possessed Songhay dancers gained access to powers of phaneroscopic perception. By adopting filmic techniques which follow the surrealist practice of creating “verbal and visual collage”, in which randomly‐generated images, emerging out of a trance‐like state (of “automatic writing” or "ciné‐transe"), are juxtaposed in indeterminate and polyphonic relations with each other in an attempt to disturb or destroy patterns of perception which are confining, rationalistic, linear, or restricted to conscious phenomena, Rouch believed he could create powerful representations of the unknowable. This paper relates the phaneroscopic practice of ethnographic surrealism to psychoanalytic models of the unconscious. In a discussion of Rouch's interpretation of the Hauka spirit cult in his film Les Maîtres Fous, the paper argues that the neo‐Freudian paradigm which allowed him to depict the Sohghay's weekend Hauka rites as a parodic reversion to “savagery” (which both reversed the hierarchy of colonizer/colonized and enabled participants to experience a therapeutic release from the traumas of colonization) has been challenged by Lacanian and post‐Lacanian “re‐readings” of Freud that call into question the extent to which the unconscious can be equated with a pre‐linguistic state characterized by disjunctive “primitive” and “instinctive” energies. The surrealist longing for a rupture of the symbolic order of Western rationalism and a return to the “imaginary order” of the unconscious is confounded in the Lacanian conception of the unconscious as a zone inhabited by the “discourse of the Other”. However, the work of Gillès Deleuze and Félix Guanari [1977] provides a means of conceptualizing the unconscious in terms that avoid simplistic binary logic (phenomenon/noumenon; signifier/signified; subject/object; conscious/unconscious; civilization/savagery). The unconscious is not the “unrepresentable” Other of consciousness; it is a schizophrenic phaneron, a signifying “machine”, a transgressive producer of “group fantasy”. Rejecting both Freud's Oedipal model (the unconscious as primal imagery or “ghostly signifieds"), and the Lacanian notion of the unconscious (as a play of “empty signifiers"). Deleuze and Guattari argue that the unconscious cannot be accounted for in terms of the individual child and its entry into language any more than it can be conceived of as the domain of the primitive. On the contrary, the unconscious is constituted as “group fantasy”, as collective public memory which need not be reduced to elemental (Oedipal) signifiers: “all delirium possesses a world‐historical, political and racial content”. The schizophrenic embodies the public nature of unconscious meaning, since schizophrenia is primarily a communication disorder in which an individual never sees himself in terms of a linguistically‐generated “selfhood”, and fails to adopt the “false” identity which is offered to him in the language of the Other. Schizophrenia is characterized by a refusal to treat some meanings as superior to others, to remain within the bounds of a stable identity, or to distinguish between material (noumenal) things and actions and their (phenomenal) meanings. The schizophrenic unconscious treats all experience as signs, registering language in the same way as the body registers physical stimuli. Thus “meanings in the unconscious are simply meanings as workings of the body” [Harland 1987:174–175]. The schizophrenic as a model for the unconscious holds several implications for those interested in representing the experiential power of public rituals, for the public meanings in circulation during such rituals are material and noumenal, and are registered on the bodies of the dancers as they transgress boundaries and pass beyond consciousness. Rouch's surreality attempted to inscribe this unconscious production of public meaning as it was manifested in the movements of the ritual and in the movements of the camera‐body.  相似文献   

8.
This issue's Visual Anthropology Section is a tribute to anthropologist and ethnographic filmmaker Jean Rouch (1917–2004). In nine brief articles, authors discuss the impact of Rouch's pathbreaking career on ethnographic and documentary filmmaking and his contributions to our knowledge of postcolonial Africa. The authors demonstrate the significance of his work for the larger discipline of anthropology, and commemorate Rouch with personal reflections of their time working with and learning from him.  相似文献   

9.
FILM REVIEWS     
Ethnomusicology in the Alps The Wedding of Susanna and Josef, 16 mm, 27 mins., 1986 Glattalp, 16 mm, 30 mins., 1986 Yootzing and Yodelling, 16 mm, 50 mins., 1987 Head Voice, Chest Voice, 16 mm, 23 mins., 1987 All films by Hugo Zemp, produced by CNRS Audiovisuel and the Ateliers d'Ethnomusicologie, Geneva. Available in English, French and German; also in videotape formats.

The Song of Harmonics, 16 mm, 38 mins., 1990, by Hugo Zemp, produced by CNRS Audiovisuel and the Société Française d'Ethnomusicologie. Available in French and English; also in videotape.

The Way of the Dead Indians A film by Michel Perrin and Jean Arlaud; camera: Jean Arlaud; sound: Philippe Sénéchal; editor: Charlotte Boigeol; consultant anthropologist: Michel Perrin; distributor: CNRS Audio‐Visuel, 1 Place Artistide Briand, 92195 Meudon Principal Cedex, Paris, France, (1)45.34.75.50 (1982?), 90 minutes, color. Original: 16 mm, also available for distribution on PAL and SECAM video. Language: Goajiro, narration: French, subtitles: English.  相似文献   

10.
Petioles from a susceptible cultivar (Désirèe) of Solanum tuberosum treated with a low‐molecular mass toxin, separated from culture fluid of Verticillium albo‐atrum, produced greater quantities of ethylene than did petioles of a tolerant cultivar (Home Guard). Pretreatment of leaflets from cv. Désirèe with silver thiosulphite, which inhibits perception of ethylene, prevented the chlorosis and necrosis normally associated with exposure to the toxin. Similarly, application of aminoethoxyvinylglycine (AVG) an inhibitor of aminocyclopropane‐1‐carboxylic acid (ACC) synthase, to petioles of cv. Désirèe reduced toxin‐induced ethylene synthesis and symptom development. The data indicate that, in part, Verticillium‐toxin acts through induction of ethylene biosynthesis in the host tissues, and different responses of susceptible and tolerant potato cultivars to V. albo‐atrum are the result of differential production of ethylene.  相似文献   

11.
Résumé En France, une quarantaine de souches de l'EntomophthoraleZoophthora radicans (Brefeld) Batko ont été isolées d'Homoptères, de Lépidoptères, de Diptères et d'Hyménoptères. Le champignon s'est révélé capable d'exercer une action épizootique à l'égard du LépidoptèreTortricidae: Tortrix viridana L., de l'HomoptèreJassidae: Opsius stactogalus Fieb. et de l'HomoptèrePsyllidae: Trioza urticae L. Le comportement pathogène de 8 de ces souches (1 provenant d'un Lépidoptère, 2 de Diptères, 2 d'Hyménotpères et 3 d'Homoptères, respectivement d'un Aphide, d'un Jasside, d'un Psyllide), a été étudié simultanément vis-à-vis du puceronAcyrthosiphon pisum Harris. Les 8 souches diffèrent entre elles par leur infectivité, leur aptitude à produire des conidies et à former des rhizo?des. Parmi les 4 souches isolées en même temps dans la même localité, c'est la souche issue de Jasside et à un degré moindre la souche provenant de Psyllide qui se développeraient le plus rapidement dans les populations de pucerons, car elles possèdent, comparativement aux 2 autres souches, isolées respectivement d'un Hyménoptère et d'un Diptère, une forte infectivité et la plus grande capacité de conidiogénèse. Ces faits établissent sur des bases quantitatives l'existence chezZ. radicans d'une adaptation des souches à un h?te d'une famille proche dans la classification de celle de l'h?te d'origine.
Summary About 40 strains ofZoophthora radicans (Brefeld) Batko (Zygomycetes, Entomophthorales) were isolated in France from Homoptera, Lepidoptera, Diptera and Hymenoptera. Epizootics occurred in populations ofTortrix viridana L. (Lep.: Tortricidae), Opsius stactogalus Fieb. (Hom.: Jassidae) andTrioza urticae L. (Hom.: Psyllidae). The pathogenic behaviour of 8 of these strains (1 from Lepidoptera, 2 from Diptera, 2 from Hymenoptera and 3 from Homoptera: respectively from an aphid, a jassid and a psyllid) was studied simultaneously on the aphidAcyrthosiphon pisum Harris. The 8 strains differed from one another in infectivity and in their ability to produce conidia and to form rhizoids. Among 4 strains isolated at the same time in the same local area, that from the jassid and, to a lesser extent, that from the psyllid, were highly infective and produced more conidia per aphid than those from the Diptera and the Hymenoptera, suggesting that the former 2 would spread more effectively in aphid populations. These results establish quantitatively the existence inZ. radicans, of an adaptation of strains to an host taxonomically related to the host from which the strain was isolated.


avec la collaboration technique de Madame N. Delatre.  相似文献   

12.
《Biometrics》2008,64(3):1000-1007
I. Lobach, R. J. Carroll, C. Spinka, M. H. Gail, and N. Chatterjee 673 Haplotype‐Based Regression Analysis and Inference of Case‐‐Control Studies with Unphased Genotypes and Measurement Errors in Environmental Exposures Il est maintenant établi que le risque de développer une maladie dite complexe est sous l’influence conjointe de facteurs de susceptibilité génétiques, de facteurs d’exposition environnementaux et de leurs interactions potentielles. Chatterjee et caroll (2005) ont développé une méthode efficace de maximum de vraisemblance rétrospectif pour l’analyse des études cas‐témoins qui fait l’hypothèse d’indépendance des effets génétiques et environnementaux et qui autorise une distribution totalement non paramétriques des covariables environnementales. Spinka et al (2005) ont étendu cette approche aux études où certains types d’information, comme les phases haplotypiques, sont manquantes chez certains individus. Nous étendons cette approche aux situations où certaines exposition environnementales sont mesurées avec erreur. A l’aide d’un modèle de régression logistique polychotomique, nous permettons au statut maladie d’avoir K+1 niveaux. Nous proposons d’utiliser une pseudo‐vraisemblance and un algorithme EM associé pour l’estimation des paramètres. Nous démontrons leur consistance et dérivons la matrice de covariance asymptotique des estimations des paramètres lorsque la variance de l’erreur de mesure est connue et lorsqu’elle est estimée à l’aide de réplications. Les inférences avec des corrections de l’erreur de mesure sont compliquées par le fait que le test de Wald à des propriétés non satisfaisantes en présence d’un large nombre d’erreurs de mesure. Les techniques du rapport de vraisemblance sont connues pour être une alternative satisfaisante. Cependant, les tests du rapport de vraisemblance ne sont pas techniquement corrects dans cette situation car la fonction de vraisemblance est fondée sur un modèle incorrect, i.e. un modèle prospectif dans un schéma d’échantillonnage rétrospectif. Nous corrigeons les résultats asymptotiques standards pour prendre en compte le fait que le test du rapport de vraisemblance est fondé sur une fonction apparentéà la vraisemblance. Les performances de la méthode proposée sont illustrées avec des études de simulation dans le cas où l’information génétique est de type haplotypique et que les données manquantes viennent d’une ambigüité de phase lors de la reconstruction de ces haplotypes. Enfin, nous appliquons notre méthode à une étude d’association cas‐témoins entre la prise de calcium et le risque d’adénome colorectal. B. Mukherjee and N. Chatterjee 685 Exploiting Gene‐Environment Independence for Analysis of Case‐‐Control Studies: An Empirical Bayes‐Type Shrinkage Estimator to Trade‐Off between Bias and Efficiency L’analyse prospective habituelle de données de type cas‐témoin par la régression logistique conduit souvent à des estimateurs très imprécis des interactions gènes‐environnement, en raison du faible nombre de cas ou de témoins pour des croisements génotype‐exposition. Par contraste, sous l’hypothèse d’indépendance gène‐environnement, par les méthodes actuelles rétrospectives, y compris l’approche «cas seulement », on peut estimer les paramètres d’interaction de manière beaucoup plus précise, mais on peut avoir un biais important lorsque l’hypothèse sous‐jacente d’indépendance gène‐environnement n’est pas respectée. Dans cet article, nous proposons un nouvel estimateur de type Bayésien empirique pour analyser des données cas‐témoin, permettant d’assouplir l’hypothèse d’indépendance gène‐environnement en s’appuyant sur les données. Dans le cas particulier d’un gène binaire et d’une exposition binaire, la méthode conduit à un estimateur du paramètre log odds‐ratio de l’interaction sous forme simple explicite, correspondant à une moyenne pondérée des estimateurs usuels « cas seulement » et cas‐témoin. Nous décrivons également une méthode générale pour l’obtention du nouvel estimateur et de sa variance dans le schéma rétrospectif au maximum de vraisemblance proposé par Chatterjee et Carroll (2005). Des simulations et des exemples sur données réelles montrent que l’estimateur proposé marque bien l’équilibre entre le biais et l’efficacité selon la réelle association gène‐environnement et la taille d’échantillon pour une étude donnée. Z. Cai, M. Kuroki, J. Pearl, and J. Tian 695 Bounds on Direct Effects in the Presence of Confounded Intermediate Variables Cet article traite le problème de l’estimation de l’effet directement attribuable au traitement (average controlled direct effect : ACDE) dans l’analyse d’un critère final, lorsque des facteurs de confusion non mesurés adviennent entre la mesure d’une variable intermédiaire et ce critère final. En effet, même lorsque ces facteurs de confusion ne perturbent pas l’estimation de l’effet total (qui est alors identifiable), ils rendent non identifiable l’effet direct attribuable au traitement. Kaufman et coll. (2005) ont utilisé un logiciel de programmation linéaire pour trouver les minimum et maximum des valeurs possibles de l’ACDE pour des données numériques particulières. En utilisant la méthode de programmation linéaire symbolique de Balke–Pearl (1997), nous dérivons ici des formules analytiques pour les limites supérieure et inférieure de l’ACDE sous diverses hypothèses de monotonie. Ces valeurs‐limites sont toujours valides. Dans le domaine de la recherche clinique, elles permettent d’évaluer, de façon abordable en termes de calcul, l’effet directement attribuable au traitement. Elles permettent ainsi d’éclairer l’expérimentateur sur le sens dans lequel s’exerce l’effet attribuable au traitement, ainsi que sur la précision des estimations. T. J. VanderWeele 702 The Sign of the Bias of Unmeasured Confounding Les variables de confusion non mesurées constituent un problème fréquent lorsqu’on veut faire de l’inférence dans des études observationnelles. Nous proposons un théorème qui permet, dans certaines circonstances, de tirer des conclusions sur le signe du biais généré par une variable de confusion non mesurée. Plus précisément, il est possible de déterminer le signe du biais quand il existe des relations monotones d’une part entre la variable de confusion non mesurée et le traitement et, d’autre part, entre la variable de confusion non mesurée et le critère de jugement. Les conditions d’application du théorème sont discutées ainsi que les avantages et les inconvénients liés à son utilisation pour déterminer le sens du biais de la confusion non mesurée. M. Zhang, A. A. Tsiatis, and M. Davidian 707 Improving Efficiency of Inferences in Randomized Clinical Trials Using Auxiliary Covariates L’objectif premier d’un essai clinique randomisé est de comparer deux traitements ou plus. Par exemple, dans un essai à deux bras avec une réponse continue, on peut s’intéresser à la différence des moyennes; avec plus de deux traitements, la comparaison peut être basée sur des différences appariées. Avec des réponses binaires, des odds ratio appariés ou des log odds ratio peuvent être utilisés. En général, les comparaisons peuvent être basées sur des paramètres ayant un sens, dans un modèle statistique pertinent. Des analyses standards pour l’estimation et les tests dans ce contexte, sont typiquement basées sur les données collectées de la réponse et du traitement seulement. Dans beaucoup d’essais, une information sur une covariable auxiliaire peut également être disponible et il est intéressant d’exploiter ces données pour améliorer l’efficacité des inférences. En prenant une perspective de théorie semi‐paramétrique, nous proposons une approche largement applicable à l’ajustement de covariables auxiliaires pour obtenir des estimateurs plus efficaces et des tests pour les paramètres de traitement dans l’analyse d’essais cliniques randomisés. Des simulations et des applications démontrent la performance des ces méthodes. C. J. Lloyd 716 A New Exact and More Powerful Unconditional Test of No Treatment Effect from Binary Matched Pairs Nous considérons le problème du test de la différence des probabilités du succès de paires binaires couplées. Commençant par trois tests standard inexacts, le paramètre de nuisance est d’abord estimé et ensuite la dépendance résiduelle éliminée par maximisation, produisant ce que j’appelle la p‐valeur de E+M. On montre que cette p‐valeur, basée sur la statistique de McNemar, est numériquement supérieure aux suggestions précédentes, y compris les p‐valeurs partiellement maximisées telles qu’elles sont décrites dans Berger et Sidik (2003). La dernière méthode cependant peut avoir des avantages du point de vue des calculs pour de grands échantillons. G. Wei and D. E. Schaubel 724 Estimating Cumulative Treatment Effects in the Presence of Nonproportional Hazards Souvent, dans les études médicales portant sur le délai d’apparition d’un événement, l’effet traitement n’est pas constant au cours du temps. Dans le cas du modèle de Cox, la solution la plus fréquente est d’utiliser un modèle qui suppose que soit l’effet traitement est constant par intervalle, soit qu’il varie lentement au cours du temps (le modèle de Cox à risques non proportionnels). Cette approche a au moins deux limitations majeures. Premièrement, il est généralement difficile d’évaluer si la forme du paramètre choisi pour l’effet traitement est correct. Deuxièmement, en présence de risques non proportionnels, les investigateurs sont habituellement plus intéressés par l’effet traitement cumulé plutôt que par l’effet traitement instantané (c’est‐à‐dire déterminer si et quand les fonctions de survie se croisent). Par conséquent, nous proposons un estimateur pour l’effet global du traitement en présence de risques non proportionnels. Notre estimateur est fondé sur le risque de base cumulé estimé sous un modèle de Cox stratifié. Aucune hypothèse n’est nécessaire quant à la forme de la fonction concernant l’absence de proportionnalité. Les propriétés asymptotiques des estimateurs proposés sont déduites, et les propriétés dans le cas d’échantillons de taille finie sont évaluées par des simulations. L’estimation et les intervalles de confiance de l’estimateur peuvent être calculés simultanément. La méthode proposée est appliquée à des données provenant du registre national des rejets d’organes canadien. B. R. Logan, J. P. Klein, and M.‐J. Zhang 733 Comparing Treatments in the Presence of Crossing Survival Curves: An Application to Bone Marrow Transplantation Dans certaines études cliniques comparant des traitements en terme de courbes de survie, les chercheurs peuvent anticiper que les courbes de survie se croiseront à un certain point, aboutissant à s’intéresser à la comparaison de la survie à long terme. Cependant, la simple comparaison des courbes de survie à un point donné peut être inefficace, et l’utilisation d’un test du log‐rank pondéré peut être trop sensible aux différences initiales dans la survie. Nous formulons le problème comme celui de tester les différences des courbes de survie après un temps pré‐spécifié, et proposons une variété de techniques pour tester cette hypothèse. Nous étudions ces méthodes en utilisant des simulations et les illustrons sur une étude comparant la survie pour des transplantations autologues et allogéniques de moelle. R. Song, M. R. Kosorok, and J. Cai 741 Robust Covariate‐Adjusted Log‐Rank Statistics and Corresponding Sample Size Formula for Recurrent Events Data Des évènements récurrents se rencontrent fréquemment dans les essais cliniques. Cet article développe des statistiques robustes du log‐rank ajustées pour des covariables, appliquées à des évènements récurrents en nombre arbitraire avec censure indépendante et la formule de taille d’échantillon correspondante. Les tests du log‐rank proposés sont robustes pour différents procédés de génération de données et ajustés pour des covariables prédictives. Ils se ramènent au cadre développé par Kong et Slud (1997) dans le cas d’un événement unique. La formule de taille d’échantillon repose sur la normalité asymptotique des statistiques du log‐rank ajustées pour des covariables sous certaines alternatives locales et sous un modèle pour les covariables au baseline dans le contexte d’évènements récurrents. Quand la taille de l’effet est petite et quand les covariables au baseline n’apportent pas une information significative sur les temps de survenue, elle se ramène à la même forme que celle de Schoenfeld (1983) dans les cas d’un événement unique ou de temps de survenue indépendants pour un sujet. Nous réalisons des simulations pour étudier le contrôle de l’erreur de type I et pour comparer la puissance de plusieurs méthodes sur des échantillons finis. La formule de taille d’échantillon proposée est illustrée à partir des données d’un essai de la rhDNase. J. D. Nielsen and C. B. Dean 751 Clustered Mixed Nonhomogeneous Poisson Process Spline Models for the Analysis of Recurrent Event Panel Data Un modèle semi paramétrique flexible pour analyser des données de comptage longitudinales provenant de mélanges est présenté. Les données de comptage en panel se réfèrent ici à des données de comptage sur des évènements récurrents collectés comme le nombre d’évènements qui sont arrivés durant une période de suivi spécifique. Le modèle suppose que les comptages pour chaque sujet sont générés par des mélanges de processus de Poisson non homogènes avec des fonctions d’intensité lissées modélisées par des splines pénalisés. Les effets des covariables dépendant du temps sont aussi incorporés dans le modèle dans l’intensité du processus en utilisant les fonctions splines. Des mélanges discrets de ces modèles splines de processus non homogènes de Poisson extraient l’information fonctionnelle provenant des grappes sous‐jacentes représentant les sous populations cachées. La motivation de ce travail est une expérience pour tester l’efficacité de phéromones en interrompant le processus d’accouplement de papillons tortriciae de l’écorce du cerisier. Les papillons matures proviennent de sous populations cachées mais distinctes et on s’intéressait au contrôle des réponses des sous populations. Des effets aléatoires intra‐grappes sont utilisés pour prendre en compte les structures de corrélation et l’hétérogénéité communes à ce genre de données. Une approche pour faire de l’inférence par équations d’estimation, requérant seulement des hypothèses faibles, est développée et les propriétés à distance finie des fonctions d’estimation proposées sont étudiées empiriquement par simulation. R. M. Elashoff, G. Li, and N. Li 762 A Joint Model for Longitudinal Measurements and Survival Data in the Presence of Multiple Failure Types Dans ce papier, nous étudions un modèle conjoint pour des mesures longitudinales et des données de survie à risques compétitifs. Notre modèle conjoint fournit une approche souple pour prendre en compte les données manquantes possiblement non ignorables dans les mesures longitudinales dues aux sorties d’étude. Il s’agit aussi d’une extension des modèles conjoints précédents avec un seul type d’événements, offrant une voie possible pour modéliser les événements censurés informativement comme un risque compétitif. Notre modèle consiste en un sous‐modèle linéaire à effets mixtes pour le critère longitudinal et un sous‐modèle de fragilitéà risques proportionnels cause spécifique (Prentice et al., 1978, Biometrics 34, 541–554) pour les données de survie à risques compétitifs, liés l’un à l’autre par des effets aléatoires latents. Nous proposons d’obtenir les estimations du maximum de vraisemblance des paramètres par un algorithme EM et d’estimer leurs écarts‐types en utilisant une méthode de vraisemblance profilée. La méthode développée fonctionne bien dans nos études de simulation et est appliquée à un essai clinique sur les atteintes pulmonaires de la sclérodermie. S. Goetgeluk and S. Vansteelandt 772 Conditional Generalized Estimating Equations for the Analysis of Clustered and Longitudinal Data Un problème commun et important dans des plans d’échantillonnage en grappes est que l’effet des expositions intra‐grappes (c’est‐à‐dire des expositions qui varient dans les grappes) sur le résultat peut être confondu avec des facteurs mesurés ou non des facteurs du niveau de la grappe (c’est‐à‐dire des mesures qui ne changent pas à l’intérieur des grappes). Quand certains résultats sont malades/non expliqués, l’estimation de cet effet par l’intermédiaire de modèles de moyenne de la population ou de modèles à effets aléatoires peut introduire un biais. Nous adaptons ce fait en développant une théorie générale de l’analyse de données en grappes qui permet une estimation convergente et asymptotiquement normale des effets (CAN) des expositions intra‐grappes en présence des niveaux de confusion du niveau de grappe. Des estimateurs efficaces semi‐paramétriques sont obtenus en résolvant les équations d’estimation conditionnelles généralisées (CGEE). Nous comparons cette approche à une proposition populaire de Neuhaus et Kalbfleisch (1998) qui séparent l’effet d’exposition en composantes intra‐grappes ou entre grappes à l’intérieur d’un modèle aléatoire avec une constante. Nous constatons que cette dernière approche fournit des estimateurs convergents et efficaces quand le modèle est linéaire, mais qu’elle est moins flexible en termes de spécification de modèles. Avec des modèles non‐linéaires, cette approche peut aboutir à des estimateurs non convergents et inefficaces, bien que le biais reste faible dans la majorité des cas pratiques. Y. Ma, W. Tang, C. Feng, and X. M. Tu 781 Inference for Kappas for Longitudinal Study Data: Applications to Sexual Health Research De nombreuses recherches comportementales, médicales, psycho‐sociales ou de santé utilisent des mesures de la fiabilité des instruments ou de la concordance entre juges pour évaluer les propriétés psychométriques de leurs instruments, le niveau de consensus en matière de diagnostic médical, ou la fiabilité d’une variable de substitution. L’indice de concordance le plus fréquemment utilisé pour des réponses catégorielles est le coefficient kappa de Cohen. Aujourd’hui, dans de nombreuses études, on observe des réponses corrélées, ce qui complique ou invalide l’inférence à partir des méthodes antérieures. En outre, les problèmes posés par les observations incomplètes sont particulièrement gênants dans les études longitudinales, de plus en plus nombreuses, et l’absence de méthodes adaptées entrave le développement des recherches. L’approche que nous présentons repose sur une nouvelle classe d’estimateurs des coefficients kappa qui prend en compte les difficultés que l’on rencontre dans les études longitudinales où interviennent plusieurs évaluateurs, en particulier celles liées aux observations incomplètes. Nous illustrons la méthode à partir de données réelles concernant le sexe et la santé. B. J. Reich and J. S. Hodges 790 Modeling Longitudinal Spatial Periodontal Data: A Spatially Adaptive Model with Tools for Specifying Priors and Checking Fit La perte d’attachement (AL) ou longueur sous la racine dentaire qui n’est plus attachée à l’os par le ligament parodontal est une mesure habituelle de la maladie parodontale. Dans cet article, nous développons un modèle spatio‐temporel de surveillance de la progression de l’AL. Notre modèle est une extension de l’a‐priori conditionnel autorégressif (CAR), qui lisse spatialement les estimations vers leurs voisins. Cependant, puisque l’AL présente souvent des accès de grandes valeurs dans l’espace et dans le temps, nous proposons un modèle spatiotemporel CAR non‐stationnaire qui permet au degré de lissage temporel et spatial de varier dans les différentes régions de la bouche. Pour celà, nous attribuons à chaque site de mesure d’AL son propre ensemble de paramètres de variance, et lissons les variances avec des a‐priori spatiaux. Nous suggérons une heuristique pour mesurer la complexité des variances site‐spécifiques, et nous l’utilisons pour sélectionner les a‐priori qui garantissent que les paramètres du modèle sont bien identifiés. Sur des données d’un essai clinique, le modèle améliore la qualité de l’ajustement par rapport au modèle usuel dynamique CAR pour 90 des 99 mesures d’AL. Y. Guan 800 A KPSS Test for Stationarity for Spatial Point Processes Nous proposons une méthode formelle pour tester la stationnarité d’un processus spatial ponctuel. La statistique de test proposée est basée sur l’intégrale des carrés des écarts entre les nombres d’événements observés et leur moyenne sous l’hypothèse de stationnarité. Nous montrons que la statistique de test obtenue converge en loi vers une fonctionnelle d’un mouvement brownien bidimensionnel. Pour appliquer le test, nous comparons la statistique calculée aux valeurs critiques à l’extrémité supérieure de cette fonctionnelle. Notre méthode suppose seulement une condition de dépendance faible pour le processus, mais ne requiert aucun modèle paramétrique pour cela. De la sorte, elle peut être appliquée à une large classe de modèles de processus spatiaux ponctuels. Nous étudions l’efficacité du test à la fois par des simulations et des applications à deux exemples sur données réelles où la non stationnaritéétait préalablement envisagée en se basant sur des aspects graphiques. Notre test confirme cette non stationnarité suspectée dans les deux cas. W. Zucchini, D. Raubenheimer, and I. L. MacDonald 807 Modeling Time Series of Animal Behavior by Means of a Latent‐State Model with Feedback Nous décrivons une famille de modèles adaptés aux séries temporelles de comportement nutritionnel animal. Les modèles incluent un état non observé pouvant être interprété comme l’état de motivation de l’animal, et un mécanisme pour donner cet état en retour du comportement observé. Nous discutons des méthodes d’évaluation et de maximisation de la vraisemblance d’une série observée de comportements, de l’estimation des paramètres, et de l’inférence pour la plus probable séquence d’états sous‐jacents. Nous indiquons plusieurs extensions de ces modèles, incorporant des effets aléatoires. Nous appliquons ces méthodes à l’analyse du comportement nutritionnel des chenilles Helicoverpa armigera, et nous démontrons ainsi le potentiel de cette famille de modèles dans l’étude des comportements. R. King and S. P. Brooks 816 On the Bayesian Estimation of a Closed Population Size in the Presence of Heterogeneity and Model Uncertainty Nous considérons l’estimation de la taille d’une population fermée, qui présente souvent un intérêt pour des populations animales sauvages, en utilisant une étude de capture‐recapture. L’estimation de la taille totale de population peut être très sensible au choix du modèle utilisé pour l’ajuster aux données. Nous considérons une approche bayésienne, dans laquelle nous considérons chacun des huit modèles plausibles originellement décrits par Otis et al. (1978) dans un contexte simple, incluant des modèles avec une composante individuelle d’hétérogénéité. Nous montrons comment nous pouvons obtenir une estimation moyenne de la population totale, incluant simultanément le paramètre et l’incertitude du modèle. Pour illustrer la méthodologie nous effectuons d’abord une étude de simulation et nous analysons deux ensembles de données où la taille de population est connue, avant de considérer un exemple réel concernant une population de dauphins du nord‐est de l’Ecosse. A. J. Branscum and T. E. Hanson 825 Bayesian Nonparametric Meta‐Analysis Using Polya Tree Mixture Models Un objectif habituel dans une méta‐analyse est l’estimation d’une mesure d’effet unique en utilisant les données de plusieurs études qui sont toutes dessinées pour traiter la même question scientifique. Parce que les études sont typiquement réalisées dans des lieux géographiquement dispersés, les développements récents dans l’analyse statistique des données de méta‐analyses impliquent l’utilisation de modèles avec effets aléatoires qui tiennent compte de la variabilité entre études attribuable aux différences d’environnement, de démographie, de génétique, et d’autres sources d’hétérogeneïté entre les populations. En se fondant sur la théorie asymptotique, les statistiques résumées propres à chaque étude sont modélisées selon des distributions normales représentant les vraies mesures d’effets latents. Dans un deuxième temps une approche paramétrique modélise ces mesures latentes au moyen d’une distribution normale, qui est uniquement une supposition commode dénuée de justification théorique. Pour éliminer l’influence de modèles paramétriques par trop restrictifs sur l’inférence, nous considérons une classe plus large de distributions pour les effets aléatoires. Nous développons un nouveau modèle de mélange d’arbres de Polya Bayesien non paramétrique et hiérarchique. Nous présentons une méthodologie pour tester un modèle de mélange d’arbre de Polya contre un modèle avec effets aléatoires normaux. Ces méthodes fournissent aux chercheurs une approche immédiate pour conduire une analyse de sensibilité de la normalité des effets aléatoires. Une application impliquant une méta‐analyse d’études épidémiologiques pour caractériser l’association entre la consommation d’alcool et le cancer du sein est présentée qui, alliée à des résultats issus de données simulées, met en lumière la performance des mélanges d’arbre de Polya en présence de non‐normalité des mesures d’effet dans la population d’origine. G. Massonnet, P. Janssen, and T. Burzykowski 834 Fitting Conditional Survival Models to Meta‐Analytic Data by Using a Transformation Toward Mixed‐Effects Models Les modèles à fragilité sont communément utilisés pour modéliser des survies sur données en ‘clusters’. Les approches classiques pour ajuster des modèles de fragilité sont basées sur la vraisemblance. Nous proposons une approche alternative dans laquelle le problème initial d'« ajustement d’un modèle de fragilité» est reformulé en le problème d’« ajustement d’un modèle linéaire mixte » grâce à l’utilisation d’un modèle de transformation. Nous montrons que le principe de transformation s’applique aussi aux modèles multivariés à odds proportionnels ainsi qu’aux modèles de risques additifs multivariés. Il permet de plus de faire le lien entre des méthodes séparées en ce sens qu’il fournit un moyen général d’ajuster des modèles conditionnels pour des données de survie multivariées en utilisant la méthodologie des modèles mixtes. Nous nous centrons sur les modèles à fragilité afin d’étudier les caractéristiques spécifiques de la méthode proposée. En nous basant sur une étude de simulation nous montrons que la méthode proposée produit une alternative correcte et simple pour l’ajustement de modèles à fragilité sur des données présentant un nombre suffisamment grand de classes et des tailles d’échantillons modérées à grande à l’intérieur de niveaux de sous‐groupes de covariables. La méthode proposée est appliquée à des données provenant de 27 essais randomisés sur des cancers colorectaux avancés, disponibles par l’intermédiaire du groupe de Meta‐Analyse du Cancer. R. A. Hubbard, L. Y. T. Inoue, and J. R. Fann 843 Modeling Nonhomogeneous Markov Processes via Time Transformation Les études longitudinales constituent un outil puissant pour représenter la progression des maladies chroniques. Ces études sont habituellement menées avec des patients examinés lors de visites périodiques, donnant ainsi des données de type panel. Dans ce schéma d’observation, les temps exacts de transitions entre les états de la maladie, et la séquence suivie des états de la maladie sont inconnus, et les modèles à base de processus de Markov sont souvent utilisés pour décrire la progression. La plupart des applications reposant sur les processus markoviens supposent l’homogénéité par rapport au temps, autrement dit que les taux de transition sont constants au cours du temps. Cette hypothèse n’est pas satisfaite lorsque les taux de transition dépendent du temps à compter du début de la maladie. Cependant, peu d’outils statistiques existent pour prendre en compte cette non‐homogénéité. Nous proposons des modèles dans lesquels l’échelle de temps d’un processus de Markov non‐homogène est transformée en une échelle de temps opérationnelle par rapport à laquelle le processus est homogène. Nous développons une méthode pour l’estimation jointe de la transformation de temps et de la matrice d’intensité de transition pour le processus homogène transformé. Nous établissons une estimation au maximum de vraisemblance utilisant l’algorithme du score de Fisher par des études de simulation, et nous comparons la performance de notre méthode par rapport à des modèles homogènes et des modèles homogènes par morceaux. Nous appliquons notre méthodologie à une étude sur la progression du délire dans une cohorte de receveurs de transplantation de cellules souche, et nous montrons que notre méthode identifie les tendances temporelles dans l’incidence du délire et dans la récupération. C. C. Drovandi and A. N. Pettitt 851 Multivariate Markov Process Models for the Transmission of Methicillin‐Resistant Staphylococcus Aureus in a Hospital Ward L’Aureus Staphylococcus résistant à la méthicilline (SARM) est un pathogène qui continue d’être un problème majeur à l’hôpital. Nous développons des modèles et des algorithmes de calcul basés sur des données observées d’incidences hebdomadaires pour estimer les paramètres de transmission du MRSA. Nous étendons le modèle déterministe de McBryde, Pettitt et McElwain (2007) impliquant une population sous‐jacente de patients colonisés par MRSA et de personnels soignants qui décrit, parmi d’autres processus, la transmission entre patients non colonisés et personnels soignants colonisés et vice‐versa. Nous développons de nouveaux modèles de Markov bivariés et trivariés pour inclure l’incidence de telle façon que les taux de transmission estimés puissent être basés directement sur de nouvelles colonisations plutôt qu’indirectement sur la prévalence. La sensibilité imparfaite de la détection du pathogène est modélisée en utilisant un processus markovien caché. Les avantages de notre approche incluent (i) l’hypothèse d’une valeur discrète pour le nombre de personnels soignants colonisés, (ii) deux paramètres de transmission pouvant être incorporés dans la vraisemblance, (iii) la vraisemblance dépend du nombre de nouveaux cas pour améliorer la précision de l’inférence, (iv) les enregistrements individuels des patients ne sont pas requis, et (v) la possibilité d’une détection imparfaite de la colonisation est incorporée. Nous comparons notre approche avec celle utilisée par McBryde et al (2007), basée sur une approximation qui élimine les personnels soignants du modèle, utilisant une chaîne de Markov par Monte Carlo et des données individuelles des patients. Nous appliquons ces modèles à des données de colonisation de SARM, collectées dans de petites unités de soins intensifs (ICU) à l’hôpital Princesse Alexandra, Brisbane, Australie. A. R. Cook, G. J. Gibson, and C. A. Gilligan 860 Optimal Observation Times in Experimental Epidemic Processes Cet article décrit une méthode de choix de temps d’observation de processus stochastiques destinés à maximiser les espérances des informations de leurs paramètres. On considère deux modèles généralement utilisés pour des processus épidémiologiques: un processus simple de mort et un processus épidémique de susceptibilité d’infection (SI) avec des sources doubles d’infection se développant de l’intérieur ou de l’extérieur de la population. La recherche du plan optimal emploie des méthodes bayésiennes de calcul pour explorer l’espace expérimental commun paramètre‐donnée, combinéà une méthode connue sous le nom de fermeture de moment d’approximation de la vraisemblance pour rendre efficace l’étape d’acceptation. Pour les processus considérés, on montre que choisir un petit nombre d’observations de façon optimale est presqu’aussi bon que collecter des observations de manière plus intensive, pratique générale dans nombre d’expériences épidémiologiques. L’analyse du processus simple de mort permet une comparaison entre l’approche bayésienne intégrale et des dispositifs localement optimaux autour d’une estimation ponctuelle d’a priori basée sur des résultats asymptotiques. On démontre la robustesse de l’approche pour des a priori mal spécifiés du processus épidémique SI, pour lequel le problème de la faisabilité informatique du calcul de la vraisemblance exclut des plans optimaux. Nous montrons que des plans optimaux déduits d’une approche bayésienne sont semblables à des études d’observations d’une épidémie simple et à des études impliquant des épidémies répétées dans des sous‐populations indépendantes. Un optimum différent existe, cependant, quand l’objectif est de maximiser le gain de l’information basée sur des a priori informatifs ou non: ceci a des implications quand une expérience est conçue pour convaincre un observateur naïf ou sceptique plutôt que pour consolider la connaissance d’un observateur mieux informé. On présente quelques prolongements de ces méthodes, comprenant le choix de critères d’information et l’extension à d’autres processus épidémiologiques avec des probabilités de transition. K. F. Lam, J. V. Deshpande, E. H. Y. Lau, U. V. Naik‐Nimbalkar, P. S. F. Yip, and Ying Xu 869 A Test for Constant Fatality Rate of an Emerging Epidemic: With Applications to Severe Acute Respiratory Syndrome in Hong Kong and Beijing L’étiologie, la pathogénie et le pronostic d’une maladie récemment émergente sont généralement inconnus aux cliniciens. Des interventions et des traitements efficaces aussi précoces que possible garantissent la réduction du caractère fatal de la maladie à un minimum, et la suppression de traitements inadéquats. Dans ce contexte, la capacitéà extraire le plus d’informations hors des données disponibles est critique à la possibilité d’importantes prises de décision. L’inefficacité d’un traitement peut être reflétée par une mortalité constante avec le temps tandis qu’un traitement efficace mène normalement à un taux de décès décroissant. Un test statistique pour une mortalité constante avec le temps est proposé dans cet article. La statistique proposée converge vers un mouvement Brownien sous l’hypothèse nulle. Les caractéristiques spécifiques du mouvement Brownien permettent d’analyser également la distribution des premiers temps de passage à partir de tests séquentiels. Ceci permet à l’hypothèse nulle du taux de décès constant d’être rejetée le plus rapidement possible dès que l’évidence statistique devient suffisante. Les études de simulation montrent que les performances du test proposé sont bonnes et qu’il est très sensible pour trouver un taux de mortalité décroissant. Le test proposé est appliqué aux données du syndrome respiratoire aigu sévère (SARS) à Hong Kong et Beijing. J. Peng, C.‐I. C. Lee, K. A. Davis, and W. Wang 877 Stepwise Confidence Intervals for Monotone Dose–Response Studies Dans les études de dose‐réponse un des points les plus importants est l’identification de la dose minimum efficace (minimum effective dose – MED), qui est définie comme la plus petite dose pour laquelle la réponse moyenne est meilleure que celle obtenue pour une dose nulle de contrôle, en terme de différence clinique significative. Les courbes doses‐réponses sont parfois monotones. Pour trouver la MED plusieurs auteurs ont proposé des procédures de test du genre up and down, basées sur des contrastes entre les moyennes. Dans cet article, pour identifier la MED, on propose une amélioration de la méthode de Marcus et Peritz (1976, Journal of the Royal Statistical Society, Series B 38, 157–161) et on développe une application de la méthode DR de Hsu et Berger (1999, Journal of the American Statistical Society 94, 468–482) pour construire, sous des hypothèses de monotonicité, la borne inférieure de l’intervalle de confiance pour la différence entre la réponse à une dose quelconque non nulle et celle du contrôle. La méthode proposée est illustrée par des exemples numériques et on présente des comparaisons de puissance obtenues par simulations. M. Ding, G. L. Rosner, and P. Müller 886 Bayesian Optimal Design for Phase II Screening Trials Dans la littérature, la plupart des plans de screening en phase 2 considèrent un traitement à la fois. Chaque étude est considérée isolément. Nous proposons une approche décisionnelle plus systématique pour le processus de screening de phase 2. Le plan séquentiel permet une plus grande efficacité et un meilleur apprentissage sur les traitements. L’approche incorpore un modèle Bayesien hiérarchique qui permet d’une façon formelle la combinaison d’information entre différentes études reliées entre elles, et améliore l’estimation dans de petits échantillons en exploitant l’information venant des autres traitements. Le plan incorpore une fonction d’utilité qui prend en compte le coût d’échantillonnage et le possible retour sur investissement. Des simulations par ordinateur montrent que cette méthode a une forte probabilité d’écarter des traitements à faible taux de succès et de faire évoluer en phase 3 des traitements à fort taux de succès. A. Vexler, A. Liu, E. Eliseeva, and E. F. Schisterman 895 Maximum Likelihood Ratio Tests for Comparing the Discriminatory Ability of Biomarkers Subject to Limit of Detection Dans cet article, nous étudions la comparaison des aires sous courbes ROC (Receiver Operating Characteristic) corrélées, des biomarqueurs diagnostiques dont les mesures sont soumises à une limite de détection (LOD), source d’erreur de mesure issue de la sensibilité instrumentale en épidémiologie. Nous proposons et nous examinons les tests du rapport des vraisemblances avec des caractéristiques opérationnelles qui sont aisément obtenues sous méthodologie classique du maximum de vraisemblance. R. Li and L. Nie 904 Efficient Statistical Inference Procedures for Partially Nonlinear Models and their Applications Motivés par une analyse d’un jeu de données réelles dans le domaine de l’écologie, nous sommes amenés à considérer une classe de modèles partiellement non linéaires où l’on note à la fois la présence d’une composante non paramétrique et d’une composante paramétrique. Nous développons deux nouvelles procédures d’estimation pour l’estimation des paramètres de la composante paramétrique. La consistance et la normalité asymptotique des estimateurs sont établies. Puis nous proposons ensuite une procédure d’estimation et une procédure de test F généralisé pour la composante non paramétrique dans les modèles partiellement non linéaires. Des propriétés asymptotiques de la nouvelle procédure d’estimation et le test statistique s’en déduisent. Les qualités des échantillons finis des procédures d’inférence proposées sont évaluées par des études de simulations de Monte Carlo. Une application dans le domaine de l’écologie est utilisée pour illustrer la méthode proposée E. Deschepper, O. Thas, and J. P. Ottoy 912 Tests and Diagnostic Plots for Detecting Lack‐of‐Fit for Circular‐Linear Regression Models Les diagnostics pour la régression et les tests de défaut d’ajustement sont principalement focalisés sur les modèles linéaires de régression linéaire. Lorsque les points sont distribués sur la circonférence d’un cercle, des difficultés apparaissent car il n’existe pas de point de départ ou d’origine. La plupart des tests classiques de défauts d’ajustement exigent de choisir arbitrairement une origine, mais des choix différents peuvent conduire à des conclusions différentes. Nous proposons un outil graphique d’ajustement et un test de défaut d’ajustement qui n’exige pas de point naturel initial. La méthode est basée sur des « résidus régionaux » qui sont définis sur des arcs de cercle. La méthode graphique localise formellement et visualise des sous ensembles d’observations dont l’ajustement n’est pas satisfaisant sur le cercle. Un exemple de données issues du domaine alimentaire est utilisé pour exhiber les problèmes mentionnés auparavant avec les tests classiques d’ajustement et pour illustrer la force de la méthode basée sur les « résidus régionaux » pour détecter et localiser les points de départ d’hypothèse de non effet. Une petite étude de simulation montre la bonne performance du test des « résidus régionaux » dans les deux cas d’écart global ou local du modèle. Puis ces idées sont étendues au cas ou il y a plus d’une variable explicative. B. Xie, W. Pan, and X. Shen 921 Variable Selection in Penalized Model‐Based Clustering Via Regularization on Grouped Parameters L’analyse en grappes modèle‐dépendante pénalisée a été proposée dans le cadre de données de haute dimension mais de petite taille d’échantillon comme celles rencontrées dans les études génomiques. En particulier, elle peut être utilisée pour la sélection de variables. Un nouveau schéma de régularisation est proposé pour regrouper ensemble plusieurs paramètres associés à la même variable au sein des grappes. Nous montrons analytiquement et numériquement que ce schéma est plus efficace que la conventionnelle pénalité L1 pour la sélection de variable. De plus, nous développons une stratégie pour combiner ce schéma de groupement avec le groupement de variables structurées. Des études de simulation et des applications aux données d’expression des micropuces pour la découverte de sous‐types cancéreux illustrent les avantages de notre nouvelle approche par rapport à plusieurs méthodes existantes. S. H. Lee, J. Lim, M. Vannucci, E. Petkova, M. Preter, and D. F. Klein 931 Order‐Preserving Dimension Reduction Procedure for the Dominance of Two Mean Curves with Application to Tidal Volume Curves Le travail présenté ici est issu d’une étude de cas reposant sur des tracés, à dimension et fréquence élevées, de capacité vitale respiratoire effectués pendant des bouffées d’angoisse provoquées. L’objectif est de développer une procédure pour évaluer la significativité de la supériorité d’une courbe moyenne par rapport à une autre. L’idée essentielle de la méthode suggérée est de préserver l’ordre sur les moyennes tout en réduisant la dimensionnalité des données. La matrice des données observées est projetée sur un ensemble de matrices de rang inférieur sous une contrainte de positivité. Une procédure de test multivarié est alors appliquée dans cette dimension inférieure. Nous utilisons des données simulées pour illustrer les propriétés statistiques de la méthode de test proposée. Les résultats obtenus sur l’étude de cas confirment l’hypothèse préliminaire des investigateurs et fournit un support à leur objectif de construction d’un modèle expérimental pour la bouffée d’angoisse clinique chez les sujets normaux.  相似文献   

13.
Book Reviews     
Book reviewed in this article: Warwick Anderson. Colonial Pathologies: American Tropical Medicine, Race, and Hygiene in the Philippines. Patrice Bidou, Jacques Galinier and Bernard Juillerat (eds). Anthropologie et psychanalyse: Regards croisés. Denise Brennan. What's Love Got to Do With It? Transnational Desires and Sex Tourism in the Dominican Republic. Rae Bridgman. StreetCities: Rehousing the Homeless. Alex Butler. Feminism, Nationalism and Exiled Tibetan Women. Ian Condry. Hip‐Hop Japan: Rap and the Paths of Cultural Globalization. Jennifer Deger. Shimmering Screens: Making Media in an Aboriginal Community. Jean Guiart. Les Mélanesiens devant l'économie de marché: du milieu de XIXe siècle à la fin du millénaire. Maria Heimer and Stig Thøgersen (eds). Doing Fieldwork in China. Robert K. Hitchcock, Kazunobu Ikeya, Megan Biesele and Richard B. Lee (eds). Updating the San: Image and Reality of an African People in the 21st Century. Charles J‐H Macdonald. Uncultural Behavior: An Anthropological Investigation of Suicide in the Southern Philippines. David Mosse. Cultivating Development: An Ethnography of Aid Policy and Practice. Louise Purbrick. The Wedding Present: Domestic Life Beyond Consumption. Michael Roberts. Sinhala Consciousness in the Kandyan Period 1590s to 1815. Jennifer Shennan and Makin Corrie Tekenimatang (eds). One and a Half Pacific Islands: Stories the Banaban People Tell of Themselves. Linda Stone and Paul F. Lurquin. Genes, Culture and Human Evolution. A Synthesis. Reed L. Wadley (ed.). Histories of the Borneo Environment: Economic, Political and Social Dimensions of Change and Continuity.  相似文献   

14.
An increased electrofishing sampling effort will increase detection probabilities of riverine fishes. In this study, a repeat‐sampling approach was used in small to medium‐sized Ontario (Canada) rivers to estimate: (i) species‐specific detection probabilities of freshwater fishes, (ii) the number of sampling events required to confidently detect species, and (iii) the power of timed‐search surveys to detect future distribution (or occupancy) declines. Wadeable habitats at 36 sites were sampled with a backpack electrofisher on four separate dates during the summer low‐flow period in 2013 and 2014. Forty‐two species were collected, including three species of conservation concern (American eel Anguilla rostrata Lacépède, 1802, channel darter Percina copelandi Jordan, 1877, northern sunfish Lepomis peltastes Cope, 1870), and two recreationally important species (largemouth bass Micropterus salmoides Lacépède, 1802 and smallmouth bass Micropterus dolomieu Lacépède, 1802). A hierarchical Bayesian modelling approach was used to estimate detection probabilities and site occupancy for 18 species at four levels of effort: 250, 500, 750 and 1,000 s. In all cases, species detection was imperfect. Search effort had a positive effect on estimates of detection probability and site occupancy and the power to detect declines in future distribution. Detection probabilities ranged from 0.11 to 0.66 with an effort of 250 s, and 0.27 to 0.92 with an effort of 1,000 s. For 13 species, detection and power to detect changes in distribution were significantly improved by increasing sampling effort from 250 to 750 s or 1,000 s. For the channel darter and northern sunfish, three replicate sampling visits (of 750 or 1,000 s duration) are recommended for confident detection.  相似文献   

15.
REGULAR ARTICLES     
《Biometrics》2006,62(4):1282-1290
Generalized Additive Modeling with Implicit Variable Selection by Likelihood‐Based Boosting L'utilisation des modèles additifs généralisés dans l’analyse statistique de données souffre de la restriction à quelques variables explicatives et du problème du choix des paramètres de lissage. Le «boosting» d’un modèle additif généralisé contourne ces problèmes par l’intermédiaire d’un ajustement par étapes d’algorithmes d'apprentissage faibles. Une procédure d’ajustement est dérivée qui fonctionne pour toutes les familles de distribution exponentielle simple, incluant les variables réponse binomiale, de Poisson et normales. La procédure combine la sélection de variables et la détermination du degré approprié de lissage. Comme algorithmes d’apprentissages faibles, sont considérés les splines de régression pénalisés et les «stumps» pénalisés nouvellement introduits. Les estimations des déviations standard et les critères d’arrêt qui sont des problèmes notoires dans les procédures itératives sont basés sur une matrice chapeau approchée. La méthode est montrée comme étant un fort compétiteur par rapport aux procédures habituelles pour ajuster des modèles additifs généralisés. En particulier, il fonctionne très bien dans des situations à haute dimensionnalité avec beaucoup de variables de nuisance dans le prédicteur. Variable Selection for Logistic Regression Using a Prediction‐Focused Information Criterion L’utilisation de critères d’information pour guider la sélection des variables est habituelle en biostatistique. Nous proposons de nouvelles versions du critère de l’information ciblée (CIC) pour sélectionner les variables en régression logistique. Ce critère fournit des ensembles de variables qui dépendent de la cible à estimer. Sous sa forme standard, le CIC mesure l’erreur quadratique moyenne associée à l’estimateur de la quantité d’intérêt dans le modèle sélectionné. Nous proposons des formulations plus générales du CIC, autorisant d’autres mesures de risque, comme celles fondées, par exemple, sur l’erreur‐Lp. Quand on s’intéresse à la prédiction d’un événement, comme c’est souvent le cas dans les applications médicales, nous construisons un CIC fondé sur une mesure naturelle du risque, le taux d’erreurs. Une étude par simulation et l’application à une étude concernant la rétinopathie diabétique illustrent l’intérêt d’un critère de l’information dépendant à la fois de la quantité d’intérêt et de la mesure de risque choisie. A Goodness‐of‐Fit Test for Multinomial Logistic Regression Cet article propose un test d’adéquation d’un modèle logistique à des réponses multinomiales ou binomiales. Il s’agit d’un test du score de l’hypothèse nulle d’adéquation contre l’hypothèse alternative que les résidus de sous‐échantillons proches dans l’espace des covariables ont tendance à se ressembler. La statistique de test est une somme de carrés de résidus lissés qui peut s’interpréter comme un test du score dans un modèle mixte. La spécification de la distance dans l’espace des covariables permet de choisir l’hypothèse contre laquelle le test est dirigé et d’en faire soit un test omnibus, soit un test ad hoc de l’adéquation par rapport à l’effet de certaines covariables du modèle ou par rapport à certaines modalités d’une réponse multinomiale. A Generalized Response Surface Model with Varying Relative Potency for Assessing Drug Interaction Lors de l’administration simultanée de plusieurs traitements les investigateurs cherchent souvent àétablir quel est le type d’interaction entre les substances: potentialisation, synergie ou antagonisme. De nombreux modèles de surface de réponse, basés sur le modèle d’additivité de Loewe, exigent que le rapport d’activité (ou la puissance relative) soit constant et certains d’entre eux utilisent un seul paramètre pour décrire le type d’interaction. L’hypothèse d’un rapport d’activité constant est cependant trop restrictive et les modèles à un paramètre sont inadéquats quand le type d’interaction varie en fonction des combinaisons des substances. Nous proposons un modèle généralisé de surface de réponse utilisant une fonction de la dose au lieu d’un paramètre unique pour décrire l’écart à l’additivité. Le modèle proposé peut incorporer également des variations des rapports d’activité variables entre plusieurs substances. La capacité du modèle à décrire les différentes formes d’interaction est illustrée par des exemples et des simulations. Semiparametric Analysis of Zero‐Inflated Count Data La recherche médicale et de santé publique est souvent impliquée dans l’analyse de données de comptage qui contiennent une grande proportion de zéros, telles que le nombre d’attaques cardiaques et le nombre de jours d’arrêt de travail dans une période donnée. Pour modéliser de telles données, on utilise généralement un modèle de régression de Poisson avec un grand nombre de zéros, qui suppose une hétérogénéité en deux points dans la population caractérisée par un effet binaire aléatoire. Les sujets sont grossièrement séparés en deux catégories, le groupe à faible risque pour les comptages à zéro, et le groupe à haut risque (ou normal) pour lequel on peut utiliser un modèle de régression de Poisson. Le but principal est d’identifier les variables explicatives qui ont des effets significatifs sur (i) la probabilité que le sujet appartienne au groupe à faible risque au moyen d’une régression logistique; et (ii) la taille des comptages sachant que le sujet est issu du groupe à haut risque, au moyen d’un modèle de régression de Poisson où les effets des covariables sont supposés liés linéairement au logarithme naturel de la moyenne des comptages. Dans cet article, nous construisons un modèle semi‐paramétrique de régression de Poisson à zéro augmenté qui postule une relation possiblement non linéaire entre le logarithme naturel de la moyenne des comptages et une covariable particulière. Nous proposons une méthode de criblage pour l’estimation par maximum de vraisemblance. Les propriétés asymptotiques de cette méthode d’estimation sont discutées. Nous montrons que, sous certaines conditions assez faibles, les estimateurs sont asymptotiquement efficaces et normalement distribuées. Des études de simulation ont été réalisées pour voir les performances de la méthode proposée. Pour l’illustrer, cette méthode a été utilisée sur un jeu de données provenant d’une enquête de santé publique en Indonésie, où la variable d’intérêt est le nombre de jours d’arrêt de travail dus à la maladie pendant une période de quatre semaines Semiparametric Analysis of Two‐Level Bivariate Binary Data Dans les études médicales, des réponses binaires appariées sont souvent observées pour des sujets étudiés au cours du temps ou pour des grappes. L'intérêt premier est d'étudier comment l'association bivariée et les risques marginaux univariés sont affectés par des mesures répétées sur chaque sujet. Pour atteindre ce but, nous proposons une classe très générale de modèles binaires bivariés semi‐paramétriques. Les effets spécifiques du sujet inclus dans le log odds‐ratio bivarié et les composantes logit univariées sont supposées suivre un processus non paramétrique de Dirichlet (DP). Nous proposons une méthode hybride pour faire de l'inférence basée sur le modèle. Dans la construction de la méthode hybride proposée, l'estimation des paramètres est faite en implémentant un algorithme de Monte‐Carlo EM (MCEM). La méthodologie proposée est illustrée par une étude de l'efficacité du Tibolone, pour réduire les problèmes liées à la ménopause rencontrés par les femmes indiennes. Une étude de simulation est aussi conduite pour évaluer l 'efficacité de la nouvelle méthodologie. A Nonlinear Model with Latent Process for Cognitive Evolution Using Multivariate Longitudinal Data La cognition n’est pas directement mesurable. Elle est évaluée à l’aide d’une batterie de tests psychométriques qui peuvent être considérés comme des mesures quantitatives bruitées de la cognition. L’objectif de cet article est de proposer un modèle permettant de décrire la cognition non observée chez les personnes âgées et d’évaluer l’impact de variables explicatives directement dessus. Le processus latent défini en temps continu et représentant la cognition est modélisé par un modèle linéaire mixte prenant en compte des variables dépendantes du temps et les tests psychométriques sont ensuite définis comme des transformations nonlinéaires paramétrées du processus latent. L’estimation des paramètres à la fois dans le modèle mixte et dans les transformations nonlinéaires est obtenue en maximisant la vraisemblance observée et des méthodes graphiques sont utilisées pour évaluer l’adéquation du modèle. La méthode est appliquée aux données de la cohorte prospective française PAQUID. Low‐Rank Scale‐Invariant Tensor Product Smooths for Generalized Additive Mixed Models Une méthode générale est présentée pour construire des fonctions de lissage basées sur des produits tensoriels de faible rang et utilisées comme composantes de GAMs ou de GAMMs. Une approche de type régression pénalisée est adoptée dans laquelle chaque produit tensoriel de plusieurs variables est construit à partir des lisseurs de chaque variable prise séparément, ces lisseurs «marginaux»étant définis avec une fonction de faible rang et associée à une pénalité quadratique sur les fluctuations. Les lisseurs offrent plusieurs avantages (i) ils ont une pénalité sur les fluctuations pour chaque covariable et sont donc insensibles à une transformation linéaire des covariables, les rendant utiles quand il n’y a pas de façon naturelle pour mettre à l’échelle les covariables entre elles; (ii) ils ont un plage utile du degré de lissage personnalisable, à la différence de la pénalité unique des lisseurs par produit tensoriels qui sont invariants à l’échelle; (iii) le rang relativement bas des lisseurs fait qu’ils sont numériquement efficients; (iv) les pénalités des lisseurs sont aisément interprétables en terme de forme de la fonction; (v) les lisseurs peuvent être générés complètement automatiquement à partir des fonctions de lissage marginales et des pénalités quadratiques associées, donnant au modélisateur une flexibilité considérable pour choisir la combinaison de base des pénalités la plus apporpriée à chaque tâche de modélisation; (vi) les lisseurs peuvent aisément être écrits comme des composants d’un modèle mixte linéaire ou linéaire généralisé standard, permettant de les utiliser comme des composants de la riche famille de tels modèles implémentés dans des logiciels standard et d’avoir l’avantage de méthodes numériques efficientes et stables qui ont été développées pour de tels modèles. Une petite étude de simulation montre que les méthodes peuvent favorablement se comparer aux méthodes ANOVA avec splines lissants récemment développées. Joint Modeling of Survival and Longitudinal Data: Likelihood Approach Revisited L’approche par le maximum de vraisemblance a permis de modéliser conjointement, dans les études longitudinales, le délai de survie et ses covariables longitudinales. Des effets aléatoires dans le processus longitudinal est souvent utilisé pour modéliser les délais de survie au travers d’un modèle à risques proportionnels, et cela fait appel à un algorithme EM pour rechercher l’Estimateur du Maximum de Vraisemblance (MLEs). Plusieurs problèmes sont étudiés ici, à savoir la robustesse du MLEs par rapport à un écart à l’hypothèse de normalité des effets aléatoires, ainsi que les difficultés pour obtenir des estimateurs fiables de l’écart type du MLEs via l’approche par la vraisemblance. Nous apportons des éclaircissements sur la propriété de robustesse et suggérons de passer outre les difficultés de la fiabilité de l’estimateur des écart‐types en utilisant des procédures de bootstrap. Des simulations et des analyses de données illustrent nos propos. Bayesian Semiparametric Dynamic Frailty Models for Multiple Event Time Data Beaucoup d’études biomédicales collectent des données sur le délai d’apparition d’un événement de santé, qui peut se produire de manière répétitive, comme les infections, les hospitalisations, les rechutes de la maladie, ou les évolutions tumorales. Pour analyser de telles données, il est nécessaire de prendre en compte la dépendance intra‐sujet entre les délais de ces multiples événements. Motivé par des données d’étude sur les tumeurs palpables, cet article propose un modèle dynamique de fragilité, et une approche inférentielle Bayesienne semi‐paramétrique. Le modèle à risques proportionnels est généralisé pour incorporer une fragilité spécifique à l’individu qui change de manière dynamique avec l’âge, tout en s’accommodant aux risques non‐proportionnels. Les hypothèses paramétriques sur la distribution de fragilité sont évitées en utilisant le processus de Dirichlet comme un a priori pour la fragilité partagée ainsi que pour les innovations multiples sur cette fragilité. En centrant le modèle semi‐paramétrique sur un modèle gamma dynamique conditionnellement‐conjugué, nous facilitons la programmation a postériori et nous évaluons convenablement le manque d’ajustement du modèle paramétrique. La méthode que nous proposons est appliquée à des données issues d’une étude de chimio‐prévention. Interval Mapping of Quantitative Trait Loci for Time‐to‐Event Data with the Proportional Hazards Mixture Cure Model Les modèles de mélange normaux pour établir des cartes génétiques par intervalle ont été un outil fondamental pour l’analyse de traits quantitatifs (QTL) sur des organismes expérimentaux. Quand le phénotype principal étudié est un événement retardé dans le temps, il est naturel d’utiliser alors des modèles de survie, tels que le modèle à risques proportionnels de Cox plutôt que le modèle de mélange normal pour modéliser un tel phénotype. Un enjeu supplémentaire dans la modélisation du temps jusqu’àévénement est de considérer que la population étudiée peut être composée de sujets susceptibles et de sujets non susceptibles. Dans cet article, nous proposons un modèle de mélange semi‐paramétrique à risques proportionnels permettant de prendre en compte une fraction de sujets non atteints, et qui permette de considérer des valeurs manquantes parmi les covariables. Nous discutons les applications de ce modèle à la cartographie des régions chromosomiques QTL, quand le trait principal est un événement apparaissant dans le temps au sein d’une population mixte de patients susceptibles ou non de présenter l’événement. Ce modèle peut être utilisé pour caractériser ces effets QTL, à la fois sur la susceptibilité et sur la distribution du temps jusqu’àévénement, et d’estimer la position de ces QTL. Ce modèle peut intégrer naturellement l’effet conjoint d’autres facteurs de risque. Les estimations par maximum de vraisemblance des paramètres du modèle ainsi que de leur variance peuvent être obtenues numériquement à l’aide d’un EM algorithme. Les méthodes proposées sont évaluées par des simulations sous des conditions couramment rencontrées en pratique et illustrées sur un jeu de données réelles comportant des temps de survie de souris infectées par Listeria monocytogenes. Une extension du modèle aux intervalles multiples est également discutée. Feature‐Specific Penalized Latent Class Analysis for Genomic Data Les données de la génomique sont souvent caractérisées par un nombre important de variables catégorielles mesurées chez un nombre relativement faible d’individus. Certaines de ces variables peuvent être absentes ou non informatives. Un exemple de telles données est la perte d’hétérozygocité (PH), une variable dichotomique observée sur un nombre limité de marqueurs génétiques. Nous considérons d’abord un modèle de classes latentes où, conditionnellement à l’appartenance non observée à l’une des k classes, les variables sont indépendantes avec des probabilités déterminées par un modèle régressif de faible dimension q. A l’aide d’une famille de pénalités incluant l’arête et le lasso, nous étendons ce modèle aux problèmes de plus grande dimension. Enfin, nous présentons une carte orthogonale qui transforme l’espace marqueurs en un espace de ‘caractéristiques’ pour lequel le modèle contraint a un meilleur pouvoir prédictif. Nous illustrons ces méthodes sur des données de PH recueillies sur 19 marqueurs chez 93 patients présentant une tumeur cérébrale. Pour ce jeu de données, la méthode de classe latente non pénalisée ne produit pas d’estimations. De plus, nous montrons que les classes a posteriori obtenues avec cette méthode sont associées à la survie des patients. Quantifying Genomic Imprinting in the Presence of Linkage L’analyse de liaison génétique classique confère le même poids à l’analyse des transmissions des allèles marqueurs paternels et maternels ce qui conduit à une nette baisse de puissance si les gènes étudiés sont soumis au phénomène d’empreinte parentale. Plusieurs stratégies ont été proposées pour prendre en compte les empreintes parentales dans le cadre de l’analyse de liaison modèle‐indépendante des traits binaires. Cependant, aucune de ces méthodes ne propose l’identification et la quantification du phénomène d’empreinte parentale en présence de liaison. En outre, les méthodes disponibles reposent sur l’analyse de paires de germains atteints et décomposent artificiellement les fratries de taille supérieure au prix d’une perte de puissance certaine. Nous proposons ici une approche globale, le MLB‐I (Maximum Likelihood Binomial – Imprinting), pour l’analyse de fratries de toute taille, qui associe i) un test de liaison prenant en compte le phénomène d’empreinte parentale, ii) un test d’empreinte parentale en présence de liaison, iii) un test du caractère complet ou partiel de l’empreinte. Par ailleurs, l’empreinte parentale est quantifiée au moyen d’un indicateur original. La distribution des trois statistiques proposées est dérivée et validée sous leur hypothèse nulle respective par étude de simulation sous différents modèles de transmission génétique. La puissance des tests est également évaluée. Cette méthode est directement applicable au criblage entier du génome comme l’illustre l’analyse de fratries avec des germains atteints de lèpre. Notre approche fournit un nouvel outil pour la dissection de l’empreinte parentale en analyse de liaison modèle‐indépendante, et sera d’un intérêt majeur pour identifier et évaluer la contribution des gènes soumis à empreinte parentale dans les maladies génétiques complexes. A Method for Estimating Penetrance from Families Sampled for Linkage Analysis Quand on découvre un variant génétique en ségrégation avec une maladie, il peut être intéressant d’estimer le risque de la maladie (ou le risque spécifiquement associéà l’âge) pour les individus porteurs du variant. Les familles ayant contribuéà la découverte du variant doivent généralement compter plusieurs porteurs et, de ce fait, si le variant est rare, elles peuvent constituer une source intéressante de sujets d’étude pour l’estimation du risque. Mais ces familles, qui ont attiré l’attention des chercheurs sur le gène en question, peuvent de ce fait ne pas être représentatives de la relation existant entre le statut de porteur du gène et le risque de maladie dans la population. Utiliser ces familles pour estimer le risque pourrait affecter d’un biais l’association trouvée entre le variant et le risque. Le but de cet article est de présenter une méthode d’ajustement pour ce biais potentiel quand on utilise les familles de l’analyse de liaison pour estimer le risque. A Unified Approach for Simultaneous Gene Clustering and Differential Expression Identification Bien que la classification non‐supervisée et l’identification de gènes différentiellement exprimés soient d’importance égale dans la plupart des études utilisant les puces à ADN, ces deux problèmes sont souvent traités de façon indépendante. Clairement, cette stratégie n’est pas la plus efficace pour extraire l’information. L’objectif principal de cet article est de développer une méthode statistique cohérente qui permette de classifier et de détecter simultanément les gènes différentiellement exprimés. Grâce à l’échange d’informations entre ces deux opérations, l’approche proposée produit une classification des gènes plus adéquate et est plus sensible pour identifier les gènes différentiellement exprimés. L’amélioration par rapport aux méthodes existantes est illustrée à la fois par nos résultats de simulations et par une étude de cas. Shrunken p‐Values for Assessing Differential Expression with Applications to Genomic Data Analysis Pour beaucoup de problèmes liés aux technologies produisant des données à grande échelle, l’inférence statistique implique des centaines ou des milliers d’hypothèses. Récemment, beaucoup d’attention a été dévolue aux tests multiples; on s’est concentré en particulier sur le taux de faux positifs. Dans cet article, nous considérons une autre procédure d’estimation nommée «p‐valeurs rétrécies pour l’évaluation de l’expression différentielle» (SPADE). Les estimateurs sont inspirés du principe de risque issu de la théorie de la décision et conduisent à une méthode complètement nouvelle d’ajustement des p‐valeurs obtenues lors de tests multiples. De plus, la théorie de la décision permet de dériver une règle de décision pour contrôler le nombre de faux positifs. Nous présentons des résultats théoriques et illustrons la méthodologie proposée à l’aide de simulations et d’une application à des données d’expression issues d’une étude sur le cancer de la prostate. Fragment Length Distributions and Collision Probabilities for AFLP Markers L’AFLP est une technique d'empreinte digitale d'ADN fréquemment utilisée en sciences végétales et animales. Un de ses inconvénients est l'occurrence de fragments multiples d'ADN de même longueur dans une simple ligne d'AFLP, que nous appelons une collision. Dans cet article nous quantifions le problème. Le problème bien connu du jour de naissance joue un rôle. Le calcul des probabilités de collision exige une distribution de la longueur du fragment (fld). Nous discutons trois manières d'estimer le fld: basé sur des considérations théoriques, sur la détermination in‐silico en utilisant des données de séquence d'ADN d'Arabidopsis thaliana, ou sur l'estimation directe à partir des données d'AFLP. Dans le dernier cas nous employons un modèle linéaire généralisé avec lissage monotone des probabilités de longueur de fragment. Des probabilités de collision sont calculées à partir de deux perspectives, en supposant des comptages connus de fragment et en supposant de comptages connus de bande. Nous comparons des résultats pour un certain nombre de fld, s'étendant de l'uniformitéà la dissymétrie la plus forte. La conclusion est que les collisions se produisent souvent, avec des probabilités plus élevées pour des nombres plus élevés de bandes, pour des distributions plus dissymétriques et, à un moindre degré, pour de plus petits intervalles de marquage. Pour un génome végétal typique un AFLP avec 19 bandes est susceptible de contenir la première collision. Des implications pratiques des collisions sont discutées. Des exemples d'AFLP de la laitue et de la chicorée sont employés en guise d’illustration. Susceptibility of Biallelic Haplotype and Genotype Frequencies to Genotyping Error Avec la mise à disposition de techniques de génotypage à haut débit ainsi que des bases de données génétiques, la recherche d'association entre des polymorphismes de substitution et un trait complexe est devenue un domaine important de recherche méthodologique en génétique médicale. Cependant, les erreurs de génotypage même relativement faibles peuvent conduire à de fausses associations et diminuer la puissance statistique. Nous proposons une approche systématique pour étudier comment des erreurs de génotypage peuvent changer les distributions génotypiques d'un échantillon. Le cas général à M‐marqueurs est réduit à celui d'un seul marqueur en identifiant la structure sous‐jacente du produit tenseur de la matrice des errors. La méthode et les conclusions s'appliquent au modèle général d'erreur; nous donnons des résultats détaillés pour le modèle à“erreur allélique" qui dépend à la fois du locus marqueur et de l'allèle présent. Les erreurs multiples sont traitées à partir du processus de diffusion associéà l'espace des distributions génotypiques. Nous montrons que certaines distributions génotypiques et haplotypiques restent inchangées en présence d'erreurs de génotypage et que ces erreurs rendent généralement la distribution plus proche de la distribution stable. Dans le cadre d'étude d'association cas‐témoins, cela conduit à une perte de puissance en présence d'erreurs de génotypage non‐différentielles et à une augmentation de l'erreur de type I pour des erreurs différentielles. De plus, nous montrons que des erreurs de génotypage sous le modèle à“erreur allélique" ne modifient pas l'équilibre d'Hardy‐Weinberg au niveau génotypique. Sous ce type d'erreurs, nous identifions les distributions les plus affectées. Comme elles correspondent aux situations où les allèles sont rares et les marqueurs en fort déséquilibre de liaison, une attention toute particulière aux erreurs de génotypage est recommandée en présence d'associations cas‐témoins observées au niveau allélique ou haplotypique. Statistical Analysis for Haplotype‐Based Matched Case–Control Studies En utilisant des données génotypiques déphasées, nous étudions l’inférence statistique de l’association entre une maladie et un haplotype dans des études cas‐témoins. L’inférence statistique pour les données d’haplotype est compliquée due à l’ambiguïté des phases de génotypes. Une méthode basée sur une équation d’estimation est développée pour estimer des odds ratios et tester des associations maladie – haplotype. La méthode peut potentiellement être appliquée au test de l’interaction haplotype – environnement. Des études de simulations montrent les bonnes performances de la méthode. La performance de la méthode en présence de déviations de l’équilibre de Hardy‐Weinberg est aussi étudiée. Optimization of Two‐Stage Genetic Designs Where Data Are Combined Using an Accurate and Efficient Approximation for Pearson's Statistic Dans la recherche des gènes associés à telle ou telle pathologie, les études cas‐témoin réalisées en deux étapes successives suscitent un intérêt croissant, en raison de la réduction des coûts de génotypage qu’elles permettent. De plus, au lieu d’analyser séparément les données de la deuxième étape, on peut effectuer un test plus puissant en regroupant les données des deux étapes. Cependant, il n’est alors pas possible d’utiliser les tests classiques, puisque seuls sont sélectionnés, pour la deuxième étape, les marqueurs jugés significatifs lors de la première étape; de surcroît, parce qu’elles portent en partie sur les mêmes données, les statistiques de test utilisées lors de chacune des deux étapes sont nécessairement corrélées entre elles. Or, on ne dispose pas d’approximations théoriques pour les tests les plus courants; quant aux simulations, leur lourdeur calculatoire, dans ce contexte spécifique, peut s’avérer problématique. C’est pourquoi nous proposons une approximation performante – c’est‐à‐dire à la fois précise et rapide en termes de temps de calcul CPU – pour la distribution de la statistique de Pearson associée à des tables de contingence 2 x m dans les études en deux étapes avec données poolées. Nous avons utilisé cette approximation dans le cadre d’une méthode itérative de recherche de plans optimaux en deux étapes. Les simulations effectuées étayent la fiabilité de notre approximation, et les résultats numériques confirment que l’utilisation de plans en deux étapes réduit de façon substantielle la quantité des génotypages à réaliser. En choisissant de pooler les données (plutôt que ne pas les pooler), on diminue en moyenne les tailles d’échantillons de 15% et le nombre de génotypages de 5%. Case‐Cohort Designs and Analysis for Clustered Failure Time Data Les plans de type cas‐cohorte apportent un schéma efficient et économique pour l’étude de facteurs de risque de maladies non fréquentes dans une large cohorte. Ils demandent le recueil de covariables pour les événements vérifiés au sein de toute la cohorte, et pour les individus d’une sous‐cohorte sélectionnée au début du suivi. Dans la littérature, les plans cas‐cohorte ont été très étudiés mais seulement dans le cadre de données univariées. Dans cet article, nous proposons des plans de type cas‐cohorte pour des données de durée multivariées. Une procédure d’estimation s’appuyant sur un modèle d’indépendance est utilisée pour estimer les paramètres de régression dans le modèle marginal des hasards proportionnels, où on laisse non spécifiée la structure de corrélation entre individus d’une même classe. On développe les propriétés statistiques des estimateurs proposés. Des études de simulations permettent d’étudier la performance des estimateurs proposés, et de comparer les qualités statistiques. On illustre la méthode proposée à l’aide de données provenant de l’étude TRIAD. A Semiparametric Empirical Likelihood Method for Biased Sampling Schemes with Auxiliary Covariates Nous considérons une procédure d’inférence semi‐paramétrique pour des données d’études épidémiologiques conduites selon un plan d’échantillonnage à deux composantes oùà la fois un échantillonnage aléatoire simple et des échantillons de résultats multiples ou de résultats auxiliaires sont observés. Ce plan de sondage permet aux enquêteurs de sur‐échantillonner certaines sous‐populations dans le but d’avoir plus d’informations sur le modèle de régression tout en améliorant la connaissance de la population sous‐jacente à travers le plan d’échantillonnage aléatoire simple. Nous restreignons notre étude à des dispositifs dans lesquels il n’y a pas d’information additionnelle sur la cohorte‐parent et où la probabilité d’échantillonnage est non identifiable. Notre problématique est motivée par une étude destinée àévaluer l’association entre le niveau de mutation du gène EGFR et la réponse anti‐tumorale à une thérapie ciblée EGFR parmi des patients ayant un cancer pulmonaire (hors anaplasique à petites cellules). La méthode proposée s’applique à la fois à des réponses binaires et multinomiales et admet une fonction de lien arbitraire dans le cadre des modèles linéaires généralisés. Des études de simulations montrent que l’estimateur proposé a des bonnes propriétés pour des petits échantillons. La méthode est illustrée par un exemple. Augmented Designs to Assess Immune Response in Vaccine Trials Ce papier introduit des méthodes utilisables dans les essais cliniques de vaccins pour aider à savoir si la réponse immunitaire à un vaccin est vraiment la cause d’une réduction du taux d’infection. Cela n’est pas facile car la réponse immunitaire à un vaccin(par exemple, contre le VIH) n’est observée que dans le groupe vacciné. Si nous savions ce qu’aurait été la réponse immunitaire spécifique au vaccin anti‐VIH dans le groupe placebo s’il avait été vacciné, cette réponse pourrait être traitée comme une covariable et son interaction avec le traitement pourrait être évaluée. De même, le taux d’infection en fonction de la valeur de cette covariable pourrait être comparé entre les deux groupes et appuierait le rôle causal de la réponse immunitaire si le risque infectieux diminuait en relation avec une réponse immunitaire accrue au vaccin uniquement dans le groupe vacciné. Nous introduisons deux méthodes d’inférence sur la réponse immunitaire spécifique. La première consiste à vacciner tout le monde avant le démarrage de l’essai par un autre vaccin sans rapport avec le vaccin anti‐VIH, par exemple le vaccin anti‐rabique. La randomisation garantit que la relation entre les réponses immunitaires au vaccin anti‐rabique et au vaccin anti‐VIH observée dans le groupe vacciné est la même que celle qui aurait pu être observée dans le groupe placebo. Nous déduisons une réponse au vaccin anti‐VIH pour les sujets sous placebo à partir de leur réponse au vaccin anti‐rabique et d’un modèle de prédiction dans le groupe vacciné. La deuxième méthode consiste à vacciner tous les sujets du groupe placebo non infectés à la fin de l’essai par le vaccin anti‐VIH et à enregistrer leur réponse immunitaire. Nous supposons que la réponse à la fin de l’essai est la même que ce qu’elle aurait été au début. Nous pouvons donc en déduire quelle aurait été la réponse immunitaire chez les sujets infectés du groupe placebo. De tels schémas peuvent aider àélucider le rôle de la réponse immunitaire dans la prévention des infections. Plus précisément, ils pourraient aider à décider l’amélioration ou l’abandon d’un vaccin anti‐VIH ayant montré une efficacité médiocre dans un essai de phase III. Statistical Inference in a Stochastic Epidemic SEIR Model with Control Intervention: Ebola as a Case Study Un modèle stochastique susceptible‐exposé‐infecté‐résistant (SEIR) à temps discret pour les maladies infectieuses est développé dans le but d’estimer les paramètres à partir de la série d'incidence quotidienne et de la série de mortalité d’une épidémie d'Ebola dans la république démocratique du Congo en 1995. La série d’incidence montre beaucoup de comptages faibles voir nuls ce qui nécessite une approche de modélisation stochastique. Pour identifier la nature stochastique des transitions entre les compartiments, nous spécifions des distributions binomiales conditionnelles appropriées. De plus, une fonction temporelle simple du taux transmission est introduite pour prendre en compte l’effet des interventions. Nous développons des méthodes MCMC pour l’inférence basée sur les distributions a posteriori des paramètres. L’algorithme est étendu pour intégrer numériquement des variables d’état du modèle non observées. Ceci conduit à un modèle stochastique réaliste qui peut être utiliser par des épidémiologistes pour étudier les dynamiques d’une maladies et l’effet des interventions. Measurement Error in a Random Walk Model with Applications to Population Dynamics Les abondances des populations naturelles sont rarement connues. Elles sont estimées avec une certaine imprécision. Cette erreur de mesure a des conséquences sur les analyses ultérieures, comme la modélisation de la dynamique de la population et l'estimation des abondances probables dans le futur. Cet article analyse certaines questions encore ouvertes sur les conséquences de l'erreur de mesure sur la dynamique d'un modèle simple, la marche aléatoire avec dérive, et propose de nouvelles méthodes de correction de l'erreur de mesure. Nous présentons un éventail large de modèles d'erreur de mesure qui tolèrent à la fois l'hétéroscédasticité et de possibles corrélations entre erreurs de mesure, et nous fournissons des résultats analytiques sur les biais des estimateurs ignorant l'erreur de mesure. Nos nouveaux estimateurs incluent à la fois la méthode des moments et des «pseudo estimateurs» résultant de la synthèse d'estimations observées d'abondances de population et d'estimations de paramètres du modèle d'erreur de mesure. Nous dérivons les propriétés asymptotiques de notre méthode et des méthodes existantes et comparons leurs performances en échantillons finis par simulation. Nous analysons aussi les implications pratiques de ces méthodes en les utilisant pour analyser deux jeux de données réels de dynamique de populations. Multistage Evaluation of Measurement Error in a Reliability Study Nous proposons des procédures de tests séquentiels pour la planification et l’analyse dans des études de fiabilité pour évaluer l’erreur de mesure d’une exposition. Nos schémas permettent l’évaluation répétitive de la fiabilité des mesures, et un arrêt de test lorsque l’erreur de mesure est mise en évidence précocement dans les limites de tolérance. Nos méthodes sont développées et les valeurs critiques calculées pour un certain nombre de schémas à deux étapes. Nos méthodes sont illustrées à l’aide d’un exemple évaluant la fiabilité de bio marqueurs associés au stress oxydatif. Effects of Residual Smoothing on the Posterior of the Fixed Effects in Disease‐Mapping Models Les modèles de cartographie de maladies pour des données aréolaires ont souvent des effets fixes pour mesurer l'effet de covariables variant spatialement et des effets aléatoires avec un a priori autorégressif conditionnel (CAR) pour prendre en compte la corrélation spatiale. Dans de telles régressions spatiales, l'objectif peut être d'estimer les effets fixes en prenant en compte la corrélation spatiale. Mais ajouter les effets aléatoires CAR peut provoquer de grands changements dans la moyenne et la variance a posteriori des effets fixes, comparé au modèle de régression non‐spatial. Ce papier explore l'impact de l'ajout des effets aléatoires spatiaux sur les estimations des effets fixes et la variance a posteriori. Des diagnostiques sont proposés pour mesurer l'inflation de la variance a posteriori due à la colinéarité entre les covariables à effets fixes et les effets aléatoires CAR et de mesurer chaque influence des régions sur le changement des estimations des effets fixes lorsque des effets aléatoires CAR sont ajoutés. Un nouveau modèle qui allège la colinéarité entre les covariables à effet fixe et les effets aléatoires CAR est développé. Des extensions des ces méthodes à des modèles pour données ponctuellement référencées sont discutées. Equivalence of Truncated Count Mixture Distributions and Mixtures of Truncated Count Distributions Ce papier porte sur la modélisation de données de comptage avec une troncation en zéro. Une famille de densités paramétrique de comptage est considérée. Le mélange tronqué de densités de cette famille est différent du mélange de densités tronquées de la même famille. Alors que le premier modèle est plus naturel à formuler et interpréter, le deuxième est théoriquement plus facile à traiter. Il est montré que pour n'importe quelle distribution mélangeante conduisant à un mélange tronqué, une distribution mélangeante (d'habitude différente) peut être trouvée, si bien que le mélange associé de distributions tronquées est égale au mélange tronqué et vice versa. Ceci implique que les surfaces de vraisemblance pour les deux situations s'accordent, et dans ce sens les deux modèles sont équivalents. Les modèles de données de comptage avec troncation en zéro sont utilisés fréquemment en capture‐recapture pour estimer la taille de la population et il est montré que les deux estimateurs de Horvitz‐Thompson associés à ces deux modèles sont en accord. En particulier il est possible d'obtenir des résultats forts pour les mélanges de densités de Poisson tronquées incluant une construction globale fiable de l'unique estimateur NPMLE de la distribution mélangeante, ce qui implique un estimateur unique pour la taille de la population. Le bénéfice de ce résultat réside dans le fait qu'il est valide de travailler avec le mélange de densités de comptage tronquées, qui est moins attractif pour le praticien mais théoriquement plus facile. Les mélanges de densités de comptage tronquées forment un modèle linéaire convexe, pour lesquels une théorie a été développée incluant une théorie du maximum de vraisemblance globale aussi bien que des approches algorithmiques. Une fois que le problème a été résolu dans cette classe, il devrait être facile de revenir au problème original par une transformation explicitement donnée. Des applications de ces idées sont données, spécialement dans le cas de la famille de Poisson tronquée. New Approximations to the Malthusian Parameter Des approximations du paramètre malthusien d’un processus de branchement age‐dépendant sont obtenues en fonction des moments de la distribution du temps de survie, en utilisant un lien avec la théorie du renouvellement. Plusieurs exemples montrent que nos nouvelles approximations sont plus précises que celles actuellement utilisées, même lorsqu’elles ne sont basées que sur les deux premiers moments. Ces nouvelles approximations sont étendues pour s’adapter à une forme de division cellulaire asymétrique rencontrées chez certaines espèces de levures. Nous montrons qu’elles sont d’efficience élevée lorsqu’on les utilise dans un cadre inférentiel. Adaptive Web Sampling Une classe flexible d'échantillonnage adaptatif est introduit pour échantillonner dans un contexte de réseau ou spatial. Les sélections sont réalisées séquentiellement avec un mélange de lois basé sur un ensemble actif qui change lorsque l'échantillonnage progresse en utilisant des relations de réseau ou spatiales ainsi que des valeurs de l'échantillon. Les nouveaux plans de sondage ont des avantages certains comparés aux plans adaptatifs préexistants et aux plans par dépistage de liens, incluant un contrôle sur les tailles d'échantillons et sur la proportion de l'effort alloué aux sélections adaptatives. Une inférence efficace implique un moyennage sur tous les chemins consistant avec la statistique suffisante minimale. Une méthode de réechantillonnage par chaîne de Markov permet de réaliser l'inférence. Les plans sont évalués dans des dispositifs de réseaux ou spatiaux en utilisant deux populations empiriques: une population humaine cachée à risque pour le VIH/Sida et une population d'oiseaux irrégulièrement distribuée. Motor Unit Number Estimation—A Bayesian Approach Toute contraction musculaire dépend de l’état de fonctionnement des unités motrices. Dans des maladies comme la sclérose latérale amyotrophique (SLA), la perte progressive des unités motrices conduit à la paralysie. Une difficulté majeure dans la recherche d’un traitement pour ces maladies réside dans l’absence d’une mesure fiable de la progression de la maladie. Une mesure possible serait l’estimation du nombre d’unités motrices restant en vie. Toutes les méthodes proposées pour l’estimation du nombre d’unités motrices (ENUM) pendant près de 30 ans ont été confrontées à des objections pratiques et théoriques. Notre but est de développer une méthode ENUM surmontant ces objections. Nous enregistrons le potentiel d’activité musculaire composé (PAMC) d’un muscle donnée, en réponse à un stimulus électrique gradué appliqué au nerf. Lorsque l’intensité du stimulus augmente le seuil de chaque unité motrice est dépassé, et la valeur du PAMC augmente jusqu’à ce qu’une réponse maximale soit atteinte. Cependant, le potentiel seuil requis pour l’excitation d’un axone n’est pas une valeur précise, mais fluctue dans un petit intervalle, ce qui conduit à une activation probabiliste des unités motrices, en réponse à un stimulus donné. En cas de recouvrement des intervalles seuils des unités motrices, on peut être en présence d’alternatives dues à un nombre variable d’unités motrices activées en réponse au stimulus. Ceci signifie que les incréments de la valeur du PAMC correspondent à l’activation de différentes combinaisons d’unités motrices. Pour un stimulus fixé la variabilité du PAMC, rapportée par sa variance, peut être utilisée pour piloter une ENUM à l’aide d’une méthode de Poisson. Cependant cette méthode repose les hypothèses d’une part de distribution de Poisson pour le nombre d’unités motrices activées, et d’autre part de taille fixe et identique pour tous les potentiels d’activation des unités motrices (PAUM) simples. Ces hypothèses ne sont pas nécessairement justifiées. Nous proposons une méthodologie bayésienne pour l’analyse des données électrophysiologiques en vue de l’estimation du nombre d’unités motrices. Notre méthode ENUM incorpore la variabilité des seuils, la variabilité intra‐ et inter‐ PAUM simples, et une variabilité de base. Notre modèle ne donne pas seulement le nombre le plus probable d’unités motrices, mais fournit également des informations sur la population formée par ces unités, et sur les unités individuelles. Nous utilisons les méthodes MCMC pour obtenir l’information sur les caractéristiques des unités motrices individuelles, sur la population des unités motrices, et le BIC pour ENUM. Nous testons notre méthode ENUM sur trois sujets. Notre méthodes fournit une estimation reproductible pour un patient atteint de SLA sévère mais stable. Dans une étude de série, nous montrons la chute du nombre des unités motrices chez un patient présentant une maladie rapidement évolutive. Enfin, avec le dernier patient, nous montrons que notre méthode permet d’estimer de grands nombres d’unités motrices. Extension of the Rank Sum Test for Clustered Data: Two‐Group Comparisons with Group Membership Defined at the Subunit Level Le test de somme des rangs de Wilcoxon est largement utilisé pour comparer deux groupes de données non normales. Ce test suppose l'indépendance des unités d'échantillonnage à la fois entre les groupes et à l'intérieur des groupes. En ophtalmologie, les données concernent souvent les deux yeux d'un même individu, qui sont hautement corrélées. Dans les essais cliniques en ophtalmologie, la randomisation est effectuée au niveau de l'individu, mais l'unité d'analyse est l'?il. Si l'?il est utilisé comme unité dans l'analyse, alors la formule usuelle de la variance du test de somme des rangs de Wilcoxon doit être modifiée pour tenir compte de la dépendance à l'intérieur des grappes. Dans certains dispositifs avec données en grappes, où l'unité d'analyse est la sous‐unité, l'appartenance au groupe doit être définies au niveau de la sous‐unité. Par exemple, dans certains essais cliniques en ophtalmologie, des traitements différents peuvent être appliqués à chaque ?il de certains patients, alors que le même traitement peut être appliqué aux deux yeux d'autres patients. En général, il peut y avoir des covariables binaires spécifiques de l'?il (cotées comme ‘exposé' ou ‘non exposé') et l'on souhaite comparer des résultats distribués non normalement entre yeux exposés ou non exposés au moyen d'un test de somme des rangs de Wilcoxon tout en prenant en compte les grappes. Dans cet article, nous présentons une formule corrigée pour la variance de la statistique de la somme des rangs de Wilcoxon en présence de covariables spécifiques de l'?il (sous‐unité). Nous l'appliquons pour comparer des scores de démangeaison chez des patients qui ont une allergie oculaire entre yeux traités par des gouttes actives ou des gouttes placebo, sachant que certains patients reçoivent les mêmes gouttes dans les deux yeux, alors que d'autres patients reçoivent des gouttes différentes dans chaque oeil. Nous présentons également des comparaisons entre le test de Wilcoxon pour des grappes, et chacune des approches par tests de rangs signés et modèle mixte, et nous montrons des différences très notables de puissance en faveur du test de Wilcoxon pour grappes dans certains dispositifs.  相似文献   

16.
B. Le Rü 《BioControl》1986,31(1):79-89
Résumé L'action régulatrice d'un champignon du groupe des Entomophthorales,Neozygites fumosa (Speare) Remaudière et Keller, est mise en évidence pour la lère fois dans une population de la cochenille du maniocPhenacoccus manihoti Matile-Ferrero (Homoptères: Pseudococcidae) en République Populaire du Congo en 1982. Le pathogène est de loin l'ennemi naturel qui intervient le plus significativement dans la régulation des effectifs. L'extension de la maladie dans la population h?te appara?t conditionnée par l'apparition simultanée d'une humidité relative supérieure ou égale à 90% et d'une température journalière minimale supérieure à 20°C. Elle semble également liée à la densité du ravageur. On notera enfin que les formes adultes sont systématiquement plus infectées que les formes larvaires.
Summary The regulatory action of the entomophthoraceous fungusNeozygites fumosa (Speare) Remaudière & Keller (Zygomycetes) is shown for the ist time in a population of the Cassava mealybug,Phenacoccus manihoti (Hom.: Pseudococcidae), in the People's Republic of the Congo in 1982. This pathogen is by far the natural enemy which intervenes the most significantly in the regulation of this insect. The development of the epizootic appears to be influenced by a relative humidity of at least 90% along with a minimal daily temperature greater than 20°C. The spread of the disease also seems to be affected by the host density. Throughout the entire duration of this study, the adult forms were more infected than the larval forms.
  相似文献   

17.
Résumé Uniquement connue du sud des Etats-Unis d'Amérique, l'EntomophthoraleNeozygites fumosa (Speare) Remaudière & Keller a été retrouvée en République populaire du Congo, où elle attaque la Cochenille du manioc,Phenacoccus manihoti Matile-Ferrero [Hom.: Coccoidea Pseudococcidae]. De légères variations d'ordre biométrique sont mises en évidence au sein de l'espèce fongique. A ce jour, parmi les Entomophthorales mentionnées dans la littérature comme pathogènes de Cochenilles, seules deux espèces peuvent être retenues avec certitude:Neozygites fumosa etConidiobolus pseudococci Speare (Tyrrell & MacLeod), toutes deux pathogènes dePseudococcidae.
Summary The entomophthoraceous fungus,Neozygites fumosa (Speare) Remaudière and Keller, which was only known from the south of the U.S.A., was found in the People's Republic of the Congo, on the Cassava mealybug,Phenacoccus manihoti Matile-Ferrero [Homoptera: Coccoidea, Pseudococcidae]. Slight biometrical variations appear within the fungal species. At the present time, among the Entomophthorales cited in the literature as parasitizing Coccoidea, two species only can be retained with certainty:Neozygites fumosa andConidiobolus pseudococci Speare (Tyrrell and MacLeod), both attackingPseudococcidae.
  相似文献   

18.
Résumé Trois systèmes enzymatiques (estérases, MDH et tétrazolium-oxydases) ont été étudiés par électrophorèse chez 2 espèces jumelles de trichogrammes:Trichogramma evanescens Westwood etT. maidis Pintureau & Voegelé. Les estérases et les MDH permettent de caractériser les souches de ces espèces en élevage à Antibes. Les estérases des hybrides interspécifiques F1 et F2 ont également été tudiées. Elles ont permis de confirmer qu'un phénomène d'induction de la parthénogénèse thélytoque appara?t chez certaines femelles.
Summary Three enzymatic systems (esterases, malate-dehydrogenases and tetrazolium-oxydases) were studied by electrophoresis in two sibling species ofTrichogramma: T. evanescens Westwood andT. maidis Pintureau & Voegelé. The esterases and the MDH allow to characterize the strains of these species in rearing in Antibes. The esterases of interspecific hybríds F1 and F2 were studied too. They allow to confirm that a phenomenon of induction of thelytoky occurs in some females.
  相似文献   

19.
20.
B. Le Rû  Y. Iziquel 《BioControl》1990,35(2):173-183
Résumé Cet article présente les résultats obtenus en 1987 sur des points non encore abordés précédemment dans le cadre de l'étude des circonstances épidémiologiques favorisant le déroulement de l'Entomophthorose àNeozygites fumosa (Speare) Remaudière et Keller, pathogène de la cochenille du maniocPhenacoccus manihoti Matile-Ferrero (Hom.: Pseudococcidae). Il montre notamment que l'évolution de la maladie, très rapide, correspond à la succession de 2 phases: une première phase, d'implantation, fortement liée à la taille et à la structure des colonies et une deuxième phase (épizootique au sens strict) indépendante de leur taille et de leur structure. Son évolution appara?t plus liée à la régularité des pluies qu'à la quantité d'eau. Les conditions sont très favorables quand l'humidité relative est supérieure à 90% pendant au moins 5 heures par jour de fa?on régulière. Le r?le important joué par la durée d'humectation du feuillage est montré ici pour la première fois. La densité des conidies du pathogène dans l'air est proportionnelle aux taux de mycose observés dans les populations deP. manihoti.   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号