首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
《Biometrics》2006,62(3):958-959
S. E. Wright and A. J. Bailer 886 Une expérience avec expositions intermittentes de toxicologie expérimentale fournit l'arrière plan de la discussion du dispositif. Le problème sous‐jacent est de décider quand échantillonner une réponse non linéaire pour minimiser la variance généralisée des estimations des paramètres. Une stratégie heuristique commode peut être appliquée au problème fournissant des dispositifs optimaux ou presque optimaux. L'efficacité de l'approche heuristique permet une exploration directe de la sensibilité de la solution proposée aux particularités de la situation telle que l'hétéroscédasticité, la densité des dates d'observation, les critères du dispositif, et les contraintes sur les valeurs des paramètres. On présente aussi brièvement une application de l'optimisation de dispositif pour le choix des doses dans une expérience de toxicologie de la reproduction. D. V. Mehrotra , X. Li , and P. B. Gilbert 893 Afin de justifier le plan de la première étude au monde visant une démonstration de principe (proof‐of‐concept ou POC) de l'efficacité d'un vaccin HIV basé sur l'immunité et relayé par la cellule, nous évaluons huit méthodes pour tester l'hypothèse nulle composite d'absence d'effet du vaccin soit sur l'incidence d'infection HIV, soit la valeur de la charge virale chez les patients infectés, en comparaison au placebo. Les deux premières méthodes utilisent un seul test appliqué aux valeurs mesurées ou aux rangs du poids de la maladie (BOI) qui combine l'infection et la charge virale. Les six autres méthodes combinent des tests séparés pour les deux critères utilisant des versions pondérées ou non du Z à 2 parties, des méthodes de Simes et de Fisher. A partir de simulations extensives réalisées pour construire l'essai POC type, les méthodes BOI révèlent en général une puissance faible de rejeter l'hypothèse nulle composite (et donc d'entreprendre un futur essai à grande échelle pour le vaccin). Les méthodes par combinaison de Simes et de Fisher non pondérées ont les meilleures performances dans l'ensemble. Un aspect important est que la conclusion est la même si le test de la composante relative à la charge virale est ajusté pour le biais que peut introduire le conditionnement par un événement (l'infection HIV) survenant après la randomisation. Cet ajustement est obtenu en utilisant un modèle de biais de sélection basé sur le cadre de la stratification principale de l'inférence causale. X. Huang , J. N. Cormier , and P. W. T. Pisters 901 Dans le traitement du cancer, les patients reçoivent habituellement une variété de traitements séquentiels. Les traitements initiaux administrés à la suite du diagnostic peuvent varier, comme les régimes de rattrapage suivants donnés après la rechute de la maladie. Cet article considère la situation où ni les traitements initiaux, ni les traitements de rattrapage sont randomisés. En faisant l'hypothèse qu'il n'y a pas de variables de confusion non mesurés, nous estimons les effets causaux conjoints sur la survie des traitements initiaux et de rattrapage, c'est‐à‐dire, les effets des séquences de traitement à deux niveaux. Pour chaque séquence de traitement individuelle, nous estimons la fonction de la distribution de survie et la durée de moyenne de survie restreinte. Les différentes séquences de traitement sont alors comparées en utilisant ces estimations et leurs covariances correspondantes. Des études de simulation sont conduites pour évaluer la performance des méthodes en incluant la sensibilitéà la violation de l'hypothèse de facteurs de confusion non mesurés. Les méthodes sont illustrées par une étude rétrospective de patients ayant un sarcome des parties molles, qui avait motivé cette recherche. D. E. Schaubel , R. A. Wolfe , and F. K. Port 910 L'analyse de la survie est souvent utilisée pour comparer des traitements expérimentaux et conventionnels. Dans les études observationnelles, la thérapie peut changer pendant le suivie. De telles modifications peuvent se résumer par des covariables dépendantes du temps. Étant donné la pénurie croissante de donneurs d'organes, des reins à plus haut risque provenant de donneurs à critères élargis (ECD) sont de plus en plus transplantés. Les candidats à la transplantation peuvent choisir d'accepter un organe ECD (thérapie expérimentale), ou de rester en dialyse et d'attendre la possibilité d'une transplantation non‐ECD ultérieure (thérapie conventionnelle). Une analyse dépendante du temps en trois groupes pour ce type de données implique l'estimation de paramètres correspondants aux deux covariables indicatrices dépendantes du temps représentant les transplantations ECD ou non‐ECD, chacune étant comparée à ceux qui restent en dialyse en liste d'attente. Cependant, l'estimation du hasard ratio ECD par cette analyse dépendante du temps ne considère pas le fait que les patients renonçant à une transplantation ECD ne sont pas destinés à rester en dialyse pour toujours, mais peuvent plus tard recevoir une transplantation non‐ECD. Nous proposons une nouvelle méthode d'estimation du bénéfice de la survie de la transplantation ECD relative à la thérapie conventionnelle (liste d'attente avec la possibilité d'une transplantation non‐ECD ultérieure). Comparée à cette méthode dépendante du temps, la méthode proposée caractérise de manière plus précise la structure des données et produit une estimation plus directe du bénéfice relative à une transplantation ECD. I. Ninan , O. Arancio , and D. Rabinowitz 918 L'émission de neurotransmetteurs par les neurones peut être étudiée par des mesures d'intensité de coloration des terminaisons synaptiques. Le problème est alors d'estimer une espérance dans une situation où, au lieu d'observer des variables aléatoires indépendantes de même espérance, on observe, avec erreur, des sommes aléatoires indépendantes de variables de même espérance sans connaître le nombre de termes de la sommation aléatoire. On présente ici une approche non paramétrique de ce problème d'estimation. La méthode est illustrée sur les données d'une expérience dans laquelle le colorant cationique styrylpyridinium FM4‐64 a été utilisé sur des cultures de neurones de l'hippocampe murin. B. Klingenberg and A. Agresti 921 Cet article considère des test globaux de différence entre vecteurs appariés de distributions binomiales provenant de 2 échantillons de données binaires multivariées dépendantes. La différence est définie, soit comme une non homogénéité des distributions marginales, soit comme une asymétrie de la distribution jointe. Pour détecter le premier type de différence, nous proposons une extension multivariée du test de McNemar et montrons que c'est un test du score généralisé sous une approche GEE. Des caractéristiques univariées, telles que la relation entre le test de Wald et le test du score, ou l'abandon de paires avec la même réponse s'étendent au cas multivarié et le test ne dépend pas de l'hypothèse de travail de la dépendance entre les composantes de la réponse multivariée. Pour des données éparses ou non équilibrées, comme cela arrive quand le nombre de variables est grand ou les proportions proches de zéro, le test est mis en oeuvre en utilisant le bootstrap, ou si c'est trop compliqué au point de vue calculatoire par une distribution de permutation. Nous appliquons le test à des données de toxicité pour un médicament, dans lequel 2 doses sont évaluées en comparant les réponses multiples des mêmes sujets à chacune d'entre elles.  相似文献   

2.
《Biometrics》2008,64(2):669-671
Determining the Effective Sample Size of a Parametric Prior
Nous présentons une définition de la taille d'échantillon efficace d'une loi a priori paramétrique dans un modèle bayésien, et proposons des méthodes pour calculer la taille efficace d'échantillon dans différents cas. Notre approche construit en premier une loi a priori choisie pour être vague dans un sens convenable, et met à jour cette loi a priori pour obtenir une suite de lois a posteriori correspondant à chacune des gammes de tailles d'échantillon. Nous calculons ensuite une distance entre chaque distribution a posteriori et la distribution a priori paramétrique, définie en terme de courbure du logarithme de chaque distribution, et la loi a posteriori minimisant la distance définit la taille d'échantillon efficace pour la loi a priori. Pour les cas où la distance ne peut pas être calculée de façon analytique, nous fournissons une approximation numérique basée sur une simulation de Monte Carlo. Nous fournissons en général des lignes de conduite pour l'application, illustrons la méthode dans plusieurs cas standards où la réponse est évidente et l'appliquons dans quelques cas moins standards.  相似文献   

3.
《Biometrics》2006,62(2):643-643
R. A. Betensky , C. K. Christian , M. L. Gustafson , J. Daley , and M. J. Zinner 598 Le Groupe Leapfrog, un consortium de plus de 100 grands employeurs, qui déclare fournir collectivement l'assurance santéà plus de 33 millions de personnes, s'est réuni en 2000 dans le but d'utiliser les ressources du marché pour améliorer la qualité des soins de santé. Le résultat de l'initiative du groupe Leapfrog suggère la référence sélective des procédures complexes aux hôpitaux d'activitéélevée et détermine des seuils d'activité d'ensemble pour cinq procédures. Ceci a été basé sur l'hypothèse que les hôpitaux à faible volume d'activité présentent une mortalité plus élevée, ce qui peut être perçu comme l'hypothèse, en termes statistiques simplifiés, que le paramètre p de la binomiale est une fonction décroissante de n. L'analyse de la corrélation entre les rapports normalisés de la mortalité des hôpitaux (SMR, ie, le rapport de décès observés par rapport aux décès prévus) et les volumes d'activité des hôpitaux est révélatrice au sujet de l'hypothèse volume/mortalité. Cela présente un exemple pédagogique peu commun dans lequel la détection de la corrélation en présence de la dépendance non linéaire est d'intérêt primaire, alors que la corrélation au sens de Pearson est parfaitement adaptée. Les mesures non paramétriques fréquemment utilisées de l'association bivariée sont inadéquates, car elles ne peuvent pas faire de distinction entre la notion de corrélation et la notion de dépendance. T. A. Alonzo and J. M. Kittelson 605 La précision (sensitivité et spécificité) d'un nouveau test de dépistage peut être comparéà celui d'un test standard en appliquant les deux tests à un groupe de sujets pour lesquels le statut vis‐à‐vis de la maladie peut être déterminé par un « gold standard » (GS). Cependant, il n'est pas toujours possible d'utiliser le GS pour tous les sujets de l'étude. Par exemple, une étude est planifiée pour évaluer si le nouveau test de dépistage des cancers cervicaux (« ThinPrep ») est meilleur que le test standard (« Pap »), et dans ce cas, il n'est pas faisable (ou éthique) de déterminer le statut vis‐à‐vis de la maladie en réalisant une biopsie, dans le but d'identifier des femmes avec ou sans pathologie pour participer à l'étude. Quand le statut vis‐à‐vis de la maladie ne peut être connu pour tous les sujets de l'étude, la précision relative de deux tests de dépistage peut toujours être estimée en utilisant un schéma de dépistage positif apparié (PSP), dans lequel tous les sujets reçoivent les deux test de dépistage, mais n'ont le GS que si l'un des deux tests de dépistage est positif. Malheureusement, dans l'exemple des cancers cervicaux, le protocole PSP n'est pas non plus praticable puisqu'il n'est techniquement pas possible d'administrer et le ThinPrep et le Pap au même moment. Dans ce papier, nous évaluons un schéma de dépistage positif apparié randomisé (RPSP), dans lequel les sujets sont randomisés pour recevoir dans un premier temps un des deux tests de dépistage, et ils reçoivent l'autre test et le GS seulement si le premier test de dépistage est positif. Nous calculons les estimations du maximum de vraisemblance et les intervalles de confiance de la précision relative des deux tests de dépistage, et évaluons le comportement de ces estimations, sur petit échantillon, par des études de simulations. Des formules de calcul du nombre de sujets nécessaires sont appliquées à l'exemple d'essai de dépistage du cancer cervical, et l'efficacité du schéma DAPR est comparé avec d'autres schémas. G. Qin and X.‐H. Zhou 613 Pour un test diagnostic sur une échelle continué, l'indicateur le plus communément utilisé pour résumer la courbe ROC est l'aire sous la courbe (AUC) pour refléter la justesse de ce test diagnostic. Dans cet article, nous proposons une approche de vraisemblance empirique pour l'inférence sur l'AUC. Nous définissons tout d'abord un rapport de vraisemblance empirique pour l'AUC et nous montrons que sa distribution limite est un khi‐deux ajusté. Nous obtenons alors un intervalle de confiance pour l'AUC basé sur la vraisemblance empirique en utilisant la distribution du khi‐deux ajusté. Cette inférence par vraisemblance empirique pour l'AUC peut être étendue à des échantillons stratifiés, la distribution limite qui en résulte est alors une somme pondérée de khi‐deux indépendants. De plus nous avons réalisé des simulations pour comparer la performance relative de l'intervalle obtenu par l'approche de vraisemblance empirique par rapport aux intervalles obtenus avec l'approximation normale et par rééchantillonnage de type ?bootstrap?.  相似文献   

4.
《Biometrics》2006,62(4):1290-1290
A Simple Local Sensitivity Analysis Tool for Nonignorable Coarsening: Application to Dependent Censoring
Les données censurées à droite ou sur certains intervalles de temps sont des cas particuliers fréquents de données dégradées (Heitjan et Rubin, 1991). Comme avec les données manquantes, les méthodes statistiques courantes qui ignorent la nature aléatoire du mécanisme de dégradation peuvent conduire à des inférences incorrectes. Nous généralisons un outil simple d'analyse de sensibilité, l'indice de sensibilité locale à la non-ignorabilité (Troxel et al., 2004), à un modèle général de dégradation. En transformant cet indice en un simple graphique on peut facilement établir la sensibilité des inférences-clés à une dégradation non ignorable. Nous illustrons la validité de la méthode sur un exemple simulé, et l'appliquons à des observations de transplantation cardiaque censurées à droite, et à un essai clinique dans la maladie HIV où le temps nécessaire pour atteindre une charge virale détectable est censuré sur certains intervalles.  相似文献   

5.
《Biometrics》2006,62(1):320-321
Nous proposons un modèle conjoint du déclin cognitif et du risque de démence pour décrire la phase pré-diagnostique de la démence. L'objectif est d'estimer le moment où l'évolution cognitive des sujets en phase pré-démentielle commence à se distinguer de l'évolution normale et d'étudier si la forme du déclin cognitif dépend du niveau d'études. Le modèle combine un modèle mixte polynomial par morceaux comportant un point de changement aléatoire pour l'évolution du test cognitif et un modèle log-normal dépendant du point de changement aléatoire pour l'âge de démence. Les paramètres sont estimés par le maximum de vraisemblance à l'aide d'un algorithme de type Newton-Raphson. L'évolution cognitive attendue sachant l'âge de démence est ensuite estimée ainsi que la distribution marginale de l'âge de démence afin de vérifier l'hypothèse log-normale.  相似文献   

6.
《Biometrics》2007,63(1):315-316
  相似文献   

7.
《Biometrics》2005,61(2):652-655
A . Ivanova , B. F . Qaqish , and M. J . Schell              540
Le but des essais de phase II en oncologie est d'évaluer l'efficacité d'un nouveau traitement et la dose étudiée est généralement la dose maximale tolérée telle qu'elle a été estimée préalablement dans un essai de phase I. En raison du manque de précision de cette estimation, de nombreux essais de phase II utilisent des règles d'arrêt pour toxicité. Nous montrons comment construire des règles d'arrêt séquentielles pour la surveillance en continu de la toxicité. Nous fournissons une table qui permet d'obtenir facilement les frontières, du type de celles de Pocock, pour diverses valeurs du pourcentage de toxicité et diverses tailles d'échantillon. Nous discutons l'estimation des pourcentages de toxicité et de réponse au traitement.  相似文献   

8.
《Biometrics》2005,61(3):895-896
S. Matsui 816 Cet article développe des méthodes d'analyse stratifiée d'effets additifs ou multiplicatifs sur des critères binaires, dans le cadre d'essais randomisés avec défaut d'observance. Ces méthodes reposent sur une fonction d'estimation pondérée, garantissant une fonction d'estimation non biaisée à condition que la randomisation soit réalisée par strate. Quand les poids sont connus d'avance, l'estimateur obtenu est une extension naturelle de celui issu de la méthode d'estimation par variable instrumentale pour analyses stratifiées, et les bornes des intervalles de confiance dérivés des tests sont les solutions d'une équation quadratique du paramètre d'intérêt. Les poids optimaux qui maximisent l'efficacité asymptotique intègrent la variabilité inter‐strates de l'observance. Une évaluation basée sur l'efficacité asymptotique relative montre que l'efficacité peut être substantiellement améliorée en utilisant les poids optimaux plutôt que les poids conventionnels, lesquels n'intègrent pas la variabilité inter‐strates de l'observance. Enfin, ces méthodes d'analyse sont appliquées à une étude portant sur la maladie cardiaque coronarienne. L. Li , J. Shao , and M. Palta 824 Une erreur de mesure sur une covariable dans une régression est typiquement considérée pour agir d'une manière additive ou multiplicative sur la valeur de la vraie covariable. Cependant, une telle hypothèse ne tiens pas pour l'erreur de mesure sur la respiration dans les troubles du sommeil (SDB) dans l'étude de la Wisconsin Sleep Cohort Study (WSCS). La vraie covariable dans la sévérité de SDB, et le substitut observé est le nombre de pauses respiratoires par unité de temps de sommeil, qui a une distribution semi continue non négative. Avec une point masse de zéro. Nous proposons un modèle d'erreur de mesure à variable latente pour la structure d'erreur dans cette situation et l'implémentons dans un modèle linéaire mixte. La procédure d'estimation est similaire à une calibration dans une régression mais met en jeu une hypothèse sur la distribution de la variable latente. Les stratégies de modélisation et d'ajustement sont explorées et illustrées au travers de l'exemple du WSCS. J. P. Buonaccorsi , P. Laake , and M. B. Veierød 831 Cette note vise à clarifier les conditions sous lesquelles une analyse naïve impliquant un prédicteur entaché d'erreurs de classification induira un biais sur les coefficients de régression associés aux autres prédicteurs du modèle, prédicteurs dont on suppose qu'ils sont, pour leur part, parfaitement mesurés. Nous levons ici une incohérence apparente entre de précédents résultats et un résultat lié aux erreurs de mesure d'une variable continue dans une régression linéaire. Nous montrons que, de la même façon qu'une erreur portant sur une variable continue, une erreur de classification (même si elle n'est pas liée aux autres prédicteurs) induit un biais dans l'estimation des coefficients associés aux prédicteurs mesurés sans erreur, à moins que la variable entachée d'erreurs et les autres prédicteurs ne soient indépendants. Les biais conditionnels et asymptotiques sont discutés dans le cadre de la régression linéaire et explorés numériquement à travers l'exemple de la relation entre, d'une part, le poids à la naissance, et, d'autre part, le poids de la mère et le fait qu'elle fume ou non. J. Roy and X. Lin 837 Nous abordons les problèmes d'estimation dans les modèles linéaires généralisés pour données longitudinales avec sorites d'étude informative. Lorsqu'un individu sort de l'étude, non seulement la valeur de la variable réponse est manquante, mais souvent les valeurs de certaines covariables sont elles aussi non‐observées. Cependant, les modèles existants pour sortie d'étude informative supposent que les covariables soient complètement observées. Cette condition n'est pas réaliste en présence de covariables variant au cours du temps. Tout d'abord, nous étudions le biais asymptotique résultant de l'application des méthodes existantes, où les covariables temporelles manquantes sont gérées de manière naïve, c'est‐à‐dire (1) en utilisant seulement la valeur de base (“baseline”); (2) en reportant les valeurs de la dernière date d'observation, ou (3) en supposant qu'on peut ignorer les valeurs manquantes. Notre analyse de biais asymptotique montre que ces approches naïves produisent des estimateurs non consistants des paramètres. Dans un deuxième temps, nous proposons un modèle de sélection/transition qui autorise des sorties d'études avec valeurs manquantes, aussi bien sur les covariables explicatives que sur la variable réponse. Nous utilisons l'algorithme EM pour l'inférence de ce modèle. Nous illustrons la méthode proposée sur les données d'une étude longitudinale concernant des femmes infectées par le VIH. B. I. Graubard and T. R. Fears 847 Le risque attribuable ajusté (RA) est la proportion d'individus malades dans une population sujette à une exposition. Nous envisageons des estimations pour le RA ajusté basés sur les rapports de chance (odds ratios) à partir de régression logistique pour ajuster sur les effets confondus. Des méthodes de fonction d'influence utilisées en échantillonnage d'enquêtes sont appliquées pour obtenir des expressions simples et facilement programmables pour estimer la variance de^RA. Ces estimateurs de variance peuvent être appliqués à des données d'études de cas‐témoins, transversales et de cohortes avec ou sans appariement fréquentiel ou individuel et à des dispositifs échantillonnés qui vont de simples échantillons aléatoires à des échantillons groupés, stratifiés en plusieurs étapes et pondérés (par échantillonnage) du type de ceux utilisés dans les enquêtes nationales sur les ménages. L'estimation de la variance de^RA est illustrée au moyen de: (i) une étude transversale avec groupement en plusieurs étapes avec stratification pondérée issue de la troisième enquête nationale de santé et d'examens sur l'asthme de l'enfance, et (ii) une étude de cas‐témoins avec appariement fréquentiel dans le mélanome cutané malin.  相似文献   

9.
《Biometrics》2007,63(2):639-640
Random Effects Modeling Approaches for Estimating ROC Curves from Repeated Ordinal Tests without a Gold Standard
Estimer la pertinence d'un diagnostic médical constitue une difficulté majeure en l'absence d'un test de référence (gold standard). Quoique la littérature scientifique abonde en la matière pour les tests diagnostiques répétés binaires, elle s'avère beaucoup plus pauvre en travaux applicables aux tests ordinaux. A cela fait exception le travail de Zhou et al. (2005), proposant une méthodologie pour estimer des courbes ROC sans gold standard, à partir des données répétées issues de tests diagnostiques ordinaux. Mais cette méthodologie repose sur l'hypothèse d'indépendance des résultats aux tests, conditionnellement au vrai diagnostic. Je propose donc ici des approches de modélisation à effets aléatoires intégrant la dépendance des tests ordinaux entre eux, et je montre, au travers de résultats asymptotiques et de simulations, toute l'importance de bien prendre en compte cette dépendance. Ces modélisations, ainsi que l'importance de la dépendance entre les tests, sont illustrées par une réanalyse des données présentées par Zhou et al. (2005) sur le cancer utérin.  相似文献   

10.
《Biometrics》2007,63(3):986-987
The DNA Database Search Controversy Revisited: Bridging the Bayesian--Frequentist Gap
Deux quantités différentes ont été proposées pour mesurer l'évidence dans les cas où un suspect est identifiéà partir d'une base de données de profils ADN. Le rapport de vraisemblance, habituellement développé dans le cadre bayésien, est préféré par de nombreux experts du domaine. La règle dite np a été suggérée sur des arguments fréquentistes par l'American National Research council (NRC) et Stockmarr (1999). Ces deux quantités différent considérablement et sont à la source d'une controverse sérieuse sur l'utilisation des bases d'ADN. Bien que plusieurs auteurs aient critiqué ces différentes approches, une explication claire sur le pourquoi de ces différences observées n'a jamais été proposée. Dans cet article, nous montrons que le degré de signification P dans un contexte fréquentiste est approximativement égal au résultat de la règle np . Nous soutenons cependant qu'une procédure plus raisonnable consiste à utiliser une stratégie de test conditionnel qui génère un P directement lié aux probabilités a posteriori ainsi qu'un rapport de vraisemblance. Cette façon d'aborder le problème construit un pont entre les approches bayésienne et fréquentiste et indique également que la règle np ne doit pas être utilisée pour quantifier l'évidence.  相似文献   

11.
12.
13.
14.
15.
16.
17.
18.
19.
A panel of trained sensory judges is a sensitive and valuable instrument. and a lot of time and work is invested in their selection and training. The importance of internal motivation and external stimulation to maintain the interest and wellbeing of these human instruments is supported by major food scientists and behavioral psychologists. Current stimulation procedures for sensory judges are listed. A new procedure is proposed, consisting of an annual celebration party on November 20 in recognition of sensory judges. Advantages of holding this day on an international level are discussed: mainly, promotion of fellowship among sensory judges from different groups and countries, and also its help in increasing cooperation in sensory evaluation. Actions to promote International Sensory Judges Day are listed. Suggestions for the actual celebration party are put forward: an open house luncheon, presentation of awards, greeting cards and letters from other sensory panels; and last but not least, a set of proven “sensory” games where everyone joins in.  相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号