None
2017-12-09
Le DG parle dans son allocution à l'occasion de l'exposition (suivi d'une visite)de la contribution du Cern à la création d'une espace de la technologie européenne. Il parle de la manière comment organiser des formes fructueuses de coopération et coordination internationales dans ce domaine. "Afin de renforcer encore notre relation avec l'industrie et intensifier le transfert de la technologie nous proposerons au ministre de recherche de poursuivre dans le cadre du programme EUREKA ensemble avec les industries des programmes concrètes." Le ministre italien prend ensuite la parole.
Serragui, Samira; Zalagh, Fatima; Tanani, Driss Soussi; Ouammi, Lahcen; Moussa, Latifa Ait; Badrane, Narjis; Bencheikh, Rachida Soulaymani
2016-01-01
Introduction Le suivi thérapeutique pharmacologique (STP) des médicaments antiépileptiques (MAE) est un outil très utilisé dans la gestion de l'épilepsie. Au Maroc, ce dosage est réalisé au Centre Anti Poison et de Pharmacovigilance du Maroc (CAPM) depuis Avril 1995. Méthodes Il s'agit d'une étude rétrospective s'étalant sur 20 ans. Elle concerne le STP du Phénobarbital (PB), de la Carbamazépine (CBZ) et de l'Acide Valproique (AVP). Résultats Le STP des 3 MAE représentaient 58,85% de l'ensemble des demandes de STP reçue par le CAPM. Le dosage du PB était classé en première position suivi par celui de la CBZ et enfin par l'AVP. La faible demande de STP au Maroc pouvait être expliquée par le faible nombre de neurologues auquel s'ajoutaient des facteurs sociaux. Grâce à son prix très accessible par les patients, le PB est le MAE le plus prescrit dans notre pays expliquant ainsi la demande élevée de son dosage. Quant aux motifs de STP des 3 MAE, ils étaient essentiellement liés à l'âge, à l'apparition d'effets indésirables, à l'association de MAE ou dans le cas de vérification de l'observance des malades. Conclusion Des efforts sont à fournir pour promouvoir l'intérêt du STP des MAE dans la prise en charge de l'épilepsie au Maroc. PMID:28154702
Frindel, François
2008-09-01
Each patient is unique; and unique is one's smile. The subtle mixture of a set of physical data, but also psychological and emotional, related to his (her) history, his (her) culture and his (her) environment will allow to lay out the elements of each one in order to achieve an individual specimen which cannot be reproduced. The author suggests a simple clinical and therapeutic orthodontic method with the purpose of positioning one's smile in an aesthetic, balanced, harmonious, engaging and non ageing way in the face, after a brief reminder of his method of individual analysis proportioned appreciation of positioning in 16 keys. Chaque patient est unique ; et son sourire est unique. Il est le reflet d'un ensemble de données physiques, mais aussi psychologiques et émotionnelles liées à son histoire, à sa culture et à son environnement. L'orthodontiste va pouvoir réaliser un sourire individuel incopiable en agençant ces éléments entre eux. Après avoir rappelé brièvement son évaluation du sourire en 16 clefs, l'auteur propose d'exposer ici une méthode clinique et thérapeutique orthodontique simple pour parvenir à positionner un sourire de manière esthétique, équilibrée, harmonieuse, attirante, et non vieillissante dans le visage.
None
2017-12-09
Le Dr.Muriel James est ingénieur, conseiller/consultant dans plusieurs commissions (p.ex.justice criminelle au Japon) et universités et est l'auteur de nombreux livres (11) traduits dans plusieurs langues. Le plus connu de ses ouvrages est "Born to win". Dans son exposé elle se réfère à son livre "O.K.Boss" et parle d'un modèle spécifique du comportement humain et de ses qualités essentielles qui est la base de son travail.
2011-04-01
il faut de toute urgence mener des actions complémentaires pour créer un environnement favorable pour l’ensemble des militaires. Dans le domaine du...changement souhaitable de comportement dans un environnement militaire de culture traditionnellement rude (macho) est un vrai défi, et il est recommandé
NASA Astrophysics Data System (ADS)
Blondin, Andre
Dans un contexte constructiviste, les connaissances anterieures d'un individu sont essentielles a la construction de nouvelles connaissances. Quelle qu'en soit la source (certaines de ces connaissances ont ete elaborees en classe, d'autres ont ete elaborees par interaction personnelle de l'individu avec son environnement physique et social), ces connaissances, une fois acquises, constituent les matieres premieres de l'elaboration des nouvelles conceptions de cet individu. Generalement, cette influence est consideree comme positive. Cependant, dans un milieu scolaire ou l'apprentissage de certaines conceptions enchassees dans un programme d'etudes et enterinees par l'ensemble d'une communaute est obligatoire, certaines connaissances anterieures peuvent entraver la construction des conceptions exigees par la communaute. La litterature abonde de tels exemples. Cependant, certaines connaissances anterieures, en soi tout a fait conformes a l'Heritage, peuvent aussi, parce qu'utilisees de facon non pertinente, entraver la construction d'une conception exigee par la communaute. Ici, la litterature nous donne peu d'exemples de ce type, mais nous en fournirons quelques-uns dans le cadre theorique, et ce sera un d'entre eux qui servira de base a nos propos. En effet, une grande proportion d'eleves inscrits a un cours de sciences physiques de la quatrieme secondaire, en reponse a un probleme deja solutionne durant l'annee et redonne lors d'un examen sommatif, "Pourquoi la Lune nous montre-t-elle toujours la meme face?", attribue principalement la cause de ce phenomene a la rotation de la Terre sur son axe. En tant que responsable de l'enseignement de ce programme d'etudes, plusieurs questions nous sont venues a l'esprit, entre autres, comment, dans un contexte constructiviste, est-il possible de reduire chez un eleve, l'impact de cette connaissance anterieure dans l'elaboration de la solution et ainsi prevenir la construction d'une conception erronee? Nous avons teste nos hypotheses avec la cohorte suivante d'eleves chez qui se repetaient les memes conditions d'apprentissage. Nous avons utilise le design de recherche "posttest only" de Campbell et Stanley. En mai, apres le moment prevu dans la planification du programme pour donner le probleme aux eleves, nous avons suggere deux facons differentes de reviser la solution de ce probleme. Les eleves du premier groupe experimental ont revise sans que soit activee la connaissance anterieure apprehendee de la rotation de la Terre. Les eleves du deuxieme groupe experimental ont ete confrontes, par des questions et une simulation, au fait que la rotation de la Terre n'est pas une connaissance pertinente pour resoudre le probleme. Les groupes temoins et les groupes experimentaux ont ete choisis au hasard dans le bassin des ecoles secondaires de la commission scolaire. (Abstract shortened by UMI.)
Modelisation de la Propagation des Ondes Sonores dans un Environnement Naturel Complexe
NASA Astrophysics Data System (ADS)
L'Esperance, Andre
Ce travail est consacre a la propagation sonore a l'exterieur dans un environnement naturel complexe, i.e. en presence de conditions reelles de vent, de gradient de temperature et de turbulence atmospherique. Plus specifiquement ce travail comporte deux objectifs. D'une part, il vise a developper un modele heuristique de propagation sonore (MHP) permettant de prendre en consideration l'ensemble des phenomenes meteorologiques et acoustiques influencant la propagation du son a l'exterieur. D'autre part, il vise a identifier dans quelles circonstances et avec quelle importance les conditions meteorologiques interviennent sur la propagation sonore. Ce travail est divise en cinq parties. Apres une breve introduction identifiant les motivations de cette etude (chapitre 1), le chapitre 2 fait un rappel des travaux deja realises dans le domaine de la propagation du son a l'exterieur. Ce chapitre presente egalement les bases de l'acoustique geometrique a partir desquelles ont ete developpees la partie acoustique du modele heuristique de propagation. En outre, on y decrit comment les phenomenes de refraction et de turbulence atmospherique peuvent etre consideres dans la theorie des rayons. Le chapitre 3 presente le modele heuristique de propagation (MHP) developpe au cours de cet ouvrage. La premiere section de ce chapitre decrit le modele acoustique de propagation, modele qui fait l'hypothese d'un gradient de celerite lineaire et qui est base sur une solution hybride d'acoustique geometrique et de theorie des residus. La deuxieme section du chapitre 3 traite plus specifiquement de la modelisation des aspects meteorologiques et de la determination des profils de celerite et des index de fluctuation associes aux conditions meteorologiques. La section 3 de ce chapitre decrit comment les profils de celerite resultants sont linearises pour les calculs dans le modele acoustique, et finalement la section 4 donne les tendances generales obtenues par le modele. Le chapitre 4 decrit les compagnes de mesures qui ont ete realisees a Rock-Spring (Pennsylvanie, Etats -Unis) au cours de l'ete 90 et a Bouin (Vendee, France) au cours de l'automne 91. La campagne de mesure de Rock -Spring a porte plus specifiquement sur les effets de la refraction alors que la campagne de Bouin a prote plus specifiquement sur les effets de la turbulence. La section 4.1 decrit les equipements et le traitement des donnees meteorologiques realisees dans chaque cas et la section 4.2 fait de meme pour les resultats acoustiques. Finalement, le chapitre 5 compare les resultats experimentaux obtenus avec ceux donnes par le MHP, tant pour les resultats meteorologiques que pour les resultats acoustiques. Des comparaisons avec un autre modele (le Fast Field Program) sont egalement presentees.
Moral and Ethical Decision Making in Canadian Forces Operations
2006-01-01
Adams, and Jessica A. Sartori Humansystems® Incorporated 111 Farquhar St., 2nd floor Guelph, ON N1H 3N4 Project Manager : Dr. Barbara D. Adams...facteurs (et les nombreux autres facteurs décrits dans le présent rapport) permettra de faire avancer les connaissances concernant la prise de décision...Dans l’ensemble, cette analyse laisse à penser que la prise de décision morale et éthique ne peut pas être considérée comme un moment précis dans le
NASA Astrophysics Data System (ADS)
Nguimbus, Raphael
La determination de l'impact des facteurs sous controle et hors controle qui influencent les volumes de vente des magasins de detail qui vendent des produits homogenes et fortement substituables constitue le coeur de cette these. Il s'agit d'estimer un ensemble de coefficients stables et asymtotiquement efficaces non correles avec les effets specifiques aleatoires des sites d'essence dans le marche de Montreal (Quebec, Canada) durant is periode 1993--1997. Le modele econometrique qui est ainsi specifie et teste, isole un ensemble de quatre variables dont le prix de detail affiche dans un site d'essence ordinaire, la capacite de service du site pendant les heures de pointe, les heures de service et le nombre de sites concurrents au voisinage du site dans un rayon de deux kilometres. Ces quatre facteurs influencent les ventes d'essence dans les stations-service. Les donnees en panel avec les methodes d'estimation robustes (estimateur a distance minimale) sont utilisees pour estimer les parametres du modele de vente. Nous partons avec l'hypothese generale selon laquelle il se developpe une force d'attraction qui attire les clients automobilistes dans chaque site, et qui lui permet de realiser les ventes. Cette capacite d'attraction varie d'un site a un autre et cela est du a la combinaison de l'effort marketing et de l'environnement concurrentiel autour du site. Les notions de voisinage et de concurrence spatiale expliquent les comportements des decideurs qui gerent les sites. Le but de cette these est de developper un outil d'aide a la decision (modele analytique) pour permettre aux gestionnaires des chaines de stations-service d'affecter efficacement les ressources commerciales dans ies points de vente.
NASA Astrophysics Data System (ADS)
La Madeleine, Carole
Ce memoire est presente a la Faculte de medecine et des sciences de la sante de l'Universite de Sherbrooke en vue de l'obtention du grade de maitre es sciences (M.Sc.) en radiobiologie (2009). Un jury a revise les informations contenues dans ce memoire. Il etait compose de professeurs de la Faculte de medecine et des sciences de la sante soit : Darel Hunting PhD, directeur de recherche (departement de medecine nucleaire et radiobiologie), Leon Sanche PhD, directeur de recherche (departement de medecine nucleaire et radiobiologie), Richard Wagner PhD, membre du programme (departement de medecine nucleaire et radiobiologie) et Guylain Boissonneault PhD, membre exterieur au programme (departement de biochimie). Le 5-bromodeoxyuridine (BrdU), un analogue halogene de la thymidine reconnu depuis les annees 60 comme etant un excellent radiosensibilisateur. L'hypothese la plus repandue au sujet de l'effet radio sensibilisant du BrdU est qu'il augmente le nombre de cassures simple et double brin lorsqu'il est incorpore dans l'ADN de la cellule et expose aux radiations ionisantes. Toutefois, de nouvelles recherches semblent remettre en question les observations precedentes. Ces dernieres etudes ont confirme que le BrdU est un bon radiosensibilisateur, car il augmente les dommages radio-induits dans l'ADN. Mais, c'est en etant incorpore dans une region simple brin que le BrdU radiosensibilise l'ADN. Ces recherches ont egalement revele pour la premiere fois un nouveau type de dommages produits lors de l'irradiation de l'ADN contenant du BrdU : les dimeres interbrins. Le but de ces travaux de recherche est de determiner si la presence de bromodeoxyuridine dans l'ADN augmente l'induction de bris simple et / ou double brin chez les cellules irradiees en utilisant de nouvelles techniques plus sensibles et specifiques que celles utilisees auparavant. Pour ce faire, les essais cometes et la detection des foci H2AX phosphorylee pourraient permettre d'etablir les effets engendres par le BrdU au niveau cellulaire. Notre hypothese (basee sur des resultats preliminaires effectues dans notre laboratoire) est que l'irradiation de l'ADN cellulaire en presence de BrdU augmentera le nombre de bris simple brin sans toutefois augmenter le nombre de bris double brin. Les resultats presentes dans ce memoire semblent corroborer cette hypothese. Les nouvelles methodes d'analyse, soient l'essai comete et la detection des foci gamma-H2AX remettent en question ce qui a ete dit sur le BrdU au sujet de l'induction des cassures double brin depuis plusieurs annees. L'ensemble de ces nouveaux resultats effectue a l'aide de cellules ayant incorporees du BrdU sont en correlation avec de precedents resultats obtenus dans notre laboratoire sur des oligonucleotides bromes. Ils reaffirment que l'irradiation combinee au BrdU augmente l'induction de bris simple brin mais pas de bris double brin. L'investigation approfondie des mecanismes d'action non elucides du BrdU au niveau cellulaire et son utilisation a des moments strategiques pendant le traitement de radiotherapie pourraient accroitre son efficacite a des fins d'utilisation clinique. Mots cles : 5-bromodeoxyuridine, dimeres interbrins, dommage a l'ADN, essai comete, H2AX, radiosensibilisateur, radiotherapie
Evaluation de l'intergiciel de communication DDS pour son utilisation dans le domaine avionique
NASA Astrophysics Data System (ADS)
Levesque-Landry, Kevin
Les aeronefs modernes doivent combler de plus en plus de fonctionnalites afin de satisfaire les besoins de la clientele. De ce fait, les besoins en communications des systemes avioniques sont grandissants. De plus, la portabilite et la reutilisabilite des applications sont des defis d'actualite dans le domaine avionique. De ce fait, ce projet de recherche vise a faire une evaluation de la technologie d'intergiciel de service de distribution de donnees (DDS) pour son utilisation dans le domaine avionique. Cette technologie permettrait de reduire la complexite des communications et faciliter la portabilite et reutilisabilite des applications grâce a son interface standardisee. Dans ce projet de recherche, la norme DDS est tout d'abord etudiee pour cibler les fonctionnalites qui sont utiles au domaine avionique. Les differentes polices de qualite de services sont ainsi etudiees et denotent la flexibilite de la technologie DDS. Un intergiciel DDS est egalement evalue dans un environnement de laboratoire afin de mesurer l'impact de l'utilisation de cette technologie sur les performances de latence ainsi que sur l'utilisation de la bande passante. Les resultats montrent une faible augmentation de la latence moyenne lorsque l'intergiciel DDS est utilise. L'intergiciel DDS est egalement utilise dans une etude de cas avec un AFCS (automatic flight control system) afin de quantifier les effets de son utilisation sur une application avionique. Les resultats montrent que l'utilisation de l'intergiciel DDS n'empeche pas l'AFCS d'atteindre la stabilite, mais qu'elle ralentit l'atteinte de cette derniere. Finalement, une etude de cas est effectuee afin de valider que la technologie DDS peut etre utilisee pour construire des systemes redondants. Les resultats montrent que l'intergiciel DDS permet de faire de la redondance de reserve sans avoir un impact visible sur les performances du systeme redondant.
Le cancer différencié de la thyroïde chez l’enfant et l’adolescent: à propos de 22 cas
Anajar, Said; Tatari, Mohammed; Lakhbal, Adil; Abada, Reda; Rouadi, Sami; Roubal, Mohammed; Mahtar, Mohammed
2017-01-01
L’obectif était de mettre en relief les particularités du cancer de la thyroïde chez l’enfant et l’adolescent, et d’évaluer nos résultats par rapport à la littérature internationale a travers une série de cas la plus représentatif au Maroc: 22 cas. C'est une étude rétrospective descriptive des patients atteints de cancer différencié de la thyroïde, hospitalisés au service d’ORL et de Chirurgie Cervico-faciale de L’hopital 20 Août de Casablanca-Maroc, sur la période qui s’étend de Janvier 1995 à Mars 2015. Nous avons recueilli les données relatives à 22 cas, qui répondaient à nos critères d’inclusion. L’âge moyen de nos patients était de 14 ans, avec une sex-ratio 3,4, la plupart de nos patients ont consulté pour un nodule thyroïdien, associé dans 22,7% des cas à une adénopathie cervicale, et dans 9,1% à des signes de compression. L’ensemble des patients ont bénéficié d’une thyroïdectomie totale, suivie d’un curage ganglionnaire dans 31,82%. Le diagnostic de cancer thyroïdien a reposé sur l’examen anatomopathologique de la pièce opératoire, qui a objectivé un carcinome papillaire dans 95,4% des cas, et un carcinome vésiculaire dans 4,5%. Le traitement par l’iode radioactif 131 a été réalisé dans 100% des cas. Par la suite tous nos patients ont été mis sous hormonothérapie thyroïdienne. Une surveillance étroite et régulière a permis de détecter des métastases ganglionnaires chez 3 patients, et les métastases à distance chez 4 patients. Le cancer différencié de la thyroïde de l’enfant et l’adolescent est une entité rare mais agressive, son traitement se base sur la chirurgie, associée à l’irathérapie donnant un pronostic excellent. PMID:29255541
Parametrisation D'effets Non-Standard EN Phenomenologie Electrofaible
NASA Astrophysics Data System (ADS)
Maksymyk, Ivan
Cette these pat articles porte sur la parametrisation d'effets non standard en physique electrofaible. Dans chaque analyse, nous avons ajoute plusieurs operateurs non standard au lagrangien du modele standard electrofaible. Les operateurs non standard decrivent les nouveaux effets decoulant d'un modele sous-jacent non-specefie. D'emblee, le nombre d'operateurs non standard que l'on peut inclure dans une telle analyse est illimite. Mais pour une classe specifique de modeles sous-jacents, les effets non standard peuvent etre decrits par un nombre raisonnable d'operateurs. Dans chaque analyse nous avons developpe des expressions pour des observables electrofaibles, en fonction des coefficients des operateurs nouveaux. En effectuant un "fit" statistique sur un ensemble de donnees experimentales precises, nous avons obtenu des contraintes phenomenologiques sur ces coefficients. Dans "Model-Independent Global Constraints on New Physics", nous avons adopte des hypotheses tres peu contraignantes relatives aux modeles sous-jacents. Nous avons tronque le lagrangien effectif a la dimension cinq (inclusivement). Visant la plus grande generalite possible, nous avons admis des interactions qui ne respectent pas les symetries discretes (soit C, P et CP) ainsi que des interactions qui ne conservent pas la saveur. Le lagrangien effectif contient une quarantaine d'operateurs nouveaux. Nous avons determine que, pour la plupart des coefficients des nouveaux operateurs, les contraintes sont assez serrees (2 ou 3%), mais il y a des exceptions interessantes. Dans "Bounding Anomalous Three-Gauge-Boson Couplings", nous avons determine des contraintes phenomenologiques sur les deviations des couplages a trois bosons de jauge par rapport aux interactions prescrites par le modele standard. Pour ce faire, nous avons calcule les contributions indirectes des CTBJ non standard aux observables de basse energie. Puisque le lagrangien effectif est non-renormalisable, certaines difficultes techniques se posent: pour regulariser les integrales de Feynman les chercheurs se sont generalement servi de la methode de coupure, mais cette methode peut mener a des resultats incorrects. Nous avons opte pour une technique alternative: la regularisation dimensionnelle et la "soustraction minimale avec decouplage". Dans "Beyond S, T and U" nous presentons le formalisme STUVWX, qui est une extension du formalisme STU de Peskin et Takeuchi. Ces formalismes sont bases sur l'hypothese que la theorie sous-jacente se manifeste au moyen de self -energies de bosons de jauge. Ce type d'effet s'appelle 'oblique'. A la base du formalisme STU se trouve la supposition que l'echelle de la nouvelle physique, M, est beaucoup plus grande que q, l'echelle a laquelle on effectue des mesures. Il en resulte que les effets obliques se parametrisent par les trois variables S, T et U. Par contre, dans le formalisme STUVWX, nous avons admis la possibilite que M~ q. Dans "A Global Fit to Extended Oblique Parameters", nous avons effectue deux fits statistiques sur un ensemble de mesures electrofaibles de haute precision. Dans le premier fit, nous avons pose V=W=X=0, obtenant ainsi des contraintes pour l'ensemble {S,T,U}. Dans le second fit, nous avons inclus tous les six parametres.
NASA Astrophysics Data System (ADS)
Mahjoub, Mehdi
La resolution de l'equation de Boltzmann demeure une etape importante dans la prediction du comportement d'un reacteur nucleaire. Malheureusement, la resolution de cette equation presente toujours un defi pour une geometrie complexe (reacteur) tout comme pour une geometrie simple (cellule). Ainsi, pour predire le comportement d'un reacteur nucleaire,un schema de calcul a deux etapes est necessaire. La premiere etape consiste a obtenir les parametres nucleaires d'une cellule du reacteur apres une etape d'homogeneisation et condensation. La deuxieme etape consiste en un calcul de diffusion pour tout le reacteur en utilisant les resultats de la premiere etape tout en simplifiant la geometrie du reacteur a un ensemble de cellules homogenes le tout entoure de reflecteur. Lors des transitoires (accident), ces deux etapes sont insuffisantes pour pouvoir predire le comportement du reacteur. Comme la resolution de l'equation de Boltzmann dans sa forme dependante du temps presente toujours un defi de taille pour tous types de geometries,un autre schema de calcul est necessaire. Afin de contourner cette difficulte, l'hypothese adiabatique est utilisee. Elle se concretise en un schema de calcul a quatre etapes. La premiere et deuxieme etapes demeurent les memes pour des conditions nominales du reacteur. La troisieme etape se resume a obtenir les nouvelles proprietes nucleaires de la cellule a la suite de la perturbation pour les utiliser, au niveau de la quatrieme etape, dans un nouveau calcul de reacteur et obtenir l'effet de la perturbation sur le reacteur. Ce projet vise a verifier cette hypothese. Ainsi, un nouveau schema de calcul a ete defini. La premiere etape de ce projet a ete de creer un nouveau logiciel capable de resoudre l'equation de Boltzmann dependante du temps par la methode stochastique Monte Carlo dans le but d'obtenir des sections efficaces qui evoluent dans le temps. Ce code a ete utilise pour simuler un accident LOCA dans un reacteur nucleaire de type CANDU-6. Les sections efficaces dependantes du temps ont ete par la suite utilisees dans un calcul de diffusion espace-temps pour un reacteur CANDU-6 subissant un accident de type LOCA affectant la moitie du coeur afin d'observer son comportement durant toutes les phases de la perturbation. Dans la phase de developpement, nous avons choisi de demarrer avec le code OpenMC, developpe au MIT,comme plateforme initiale de developpement. L'introduction et le traitement des neutrons retardes durant la simulation ont presente un grand defi a surmonter. Il est important de noter que le code developpe utilisant la methode Monte Carlo peut etre utilise a grande echelle pour la simulation de tous les types des reacteurs nucleaires si les supports informatiques sont disponibles.
Majdoul, Soufya; Tawfiq, Nezha; Bourhaleb, Zouhour; Naqos, Nora; Taleb, Amina; Bouchbika, Zineb; Benchakroun, Nadia; Jouhadi, Hassan; Sahraoui, Souha; Benider, Abdelatif
2016-01-01
Les tumeurs à cellules de la granulosa (TG) de l’ovaire sont des tumeurs rares appartenant au groupe des tumeurs des cordons sexuels et du stroma. Elles représentent 0,6 à 3 % de l’ensemble des tumeurs de l’ovaire et 5 % des tumeurs malignes On distingue deux types: le type juvénile (TGJ) qui se caractérise par son agressivité et le type adulte (TGA) qui est le type le moins agressif et le plus fréquent. Les rechutes de TG de l'ovaire surviennent généralement dans les cinq ans, elles sont rarement sous forme de métastases péritonéales ou locales. Bien que, des options de traitement y compris la chirurgie avec ou sans chimiothérapie et ou radiothérapie ont été rapportés pour le traitement des récidives des TG, il n'y a aucune prise en charge standardisée de récidive de cette maladie. Ici, nous rapportons notre stratégie thérapeutique dans la prise en charge des récidives tardives, après dix ans, de la TG sous forme de carcinose péritonéale pour deux patientes avec une revue de la littérature. PMID:28154722
De l'importance des orbites periodiques: Detection et applications
NASA Astrophysics Data System (ADS)
Doyon, Bernard
L'ensemble des Orbites Periodiques Instables (OPIs) d'un systeme chaotique est intimement relie a ses proprietes dynamiques. A partir de l'ensemble (en principe infini) d'OPIs cachees dans l'espace des phases, on peut obtenir des quantites dynamiques importantes telles les exposants de Lyapunov, la mesure invariante, l'entropie topologique et la dimension fractale. En chaos quantique (i.e. l'etude de systemes quantiques qui ont un equivalent chaotique dans la limite classique), ces memes OPIs permettent de faire le pont entre le comportement classique et quantique de systemes non-integrables. La localisation de ces cycles fondamentaux est un probleme complexe. Cette these aborde dans un premier temps le probleme de la detection des OPIs dans les systemes chaotiques. Une etude comparative de deux algorithmes recents est presentee. Nous approfondissons ces deux methodes afin de les utiliser sur differents systemes dont des flots continus dissipatifs et conservatifs. Une analyse du taux de convergence des algorithmes est aussi realisee afin de degager les forces et les limites de ces schemes numeriques. Les methodes de detection que nous utilisons reposent sur une transformation particuliere de la dynamique initiale. Cette astuce nous a inspire une methode alternative pour cibler et stabiliser une orbite periodique quelconque dans un systeme chaotique. Le ciblage est en general combine aux methodes de controle pour stabiliser rapidement un cycle donne. En general, il faut connaitre la position et la stabilite du cycle en question. La nouvelle methode de ciblage que nous presentons ne demande pas de connaitre a priori la position et la stabilite des orbites periodiques. Elle pourrait etre un outil complementaire aux methodes de ciblage et de controle actuelles.
Chaibdraa, A; Medjellekh, M S; Saouli, A; Bentakouk, M C
2008-12-31
Le Pseudomonasest un agent pathogène à l'origine d'infections nosocomiales graves dans les centres des brûlés. Son opportunisme et sa virulence en font une préoccupation majeure. Ce travail se propose d'évaluer la place de cette bactérie dans l'écologie bactérienne locale et d'en apprécier la sensibilité aux antibiotiques. Cette étude rétrospective préliminaire porte sur la période de juin 2003 à décembre 2005. Elle intéresse l'ensemble des prélèvements bactériologiques ayant pu être réalisés au centre des brûlés d'Annaba. L'effectif est de 633 micro-organismes isolés dont 128 Pseudomonas (20,2%): 127 aeruginosa (99,2%), 1 fluorescens (0,8%); distribution selon le site de prélèvement: écouvillon (87,5%), prélèvement trachéobronchique (4,6%), hémoculture (3,1%), cathéters (1,6%), urine (1,6%) et sonde urinaire (1,6%). Le pyocyanique se situe après le staphylocoque pour les prélèvements précoces et repasse en tête après un séjour supérieur à une semaine, où 89% des pyocyaniques sont identifiés. Il est en première position dans les pneumopathies sous ventilation assistée invasive. Il se classe troisième dans les hémocultures et les cultures de cathéters. Dans les infections urinaires il est devancé par Candida et la flore périnéale. Les 128 antibiogrammes regroupent 314 réponses sensibles. La sensibilité à plus de deux antibiotiques est de 68%, à deux antibiotiques 24% et à un antibiotique 8%. Seules quatre molécules restent actives: ciprofloxacine > péfloxacine > pipéracilline > ceftazidime. Une résistance absolue est retrouvée pour trois Pseudomonas (2,4%). Le pronostic sévère des infections nosocomiales à pyocyanique et les risques d'options thérapeutiques très limitées font toute leur gravité, d'où l'intérêt de respecter des règles strictes de prescription des antibiotiques et des mesures de prévention.
2009-10-01
pourtant été systématisée. L’observation que, même si chaque homme est unique, il n’en partage pas moins un certain nombre de caractéristiques avec ses...occidental du comportement normal d’un homme , c’est-à-dire ce en deçà de quoi il ne peut déroger au risque de sortir du statut d’homme. Ainsi, le... de garantir les conditions de vie harmonieuse dans la société des hommes . Ainsi, l’éthique individuelle du citoyen français se niche dans un ensemble
Etude de la Production de Paires de Leptons dans les Interactions Proton-Beryllium a 450 GEV
NASA Astrophysics Data System (ADS)
Aubry, Pierre Rene Roger
L'experience HELIOS a fait une etude precise de la production des paires e^+e^-, mu^+mu^-, mu ^+mu^-+nu, et mu^+/- e^+/- dans les interactions p-Be a 450 GeV. Le detecteur comporte un spectrometre a electrons, un spectrometre a muons, et un ensemble de calorimetres qui peuvent mesurer les photons et l'energie manquante emportee par les neutrinos. Les paires de leptons sont observees dans la region cinematique ^1: eqalign {2/m_mu
Ambient Noise Statistics for Sonar Modelling - Final Report
2005-05-01
traitement des données de bouées acoustiques EC-SWAN (bruit ambiant en eau peu profonde dans l’Est canadien) collectées mensuellement sur une période de 12...déplacé son champ d’intérêt de l’océan profond vers les eaux des zones littorales. L’acoustique en eau peu profonde présente un grand défi, car...l’expérience EC-SWAN (bruit ambiant en eau peu profonde dans l’Est canadien), ont été entreprises pour étudier les variations dans le temps et dans
NASA Astrophysics Data System (ADS)
Auvray, B.; Burg, J. P.; Caruba, Ch.; Dars, R.; Lo, K.
1992-02-01
L'Amsaga (R.I. Mauritanie) au NW du Craton Ouest-Africain, constitue la partie méridionale du soubassement de la Dorsale Reguibat. Cette région est constituée de deux ensembles principaux séparés par und grand accident mylonitique SW-NE. A l'Ouest, il s'agit d'un domaine granulitique (granulites ortho et para avec intrusions charnockitiques) et migmatitiques (migmatites ortho de type TTG); a l'Est, on retrouve les mêmes migmatites dont les produits de fusion (monzogranites a muscovite) recoupent et metamorphisent une série volcano-sedimentaire située dans le faciès amphibolite. Les contrastes pétrologiques et structuraux entre ces deux domaines sont discutés en fonction de la signification et de l'âge de l'accident qui les sépare (chevauchement ou décrochement). Dans le bloc ouest, les relations entre granulites et migmatites conduisent a envisager deux hypothèses (1) Un socle granodioritique (TTG) et sa couverture volcano-sédimentaire sont impliqués dans un même événement tectonométamorphique, mais dans des conditions de PH 2O variables. (2) Un seul ensemble supra-crustal (à soubassement inconnu) est intrudé, au cours d'une même phase de tectogenèse, par des magmas à caractères géochimiques voisins, mais cristallisant sous forme de TTG ou de charnockites suivant les conditions de leur mise en place.
ERIC Educational Resources Information Center
Goulet, Marie-Josee, Ed.
Papers on language research in this volume include the following: "Temporalite en francais de France. Differences dans la conceptualisation du temps et son expression dans un texte narratif oral" ("Differences in the Conceptualization of Time and Its Expression in Oral Narratives") (Natalia Dankova); "La traduction des…
"Using the Arts To Teach Assia Djebar's "Femmes d'Alger dans leur appartement."
ERIC Educational Resources Information Center
Vogl, Mary B.
2003-01-01
Offers suggestion son how to use film, paintings, photographs, and music to teach "Femmes d'Alger dans leur appartement," a collection of stories written by one of Algeria's leading intellectuals. Examines how the arts can be used as lenses for revealing the layers of meaning in the stories, and encourages students to examine literary texts from…
Folie à Trois à Lubumbashi: à propos d’un cas
Bugeme, Marcellin; Mukuku, Olivier; Mobambo, Pitchou; Koba, Bora; Muyumba, Emmanuel
2013-01-01
Le trouble psychotique partagé est une entité psychiatrique rare caractérisée par la transmission des idées délirantes d’un patient dit “inducteur”, à un autre dit “induit”, tous vivant en association proche, dans un milieu clos et isolé, partageant des idées délirantes sur le même thème. Nous vous rapportons un cas clinique de “folie à trois” mettant en jeu un délire de persécution à mécanisme hallucinatoire et interprétatif par trois soeurs de même famille biologique, orphelines de père, vivant ensemble, ayant un niveau socio-économique bas après la mort de leur père. Elles ont des relations étroitement liéeset font leurs activités ensemble. L’aînée étant parvenue à partager ses idées délirantes avec ses soeurs et toutes troisse sont retrouvées dans un état d’excitation psychomotrice. PMID:23560130
Le Pseudomonas: Experience du Centre des Brules D’Annaba et Revue de la Litterature
Chaibdraa, A.; Medjellekh, M.S.; Saouli, A.; Bentakouk, M.C.
2008-01-01
Summary Le Pseudomonasest un agent pathogène à l'origine d'infections nosocomiales graves dans les centres des brûlés. Son opportunisme et sa virulence en font une préoccupation majeure. Ce travail se propose d'évaluer la place de cette bactérie dans l'écologie bactérienne locale et d'en apprécier la sensibilité aux antibiotiques. Cette étude rétrospective préliminaire porte sur la période de juin 2003 à décembre 2005. Elle intéresse l'ensemble des prélèvements bactériologiques ayant pu être réalisés au centre des brûlés d'Annaba. L'effectif est de 633 micro-organismes isolés dont 128 Pseudomonas (20,2%): 127 aeruginosa (99,2%), 1 fluorescens (0,8%); distribution selon le site de prélèvement: écouvillon (87,5%), prélèvement trachéobronchique (4,6%), hémoculture (3,1%), cathéters (1,6%), urine (1,6%) et sonde urinaire (1,6%). Le pyocyanique se situe après le staphylocoque pour les prélèvements précoces et repasse en tête après un séjour supérieur à une semaine, où 89% des pyocyaniques sont identifiés. Il est en première position dans les pneumopathies sous ventilation assistée invasive. Il se classe troisième dans les hémocultures et les cultures de cathéters. Dans les infections urinaires il est devancé par Candida et la flore périnéale. Les 128 antibiogrammes regroupent 314 réponses sensibles. La sensibilité à plus de deux antibiotiques est de 68%, à deux antibiotiques 24% et à un antibiotique 8%. Seules quatre molécules restent actives: ciprofloxacine > péfloxacine > pipéracilline > ceftazidime. Une résistance absolue est retrouvée pour trois Pseudomonas (2,4%). Le pronostic sévère des infections nosocomiales à pyocyanique et les risques d'options thérapeutiques très limitées font toute leur gravité, d'où l'intérêt de respecter des règles strictes de prescription des antibiotiques et des mesures de prévention. PMID:21991140
Southeast Asia Report, No. 1297.
1983-06-10
and summer-autumn sea- sons, increase of both inorganic and organic fertilizers, prevention and con- trol of harmful insects, effective use of...Profits Increase 254 Percent (BULLETIN TODAY, 7 May 83) 22 Briefs Crop Insurance 23 Arrest Warrants to Priests 23 VIETNAM MILITARY AFFAIRS AND...PUBLIC SECURITY Hanoi Court Sentences Power Thieves (NHAN DAN, 16 Apr 83) 24 Ho Chi Minh City Increases Neighborhood Security (NHAN DAN, 21
Payot, Isabelle; Latour, Judith; Massoud, Fadi; Kergoat, Marie-Jeanne
2007-01-01
RÉSUMÉ OBJECTIF Analyser et adapter des indicateurs de qualité pour l’évaluation et la prise en charge des personnes avec atteinte des fonctions cognitives, dont la prévalence est très élevée dans les unités d’évaluation gériatrique au Québec. DEVIS Une méthode de type Delphi-modifiée. CONTEXTE Province de Québec. PARTICIPANTS Sept praticiens de milieux hospitaliers affiliés à 3 universités du Québec choisis pour leur compétence reconnue en démence et soins gériatriques. MÉTHODE Parmi les indicateurs développés en 2001 par la méthode RAND, 22 items sélectionnés pour leur pertinence au cours du processus d’évaluation et de prise en charge d’une atteinte des fonctions cognitives ont été adaptés aux conditions de pratique du milieu hospitalier québécois. Les indicateurs, accompagnés d’évidences de la littérature, ont été soumis, par la poste, à un panel d’experts. Chaque expert a coté, sur une échelle de 1 à 9, son degré d’accord à des affirmations concernant la validité, la qualité et la nécessité d’être inscrit dans le dossier médical. Pour qu’un indicateur soit retenu, il devait faire consensus selon les valeurs médianes, être situé dans le tertile supérieur et recevoir l’agrément des experts. Les indicateurs incertains étaient modifiés en fonction des commentaires des experts, puis soumis au même panel pour un second tour. RÉSULTATS Des 22 indicateurs soumis au premier tour, 21 ont été validés. Ils prenaient en compte le dépistage, l’investigation, l’évaluation, le traitement et le suivi. L’indicateur considéré comme incertain a été modifié puis accepté lors du second tour. CONCLUSION Cette étude a identifié 22 indicateurs pertinents pour l’évaluation et la prise en charge de l’atteinte des fonctions cognitives dans une unité d’évaluation gériatrique. Ils serviront de base à l’appréciation de la problématique de la démence, dans une étude ayant cours sur la qualité des soins dans l’ensemble des unités de courte durée gériatriques des hôpitaux généraux duQuébec. PMID:18000272
NASA Astrophysics Data System (ADS)
Deblois, Annick
Cette etude qualitative multicas est ancree dans l'approche sociale-cognitive de la theorie de l'autoefficacite de Bandura (1977). Elle s'interesse a quatre stages a l'enseignement qui se sont deroules au Musee canadien de la nature a Ottawa, Canada, en 2009. L'utilisation de donnees secondaires issues du questionnaire STEBI-B traduit et modifie (Dionne et Couture, 2010) ainsi que des entrevues semi-dirigees ont permis une analyse du changement du sentiment d'autoefficacite en sciences chez les stagiaires. Les elements les plus interessants de cette recherche sont l'apprentissage vicariant et la possibilite de repetition qui favorise une meilleure connaissance de soi et une pratique reflexive. Les resultats, dans l'ensemble positifs, illustrent bien le potentiel d'un tel stage afin de rehausser le sentiment d'autoefficacite en sciences chez des stagiaires en enseignement, particulierement chez ceux qui se destinent a enseigner a l'elementaire puisque ceux-ci ont souvent une formation academique dans un domaine autre que les sciences.
Repenser ensemble le concept d'autonomie alimentaire.
Bélisle, Micheline; Labarthe, Jenni; Moreau, Cynthia; Landry, Elise; Adam, Gracia; Bourque Bouliane, Mijanou; Dupéré, Sophie
2017-03-01
C'est au cœur du projet de recherche-action participative « Vers une autonomie alimentaire pour tou-te-s : agir et vivre ensemble le changement » (VAATAVEC) que s'est élaborée une définition nouvelle et évolutive de l'autonomie alimentaire. De ce projet regroupant des personnes en situation de pauvreté, chercheurs et intervenants, a émergé une conceptualisation résultant à la fois d'une méthode de réflexion collective et d'un processus d'analyse collective, inspiré de la théorisation ancrée et de l'analyse conceptualisante de Paillé et Mucchielli (2003). Le recours à l'expertise des personnes en situation de pauvreté, expertes du vécu de l'insécurité alimentaire, a contribué à ancrer cette définition dans les causes structurelles de l'insécurité alimentaire dans une perspective de développement d'un pouvoir d'agir collectif, de toutes les personnes concernées. Il en résulte une définition de l'autonomie alimentaire d'où ressort une contribution surtout méthodologique et théorique.
Reconstruction d’une Carbonisation du Pouce par Lambeau Chinois
Khales, A.; Achbouk, J.A.; Moussaoui, A.; Belmir, R.; Tourabi, K.; Oufkir, A.; Ihrai, H.
2010-01-01
Summary La main en tant qu’organe majeur de la préhension peut être le siège de brûlures graves qui compromettent sa fonction. Bien qu’elle ne représente que 2% de la surface corporelle la brûlure de la main est grave et difficile à traiter, vu la vulnérabilité et la complexité de son appareil locomoteur. Nous rapportons dans ce travail le cas d’un patient victime d’une carbonisation de la main. Huit mois après le parage et la couverture par lambeau inguinal, le patient bénéficie d’une reconstruction du pouce par lambeau chinois associé à une greffe osseuse. Le résultat s’est avéré satisfaisant. Le lambeau chinois prouve par son apport vasculaire et par sa facilité technique qu’il est un moyen très intéressant dans la reconstruction du pouce - ou des doigts en général - surtout dans un contexte de brûlure. PMID:21991226
Boubkraoui, Mohamed El Mahdi; Benbrahim, Fadoua; Assermouh, Abdellah; El Hafidi, Naima; Benchekroun, Soumia; Mahraoui, Chafiq
2015-01-01
Introduction L'exacerbation d'asthme est un phénomène paroxystique qui peut mettre en jeu le pronostic vital. Le but de l’étude est d’évaluer le profil épidémiologique et les modalités de prise en charge de l'exacerbation d'asthme chez les enfants âgés de 2 à 15 ans dans l'unité de pneumoallergologie pédiatrique de l'hôpital d'enfants de Rabat au Maroc. Méthodes Il s'agit d'une étude rétrospective qui a concerné 1461 enfants hospitalisés pour exacerbation d'asthme modérée à sévère durant une période d'un an allant de décembre 2011 à novembre 2012, les exacerbations légères étant traitées en ambulatoire. Résultats Les hospitalisations pour exacerbation d'asthme chez les enfants ont représenté 34% de l'ensemble des hospitalisations avec trois pics en mai, septembre et décembre. L’âge moyen de survenue était de 3 ans et demi avec une prédominance masculine nette. L'exacerbation d'asthme était inaugurale dans 22% des cas. Les infections respiratoires virales dominaient les facteurs déclenchants des exacerbations d'asthme. Le séjour hospitalier était en moyenne de 3 jours. Un transfert en réanimation a été nécessaire dans 2% des cas. L’évolution sous traitement a toujours été favorable et la mortalité a été nulle. Conclusion La prévalence des hospitalisations pour exacerbation d'asthme suit un profil saisonnier lié aux effets environnementaux. La plupart de ces hospitalisations pourraient cependant être évitées grâce à un meilleur contrôle de l'asthme et à l'amélioration de l’éducation thérapeutique de l'enfant asthmatique et de son entourage. PMID:26090031
Hamzaoui, Ghizlane; Amro, Lamyae; Sajiai, Hafsa; Serhane, Hind; Moumen, Nezha; Ennezari, Abdellah; Yazidi, Abdelhaq Alaoui
2014-01-01
La tuberculose ganglionnaire (TG) est la localisation extrapulmonaire la plus fréquente au Maroc. Elle pose encore un problème diagnostique et thérapeutique. Le but du travail est d’ étudier le profil épidémiologique, diagnostique et thérapeutique de la tuberculose ganglionnaire. Il s'agit d'une étude rétrospective portant sur les nouveaux cas de TG suivis au centre spécialisé de tuberculose de Marrakech, entre Janvier 2011 et Décembre 2012. Trois cents cinquante sept cas de TG ont été inclus sur l'ensemble de 1717 cas de tuberculose toute forme confondue, soit une incidence de 20,8%. La moyenne d’âge était de 29,1 ans avec un sex ratio de 0,6 (62,5% de femmes). Le diabète, le contage tuberculeux et l'infection VIH ont été retrouvés respectivement dans 9%, 14,6% et 3,6% des cas. Les adénopathies étaient cervicales dans 95%, médiastinales dans 5,1%, abdominales dans 3,7%, axillaires dans 2,8% et inguinales dans 0,3% des cas. La radiographie du thorax (faite dans 96,4% des cas) a été anormale dans 8,1%. Le diagnostic a été confirmé dans 97,2% des cas. Le régime thérapeutique était 2 RHZE/4RH dans 88% des cas. Dans les cas suivis, l’évolution a été marquée par la disparition des adénopathies dans 95,2% et par l'augmentation du volume ganglionnaire dans 4,8%. 1,4% des cas ont été perdus de vue. La rechute de TG a été notée dans 3,1%. La TG reste fréquente et occupe la 2ème place après l'atteinte pulmonaire et pose un problème diagnostique et thérapeutique. PMID:25767675
65th birthday Jack Steinberger
None
2017-12-09
Laudatio pour Jack Steinberger né le 25 mai 1921, à l'occasion de son 65me anniversaire et sa retraite officielle, pour sa précieuse collaboration au Cern. Néanmoins son principal activité continuera comme avant dans sa recherche au Cern. Plusieurs orateurs prennent la parole (p.ex. E.Picasso) pour le féliciter et lui rendre hommage
DOE Office of Scientific and Technical Information (OSTI.GOV)
Pluquet, Alain
Cette théetudie les techniques d'identication de l'electron dans l'experience D0 au laboratoire Fermi pres de Chicago Le premier chapitre rappelle quelques unes des motivations physiques de l'experience physique des jets physique electrofaible physique du quark top Le detecteur D0 est decrit en details dans le second chapitre Le troisieme cha pitre etudie les algorithmes didentication de lelectron trigger reconstruction ltres et leurs performances Le quatrieme chapitre est consacre au detecteur a radiation de transition TRD construit par le Departement dAstrophysique Physique des Particules Physique Nucleaire et dInstrumentation Associee de Saclay il presente son principe sa calibration et ses performances Ennmore » le dernier chapitre decrit la methode mise au point pour lanalyse des donnees avec le TRD et illustre son emploi sur quelques exemples jets simulant des electrons recherche du quark top« less
Modelisation frequentielle de la permittivite du beton pour le controle non destructif par georadar
NASA Astrophysics Data System (ADS)
Bourdi, Taoufik
Le georadar (Ground Penetrating Radar (GPR)) constitue une technique de controle non destructif (CND) interessante pour la mesure des epaisseurs des dalles de beton et la caracterisation des fractures, en raison de ses caracteristiques de resolution et de profondeur de penetration. Les equipements georadar sont de plus en plus faciles a utiliser et les logiciels d'interpretation sont en train de devenir plus aisement accessibles. Cependant, il est ressorti dans plusieurs conferences et ateliers sur l'application du georadar en genie civil qu'il fallait poursuivre les recherches, en particulier sur la modelisation et les techniques de mesure des proprietes electriques du beton. En obtenant de meilleures informations sur les proprietes electriques du beton aux frequences du georadar, l'instrumentation et les techniques d'interpretation pourraient etre perfectionnees plus efficacement. Le modele de Jonscher est un modele qui a montre son efficacite dans le domaine geophysique. Pour la premiere fois, son utilisation dans le domaine genie civil est presentee. Dans un premier temps, nous avons valide l'application du modele de Jonscher pour la caracterisation de la permittivite dielectrique du beton. Les resultats ont montre clairement que ce modele est capable de reproduire fidelement la variation de la permittivite de differents types de beton sur la bande de frequence georadar (100 MHz-2 GHz). Dans un deuxieme temps, nous avons montre l'interet du modele de Jonscher en le comparant a d'autres modeles (Debye et Debye-etendu) deja utilises dans le domaine genie civil. Nous avons montre aussi comment le modele de Jonscher peut presenter une aide a la prediction de l'efficacite de blindage et a l'interpretation des ondes de la technique GPR. Il a ete determine que le modele de Jonscher permet de donner une bonne presentation de la variation de la permittivite du beton dans la gamme de frequence georadar consideree. De plus, cette modelisation est valable pour differents types de beton et a differentes teneurs en eau. Dans une derniere partie, nous avons presente l'utilisation du modele de Jonscher pour l'estimation de l'epaisseur d'une dalle de beton par la technique GPR dans le domaine frequentiel. Mots-cles : CND, beton, georadar , permittivite, Jonscher
Analysis of phospholipid fatty acids (PLFA) to characterize microbial communities in aquifers
NASA Astrophysics Data System (ADS)
Green, Christopher T.; Scow, Kate M.
This paper reviews published applications of lipid-based biochemical techniques for characterizing microbial communities in aquifers and other deep subsurface habitats. These techniques, such as phospholipid fatty acid (PLFA) analysis, can provide information on a variety of microbial characteristics, such as biomass, physiology, taxonomic and functional identity, and overall community composition. In addition, multivariate statistical analysis of lipid data can relate spatial or temporal changes in microbial communities to environmental factors. The use of lipid-based techniques in the study of groundwater microbiology is advantageous because they do not require culturing and can provide quantitative data on entire communities. However, combined effects of physiological and phylogenetic changes on the lipid composition of a community can confound interpretation of the data, and many questions remain about the validity of various lipid techniques. Despite these caveats, lipid-based research has begun to show trends in community composition in contaminated and pristine aquifers that contribute to our understanding of groundwater microbial ecology and have potential for use in optimization of bioremediation of groundwater pollutants. Résumé Ce papier passe en revue les applications des techniques biochimiques basées sur les lipides pour caractériser les communautés microbiennes présentes dans les aquifères et dans les autres habitats souterrains profonds. Ces techniques, telles que l'analyse des acides gras phospholipidiques (PLFA), peuvent fournir des informations sur un ensemble de caractères microbiens, tels que la biomasse, la physiologie, l'identité taxonomique et fonctionnelle, et surtout la composition de la communauté. En outre, l'analyse statistique multivariée des données sur les lipides peut établir les liens entre des changements spatiaux ou temporels dans la communauté microbienne et des facteurs environnementaux. L'utilisation des techniques basées sur les lipides dans l'étude de la microbiologie des eaux souterraines est intéressante parce qu'elle ne nécessite pas de mise en culture et qu'elle peut fournir des données quantitatives sur les communautés dans leur ensemble. Toutefois, les effets combinés de changements physiologiques et phylogénétiques sur la composition d'une communauté peuvent brouiller l'interprétation des données de nombreuses questions se posent sur la validité des différentes techniques lipidiques. Malgré ces oppositions, la recherche basée sur les lipides a commencéà montrer des tendances dans la composition des communautés dans les aquifères pollués et dans ceux non perturbés ces résultats contribuent ainsi à notre compréhension de l'écologie microbienne des eaux souterraines et montrent qu'il existe un potentiel pour leur utilisation en vue d'une optimisation de la dépollution biologique des eaux souterraines. Resumen Se revisan distintas técnicas bioquímicas que se basan en el análisis de lípidos para caracterizar las comunidades microbianas en hábitats subsuperficiales, incluyendo acuíferos. Estas técnicas, entre las que se incluye el análisis de ácidos grasos fosfolípidos (PLFA), pueden proporcionar información sobre toda una serie de características de las comunidades microbianas, como su biomasa, fisiología, identidad taxonómica y funcional y composición. Además, el análisis estadístico multivariado de los datos de lípidos permite relacionar los cambios espaciales o temporales en las comunidades microbianas con factores ambientales. Las técnicas basadas en lípidos son muy útiles para el estudio microbiológico de las aguas subterráneas, puesto que no requieren cultivos y además proporcionan datos cuantitativos de comunidades completas. Sin embargo, la acción combinada de los cambios fisiológicos y filogenéticos en la composición de lípidos en una comunidad pueden confundir la interpretación de los datos, por lo existen muchas cuestiones abiertas respecto a la validez de algunas de estas técnicas. A pesar de estas dificultades, estas técnicas han permitido detectar diferentes tendencias en la composición de las comunidades en acuíferos con y sin contaminación, lo que contribuye a nuestro entendimiento de la ecología microbiana de los acuíferos. Este último aspecto tiene un uso potencial en la optimización de los métodos de biorremediación de acuíferos.
Miroirs multicouches C/SI a incidence normale pour la region spectrale 25-40 nanometres
NASA Astrophysics Data System (ADS)
Grigonis, Marius
Nous avons propose la nouvelle combinaison de materiaux, C/Si, pour la fabrication de miroirs multicouches a incidence normale dans la region spectrale 25-40 nm. Les resultats experimentaux montrent que cette combinaison possede une reflectivite d'environ ~25% dans la region spectrale 25-33 nm et une reflectivite d'environ ~23% dans la region spectrale 33-40 nm. Ces valeurs de reflectivite sont les plus grandes obtenues jusqu'a maintenant dans la region spectrale 25-40 nm. Les miroirs multicouches ont ete par la suite caracterises par microscopie electronique a transmission, par diverses techniques de diffraction des rayons X et par spectroscopies d'electrons AES et ESCA. La resistance des miroirs aux temperatures elevees a ete egalement etudiee. Les resultats fournis par les methodes de caracterisation indiquent que cette combinaison possede des caracteristiques tres prometteuses pour son application comme miroir pour les rayons X mous.
Online cross-validation-based ensemble learning.
Benkeser, David; Ju, Cheng; Lendle, Sam; van der Laan, Mark
2018-01-30
Online estimators update a current estimate with a new incoming batch of data without having to revisit past data thereby providing streaming estimates that are scalable to big data. We develop flexible, ensemble-based online estimators of an infinite-dimensional target parameter, such as a regression function, in the setting where data are generated sequentially by a common conditional data distribution given summary measures of the past. This setting encompasses a wide range of time-series models and, as special case, models for independent and identically distributed data. Our estimator considers a large library of candidate online estimators and uses online cross-validation to identify the algorithm with the best performance. We show that by basing estimates on the cross-validation-selected algorithm, we are asymptotically guaranteed to perform as well as the true, unknown best-performing algorithm. We provide extensions of this approach including online estimation of the optimal ensemble of candidate online estimators. We illustrate excellent performance of our methods using simulations and a real data example where we make streaming predictions of infectious disease incidence using data from a large database. Copyright © 2017 John Wiley & Sons, Ltd. Copyright © 2017 John Wiley & Sons, Ltd.
Mixture EMOS model for calibrating ensemble forecasts of wind speed.
Baran, S; Lerch, S
2016-03-01
Ensemble model output statistics (EMOS) is a statistical tool for post-processing forecast ensembles of weather variables obtained from multiple runs of numerical weather prediction models in order to produce calibrated predictive probability density functions. The EMOS predictive probability density function is given by a parametric distribution with parameters depending on the ensemble forecasts. We propose an EMOS model for calibrating wind speed forecasts based on weighted mixtures of truncated normal (TN) and log-normal (LN) distributions where model parameters and component weights are estimated by optimizing the values of proper scoring rules over a rolling training period. The new model is tested on wind speed forecasts of the 50 member European Centre for Medium-range Weather Forecasts ensemble, the 11 member Aire Limitée Adaptation dynamique Développement International-Hungary Ensemble Prediction System ensemble of the Hungarian Meteorological Service, and the eight-member University of Washington mesoscale ensemble, and its predictive performance is compared with that of various benchmark EMOS models based on single parametric families and combinations thereof. The results indicate improved calibration of probabilistic and accuracy of point forecasts in comparison with the raw ensemble and climatological forecasts. The mixture EMOS model significantly outperforms the TN and LN EMOS methods; moreover, it provides better calibrated forecasts than the TN-LN combination model and offers an increased flexibility while avoiding covariate selection problems. © 2016 The Authors Environmetrics Published by JohnWiley & Sons Ltd.
El Ochi, Mohamed Réda; Bellarbi, Salma; Rouas, Lamiae; Lamalmi, Najat; Malihy, Abderrahmane; Alhamany, Zaitouna; Cherradi, Nadia
2015-01-01
La biopsie radioguidée constitue une alternative à la biopsie chirurgicale invasive et à la cytologie pour le diagnostic des tumeurs pédiatriques. L'intérêt de notre étude est d’évaluer la valeur diagnostique des biopsies radioguidées examinées au laboratoire d'anatomopathologie de l'hôpital d'Enfants de Rabat (HER). L’étude a porté sur 78 biopsies radioguidées recueillies dans notre laboratoire entre janvier 2008 et décembre 2011. l’âge moyen des patients était de 5 ans et 10 mois avec une prédominance masculine (65,4%). La tumeur était abdominale dans 80% des cas, thoracique dans 15% cas, thoracique et abdominale dans 2,5% et sacrée dans 1,2%. Les biopsies étaient écho-guidées dans 90% des cas et scannoguidées dans 10% des cas. Le diagnostic histopathologique était posé dans 89% des cas. L'immuno-histochimie a été indiquée dans 35% des cas. Les diagnostics les plus fréquents étaient: tumeurs neuroblastiques (42 cas), lymphomes non hodgkiniens (10 cas), rhabdomyosarcomes (6 cas), autres (sarcome d'Ewing, néphroblastomes, tumeur myofibroblastique inflammatoire, maladies de Hodgkin, leucémie aiguë, hépatoblastome et ostéosarcome). Dans notre série, la biopsie radioguidée a permis un diagnostic histopathologique certain dans 89% des cas. Elle nécessite une étroite collaboration entre clinicien, radiologue et anatomopathologiste pour discuter son indication, afin de diminuer le nombre de biopsies peu ou non représentatives. PMID:26587165
Pertinence et limitations de la loi de Mott dans les isolants désordonnés
NASA Astrophysics Data System (ADS)
Ladieu, François; Sanquer, Marc
Twenty five years ago, Mott's law was established in order to describe electrical transport in disordered insulators at low temperature. In this review, we briefly summarize the different theoretical steps involved in the rigourous derivation of Mott's law. We stress upon the fact that Mott's law gives the mean conductance of an ensemble of macroscopic samples as long as electron-electron interactions remain negligible. We then study what happens when at least one of the key assumptions of Mott's law no longer holds. We first focus on systems whose size — at least in one dimension — is not macroscopic: the optimization involved in Mott's law is no longer relevant for the measured conductance. Eventually, we try to gather different works dealing with electron-electron interactions. It is now established that interactions generally produce a stronger divergence for the electrical resistance than the one predicted by Mott's law at the lowest temperatures. But the exact shape of this divergence, as well as its interpretation, remain debated. We try to make a link between Efros and Shklovskii 's work and their famous "Coulomb gap" and a more recent work about granular media. In this latter work, the size of the grains is the key parameter for the shape of the divergence of the resistance at low temperature. We suggest this could indicate a way for a model accounting for the different shapes of divergence of the electrical resistance at the lowest temperatures. Furthermore this framework of granular media allows us to deal with non linear regime: we explain the main differences between the predictions of the hot electrons model and the ones recently derived for a d -dimensional network of grains. Il y a déjà un quart de siècle que la loi de Mott a été établie afin de décrire le transport dans les milieux isolants désordonnés à basse température. Dans cet article de revue, nous rappelons brièvement les diverses étapes théoriques nécessaires à l'établissement rigoureux de la loi de Mott. Nous insistons sur le fait que la loi de Mott ne donne que la conductance moyenne d'un ensemble d'échantillons macroscopiques, tant que les interactions entre électrons restent négligeables. Nous étudions ensuite ce qu'il se passe lorsque l'on lève au moins l'une des hypothèses nécessaires à l'établissement de la loi de Mott. Nous nous penchons d'abord sur le cas des systèmes dont au moins une dimension n'est pas macroscopique : l'optimisation contenue dans la loi de Mott n'est alors plus représentative de la conductance mesurée. Enfin, nous essayons de rassembler des travaux relatifs aux effets des interactions entre électrons. S'il est acquis que, de façon générale, les interactions entraînent une divergence de la résistance plus rapide que ne le prédit la loi de Mott aux plus basses températures, la forme exacte de cette divergence ainsi que son interprétation restent encore sujets à caution. Nous rapprochons le travail d'Efros et Shklovskii et leur célèbre "gap de Coulomb" d'un travail plus récent sur les milieux granulaires dans lequel la taille des grains joue un rôle discriminant sur la nature de la divergence de la résistance à basse température. Nous suggérons que ce rapprochement ouvre une piste pour un modèle rendant compte de manière unifiée des diverses divergences mesurées à basse température pour la résistance électrique. Cette incursion dans les modèles granulaires nous permet aussi d'aborder la question des non linéarités en exposant les différences entre les prédictions du modèle des électrons chauds et celles proposées récemment pour un réseau de grains en dimension d .
Tuberculose multifocale chez les immunocompétents
Rezgui, Amel; Fredj, Fatma Ben; Mzabi, Anis; Karmani, Monia; Laouani, Chadia
2016-01-01
La tuberculose multifocale est définie par la l'atteinte d'au moins deux sites extra-pulmonaires associée ou non à une atteinte pulmonaire. On se propose d’étudier les différentes caractéristiques cliniques et évolutives de la tuberculose multifocale à travers une étude rétrospective de 10 cas. Parmi 41 cas de tuberculose colligés entre 1999 et 2013. Dix patients avaient une tuberculose multifocale, soit 24% des patients. Il s'agissait de 9 femmes et 1 homme d’âge moyen à 50 ans (30-68 ans). Nos patients étaient tous correctement vaccinés par le BCG. Un bilan à la recherche d'une éventuelle immunodépression fait pour tous les patients était négatif. Il s'agissait d'une tuberculose ganglionnaire dans 7 cas, digestive dans 3 cas, péricardique dans 2 cas, ostéo-articulaire dans 2 cas, cérébrale dans 1 cas, urinaire dans 2 cas, uro-génitale dans 4 cas, surrénalienne dans 1 cas, cutanée dans 1 cas et musculaire dans 1 cas. Tous nos patients ont bénéficié d'un traitement antituberculeux pour une durée moyenne de 10 mois avec bonne évolution. La tuberculose multifocale est une des maladies à diagnostic difficile. Elle peut toucher les immunocompétents mais son pronostic est souvent bon. Un traitement anti-tuberculeux doit être instauré le plus rapidement possible pour éviter les séquelles. PMID:27583077
NASA Astrophysics Data System (ADS)
Manfroid, J.
2008-09-01
Fragmentation et astéroïdes binaires; Astéroïde géocroiseur triple; Rosetta sort de son hibernation; Messenger; Transit lunaire vu par Deep Impact; Titan; Phobos; Phoenix; Einstein avait raison; Le ballet des taches rouges; Le poids des lentilles;
1992-06-01
opdraCmlgoeVO en e; opdrachtnemer verweren naar doeha ’Algemen. Voorwearden voor Onderzoeks- ONGERTJBRICEERD opdrachlefl son TNO’, dan wel do belreflende...Opomp’kaneal NaK isolatielaag mom ankerstroomn NaK max. niveau van NaK -as Figuur 4.7 Seriewchakeling van de schijven met NaK TNO-rappert PML 2824880131Pgn De...suporgeleidend worden uitgovocrd kin de constructie aanmerkelijk worden vereenvoudigd. Voor generatoren onder de 100 MW wegen de kosten, verbonden son de grotere
Management of Circadian Desynchrony (Jetlag and Shiftlag) in CF Air Operations
2010-12-01
des médecins de l’air sur la gestion pharmaceutique de la manipulation du rythme circadien par la mélatonine, la luminothérapie...opérationnelle dans le cadre d’un plan de gestion de la fatigue. L’utilisation de la resynchronisation du rythme circadien pour contrer le décalage horaire...doivent travailler ensemble à l’élaboration de plans de mise en œuvre opérationnelle de
Harrison, Megan E.; Norris, Mark L.; Obeid, Nicole; Fu, Maeghan; Weinstangel, Hannah; Sampson, Margaret
2015-01-01
Résumé Objectif Effectuer une révision systématique des effets de repas en famille fréquents sur les résultats psychosociaux chez les enfants et les adolescents et examiner s’il existe des différences dans les résultats selon le sexe. Sources des données Des études ont été cernées à la suite d’une recherche dans MEDLINE (de 1948 à la dernière semaine de juin 2011) et dans PsycINFO (de 1806 à la première semaine de juillet 2011) à l’aide de l’interface Ovide. Les expressions et mots clés MeSH utilisés seuls ou en combinaisons étaient les suivants : family, meal, food intake, nutrition, diets, body weight, adolescent attitudes, eating behaviour, feeding behaviour et eating disorders. Les bibliographies des articles jugés pertinents ont aussi été passées en revus. Sélection des études La recherche initiale a produit 1783 articles. Pour être incluses dans l’analyse, les études devaient répondre aux critères suivants : être publiées en anglais dans une revue révisée par des pairs; porter sur des enfants ou des adolescents; traiter de l’influence des repas en famille sur les paramètres psychosociaux (p. ex. consommation de drogues et autres substances, troubles de l’alimentation, dépression) chez les enfants ou les adolescents; avoir une conception d’étude appropriée, notamment des méthodes statistiques acceptables pour l’analyse des paramètres. Quatorze articles satisfaisaient aux critères d’inclusion. Deux examinateurs indépendants ont étudié et analysé les articles. Synthèse Dans l’ensemble, les résultats font valoir que la fréquence des repas en famille est inversement proportionnelle aux troubles de l’alimentation, à la consommation d’alcool et de drogues, aux comportements violents, aux sentiments de dépression ou aux pensées suicidaires chez les adolescents. Il existe une relation positive entre de fréquents repas en famille, une bonne estime de soi et la réussite scolaire. Les études révèlent des différences considérables dans les résultats chez les enfants et adolescents masculins et féminins, les sujets féminins ayant des résultats plus positifs. Conclusion Cette révision systématique vient confirmer davantage qu’il convient de préconiser de fréquents repas en famille. Tous les professionnels de la santé devraient renseigner les familles concernant les bienfaits de prendre régulièrement ensemble des repas.
Fibre optique à la maison en Pays de Gex et de Bellegarde
None
2017-12-09
Le Syndicat Intercommunal d’Electricité de l’Ain(SIEA) déploie un réseau FTTH (Fiber To The Home) de fibres optiques dans le département de l’Ain vers l’ensemble des habitations. Le déploiement sur la zone pilote du Pays de Gex et du Bassin Bellegardien arrive dans la phase terminale vers les habitations. Le SIEA présentera ses activités, l’état du développement du réseau, les implications d’une connexion fibre optique et les procédures d’abonnement. La présentation sera donnée en Français. -------------------------------------------------------------------------------------------------------------------------------Public conference "Optical fiber To The Home in Pays de Gex et de Bellegarde" Michel Chanel et Jean Paul Goy (SIEA) Wednesday, 19th May at 11.30 hrs., Council Chamber, CERN The ‘’ Syndicat Intercommunal d’Electricité de l’Ain’’(SIEA) is deploying an optical fiber network FTTH (Fiber To The Home) in the Ain department towards the ensemble of houses. The installation on the pilot areas of Pays de Gex and Bassin Bellegardien is arriving in the phase of connecting houses. The SIEA will show its activities, the state of the network development, the implications of an optical fiber connection and the contract procedures. The presentation will be given in French
Fibre optique à la maison en Pays de Gex et de Bellegarde
DOE Office of Scientific and Technical Information (OSTI.GOV)
None
2010-05-19
Le Syndicat Intercommunal d’Electricité de l’Ain(SIEA) déploie un réseau FTTH (Fiber To The Home) de fibres optiques dans le département de l’Ain vers l’ensemble des habitations. Le déploiement sur la zone pilote du Pays de Gex et du Bassin Bellegardien arrive dans la phase terminale vers les habitations. Le SIEA présentera ses activités, l’état du développement du réseau, les implications d’une connexion fibre optique et les procédures d’abonnement. La présentation sera donnée en Français. -------------------------------------------------------------------------------------------------------------------------------Public conference "Optical fiber To The Home in Pays de Gex et de Bellegarde" Michel Chanel et Jean Paul Goy (SIEA) Wednesday, 19th May at 11.30more » hrs., Council Chamber, CERN The ‘’ Syndicat Intercommunal d’Electricité de l’Ain’’(SIEA) is deploying an optical fiber network FTTH (Fiber To The Home) in the Ain department towards the ensemble of houses. The installation on the pilot areas of Pays de Gex and Bassin Bellegardien is arriving in the phase of connecting houses. The SIEA will show its activities, the state of the network development, the implications of an optical fiber connection and the contract procedures. The presentation will be given in French« less
Profil anatomopathologique du cancer du sein dans le cap bon tunisien
Sahraoui, Ghada; Khanchel, Fatma; Chelbi, Emna
2017-01-01
Le cancer du sein est le cancer le plus fréquent de la femme en Tunisie et dans le monde. Dans le Cap Bon tunisien, les particularités anatomopathologiques de ce cancer n'ont pas été précisées auparavant. Leur connaissance est nécessaire pour l'adaptation des systèmes de prévention et de soins dans la région. Le but de notre étude était de déterminer le profil anatomopathologique des carcinomes mammaires dans l'unique laboratoire d'anatomie pathologique publique de la région. Il s'agissait d'une étude descriptive rétrospective des carcinomes mammaires diagnostiqués chez 116 malades dans notre laboratoire sur une période de 5 ans de Juillet 2010 à Juillet 2015. Notre étude a inclus 116 patientes. L'âge moyen était de 51 ans. La taille tumorale histologique moyenne était de 31 mm. Le diagnostic initial était posé sur pièce de tumorectomie dans 83% des cas. Le carcinome infiltrant de type non spécifique était le type histologique le plus fréquent. Le grade SBR III était majoritaire. L'invasion lympho-vasculaire était présente dans 33% des cas. Le curage axillaire était positif dans 72% des cas. Les récepteurs hormonaux étaient positifs dans 73% des cas. Les récepteurs de l'Her2-Neu étaient surexprimés dans 19% des cas. Le ki67 était ≥ 14% dans 38%. Le sous-type moléculaire le plus fréquent était le luminal A. Le carcinome mammaire dans la région du Cap Bon se caractérise par sa survenue à un âge jeune, son importante taille tumorale et la fréquence de facteurs histopronostiques péjoratifs. PMID:28450990
Regard sur les lazarets en terre canadienne
Milot, Jean
2008-01-01
Puisant dans les nombreuses références qu’offrent les publications médicales canadiennes du milieu du XIXe siècle à nos jours, l’auteur fait découvrir l’existence de lazarets en terre canadienne, décrit l’impact de la maladie sur les conditions vie des lépreux qui y étaient confinés et en souligne les contrecoups tant sur le plan physique et psychologique que social. Il présente un bref aperçu de la maladie, ses symptômes, ses signes ainsi que ses complications oculaires et rappelle les premiers moyens thérapeutiques à base d’huile de chaulmoogra introduits dans la colonie de Tracadie vers 1901. Il illustre son propos en évoquant la vie dans les lazarets de l’île de Sheldrake (1844–1848) et de Tracadie (1848–1965) au Nouveau-Brunswick, puis dans ceux des îles D’Arcy (1891–1924) et de Bentinck (1924–1957) en Colombie-Britannique. PMID:19352451
NASA Astrophysics Data System (ADS)
Cisse, M'badiala
1996-01-01
Entreprendre une recherche sur la politique et la législation en matière d'éducation des adultes, qui couvre plusieurs secteurs, paraît une gageure pour plusieurs raisons: difficultés dans la constitution de plusieurs équipes de recherche avec plusieurs spécialistes ou personnes ressources, difficultés dans la collecte des données, étendue et complexité des domaines à explorer et des points à prendre en compte dans la rédaction, etc. En dépit de ces difficultés majeures, l'essentiel du travail a été accompli dans le souci de respecter les exigences imposées. A l'analyse, nous constatons que plusieurs partenaires interviennent dans la formation, l'éducation et l'encadrement des adultes, et que dans le secteur public, les structures ne sont pas "logées à la même enseigne": Si la formation professionnelle a bénéficié de conditions réellement favorables pour son expansion et son développement, les autres secteurs, sans avoir été négligés, n'ont pas connu les mêmes faveurs. Ainsi plusieurs lois et mesures importantes ont été votées et prises en vue de la dynamisation de la formation professionnelle, alors que le secteur de l'agriculture, qui est la base de succès du développement du pays et occupe 55% de la population, n'a pas bénéficié d'une véritable politique éducative en faveur des agriculteurs. Il en est de même pour l'alphabétisation. On déplore constamment l'absence de politique élaborée et appliquée à l'échelle nationale. Aucune mesure politique n'a été votée par l'Assemblée nationale, alors que l'alphabétisation devrait constituer le levier du développement de l'éducation des adultes en Côte d'lvoire.
Harbour Siren: Technical Recommendations Report
2011-05-01
de recommandations et une feuille de route à court terme pour l’interopérabilité dans la gestion des urgences (IGU) et l’interopérabilité du système...Majesté la Reine (en droit du Canada), telle que représentée par le ministre de la Défense nationale, 2011 DRDC Atlantic CR 2010-179 i...maritime du Groupe de travail interministériel sur la sûreté maritime (GTISM). Le document présente un ensemble d’observations et de
2012-07-01
SCI-228) Executive Summary This AGARDograph presents an introduction to fiber optic systems and is intended to provide a basic understanding of...22 / SCI-228) Synthèse Cette AGARDograph présente une introduction aux systèmes à fibres optiques et a pour objet d’expliquer l’utilisation de ces...l’instrumentation des essais en vol dans l’ensemble des pays membres de l’OTAN, entraînant la disparition progressive des jauges extensométriques et des
The Application of Design to Cost and Life Cycle to Aircraft Engines.
1980-05-01
appearing in both columns include AGE (common and peculiar), transportation, management, and training. These cost elements are not usually large in...Proc. of install engine X CIP x Spare engine X Spare parts (base/depot) X Depot labor X Base labor X ECPs-mod/retro X X AGE (peculiar/common) X X...introduits de maniere aleatoire dans le cadre j’hypotheses. En outre les moteurs ou les sous-ensembles, compte tenu du suivi de leur age et de leur
Rôle de la radiothérapie dans le traitement de l'améloblastome: à propos de deux cas
El Mazghi, Abderrahman; Bouhafa, Touria; El Kacemi, Hanan; Loukili, Kaoutar; Chbani, Laila; Kebdani, Taieb; Hassouni, Khalid
2014-01-01
L'améloblastome est une tumeur odontogène bénigne mais à pouvoir agressif et invasif local important. C'est une tumeur rare, elle représente 1% des tumeurs des maxillaires. Le rôle de la radiothérapie dans son traitement est actuellement démontré pour les tumeurs inopérables. Nous rapportons 2 cas d'améloblastomes mandibulaires chez deux patients qui ont bénéficié d'une radiothérapie externe à la dose de 60 Gy. L’évolution a été marquée par une rémission complète de la maladie dans les deux cas avec un recul de 2 et 5 ans. PMID:25722762
Gruber, Susan; Logan, Roger W; Jarrín, Inmaculada; Monge, Susana; Hernán, Miguel A
2015-01-15
Inverse probability weights used to fit marginal structural models are typically estimated using logistic regression. However, a data-adaptive procedure may be able to better exploit information available in measured covariates. By combining predictions from multiple algorithms, ensemble learning offers an alternative to logistic regression modeling to further reduce bias in estimated marginal structural model parameters. We describe the application of two ensemble learning approaches to estimating stabilized weights: super learning (SL), an ensemble machine learning approach that relies on V-fold cross validation, and an ensemble learner (EL) that creates a single partition of the data into training and validation sets. Longitudinal data from two multicenter cohort studies in Spain (CoRIS and CoRIS-MD) were analyzed to estimate the mortality hazard ratio for initiation versus no initiation of combined antiretroviral therapy among HIV positive subjects. Both ensemble approaches produced hazard ratio estimates further away from the null, and with tighter confidence intervals, than logistic regression modeling. Computation time for EL was less than half that of SL. We conclude that ensemble learning using a library of diverse candidate algorithms offers an alternative to parametric modeling of inverse probability weights when fitting marginal structural models. With large datasets, EL provides a rich search over the solution space in less time than SL with comparable results. Copyright © 2014 John Wiley & Sons, Ltd.
Tuberculome de Bouchut dans la tuberculose multi focale: à propos de quatre cas
Janah, Hicham; Alami, Ahmed; Souhi, Hicham; Zegmout, Adil; Naji-Amrani, Hicham; Raoufi, Mohamed; Elouazzani, Hanane; Rhorfi, Ismail Abderrahmani; Abid, Ahmed
2014-01-01
La tuberculose multifocale a connu un regain de fréquence avec la pandémie du SIDA, elle s'observe encore chez des sujets non infectés par le VIH surtout dans les pays en voie de développement notamment au Maroc. Nous rapportons quatre observations de tuberculose multifocale chez trois patients immunocompétents et un patient immunodéprimé. Quatre patients ont bénéficié d'un bilan phtisiologique, biologique, sérologique(HIV), radiologique et d'angiographie à la fluorescéine pour suspicion de tuberculose multifocale. Il s'agit de trois hommes et une femme, d’âge moyen de 44 ans, trois patients sont immunocompétents et un patient séropositif. La tuberculose intéressait trois localisations chez les quatre patients: pulmonaire dans quatre cas, ophtalmique dans quatre cas, digestive dans un cas, urinaire dans un cas, cérébrale dans un cas et un cas d'atteinte de la moelle osseuse. L'atteinte ophtalmologique est représentée par des nodules choroïdiens de Bouchut dans quatre cas et un nodule papillaire de Bouchut dans un cas; aucun des ces patients ne présentait une uvéite granulomateuse. Nos malades ont reçu un traitement anti-tuberculeux d'une durée de neuf mois avec une bonne évolution clinique, biologique, radiologique et angiographique. Au Maroc, la tuberculose continue à surprendre aussi bien par son extension touchant le sujet débilité et le sujet immunocompétent, que par ses présentations diverses y compris l'atteinte oculaire qu'elle faut rechercher par un examen ophtalmologique soigneux et systématique. PMID:25478047
NASA Astrophysics Data System (ADS)
Foreman-Mackey, Daniel; Hogg, David W.; Lang, Dustin; Goodman, Jonathan
2013-03-01
We introduce a stable, well tested Python implementation of the affine-invariant ensemble sampler for Markov chain Monte Carlo (MCMC) proposed by Goodman & Weare (2010). The code is open source and has already been used in several published projects in the astrophysics literature. The algorithm behind emcee has several advantages over traditional MCMC sampling methods and it has excellent performance as measured by the autocorrelation time (or function calls per independent sample). One major advantage of the algorithm is that it requires hand-tuning of only 1 or 2 parameters compared to ˜N2 for a traditional algorithm in an N-dimensional parameter space. In this document, we describe the algorithm and the details of our implementation. Exploiting the parallelism of the ensemble method, emcee permits any user to take advantage of multiple CPU cores without extra effort. The code is available online at http://dan.iel.fm/emcee under the GNU General Public License v2.
None
2017-12-09
Dans une période d'un mois, 2me conférence sur le contrôle d'armes. Le conférencier Drell, américain, parle comme son collègue Worden (AUDIO-1985-005) des problèmes de défense stratégique.
The role of model dynamics in ensemble Kalman filter performance for chaotic systems
Ng, G.-H.C.; McLaughlin, D.; Entekhabi, D.; Ahanin, A.
2011-01-01
The ensemble Kalman filter (EnKF) is susceptible to losing track of observations, or 'diverging', when applied to large chaotic systems such as atmospheric and ocean models. Past studies have demonstrated the adverse impact of sampling error during the filter's update step. We examine how system dynamics affect EnKF performance, and whether the absence of certain dynamic features in the ensemble may lead to divergence. The EnKF is applied to a simple chaotic model, and ensembles are checked against singular vectors of the tangent linear model, corresponding to short-term growth and Lyapunov vectors, corresponding to long-term growth. Results show that the ensemble strongly aligns itself with the subspace spanned by unstable Lyapunov vectors. Furthermore, the filter avoids divergence only if the full linearized long-term unstable subspace is spanned. However, short-term dynamics also become important as non-linearity in the system increases. Non-linear movement prevents errors in the long-term stable subspace from decaying indefinitely. If these errors then undergo linear intermittent growth, a small ensemble may fail to properly represent all important modes, causing filter divergence. A combination of long and short-term growth dynamics are thus critical to EnKF performance. These findings can help in developing practical robust filters based on model dynamics. ?? 2011 The Authors Tellus A ?? 2011 John Wiley & Sons A/S.
Managed Readiness Simulator (MARS) V2: Implementation of the Managed Readiness Model
2010-12-01
mesure de répondre aux besoins propres à un ensemble de tâches opérationnelles. La première version du programme MARS (V1) a...mise en œuvre du modèle de gestion de la disponibilité opérationnelle du MARS V2 dans la nouvelle architecture logicielle. La public cible de ce...l’établissement. Le but de la présente étude est de documenter la mise en œuvre du modèle de
2013-11-01
la raison d’être du recueil des données relatives aux variables centrales afin de soutenir ces efforts dans...communs utilisés par les pays membres et un ensemble central d’indicateurs complétant les Mesures de Performance (MOP) et Mesures d’Efficacité (MOE...dénomination « STO », « RTO » ou « AGARD » selon le cas, suivi du numéro de série. Des informations analogues, telles que le titre est la date de
2012-03-01
renseignement au cours de l’AF 2012-2013. Cette enquête examinera plus en profondeur les problèmes humains dans la production du renseignement afin...the Queen in Right of Canada, as represented by the Minister of National Defence, 2011 © Sa Majesté la Reine ( en droit du Canada), telle que...ensemble. L’étude a également analysé de quelle façon la recherche en science du comportement peut aider la collectivité du renseignement à aborder
2004-03-01
pas la somme d’opérations d’analyse et de synthèse successives leur cerveau réalise à leur insu pour transformer chaque bribe d’information anodine en...enregistrée dans un coin de son cerveau avec plus d’attributs qu’il n’en a vu. Son expérience militaire, la connaissance du contexte, les habitudes...donc d’arriver à imiter le plus fidèlement possible le processus intellectuel et psychologique qui anime le cerveau humain. Il est cependant posé que
Conception d'un capteur intelligent pour la détection des vapeurs de styrène dans l'industrie
NASA Astrophysics Data System (ADS)
Agbossou, Kodjo; Agbebavi, T. James; Koffi, Demagna; Elhiri, Mohammed
1994-10-01
The techniques of measurement of toxic gases are nowadays based on the semiconductor type sensors. The modelling and the electronic processing of their signals can be used to improve the accuracy and the efficiency of the measurement. In this paper, an intelligent system using a semiconductor sensor has been designed for the detection of the styrene vapors. A set of the environmental parameters sensors such as the temperature, the pressure and the humidity, is added to the basic sensor and allows a precise detection of the styrene vapors in air. A microcontroller and a communication interface, that are included in the control system and in the data processing system, provide the local intelligence. The linearization routines of the differents sensors are in the memory of the microcontroller. The system made of the sensors, of the amplification circuits, of the microcontroller and of the communication network between the smart sensor and the computer is analysed. A laboratory test of the device is presented and the accuracies and efficiencies of the differents sensors are given. Les techniques fiables de quantification des gaz polluants sont aujourd'hui basées sur l'utilisation des détecteurs à récepteurs chimiques et sur des capteurs à semiconducteurs. La modélisation et le traitement numérique des signaux résultants sont importants pour une mesure efficace et précise dans un milieu donné. Dans cet article, un capteur intelligent, utilisant un détecteur de gaz type semiconducteur a été réalisé pour la détection des vapeurs de styrène. Un ensemble de détecteurs des paramètres environnementaux, tels que la température, la pression et l'humidité, ajoutés au capteur de styrène, permettent de mesurer avec un bon contrôle les vapeurs de styrène dans l'air. Le système de contrôle et de gestion local des données est constitué d'un microcontrôleur et d'une interface de communication. Le microcontrôleur contient dans sa mémoire toutes les fonctions de linéarisation des différents capteurs. Cet ensemble de capteurs, de circuits conditionneurs, de microcontrôleur et d'interface de communication est appelé " capteur intelligent ". Le réseau de communication entre le capteur intelligent et le micro-ordinateur est analysé en terme de traitement de signal. Un exemple d'application au laboratoire est présenté, les sensibilités et les précisions des différents capteurs sont données.
Gillbro, J M; Al-Bader, T; Westman, M; Olsson, M J; Mavon, A
2014-01-01
Synopsis Objective Retinoids are used as therapeutic agents for numerous skin diseases, for example, psoriasis, acne and keratinization disorders. The same substances have also been recognized in the treatment for hyperpigmentation disorders such as melasma. Other studies on photo-damaged skin have shown that retinoids reduce wrinkles, surface roughness, mottled pigmentation, and visual skin appearance as a whole. We tested the hypothesis that an organoculture of full-thickness human skin could be used as a preclinical model to investigate the retinoid transcriptional profile in human skin in vitro. Methods Full-thickness skin explants were exposed to topically applied all-trans retinoic acid (RA) for 24 h. The gene expression profile was analysed using oligonucleotide microarrays, and data were validated with real-time (RT) PCR. Results We showed that the expression of 93 genes was significantly altered more than twofold. Several of the altered genes, for example, KRT4, CYP26 and LCN2, have previously been shown to be affected by RA in keratinocyte monocultures, reconstructed epidermis and skin biopsies from patients treated topically or orally with RA. In addition, genes, such as SCEL, NRIP1, DGAT2, RDH12 EfnB2, MAPK14, SAMD9 and CEACAM6 not previously reported to be affected by RA in human skin, were identified for the first time in this study. Conclusion The results in the present study show that full-thickness human explants represent a valuable pre-clinical model for studying the effects of retinoids in skin. Résumé Objectif Les rétinoïdes sont utilisés comme agents thérapeutiques pour de nombreuses maladies de la peau, p.ex. le psoriasis, l'acné et les troubles de la kératinisation. Les mêmes substances ont également été reconnues dans le traitement des troubles de l' hyperpigmentation tels que le melasma. D'autres études sur la peau photo-endommagée ont montré que les rétinoïdes réduisent les rides, la rugosité de la surface, la pigmentation tachetée, et l'aspect visuel de la peau dans son ensemble. Nous avons testé l'hypothèse selon laquelle une organoculture de épaisseur intégrale de la peau humaine pourrait être utilisée comme modèle préclinique pour étudier le profil transcriptionnel des rétinoïdes dans la peau humaine in vitro. Méthodes Des explants de peau intégrale ont été exposés à l'application topique de all-trans acide rétinoïque (RA) pendant 24 heures. Le profil d' expression des gènes a été analysé en utilisant des puces DNA array et les données ont été validées par (RT) -PCR. Resultats Nous avons montré que l'expression de 93 gènes a été modifiée de façon significative par plus d'un facteur 2. Plusieurs des gènes modifiés par exemple KRT4, CYP26 et LCN2 ont été montrés précédemment d'être affectés par RA dans les monocultures de kératinocytes, dans l'épiderme reconstruit et dans des biopsies cutanées de patients traités par voie topique ou par voie orale avec RA. En outre, des gènes tels que SCEL, NRIP1, DGAT2, RDH12 EfnB2, MAPK14, SAMD9 et CEACAM6 non signalés précédemment, sont touchés par RA dans la peau humaine, et ont été identifiés pour la première fois dans cette étude. Conclusion Les résultats de la présente étude montrent que les explants humains de pleine épaisseur représentent un modèle préclinique précieux pour l'étude des effets des rétinoïdes dans la peau. PMID:24697191
Sahli, Jihène; El Ghardallou, Meriam; Bougmiza, Iheb; Henchiri, Besma; Limam, Manel; Mejdoub, Rim; Mtiraoui, Ali; Ajmi, Thouraya
2016-01-01
Introduction Parmi les événements indésirables, ceux liés au circuit des médicaments occupent une place importante et risquent de causer un préjudice grave aux patients. Dans ce contexte, nous avons mené cette étude dans l'optique de décrire et d’évaluer le circuit des médicaments anticancéreux dans un hôpital régional tunisien. Méthodes Il s'agit d'une étude évaluative du risque lié aux médicaments anticancéreux, type « visite de risque » menée sur une période de 15 jours au cours de l'année 2014 au service de cancérologie de l'hôpital régional de Gafsa (Tunisie). Cette méthode d’évaluation est inspirée de celle conduite par le projet « SECURIMED » développé par le Comité de Coordination de l'Evaluation Clinique et de la Qualité en Aquitaine (CCECQA), en France. Résultats Dans notre étude, l'observation du circuit des médicaments anticancéreux a révélé certaines insuffisances. On a noté que la répartition des missions des différents acteurs est sujette parfois à des glissements de tâches. Un manque important ainsi que une inadéquation aux normes au niveau des équipements nécessaires pour la préparation et la protection des professionnels manipulant ces médicaments ont été également décelés. Conclusion La sécurisation du circuit des médicaments devrait être une priorité inscrite dans l'ensemble des démarches nationales et partagée par tous les intervenants et ce dans l'optique d'atteindre un objectif prémium: la qualité de la prise en charge globale et la sécurité des patients. PMID:27200135
Caby, Isabelle; Olivier, N; Mendelek, F; Kheir, R Bou; Vanvelcenaher, J; Pelayo, P
2014-01-01
HISTORIQUE : La lombalgie chronique est une douleur lombaire persistante d’origine multifactorielle. Le niveau de douleur initial reste faiblement utilisé pour analyser et comparer les réponses des patients lombalgiques au programme de reconditionnement. OBJECTIFS : Apprécier et évaluer les réponses des sujets lombalgiques chroniques très douloureux à une prise en charge dynamique et intensive. MÉTHODOLOGIE : 144 sujets atteints de lombalgie chronique ont été inclus dans un programme de restauration fonctionnelle du rachis de 5 semaines. Les sujets ont été classés en deux groupes de niveau de douleur: un groupe atteint de douleur sévère (n = 28) et un groupe atteint de douleur légère à modérée (n = 106). L’ensemble des sujets ont bénéficié d’une prise en charge identique comprenant principalement de la kinésithérapie, de l’ergothérapie, du reconditionnement musculaire et cardio-vasculaire ainsi qu’un suivi psychologique. Les paramètres physiques (flexibilité, force musculaire) et psychologiques (qualité de vie) ont été mesurés avant (T0) et après le programme (T5sem). RÉSULTATS : L’ensemble des performances physiques et fonctionnelles des sujets très douloureux sont moins bonnes et le retentissement de la lombalgie sur la qualité de vie, pour ces mêmes sujets, est majoré à T0. Toutes les différences significatives constatées à T0 entre les deux groupes s’effacent à T5sem. CONCLUSIONS : Les sujets lombalgiques chroniques très douloureux répondent favorablement au programme dynamique et intensif. L’intensité douloureuse de la lombalgie n’aurait pas d’effet sur les réponses au programme. La restauration fonctionnelle du rachis apporterait aux sujets la possibilité de mieux gérer leur douleur quel que soit son niveau. PMID:25299476
La Recherche du Quark Top dans le Canal $e$ + Jets a D0 (in French)
DOE Office of Scientific and Technical Information (OSTI.GOV)
Lebrat, Jean-Francois
1996-05-01
Le travail de thèse qui est résumé ici a débuté en 1993, alors que l'existence du quark top n'avait pas encore été mise en évidence expérimentalement. Il se concentre sur la recherche du top dans l'un de ses modes de désintégration, le canal e + jets, et utilise l'ensemble des outils d'identication des particules et d'analyse développés par la collaboration DØ. L'analyse présentée ici est la première à utiliser le TRD (le Détecteur à Rayonnement de Transition, qui a été mis au point et fabriqué à Saclay) pour une meilleure identication de l'électron.Nous présenterons tout d'abord le quark top, enmore » décrivant la place qu'il occupe dans le modèle utilisé par les physiciens des particules, le Modèle Standard. Nous montrerons ainsi que l'existence du quark top était prédite par le modèle bien avant sa découverte, et indiquerons ainsi les raisons qui ont motivé notre analyse....« less
Traitement intra-artériel des métastases hépatiques de cancer colorectal
Pellerin, O.; Geschwind, J.-F.
2015-01-01
Le cancer colorectal représente un problème majeur de santé publique. Son incidence annuelle mondiale est d’environ un million de cas et la mortalité annuelle est de plus de 500 000 cas par an. Le foie est l’organe le plus fréquemment touché par les métastases. Leur survenue est observée dans 40 à 60% des cas (contemporaines dans 25% des cas). Bien que la résection chirurgicale soit le seul traitement curatif, nombre de patients ne peuvent en bénéficier en raison de l’importante diffusion des métastases hépatiques. Chimiothérapies et biothérapies systémiques sont les options conventionnelles de la prise en charge des métastases hépatiques multiples. C’est dans ces situations cliniques que les thérapies intra-artérielles peuvent jouer un rôle important. Dans cet article, nous présenterons les différentes thérapies endovasculaires applicables aux métastases hépatiques de cancers colorectaux, avec leurs indications, résultats et complications éventuelles. PMID:21944243
NASA Astrophysics Data System (ADS)
Communier, David
Lors de l'etude structurelle d'une aile d'avion, il est difficile de modeliser fidelement les forces aerodynamiques subies par l'aile de l'avion. Pour faciliter l'analyse, on repartit la portance maximale theorique de l'aile sur son longeron principal ou sur ses nervures. La repartition utilisee implique que l'aile entiere sera plus resistante que necessaire et donc que la structure ne sera pas totalement optimisee. Pour pallier ce probleme, il faudrait s'assurer d'appliquer une repartition aerodynamique de la portance sur la surface complete de l'aile. On serait donc en mesure d'obtenir une repartition des charges sur l'aile beaucoup plus fiable. Pour le realiser, nous aurons besoin de coupler les resultats d'un logiciel calculant les charges aerodynamiques de l'aile avec les resultats d'un logiciel permettant sa conception et son analyse structurelle. Dans ce projet, le logiciel utilise pour calculer les coefficients de pression sur l'aile est XFLR5 et le logiciel permettant la conception et l'analyse structurelle sera CATIA V5. Le logiciel XFLR5 permet une analyse rapide d'une aile en se basant sur l'analyse de ses profils. Ce logiciel calcule les performances des profils de la meme maniere que XFOIL et permet de choisir parmi trois methodes de calcul pour obtenir les performances de l'aile : Lifting Line Theory (LLT), Vortex Lattice Method (VLM) et 3D Panels. Dans notre methodologie, nous utilisons la methode de calcul 3D Panels dont la validite a ete testee en soufflerie pour confirmer les calculs sur XFLR5. En ce qui concerne la conception et l'analyse par des elements finis de la structure, le logiciel CATIA V5 est couramment utilise dans le domaine aerospatial. CATIA V5 permet une automatisation des etapes de conception de l'aile. Ainsi, dans ce memoire, nous allons decrire la methodologie permettant l'etude aerostructurelle d'une aile d'avion.
Intérêt de la scintigraphie lymphatique et place de la chirurgie dans les chylothorax congénitaux
Methlouthi, Jihène; Mahdhaoui, Nabiha; Bellalah, Manel; Selsabil, Nouir; Hedia, Ayache; Sfar, Raja; Essabah, Habib; Abdellatif, Nouri; Sonia, Nouri; Hassen, Seboui
2016-01-01
Le chylothorax est défini par l'accumulation du liquide lymphatique dans la cavité pleurale. Il existe 3 catégories distinctes chez le nouveau-né: les chylothorax congénitaux (CC), les chylothorax malformatifs ou syndromiques (CM) et les chylothorax post-opératoires (CO). Bien que rare, le chylothorax représente la cause la plus fréquente des épanchements pleuraux en période néonatale. Son diagnostic positif est facile par analyse du liquide pleural, mais son mécanisme et surtout l'intégrité du canal thoracique et ses collatérales est parfois difficile à préciser. La lymphoscintigraphie représente l'examen de choix dans le diagnostic etipathogénique. Ce moyen de diagnostic peut être couplé, si possible, au SPECT-CT (single photon emission tomography/computed tomography) permettant de donner des renseignements plus précis, notamment sur le plan anatomique. Sa prise en charge repose sur le drainage du liquide pleural, la suppression des graisses alimentaires et la nutrition parentérale. Le recours à la chirurgie est préconisé devant l'échec du traitement médical. Nous rapportons l'observation d'un nouveau-né porteur d'un chylothorax unilatéral, n'ayant pas répondu au traitement médical. La lymphoscintigraphie avait permis de diagnostiquer le mécanisme étiopathogénique et par conséquent, de guider le traitement chirurgical. PMID:28154676
Direct simulation of groundwater transit-time distributions using the reservoir theory
NASA Astrophysics Data System (ADS)
Etcheverry, David; Perrochet, Pierre
Groundwater transit times are of interest for the management of water resources, assessment of pollution from non-point sources, and quantitative dating of groundwaters by the use of environmental isotopes. The age of water is the time water has spent in an aquifer since it has entered the system, whereas the transit time is the age of water as it exits the system. Water at the outlet of an aquifer is a mixture of water elements with different transit times, as a consequence of the different flow-line lengths. In this paper, transit-time distributions are calculated by coupling two existing methods, the reservoir theory and a recent age-simulation method. Based on the derivation of the cumulative age distribution over the whole domain, the approach accounts for the whole hydrogeological framework. The method is tested using an analytical example and its applicability illustrated for a regional layered aquifer. Results show the asymmetry and multimodality of the transit-time distribution even in advection-only conditions, due to the aquifer geometry and to the velocity-field heterogeneity. Résumé Les temps de transit des eaux souterraines sont intéressants à connaître pour gérer l'évaluation des ressources en eau dans le cas de pollution à partir de sources non ponctuelles, et aussi pour dater quantitativement les eaux souterraines au moyen des isotopes du milieu. L'âge de l'eau est le temps qu'elle a passé dans un aquifère depuis qu'elle est entrée dans le système, alors que le temps de transit est l'âge de l'eau au moment où elle quitte le système. L'eau à la sortie d'un aquifère est un mélange d'eaux possédant différents temps de transit, du fait des longueurs différentes des lignes de courant suivies. Dans ce papier, les distributions des temps de transit sont calculées en couplant deux méthodes, la théorie du réservoir et une méthode récente de simulation des âges. Basée sur la dérivation de la distribution cumulées des âges sur tout le domaine, l'approche prend en compte le cadre hydrogéologique dans son ensemble. La méthode est testée sur un exemple analytique et son applicabilité est illustrée pour un aquifère stratifié régional. Les résultats montrent l'asymétrie et la plurimodalité de la distribution des temps de transit même dans des conditions uniquement d'advection, à cause de la géométrie de l'aquifère et de l'hétérogénéité du champ des vitesses. Resumen El estudio de los tiempos de tránsito del agua subterránea es muy útil para (1) la gestión de los recursos de agua frente a la contaminación por focos no puntuales, y (2) la datación de aguas mediante isótopos ambientales. La edad de un agua subterránea es el tiempo que ésta ha permanecido en el acuífero contada desde el momento de su entrada, mientras que el tiempo de tránsito corresponde a la edad del agua en el momento en que abandona el sistema. En el punto de descarga en realidad se encuentra una mezcla de aguas con distintos tiempos de tránsito, debido a la yuxtaposición de líneas de flujo con diferentes recorridos. En este artículo se calculan las distribuciones de tiempos de tránsito mediante el acoplamiento de dos métodos ya existentes: la teoría de embalse y un método reciente de simulación de edades. El método se basa en la derivación de la distribución acumulada de edades, y es aplicable en todo el dominio hidrogeológico. El método se ha probado en un ejemplo analítico, y su aplicabilidad se muestra para un acuífero estratificado. Como resultado se obtiene que, aun en el caso de flujo exclusivamente advectivo, la distribución de tiempos de tránsito es asimétrica y multimodal debido a la geometría del acuífero y a la heterogeneidad del campo de velocidades.
La tuberculose abdominale pseudo-tumorale
El Barni, Rachid; Lahkim, Mohamed; Achour, Abdessamad
2012-01-01
Introduction L’objectif de ce travail est de rapporter cinq cas de tuberculose abdominale pseudo-tumorale afin d’en souligner les aspects diagnostiques et thérapeutiques. Cinq observations sont colligées dans le service de chirurgie générale de l’hôpital militaire Avicenne de Marrakech au cours de l’année 2007. Les aspects cliniques sont disparates. Ainsi, les auteurs ont noté un syndrome péritonéal dans un cas, une masse épigastrique dans un cas, une lésion suspect du sigmoïde dans un cas, une masse de la fosse iliaque droite dans un cas et une altération de l’état général avec fièvre dans le dernier cas. Un seul patient avaient bénéficié d’une biopsie scano-guidée et les quatre patients restants avaient été opérés. Une masse du méso côlon était notée dans le premier cas. Dans le second cas, l’aspect de la masse épigastrique et son siège avaient orienté vers une tumeur du grand omentum. Une localisation tuberculeuse péritonéale et sigmoïdienne avait été trouvée dans le troisième cas. Le diagnostic d’une tumeur du côlon droit était hautement suspect chez le patient séropositif qui avait présenté une péritonite post-opératoire et décédé à J + 3 dans un tableau de choc septique. Le siège et l’aspect nécrotique des lésions trouvées à la tomodensitométrie chez la seule patiente de l’étude avaient fait discuter en premier un lymphome. Même en l’absence d’antécédents de tuberculose pulmonaire, le diagnostic tuberculose abdominale pseudo-tumorale doit être évoqué surtout dans un pays d’endémie comme le notre et le recours à une laparotomie est justifié chaque fois que persiste un doute diagnostique ou en cas de complication. PMID:23330023
Multimodel ensembles of wheat growth: many models are better than one.
Martre, Pierre; Wallach, Daniel; Asseng, Senthold; Ewert, Frank; Jones, James W; Rötter, Reimund P; Boote, Kenneth J; Ruane, Alex C; Thorburn, Peter J; Cammarano, Davide; Hatfield, Jerry L; Rosenzweig, Cynthia; Aggarwal, Pramod K; Angulo, Carlos; Basso, Bruno; Bertuzzi, Patrick; Biernath, Christian; Brisson, Nadine; Challinor, Andrew J; Doltra, Jordi; Gayler, Sebastian; Goldberg, Richie; Grant, Robert F; Heng, Lee; Hooker, Josh; Hunt, Leslie A; Ingwersen, Joachim; Izaurralde, Roberto C; Kersebaum, Kurt Christian; Müller, Christoph; Kumar, Soora Naresh; Nendel, Claas; O'leary, Garry; Olesen, Jørgen E; Osborne, Tom M; Palosuo, Taru; Priesack, Eckart; Ripoche, Dominique; Semenov, Mikhail A; Shcherbak, Iurii; Steduto, Pasquale; Stöckle, Claudio O; Stratonovitch, Pierre; Streck, Thilo; Supit, Iwan; Tao, Fulu; Travasso, Maria; Waha, Katharina; White, Jeffrey W; Wolf, Joost
2015-02-01
Crop models of crop growth are increasingly used to quantify the impact of global changes due to climate or crop management. Therefore, accuracy of simulation results is a major concern. Studies with ensembles of crop models can give valuable information about model accuracy and uncertainty, but such studies are difficult to organize and have only recently begun. We report on the largest ensemble study to date, of 27 wheat models tested in four contrasting locations for their accuracy in simulating multiple crop growth and yield variables. The relative error averaged over models was 24-38% for the different end-of-season variables including grain yield (GY) and grain protein concentration (GPC). There was little relation between error of a model for GY or GPC and error for in-season variables. Thus, most models did not arrive at accurate simulations of GY and GPC by accurately simulating preceding growth dynamics. Ensemble simulations, taking either the mean (e-mean) or median (e-median) of simulated values, gave better estimates than any individual model when all variables were considered. Compared to individual models, e-median ranked first in simulating measured GY and third in GPC. The error of e-mean and e-median declined with an increasing number of ensemble members, with little decrease beyond 10 models. We conclude that multimodel ensembles can be used to create new estimators with improved accuracy and consistency in simulating growth dynamics. We argue that these results are applicable to other crop species, and hypothesize that they apply more generally to ecological system models. © 2014 John Wiley & Sons Ltd.
Ehrhardt, Fiona; Soussana, Jean-François; Bellocchi, Gianni; Grace, Peter; McAuliffe, Russel; Recous, Sylvie; Sándor, Renáta; Smith, Pete; Snow, Val; de Antoni Migliorati, Massimiliano; Basso, Bruno; Bhatia, Arti; Brilli, Lorenzo; Doltra, Jordi; Dorich, Christopher D; Doro, Luca; Fitton, Nuala; Giacomini, Sandro J; Grant, Brian; Harrison, Matthew T; Jones, Stephanie K; Kirschbaum, Miko U F; Klumpp, Katja; Laville, Patricia; Léonard, Joël; Liebig, Mark; Lieffering, Mark; Martin, Raphaël; Massad, Raia S; Meier, Elizabeth; Merbold, Lutz; Moore, Andrew D; Myrgiotis, Vasileios; Newton, Paul; Pattey, Elizabeth; Rolinski, Susanne; Sharp, Joanna; Smith, Ward N; Wu, Lianhai; Zhang, Qing
2018-02-01
Simulation models are extensively used to predict agricultural productivity and greenhouse gas emissions. However, the uncertainties of (reduced) model ensemble simulations have not been assessed systematically for variables affecting food security and climate change mitigation, within multi-species agricultural contexts. We report an international model comparison and benchmarking exercise, showing the potential of multi-model ensembles to predict productivity and nitrous oxide (N 2 O) emissions for wheat, maize, rice and temperate grasslands. Using a multi-stage modelling protocol, from blind simulations (stage 1) to partial (stages 2-4) and full calibration (stage 5), 24 process-based biogeochemical models were assessed individually or as an ensemble against long-term experimental data from four temperate grassland and five arable crop rotation sites spanning four continents. Comparisons were performed by reference to the experimental uncertainties of observed yields and N 2 O emissions. Results showed that across sites and crop/grassland types, 23%-40% of the uncalibrated individual models were within two standard deviations (SD) of observed yields, while 42 (rice) to 96% (grasslands) of the models were within 1 SD of observed N 2 O emissions. At stage 1, ensembles formed by the three lowest prediction model errors predicted both yields and N 2 O emissions within experimental uncertainties for 44% and 33% of the crop and grassland growth cycles, respectively. Partial model calibration (stages 2-4) markedly reduced prediction errors of the full model ensemble E-median for crop grain yields (from 36% at stage 1 down to 4% on average) and grassland productivity (from 44% to 27%) and to a lesser and more variable extent for N 2 O emissions. Yield-scaled N 2 O emissions (N 2 O emissions divided by crop yields) were ranked accurately by three-model ensembles across crop species and field sites. The potential of using process-based model ensembles to predict jointly productivity and N 2 O emissions at field scale is discussed. © 2017 John Wiley & Sons Ltd.
Tuberculose ostéoarticulaire (mal de Pott exclu): à propos de 120 cas à Abidjan
Gbané-Koné, Mariam; Koné, Samba; Ouali, Boubacar; Djaha, Kouassi Jean -Mermoz; Akoli, Ekoya Ondzala; Nseng, Ingrid Nseng; Eti, Edmond; Daboiko, Jean Claude; Touré, Stanislas André; Kouakou, N'zué Marcel
2015-01-01
Introduction La tuberculose ostéoarticulaire (TOA) représente 2 à 5% de l'ensemble des tuberculoses. Elle demeure d'actualité surtout dans les pays à forte endémicité tuberculeuse. L'objectif était de déterminer la prévalence, les aspects topographiques, radiologiques de la TOA en milieu hospitalier ivoirien. Méthodes Les auteurs rapportent une expérience de 11 ans, à travers une étude rétrospective de 120 dossiers de patients atteints de la tuberculose ostéoarticulaire (le mal de Pott est exclu de cette étude). N'ont pas été inclus dans l’étude les dossiers ne comportant pas d'imagerie. Résultats L'atteinte extra vertébrale représentait 09,2% de la tuberculose ostéoarticulaire. Il s'agissait de 54 hommes et 66 femmes, l’âge moyen était de 43,13 ans. On notait 123 cas d'ostéoarthrites, et 8 cas d'ostéites des os plats. L'atteinte des membres inférieurs prédominait dans 91,87% des cas. La hanche était la première localisation (45,04%), suivie du genou (25,19%). Les atteintes étaient multifocales dans 20% des cas. L'atteinte osseuse était associée à une tuberculose pulmonaire dans 05,83% des cas. Des localisations inhabituelles ont été rapportées: poignet (n = 2), branches ischiopubiennes (n = 4), atteinte sternoclaviculaire (n = 4), médiopieds (n = 2). Les lésions radiologiques étaient avancées (stades III et IV) dans 55,73% des cas. A la TDM, la prévalence des abcès était de 77%. Un geste chirurgical a été réalisé sur 16 articulations (2 épaules, 13 genoux, une cheville). Conclusion La TOA des membres est peu fréquente contrairement à l'atteinte vertébrale. La hanche est la principale localisation. Le retard au diagnostic explique l’étendue des lésions anatomoradiologiques. PMID:26587129
NASA Astrophysics Data System (ADS)
Reid, Jean-Philippe
ommaire La structure du gap supraconducteur et sa modulation sont intimement liees au potentiel d'interaction responsable de l'appariement des electrons d'un supraconducteur. Ainsi, l'etude de la structure du gap-SC et de sa modulation permettent de faire la lumiere sur la nature du mecanisme d'appariement des electrons. A cet egard, les resultats experimentaux des supraconducteurs a base de fer ne cadrent pas dans un seul ensemble, ce qui est en opposition au gap-SC universel des cuprates. Dans ce qui suit, nous presenterons une etude systematique du gap-SC pour plusieurs pnictides. En effet, en utilisant la conductivite thermique, une sonde directionnelle du gap-SC, nous avons ete en mesure de reveler la structure du gap-SC pour les composes suivants : Ba1-xKxFe 2As2, Ba(Fe1-xCo x)2As2, LiFeAs et Fe1-deltaTe 1-xSex. L'etude de ces quatre composes, de trois differentes familles structurales, a pu etablir un tableau partiel mais tres exhaustif de la structure du gap-SC de pnictides. En effet, tel qu'illustre dans cette these, ces quatre composes ne possedent aucun noeud dans leur structure du gap-SC a dopage optimal. Toutefois, a une concentration differente de celle optimale pour les composes K-Ba122 et Co-Ba122, des noeuds apparaissent sur la surface de Fermi, aux extremites 'du dome supraconducteur. Ceci suggere fortement que, pour ces composes, la presence de noeuds sur la surface de Fermi est nuisible a la phase supraconductrice. Mots-cles: Supraconducteurs a base de fer, Pnictides, Structure du gap supraconducteur, Conductivite thermique
Ravat, F.; Jault, P.; Gabard, J.
2015-01-01
Summary L’utilisation des bactériophages, prédateurs naturels des bactéries, est une technique pionnière efficace de lutte contre les infections bactériennes. Tombée dans l’oubli depuis un demi-siècle du coté occidental de l’ex-rideau de fer, elle fait toujours partie de l’arsenal thérapeutique des pays de l’ex-Europe de l’Est, au point de constituer une arme de choix dans la politique de santé publique de ces pays. l’émergence de bactéries multirésistantes et le risque de revenir à l’ère pré-antibiotique ont fait ressortir la phagothérapie de l’oubli injuste auquel elle avait été confinée. la biologie et la place du bactériophage dans la nature sont décrites ici. les tenants et les aboutissants de la phagothérapie et les conditions de son retour sur le devant de la scène sont explicitées. PMID:26668557
Le kyste hydatique du cordon spermatique: une localisation exceptionnelle
Hamdane, Mohamed Moncef; Bougrine, Fethi; Msakni, Issam; Dhaoui-Ghozzi, Amen; Bouziani, Ammar
2011-01-01
L’ hydatidose est une anthropo-zoonose due au développement chez l'homme de la forme larvaire du taenia Echinococcus granulosis. La plupart des kystes hydatiques se localisent dans le foie et les poumons. Le kyste hydatique du cordon spermatique est extrêmement rare avec seulement 4 cas rapportés dans la littérature. Les auteurs rapportent dans cet article un nouveau cas d'hydatidose du cordon spermatique. Il s'agissait d'un homme de 40 ans qui consultait pour des douleurs scrotales évoluant depuis huit mois. L'examen clinique a mis en évidence une tuméfaction mobile, inguino-scrotale, droite. L’échographie testiculaire a objectivé une hernie inguinale droite associée à deux kystes épididymaires bilatéraux. Le patient a été opéré pour cure de son hernie avec découverte en per-opératoire d'un kyste du cordon spermatique qui a été réséqué. L'examen anatomopathologique a conclu à une hydatidose du cordon spermatique. PMID:22384304
Velazquez, Hector A; Riccardi, Demian; Xiao, Zhousheng; Quarles, Leigh Darryl; Yates, Charless Ryan; Baudry, Jerome; Smith, Jeremy C
2018-02-01
Ensemble docking is now commonly used in early-stage in silico drug discovery and can be used to attack difficult problems such as finding lead compounds which can disrupt protein-protein interactions. We give an example of this methodology here, as applied to fibroblast growth factor 23 (FGF23), a protein hormone that is responsible for regulating phosphate homeostasis. The first small-molecule antagonists of FGF23 were recently discovered by combining ensemble docking with extensive experimental target validation data (Science Signaling, 9, 2016, ra113). Here, we provide a detailed account of how ensemble-based high-throughput virtual screening was used to identify the antagonist compounds discovered in reference (Science Signaling, 9, 2016, ra113). Moreover, we perform further calculations, redocking those antagonist compounds identified in reference (Science Signaling, 9, 2016, ra113) that performed well on drug-likeness filters, to predict possible binding regions. These predicted binding modes are rescored with the molecular mechanics Poisson-Boltzmann surface area (MM/PBSA) approach to calculate the most likely binding site. Our findings suggest that the antagonist compounds antagonize FGF23 through the disruption of protein-protein interactions between FGF23 and fibroblast growth factor receptor (FGFR). © 2017 John Wiley & Sons A/S.
Aménorrhée chimio induite chez une population marocaine: à propos d'une cohorte retrospective
Brahmi, Sami Aziz; Ziani, Fatima Zahra; Youssef, Seddik; Afqir, Said
2016-01-01
Introduction Le cancer du sein est un des cancers les plus fréquents chez la femme en pré ménopause et son traitement peut compromettre la fertilité. En effet, la chimiothérapie utilisée dans le cancer du sein peut conduire à une aménorrhée transitoire ou permanente chez les femmes non ménopausées. Méthodes Nous avons mené une étude rétrospective au service d'oncologie médicale du CHU Mohammed VI d'Oujda sur une période de 3 ans allant de janvier 2009 à décembre 2011 incluant les patientes jeunes ayant un cancer du sein localisé, pour étudier l'incidence de l'aménorrhée chimio-induite (ACI), ainsi que les facteurs prédictifs intervenant dans sa survenue. Résultats Dans notre série 74% de nos patientes ont présenté une ACI et 33.6% de nos patientes ont présenté une aménorrhée chimio-induite définitive. Plusieurs facteurs ont été étudiés à la recherche d’élément prédictifs de la survenue de l'aménorrhée. Concernant le facteur âge, l'analyse a montré que les femmes avec un âge supérieur à 40 ans étaient plus susceptibles de présenter une aménorrhée que celles avec un âge inférieur à 40 avec un pourcentage de 95,7% versus 56,1% avec une différence significative (p = 0.003). Conclusion L'incidence dans notre étude de l'ACI semble comparable à celle retrouvé dans la littérature, l’âge dans notre étude est le facteur prédictif le plus prédominant dans sa survenue. PMID:27642399
Awab, Almahdi; Elahmadi, Brahim; Lamkinsi, Tarik; El Moussaoui, Rachid; El Hijri, Ahmed; Azzouzi, Abderrahim; Alilou, Mustapha
2013-01-01
Introduction L'incidence des complications respiratoires postopératoires (CRPO) reste très diversement appréciées selon les critères diagnostiques retenues dans les différentes études, ce qui la fait varier de 5 à plus de 50%. Les CRPO majeurs après chirurgie de l'aorte abdominale sont responsables d'une grande morbi-mortalité pouvant aller jusqu’à 36%, d'une durée d'hospitalisation et d'un coût plus importants. Ainsi dans l'optique d'améliorer notre prise en charge périopératoire de la chirurgie de l'aorte, nous avons décidé de mener une étude pour dresser le profil épidémiologique et déterminer les facteurs de risque des complications respiratoires dans notre contexte Méthodes Il s'agit d'une étude de cohorte rétrospective du mois de Janvier 2007 au mois de décembre 2011 portant sur l'ensemble des patients opérés pour pathologie aortique au bloc opératoire central de l'hôpital Ibn Sina de Rabat, Maroc. Résultats Cent vingt cinq patients ont été inclus dans notre étude, 24 patients ont été opérés pour anévrysme de l'aorte abdominale et 101 patients pour lésion occlusive aortoiliaque. Dans notre série 22 malades soit 17,6% ont présenté une complication respiratoire majeure avec, une reventilation dans 4,8% des cas, une difficulté de sevrage de la ventilation artificielle dans 3,2% des cas, une pneumopathie dans 4% des cas, un syndrome de détresse respiratoire aigue (SDRA) dans 4% des cas et une nécessité de fibroaspiration bronchique dans 1,6% des cas. En analyse univariée: l’âge, la présence d'une BPCO avec dyspnée stade 3 ou 4, la présence d'une anomalie à l'EFR préopératoire, la présence d'un stade avancé (III ou IV) de LOAI et la reprise chirurgicale étaient statistiquement associés à la survenue d'une complication respiratoire postopératoire. En analyse multivariée, seule une anomalie à l'EFR en préopératoire constituait un facteur de risque indépendant de survenue d'une complication respiratoire postopératoire dans notre série avec un Odds Ratio (OR): 11,5; un Intervalle de Confiance (IC) à 95% de (1,6 - 85,2) et un p = 0,016. Conclusion Au terme de notre étude, il nous parait donc nécessaire pour diminuer l'incidence des CRPO majeurs dans notre population, d'agir sur les facteurs que nous jugeons modifiables tel l'amélioration de l’état respiratoire basal moyennant une préparation respiratoire préopératoire, s'intégrant dans un véritable programme de réhabilitation et associant une rééducation à l'effort, une kinésithérapie incitative ainsi qu'une optimisation des thérapeutiques habituelles. PMID:23504435
Analyse chronometrique intersexes de la resolution de la tache d'horizontalite des liquides
NASA Astrophysics Data System (ADS)
Berthiaume, Francois
D'abondantes recherches ont demontre que la reussite a la tache d'horizontalite des liquides est en moyenne plus elevee chez les individus de sexe masculin que chez ceux de sexe feminin. Deux facteurs principaux ont ete proposes: il s'agit de la connaissance du principe physique de l'invariance de l'orientation des liquides et de certaines habiletes perceptives d'ordre visuel. Le but de la presente recherche est d'etablir la duree detaillee de la resolution de la tache d'horizontalite des liquides chez 185 filles et 180 garcons, ages de 15 a 19 ans et repartis en 8 groupes. Dans une version informatisee, le premier groupe trace la position de la surface de l'eau a l'interieur d'un contenant dans diverses inclinaisons et le deuxieme evalue si l'orientation d'une ligne y represente bien cette position; le troisieme groupe trace une horizontale dans un rectangle et le quatrieme juge si la ligne illustree y est bien horizontale. Quatre autres groupes executent respectivement les memes taches dans la version classique papier-crayon. Le temps accorde a la reflexion avant de commencer le trace, le temps de tracage comme tel et le temps de verification du trace complete sont calcules. Chez les groupes qui evaluent l'orientation d'une ligne sur support informatique, le temps requis pour y parvenir est note. Enfin, un questionnaire estime si les participants connaissent ou non le principe physique d'invariance de l'orientation de la surface d'un liquide. Les resultats revelent que cette connaissance est plus frequente chez les garcons dans l'ensemble des groupes. Dans le cas ou les sujets ont a tracer une ligne, les filles reussissent moins d'essais que les garcons s'il faut, sur support informatique, tracer la surface de l'eau dans un contenant incline ou a l'horizontale. Il en va de meme s'il faut, sur support papier, tracer une horizontale dans un contenant incline. Le trace de la surface de l'eau est plus exact chez les sujets connaissant le principe d'invariance et l'ecart intersexes disparait si l'analyse tient compte de cette connaissance. Sur le plan du temps de reponse, les deux sexes ne se distinguent que lors du trace de la surface de l'eau dans un contenant incline, les garcons reflechissant alors plus longtemps. Le temps mis a produire, puis a verifier un trace, ne differe pas selon le sexe des participants. Dans l'evaluation de l'orientation d'une ligne cependant, les filles ne se distinguent pas des garcons et les participants connaissant le principe d'invariance reussissent mieux que ceux l'ignorant. Par ailleurs, les filles procedent toujours moins rapidement que les garcons. Pour les contenants inclines ou a l'horizontale, si la ligne represente la surface de l'eau, la difference intersexes est annulee quand la connaissance du principe est prise en compte. (Abstract shortened by UMI.)
Issue des accouchements sur utérus cicatriciel dans un hôpital universitaire au Burkina
Dembélé, Adama; Tarnagda, Zekiba; Ouédraogo, Jean Louis; Thiombiano, Oumarou; Bambara, Moussa
2012-01-01
Certains auteurs ont tendance à privilégier la césarienne comme méthode de prise en charge d'une parturiente porteuse d'un utérus cicatriciel. D'autres auteurs préconisent un accouchement par voie basse quand des paramètres cliniques précis sont observés. Le but de cette étude est d'analyser la prise en charge et l'issue des accouchements sur utérus cicatriciel au Centre Hospitalier Universitaire Souro Sanou de Bobo-Dioulasso et de la comparer aux différentes approches recommandées. Nous avons menés une étude transversale dans le Département de Gynécologie d'Obstétrique et de Médecine de la Reproduction du Centre Hospitalier Universitaire Sanou Souro de Bobo Dioulasso du 1er août 2006 au 1er août 2007 et a concerné 252 parturientes ayant un utérus cicatriciel parmi 4256 accouchements déroulés pendant la même période. Les accouchements sur utérus cicatriciels ont représenté 5,92 % de l'ensemble des accouchements dans notre département. La moyenne d'âge des patientes était de 26,2 ans et la parité moyenne de 4,3. Une césarienne d'emblée a été pratiquée chez 44% des parturientes ayant un utérus cicatriciel et 56 % parmi elles ont fait l'objet d'une épreuve utérine. Sur l'ensemble des épreuves utérines, 61% des parturientes ont accouché par voie basse. La mortalité maternelle était nulle et La mortalité périnatale était relativement importante. Les conditions d'acceptabilité de la voie basse ont été les mêmes chez toutes les patientes et un check liste a été proposé pour une meilleure prise en charge. L'épreuve utérine en salle d'accouchement doit être la règle à chaque fois que cela est possible chez une parturiente porteuse d'utérus cicatriciel. L’établissement d'un check liste pour accouchement par voie basse sur utérus cicatriciel facilite les prises de décision. PMID:23133695
Modeles numeriques de la stimulation optique de neurones assistee par nanoparticules plasmoniques
NASA Astrophysics Data System (ADS)
Le Hir, Nicolas
La stimulation de neurones par laser emerge depuis plusieurs annees comme une alternative aux techniques plus traditionnelles de stimulation artificielle. Contrairement a celles-ci, la stimulation lumineuse ne necessite pas d'interagir directement avec le tissu organique, comme c'est le cas pour une stimulation par electrodes, et ne necessite pas de manipulation genetique comme c'est le cas pour les methodes optogenetiques. Plus recemment, la stimulation lumineuse de neurones assistee par nanoparticules a emerge comme un complement a la stimulation simplement lumineuse. L'utilisation de nanoparticules complementaires permet d'augmenter la precision spatiale du procede et de diminuer la fluence necessaire pour observer le phenomene. Ceci vient des proprietes d'interaction entre les nanoparticules et le faisceau laser, comme par exemple les proprietes d'absorption des nanoparticules. Deux phenomenes princpaux sont observes. Dans certains cas, il s'agit d'une depolarisation de la membrane, ou d'un potentiel d'action. Dans d'autres experiences, un influx de calcium vers l'interieur du neurone est detecte par une augmentation de la fluorescence d'une proteine sensible a la concentration calcique. Certaines stimulations sont globales, c'est a dire qu'une perturbation se propage a l'ensemble du neurone : c'est le cas d'un potentiel d'action. D'autres sont, au contraire, locales et ne se propagent pas a l'ensemble de la cellule. Si une stimulation lumineuse globale est rendue possible par des techniques relativement bien maitrisees a l'heure actuelle, comme l'optogenetique, une stimulation uniquement locale est plus difficile a realiser. Or, il semblerait que les methodes de stimulation lumineuse assistees par nanoparticules puissent, dans certaines conditions, offrir cette possibilite. Cela serait d'une grande aide pour conduire de nouvelles etudes sur le fonctionnement des neurones, en offrant de nouvelles possibilites experimentales en complement des possibilites actuelles. Cependant, le mecanisme physique a l'origine de la stimulation lumineuse de neurones, ainsi que celui a l'orgine de la stimulation lumineuse assistee par nanoparticules, n'est a ce jour pas totalement compris. Des hypotheses ont ete formulees concernant ce mecanisme : il pourrait etre photothermique, photomecanique, ou encore photochimique. Il se pourrait egalement que plusieurs mecanismes soient a l'oeuvre conjointement, etant donne la variete des observations. La litterature ne converge pas a ce sujet et l'existence d'un mecanisme commun aux differentes situations n'a pas ete demontree.
Small Angle Neutron Scattering experiments on ``side-on fixed"" liquid crystal polyacrylates
NASA Astrophysics Data System (ADS)
Leroux, N.; Keller, P.; Achard, M. F.; Noirez, L.; Hardouin, F.
1993-08-01
Small Angle Neutron Scattering experiments were carried out on liquid crystalline “side-on fixed” polyacrylates : we observe that the polymer backbone adopts a prolate conformation in the nematic phase. Such anisotropy of the global backbone is larger for smaller spacer length. In every case we measure at low temperatures a large chain extension as previously described in polysiloxanes. Par diffusion des neutrons aux petits angles nous observons que la chaîne de polyacrylates “en haltère” adopte une conformation type prolate en phase nématique. Son anisotropie est d'autant plus grande que l'espaceur est plus court. Dans tous les cas, nous retrouvons à basse température la forte extension de la chaîne polymère qui fut d'abord révélée dans les polysiloxanes.
Strategies facilitant les tests en pre-certification pour la robustesse a l'egard des radiations =
NASA Astrophysics Data System (ADS)
Souari, Anis
Les effets des radiations cosmiques sur l'electronique embarquee preoccupent depuis. quelques decennies les chercheurs interesses par la robustesse des circuits integres. Plusieurs. recherches ont ete menees dans cette direction, principalement pour les applications spatiales. ou lâenvironnement de leur deploiement est hostile. En effet, ces environnements sont denses. en termes de particules qui, lorsquâelles interagissent avec les circuits integres, peuvent. mener a leur dysfonctionnement, voir meme a leur destruction. De plus, les effets des. radiations sâaccentuent pour les nouvelles generations des circuits integres ou la diminution. de la taille des transistors et lâaugmentation de la complexite de ces circuits augmentent la. probabilite dâapparition des anomalies et par consequence la croissance des besoins de test. Lâexpansion de lâelectronique grand public (commercial off-the-shelf, COTS) et lâadoption. de ces composants pour des applications critiques comme les applications avioniques et. spatiales incitent egalement les chercheurs a doubler les efforts de verification de la fiabilite. de ces circuits. Les COTS, malgre leurs meilleures caracteristiques en comparaison avec les. circuits durcis tolerants aux radiations qui sont couteux et en retard en termes de technologie. utilisee, sont vulnerables aux radiations. Afin dâameliorer la fiabilite de ces circuits, une evaluation de leur vulnerabilite dans les. differents niveaux dâabstraction du flot de conception est recommandee. Ceci aide les. concepteurs a prendre les mesures de mitigation necessaires sur le design au niveau. dâabstraction en question. Enfin, afin de satisfaire les exigences de tolerance aux pannes, des. tests tres couteux de certification, obtenus a lâaide de bombardement de particules (protons, neutrons, etc.), sont necessaires. Dans cette these, nous nous interessons principalement a definir une strategie de precertification. permettant dâevaluer dâune facon realiste la sensibilite des circuits integres face. aux effets des radiations afin dâeviter dâenvoyer des circuits non robustes a la phase tres. couteuse de la certification. Les circuits cibles par nos travaux sont les circuits integres. programmables par lâusager (FPGA) a base de memoire SRAM et le type de pannes ciblees, causees par les radiations, est les SEU (single event upset) consistant a un basculement de. lâetat logique dâun element de memoire a son complementaire. En effet, les FPGA a base de. memoire SRAM sont de plus en plus demandes par la communaute de lâaerospatial grace a. leurs caracteristiques de prototypage rapide et de reconfiguration sur site mais ils sont. vulnerables face aux radiations ou les SEU sont les pannes les plus frequentes dans les. elements de memoire de type SRAM. Nous proposons une nouvelle approche dâinjection de. pannes par emulation permettant de mimer les effets des radiations sur la memoire de. configuration des FPGA et de generer des resultats les plus fideles possibles des resultats des. tests de certification. Cette approche est basee sur la consideration de la difference de. sensibilite des elements de memoire de configuration lorsquâils sont a lâetat '1' et a lâetat '0', observee sous des tests acceleres sous faisceaux de protons au renomme laboratoire. TRIUMF, dans la procedure de generation des sequences de test dans le but de mimer la. distribution des pannes dans la memoire de configuration. Les resultats des experimentations. de validation montrent que la strategie proposee est efficace et genere des resultats realistes. Ces resultats revelent que ne pas considerer la difference de sensibilite peut mener a une. sous-estimation de la sensibilite des circuits face aux radiations. Dans la meme optique dâoptimisation de la procedure dâinjection des pannes par emulation, a. savoir le test de pre-certification, nous proposons une methodologie permettant de maximiser. la detection des bits critiques (bits provoquant une defaillance fonctionnelle sâils changent. dâetat) pour un nombre bien determine de SEU (qui est le modele de pannes adopte) ou de. maximiser la precision de lâestimation de nombre des bits critiques. Pour ce faire, une. classification des bits de configuration en differents ensembles est tout dâabord mise en. oeuvre, selon leur contenu, les ressources quâils configurent et leur criticite. Ensuite, une. evaluation de la sensibilite de chaque ensemble est accomplie. Enfin, la priorisation. dâinjection des pannes dans les ensembles les plus sensibles est recommandee. Plusieurs. scenarios dâoptimisation dâinjection des pannes sont proposes et les resultats sont compares. avec ceux donnes par la methode conventionnelle dâinjection aleatoire des pannes. La. methodologie dâoptimisation proposee assure une amelioration de plus de deux ordres de. grandeur. Une derniere approche facilitant lâevaluation de la sensibilite des bits configurant les LUT. (look up table) de FPGA, les plus petites entites configurables du FPGA permettant. dâimplementer des fonctions combinatoires, utilises par un design est presentee. Elle permet. lâidentification facile et sans cout en termes dâutilisation du materiel ou dâoutils externes des. bits des LUT. Lâapproche proposee est simple et efficace, offrant une couverture de pannes. de 100 % et applicable aux nouvelles generations des FPGA de Xilinx. Les approches proposees contribuent a repondre aux exigences du cahier des charges de cette. these et a achever les objectifs definis. Le realisme et la maximisation de lâestimation de la. vulnerabilite des circuits sous test offerts par les nouvelles approches assurent le. developpement dâune strategie de test en pre-certification efficace. En effet, la premiere. approche dâinjection de pannes considerant la difference de sensibilite relative des elements. de memoire selon leur contenu genere des resultats donnant une erreur relative atteignant. 3.1 % quand compares aux resultats obtenus a TRIUMF alors que lâerreur relative donnee. par la comparaison des resultats dâune injection conventionnelle aleatoire de pannes avec. ceux de TRIUMF peut atteindre la valeur de 75 %. De plus, lâapplication de cette approche a. des circuits plus conventionnels montre que 2.3 fois plus dâerreurs sont detectees en. comparaison avec lâinjection aleatoire des pannes. Ceci suggere que ne pas considerer la. difference de sensibilite relative dans la procedure dâemulation peut mener a une sousestimation. de la sensibilite du design face aux radiations. Les resultats de la deuxieme. approche proposee ont ete aussi compares aux resultats dâune injection aleatoire de pannes. Lâapproche proposee, maximisant le nombre des bits critiques inverses, permet dâatteindre. un facteur dâacceleration de 108 de la procedure dâinjection des pannes en comparaison a. lâapproche aleatoire. Elle permet aussi de minimiser lâerreur dâestimation du nombre des bits. critiques pour atteindre une valeur de ±1.1 % calculee pour un intervalle de confiance de. 95 % tandis que la valeur dâerreur dâestimation des bits critiques generee par lâapproche. aleatoire dâinjection des pannes pour le meme intervalle de confiance peut atteindre ±8.6 %. Enfin, la derniere approche proposee dâinjection de pannes dans les LUT se distingue des. autres approches disponibles dans la litterature par sa simplicite tout en assurant une. couverture maximale de pannes de 100 %. En effet, lâapproche proposee est independante. des outils externes permettant dâidentifier les bits configurant les LUT qui sont obsoletes ou. ne supportent pas les nouvelles generations des FPGA. Elle agit directement sur les fichiers. generes par lâoutil de synthese adopte.
NASA Astrophysics Data System (ADS)
Blais, Mathieu
Au Quebec, les alumineries sont de grandes consommatrices d'energie electrique, soit pres de 14 % de la puissance installee d'Hydro-Quebec. Dans ce contexte, des petits gains en efficacite energetique des cuves d'electrolyse pourraient avoir un impact important sur la reduction globale de la consommation d'electricite. Le projet de maitrise decrit dans cette etude repond a la problematique suivante : comment l'optimisation de la geometrie d'un bloc cathodique en vue d'uniformiser la densite de courant peut augmenter l'efficacite energetique et la duree de vie de la cuve d'aluminium? Le but premier du projet est de modifier la geometrie en vue d'ameliorer le comportement thermoelectrique des blocs cathodiques et d'accroitre par le fait meme l'efficacite energetique du procede de production d'aluminium. La mauvaise distribution de la densite de courant dans la cuve est responsable de certains problemes energetiques ayant des impacts negatifs sur l'economie et l'environnement. Cette non-uniformite de la distribution du courant induit une usure prematuree de la surface de la cathode et contribue a reduire la stabilite magnetohydrodynamique de la nappe de metal liquide. Afin de quantifier les impacts que peut avoir l'uniformisation de la densite de courant a travers le bloc cathodique, un modele d'un bloc cathodique d'une cuve de la technologie AP-30 a ete concu et analyse par elements finis. A partir de son comportement thermoelectrique et de donnees experimentales d'une cuve AP-30 tirees de la litterature, une correlation entre le profil de densite de courant a la surface du bloc et le taux d'erosion local au meme endroit a ete creee. Cette relation correspond au modele predictif de la duree de vie de tout bloc du meme materiau a partir de son profil de densite de courant. Ensuite, une programmation a ete faite incorporant dans une meme fonction cout les impacts economiques de la duree de vie, de la chute de voltage cathodique et de l'utilisation de nouveaux materiaux. Ceci a permis d'evaluer les benefices faits a partir d'un bloc modifie par rapport au bloc de reference. Plusieurs parametres geometriques du bloc sont variables sur un domaine realiste et l'integration d'un composant en materiau plus conducteur y a egalement ete etudiee. Utilisant des outils mathematiques d'optimisation, un design de bloc optimal a pu etre trouve. Les resultats demontrent qu'il est possible de generer des economies a partir de la modification du bloc. Il est egalement prouve que l'uniformisation de la densite de courant a travers le bloc peut apporter de grands avantages economiques et environnementaux dans le procede d'electrolyse de l'aluminium. Les resultats de cette etude serviront d'arguments pour les chercheurs dans l'industrie a savoir s'il vaut la peine d'investir ou non dans la fabrication d'un prototype experimental souvent tres couteux. Mots-cles : Efficacite energetique, electrolyse de l'aluminium, cathode, simulation thermoelectrique, uniformisation de la densite de courant, optimisation.
Effets des electrons secondaires sur l'ADN
NASA Astrophysics Data System (ADS)
Boudaiffa, Badia
Les interactions des electrons de basse energie (EBE) representent un element important en sciences des radiations, particulierement, les sequences se produisant immediatement apres l'interaction de la radiation ionisante avec le milieu biologique. Il est bien connu que lorsque ces radiations deposent leur energie dans la cellule, elles produisent un grand nombre d'electrons secondaires (4 x 104/MeV), qui sont crees le long de la trace avec des energies cinetiques initiales bien inferieures a 20 eV. Cependant, il n'y a jamais eu de mesures directes demontrant l'interaction de ces electrons de tres basse energie avec l'ADN, du principalement aux difficultes experimentales imposees par la complexite du milieu biologique. Dans notre laboratoire, les dernieres annees ont ete consacrees a l'etude des phenomenes fondamentaux induits par impact des EBE sur differentes molecules simples (e.g., N2, CO, O2, H2O, NO, C2H 4, C6H6, C2H12) et quelques molecules complexes dans leur phase solide. D'autres travaux effectues recemment sur des bases de l'ADN et des oligonucleotides ont montre que les EBE produisent des bris moleculaires sur les biomolecules. Ces travaux nous ont permis d'elaborer des techniques pour mettre en evidence et comprendre les interactions fondamentales des EBE avec des molecules d'interet biologique, afin d'atteindre notre objectif majeur d'etudier l'effet direct de ces particules sur la molecule d'ADN. Les techniques de sciences des surfaces developpees et utilisees dans les etudes precitees peuvent etre etendues et combinees avec des methodes classiques de biologie pour etudier les dommages de l'ADN induits par l'impact des EBE. Nos experiences ont montre l'efficacite des electrons de 3--20 eV a induire des coupures simple et double brins dans l'ADN. Pour des energies inferieures a 15 eV, ces coupures sont induites par la localisation temporaire d'un electron sur une unite moleculaire de l'ADN, ce qui engendre la formation d'un ion negatif transitoire dans un etat electronique dissociatif, cette localisation est suivie d'une fragmentation. A plus haute energie, la dissociation dipolaire (i.e., la formation simultanee d'un ion positif et negatif) et l'ionisation jouent un role important dans le dommage de l'ADN. L'ensemble de nos resultats permet d'expliquer les mecanismes de degradation de l'ADN par les EBE et d'obtenir des sections efficaces effectives des differents types de dommages.
Un nouveau cristal laser largement accordable le BOYS dopé à l'ytterbium
NASA Astrophysics Data System (ADS)
Chénais, S.; Druon, F.; Balembois, F.; Georges, P.; Gaumé, R.; Aka, G.; Viana, B.; Vivien, D.
2002-06-01
Nous avons étudié les performances laser en pompage par diode de puissance d'un nouveau cristal : le Sr3Y(BO3)3 (acronyme : BOYS), dopé à l'ytterbium. Son spectre d'émission particulièrement large en fait un matériau particulièrement prometteur pour la réalisation de lasers femtosecondes directement pompés par diode. Ses performances ont été comparées à celles d'un verre phosphate ainsi qu'à celles du cristal d' Yb:GdCOB dans les mêmes conditions. Nous démontrons que, tant du point de vue de l'efficacité laser que de la tenue aux fortes puissances, GdCOB et BOYS sont supérieurs au verre ; le BOYS est de surcroît plus accordable (sur 50 nm), mais son comportement thermique limite a priori son usage à des puissances de pompe modérées.
NASA Astrophysics Data System (ADS)
Mas, Sebastien
Les mesures satellitaires de couleur des oceans sont largement determinees par les proprietes optiques inherentes (IOPs) des eaux de surface. D'autre part, le phytoplancton de petite taille (<20 mum) est le plus souvent dominant dans les oceans, et peut donc etre une source importante de variation des IOPs dans les oceans. Dans ce contexte, le but principal de ce doctorat etait de definir l'impact du phytoplancton (<20 mum) sur les variations des proprietes optiques de l'Estuaire et du Golfe du Saint-Laurent (Canada). Afin d'atteindre cet objectif, il etait necessaire de determiner en milieu controle les facteurs de variabilite des proprietes optiques cellulaires et des IOPs du phytoplancton (<20 mum) des eaux du Saint-Laurent, et d'evaluer la contribution du phytoplancton (<20 mum) aux proprietes optiques totales des eaux du Saint-Laurent. Des experiences en laboratoire ont montre que les variations des proprietes optiques des cellules phytoplanctoniques soumises a un cycle jour-nuit, ainsi qu'a des changements concomitants d'intensite lumineuse, peuvent contribuer significativement a la variabilite des proprietes optiques observee en milieu naturel. D'autres experiences ont, quant a elles, mis en evidence que les variations des proprietes optiques des cellules phytoplanctoniques dues aux phases de croissance peuvent alterer les IOPs des oceans, particulierement pendant les periodes de floraison. De plus, la presence de bacteries et de particules detritiques peut egalement affecter la variabilite des IOPs totales, notamment la diffusion. Au printemps, dans l'Estuaire et le Golfe du Saint-Laurent, la contribution du phytoplancton <20 mum aux IOPs presentait des differences regionales evidentes pour les proprietes d'absorption et de diffusion. En plus de la variabilite spatiale, les proprietes optiques cellulaires presentaient des variations journalieres, et ce particulierement pour le picophytoplancton. Enfin, la plupart des differences observees dans les proprietes biooptiques, particulierement l'absorption, etaient attribuables a la contribution du phytoplancton <20 mum. Ceci confirme l'importance de la structure de taille des communautes phytoplanctoniques dans les modeles bio-optiques appliques au Saint-Laurent. L'ensemble des resultats a permis de mettre en evidence l'importance des mecanismes de photoacclimatation et de synchronisation du cycle cellulaire du phytoplancton sur les variations journalieres des IOPs, ainsi que de l'etat physiologique relie au stade de croissance sur les variations temporelles a long terme des IOPs. De plus, le phytoplancton <20 mum contribue de maniere importante aux IOPs et a leur variabilite dans l'Estuaire et le Golfe du St-Laurent, et ce particulierement pour l'absorption. Cette etude de doctorat souligne donc l'importance du phytoplancton <20 mum sur la variabilite des IOPs des oceans.
La Sociéte Française d'Exobiologie
NASA Astrophysics Data System (ADS)
Raulin, F.
2010-12-01
L'exobiologie est une jeune science, très pluridisciplinaire qui, de façon générale, a pour objet l'étude de la vie dans l'univers. Plus précisément, elle inclut l'étude des conditions et des processus qui ont permis l'émergence du vivant sur notre planète, et ont pu oumo pourraient le permettre ailleurs, l'étude de l'évolution de la matière organique vers des structures complexes dans l'univers, et les recherches qui concernent la distribution de la vie sous toutes les formes qu'elle pourrait revêtir, et son évolution. La Société Française d'Exobiologie a été fondée en mai 2009. Elle a pour buts principaux de fédérer les recherches en exobiologie au niveau français en facilitant l'établissement de contacts interdisciplinaires entre les chercheurs français et faire connaître et expliquer l'exobiologie pour satisfaire la demande socio culturelle provenant d'un public diversifié, par le biais de conférences, d'ateliers, d'expositions. La SFE est reconnue comme Société savante. Elle compte actuellement 140 membres et vient d'organiser son premier colloque national d'exobiologie à Biarritz.
Methodologies nouvelles pour la realisation d'essais dans la soufflerie Price-Paidoussis
NASA Astrophysics Data System (ADS)
Flores Salinas, Manuel
Le present memoire en genie de la production automatisee vise a decrire le travail effectue dans la soufflerie Price-Paidoussis du laboratoire LARCASE pour trouver les methodologies experimentales et les procedures de tests, qui seront utilisees avec les modeles d'ailes actuellement au laboratoire. Les methodologies et procedures presentees ici vont permettre de preparer les tests en soufflerie du projet MDO-505 Architectures et technologies deformables pour l'amelioration des performances des ailes, qui se derouleront durant l'annee 2015. D'abord, un bref historique des souffleries subsoniques sera fait. Les differentes sections de la soufflerie Price-Paidoussis seront decrites en mettant l'emphase sur leur influence dans la qualite de l'ecoulement qui se retrouve dans la chambre d'essai. Ensuite, une introduction a la pression, a sa mesure lors de tests en soufflerie et les instruments utilises pour les tests en soufflerie au laboratoire LARCASE sera presente, en particulier le capteur piezoelectrique XCQ-062. Une attention particuliere sera portee au mode de fonctionnement, a son installation, a la mesure et a la detection des frequences et aux sources d'erreurs lorsqu'on utilise des capteurs de haute precision comme la serie XCQ-062 du fournisseur Kulite. Finalement, les procedures et les methodologies elaborees pour les tests dans la soufflerie Price-Paidoussis seront utilisees sur quatre types d'ailes differentes. L'article New methodology for wind tunnel calibration using neural networks - EGD approch portant sur une nouvelle facon de predire les caracteristiques de l'ecoulement a l'interieur de la soufflerie Price-Paidoussis se trouve dans l'annexe 2 de ce document. Cet article porte sur la creation d'un reseau de neurones multicouche et sur l'entrainement des neurones, Ensuite, une comparaison des resultats du reseau de neurones a ete fait avec des valeurs simules avec le logiciel Fluent.
NASA Astrophysics Data System (ADS)
Tutashkonko, Sergii
Le sujet de cette these porte sur l'elaboration du nouveau nanomateriau par la gravure electrochimique bipolaire (BEE) --- le Ge mesoporeux et sur l'analyse de ses proprietes physico-chimiques en vue de son utilisation dans des applications photovoltaiques. La formation du Ge mesoporeux par gravure electrochimique a ete precedemment rapportee dans la litterature. Cependant, le verrou technologique important des procedes de fabrication existants consistait a obtenir des couches epaisses (superieure a 500 nm) du Ge mesoporeux a la morphologie parfaitement controlee. En effet, la caracterisation physico-chimique des couches minces est beaucoup plus compliquee et le nombre de leurs applications possibles est fortement limite. Nous avons developpe un modele electrochimique qui decrit les mecanismes principaux de formation des pores ce qui nous a permis de realiser des structures epaisses du Ge mesoporeux (jusqu'au 10 mum) ayant la porosite ajustable dans une large gamme de 15% a 60%. En plus, la formation des nanostructures poreuses aux morphologies variables et bien controlees est desormais devenue possible. Enfin, la maitrise de tous ces parametres a ouvert la voie extremement prometteuse vers la realisation des structures poreuses a multi-couches a base de Ge pour des nombreuses applications innovantes et multidisciplinaires grace a la flexibilite technologique actuelle atteinte. En particulier, dans le cadre de cette these, les couches du Ge mesoporeux ont ete optimisees dans le but de realiser le procede de transfert de couches minces d'une cellule solaire a triple jonctions via une couche sacrificielle en Ge poreux. Mots-cles : Germanium meso-poreux, Gravure electrochimique bipolaire, Electrochimie des semi-conducteurs, Report des couches minces, Cellule photovoltaique
Smith, Herbert L.
2016-01-01
Cet article veut montrer qu’on peut réécrire des modèles démographiques en vue de réaliser des projections par cohorte, en les transposant dans un modèle économétrique vecteur autoré-gressif (VAR). De cette façon, la méthode des composantes se dote d’un cadre stochastique qui étend son envergure. Le potentiel de cette perspective est illustré à travers l’exemple d’une projection d’effectifs de population scolaire. Il met en valeur une série d’équations qui permet de vérifier la validité de plusieurs choix de modélisations habituellement utilisées dans le domaine de la prévision. PMID:27346921
NASA Astrophysics Data System (ADS)
Volino, F.
Le travail faisant l'objet de cette série d'articles de titre général "Théorie visco-élastique non-extensive", numérotée de (I) à (VI), a été initialement motivé par l'analyse de mesures de Résonance Magnétique Nucléaire (RMN) sur des polymères nématogènes dans les phases nématique et isotrope [1,2,3,4,5,6,7,8]. Sans entrer dans le détail de ces mesures, rappelons que les mouvements des molécules rétrécissent les raies RMN, mais que, avec des molécules aussi grosses que ces polymères, on est en dehors du régime de rétrécissement extrême, donc dans un régime ou la forme de raie dépend du détail des mouvements [9]. La théorie des modes élastiques des nématiques fournissait le cadre conceptuel naturel pour décrire de tels mouvements. L'application de cette théorie, qui, dans une version simplifiée, mais suffisante en pratique, ne fait intervenir que deux paramètres ajustables, le paramètre d'ordre nématique et une viscosité moyenne, a effectivement permis de reproduire dans le détail des formes de raie RMN de polymères en phase nématique, avec des valeurs des deux paramètres en accord avec celles qui avaient pu être estimées par des mesures directes. La théorie des modes élastiques était donc testée avec succès par l'analyse de formes de raies RMN. L'analyse en phase nématique apparaissait bien auto-cohérente [5]. Une incohérence logique est cependant apparue dans les études qui ont suivi. Les ajustements précédents avaient été faits pour des spectres obtenus au milieu de la phase nématique, ou l'ordre orientationnel est relativement élevé. Cependant, l'ordre diminue en chauffant, et on a trouvé qu'il est toujours possible de simuler les formes de raies avec le même modèle, en changeant les valeurs du paramètre d'ordre et de la viscosité. - la transition nématique-isotrope, l'expérience montre que l'allure générale des spectres RMN du polymère change peu, et le calcul montre qu'ils peuvent être simulés, de façon quasi-parfaite, par le même modèle, en supposant que l'échantillon soit "en poudre", et avec des valeurs très faibles du paramètre d'ordre. Une phase isotrope de polymère nématique étant un polymère normal, on a alors testé le modèle avec un polymère conventionnel, et de la même façon, de très bonnes simulations ont été obtenues. L'incohérence logique associée à ces résultats vient du fait que la théorie des modes élastiques ne devrait plus être applicable. En effet, le point de départ de cette théorie est une fonctionnelle énergie libre du nématique distordu par les fluctuations thermiques, qui ne contient que le terme quadratique en gradient d'orientation des molécules par rapport au directeur moyen. La limitation à ce premier terme signifie que la description ne devrait être valable que pour des gradients faibles, donc des paramètres d'ordre élevés. On aboutit donc au paradoxe suivant : la théorie des modes élastiques des nématiques permet de décrire d'autant mieux les spectres RMN de polymères, nématiques ou non, que le paramètre d'ordre est faible, c'est-à-dire qu'elle sort de son domaine d'applicabilité présumé. La façon la plus simple d'expliquer cette situation paradoxale est de dire que si la théorie des modes élastiques marche très bien en toutes circonstances, c'est parce qu'elle est beaucoup plus générale que ne l'ont (implicitement) imaginé leurs auteurs. Mais pour que tout redevienne cohérent, il fallait changer la signification d'au moins un concept de base de la théorie. Il a été décidé de modifier la signification des constantes élastiques et des viscosités, telles qu'elles apparaissent au niveau des équations fondamentales de la théorie standard. En pratique, la modification qui a été faite a été de supposer que ces quantités ne sont pas les quantités macroscopiques, mais des quantités non mesurables, associées aux modes élastiques, dépendant du vecteur d'onde et de la température, selon des formules simples, du type de celles obtenues par les méthodes du groupe de renormalisation, dans la théorie des changements de phase. Dans l'article (I) intitulé "Théorie simplifiée à modes rotationnels", des conséquences nécessaires de cette hypothèse, en phase nématique et isotrope, sont déduites, et un certain nombre de quantités mesurables sont calculées : élasticité, viscosité, effets de champ appliqués, chaleur spécifique... Le formalisme est unifié dans la mesure où les relations obtenues sont valables de part et d'autre de la transition. Le caractère le plus important de ces résultats est cependant le fait que toutes les quantités macroscopiques dépendent de façon non-triviale de la taille de l'échantillon, caractère que l'on a qualifié de "non-extensif". Dans l'article (II) intitulé "Premiers tests expérimentaux de la théorie simplifiée à modes rotationnels", l'ensemble des prédictions décrit dans l'article (I) est testé à l'aide de données de la littérature concernant trois nématiques typiques, pour lesquels la plupart des quantités ont été mesurées indépendamment par différents auteurs. Outre un accord quantitatif étonnant avec l'expérience, cette théorie permet aussi d'expliquer les écarts souvent obtenus par différents auteurs. Le modèle fonctionnant très bien pour décrire les propriétés rotationnelles des phases isotropes, il a été tentant de voir s'il pouvait aussi décrire les propriétés translationnelles. C'est ce qui fait l'objet de l'article (III) intitulé "Théorie simplifiée à modes translationnels". Moyennant une hypothèse concernant la forme mathématique de la contribution à la fonctionnelle énergie libre associée à l'existence de mouvements macroscopiques dans le fluide, couplant les gradients de vitesse aux fluctuations thermiques, on a pu obtenir des expressions, toujours non-extensives, d'un certain nombre de quantités mesurables, dont les coefficients de transport. Dans l'article (IV), intitulé "Premiers tests expérimentaux de la théorie simplifiée à modes translationnels", ces prédictions sont testées à l'aide de données de la littérature sur des liquides simples, dont l'eau. Le résultat est positivement troublant. Il rend compte en particulier des différences observées par des expérimentateurs indépendants mesurant la simple viscosité et surtout le coefficient de diffusion de l'eau pure. Ce liquide n'apparaît d'ailleurs pas comme un cas particulier. Il faut remarquer cependant que cet écart à l'extensivité, supposée depuis toujours dans tous les modèles, n'était pas prévisible a priori, mais que le modèle contient lui-même les conditions nécessaires à son applicabilité. Le fait que ces écarts à l'extensivité ne peuvent être observés que dans certaines conditions s'explique, et il n'y a aucune contradiction avec l'utilisation des modèles extensifs dans la technologie. Dans l'article (V) intitulé "Équations de diffusion, fonctions de distribution, viscosités et coefficients de diffusion, fonctions de corrélation", est abordée une extension de la théorie à la généralisation des équations de diffusion des théories standards. Avec ces équations généralisées apparaissent naturellement les notions de déplacement élastique, décrivant des mouvements aléatoires locaux de faible amplitude, et de déplacement visqueux, décrivant les mouvements aléatoires à grande distance. À chacun de ces deux types de mouvements est associé un temps caractéristique propre, et on montre que ces deux temps peuvent différer d'un grand nombre d'ordre de grandeurs à suffisamment basse température. Les fonctions de corrélations associées à différentes méthodes spectroscopiques sont calculées à l'aide de ces équations de diffusion. On trouve que ces fonctions ne sont pas des exponentielles, mais plutôt des "exponentielles étirées", la forme exponentielle pure n'étant qu'une approximation valide aux temps suffisamment courts, et aux temps suffisamment longs. Enfin, dans l'article (VI) intitulé "Application à un liquide formant une phase vitreuse, l'orthoterphényl (OTP)", la plupart des résultats théoriques obtenus dans les articles précédents est appliqué à la description d'un grand nombre de données expérimentales variées de la littérature, obtenues avec ce système exemplaire. On montre qu'il est ainsi possible de rationaliser l'ensemble de ces données. En particulier, la température de transition vitreuse apparaît comme la limite basse température d'une transition de phase très étalée depuis la température de fusion du cristal, analogue à la transition nématique-isotrope, mais de nature à la fois translationnelle et rotationnelle. Il faut admettre que les conséquences du modèle fabriqué à l'origine pour interpréter des expériences RMN, et surtout celles de son extension en dehors du domaine des seuls cristaux liquides a de quoi surprendre au premier abord. C'est seulement après une revue très complète d'un grand nombre de résultats expérimentaux, revue qui a pris beaucoup de temps et n'a jamais révélé de contradiction, qu'il a été décidé de soumettre ce modèle à l'attention de la communauté. Ce travail ne peut être considéré comme un aboutissement. Un certain nombre d'aspects n'ont pas été abordés. Par exemple, pour les substances nématogènes, le test de la description unifiée des résultats de diffusion de la lumière, qui a été la motivation historique du développement de la théorie standard des modes élastiques pour décrire ces résultats en phase nématique, n'a pas été traité. Autre exemple : pour les liquides usuels, on s'est limité à des situations loin du point critique, c'est-à-dire quand la présence de la phase gazeuse au-dessus du liquide peut être ignorée. Il convient donc de généraliser la théorie au problème des liquides peu denses, ainsi que d'explorer sa possible extension à la phase gazeuse et voir si on peut appliquer ce type de description au système liquide-gaz. Enfin, les aspects purement mécaniques n'ont pas été abordés. Puisque l'élasticité intervient de façon fondamentale dans la description, il faut reformuler la mécanique des fluides standard pour qu'apparaisse explicitement la notion d'élasticité dans les équations. C'est cette reformulation, dont on verra qu'elle permet de décrire de façon unifiée l'essentiel des comportements rhéologiques des fluides (passage continu entre les réponses élastique, visco-élastique, plastique et visqueuse, en fonction de la nature, la durée et l'intensité des sollicitations mécaniques, ainsi que de la température), qui sera l'objet du prochain article de cette série. Enfin, on peut se demander comment raccorder le formalisme hautement non-conventionnel de cette théorie, qui permet de calculer des quantités physiques mesurables, à celui de la théorie statistique standard, qui permet en principe de calculer les mêmes quantités. Ce problème reste pour l'instant ouvert, mais la piste à suivre pour le résoudre semble claire. Elle est probablement contenue dans la forme postulée dans (III) pour le couplage entre les mouvements aléatoires microscopiques, lesquels sont décrits de façon uniquement statistique (à l'aide d'équations de diffusion), et les mouvements macroscopiques qui sont décrits de façon mécaniste. En d'autres termes, on introduit un indéterminisme fondamental dans la description du mouvement des objets. Le raccord avec la théorie standard ne pourra donc se faire qu'au niveau de la statistique quantique, qui elle aussi contient dans son essence un indéterminisme du même type. Une comparaison détaillée ne sera possible que dans un stade ultérieur du développement de la présente théorie, quand tous les aspects mécaniques, dont certains ont été évoqués plus haut, auront été explorés. Il est espéré que ces informations préliminaires aideront le lecteur à la compréhension des articles (I) à (VI) proposés.
DOE Office of Scientific and Technical Information (OSTI.GOV)
Binetruy, Pierre
2009-09-17
Et si la lumière au bout du tunnel du LHC était cosmique ? En d’autres termes, qu’est-ce que le LHC peut nous apporter dans la connaissance de l’Univers ? Car la montée en énergie des accélérateurs de particules nous permet de mieux appréhender l’univers primordial, chaud et dense. Mais dans quel sens dit-on que le LHC reproduit des conditions proches du Big bang ? Quelles informations nous apporte-t-il sur le contenu de l’Univers ? La matière noire est-elle détectable au LHC ? L’énergie noire ? Pourquoi l’antimatière accumulée au CERN est-elle si rare dans l’Univers ? Et si le CERNmore » a bâti sa réputation sur l’exploration des forces faibles et fortes qui opèrent au sein des atomes et de leurs noyaux, est-ce que le LHC peut nous apporter des informations sur la force gravitationnelle qui gouverne l’évolution cosmique ? Depuis une trentaine d’années, notre compréhension de l’univers dans ses plus grandes dimensions et l’appréhension de son comportement aux plus petites distances sont intimement liées : en quoi le LHC va-t-il tester expérimentalement cette vision unifiée ? Tout public, entrée libre / Réservations au +41 (0)22 767 76 76« less
Dorkenoo, Ameyo; Layibo, Yao
2013-01-01
Contexte L’anémie est un problème de santé publique dans le monde entier, et notamment dans les pays en développement. Elle a des répercussions majeures sur la santé et sur le développement économique et social d’un pays. La prise en charge des patients anémiés étant nécessaire, il faut un diagnostic biologique précis, et donc un dosage du taux d’hémoglobine par des méthodes fiables. Objectif Évaluer les performances diagnostiques du test Hemocue Hb201+®. Méthodes Étude comparative de la mesure du taux d’hémoglobine à partir du photomètre Hemocue Hb 201+® et d’analyseurs d’hématologie chez 213 enfants de 6 à 59 mois souffrant d’un paludisme simple; la détermination du taux d’hémoglobine par les analyseurs est retenue comme méthode de référence pour évaluer Hemocue Hb201+®. Résultats 72.8% des valeurs obtenues par Hemocue Hb201+® étaient à ±1 g/dl de celles de la méthode de référence. Le coefficient de corrélation de Pearson était de 0.80. La prévalence de l’anémie était de 79.3% pour la méthode de référence et de 77.9% pour Hemocue Hb201+®. La sensibilité et la spécificité de l’analyseur Hemocue Hb201+® étaient respectivement de 95.1% et de 65.3%. Conclusion Les résultats de l’étude ont montré que le test Hemocue Hb201+® présentait une bonne sensibilité, une spécificité moyenne et une exactitude moyenne dans le diagnostic de l’anémie et dans le dosage de l’hémoglobine. Son utilisation peut être recommandée dans les structures périphériques afin de faciliter le diagnostic biologique de l’anémie et sa prise en charge dans les populations vivant dans les zones difficiles d’accès. PMID:29114478
Les cooperatives et l'electrification rurale du Quebec, 1945--1964
NASA Astrophysics Data System (ADS)
Dorion, Marie-Josee
Cette these est consacree a l'histoire de l'electrification rurale du Quebec, et, plus particulierement, a l'histoire des cooperatives d'electricite. Fondees par vagues successives a partir de 1945, les cooperatives rurales d'electricite ont ete actives dans plusieurs regions du Quebec et elles ont electrifie une partie significative des zones rurales. Afin de comprendre le contexte de la creation des cooperatives d'electricite, notre these debute (premiere partie) par une analyse du climat sociopolitique des annees precedant la naissance du systeme cooperatif d'electrification rurale. Nous y voyons de quelle facon l'electrification rurale devient progressivement, a partir de la fin des annees 1920, une question d'actualite a laquelle les divers gouvernements qui se succedent tentent de trouver une solution, sans engager---ou si peu---les fonds de l'Etat. En ce sens, la premiere etatisation et la mise sur pied d'Hydro-Quebec, en 1944, marquent une rupture quant au mode d'action privilegie jusque-la. La nouvelle societe d'Etat se voit cependant retirer son mandat d'electrifier le monde rural un an apres sa fondation, car le gouvernement Duplessis, de retour au pouvoir, prefere mettre en place son propre modele d'electrification rurale. Ce systeme repose sur des cooperatives d'electricite, soutenues par un organisme public, l'Office de l'electrification rurale (OER). L'OER suscite de grandes attentes de la part des ruraux et c'est par centaines qu'ils se manifestent. Cet engouement pour les cooperatives complique la tache de l'OER, qui doit superviser de nouvelles societes tout en assurant sa propre organisation. Malgre des hesitations et quelques delais introduits par un manque de connaissances techniques et de personnel qualifie, les commissaires de l'OER se revelent perspicaces et parviennent a mettre sur pied un systeme cooperatif d'electrification rurale qui produit des resultats rapides. Il leur faudra cependant compter sur l'aide des autres acteurs engages dans l'electrification, les organismes publics et les compagnies privees d'electricite. Cette periode de demarrage et d'organisation, traitee dans la deuxieme partie de la these, se termine en 1947-48, au moment ou l'OER et les cooperatives raffermissent leur maitrise du systeme cooperatif d'electrification rurale. Les annees 1948 a 1955 (troisieme partie de these) correspondent a une periode de croissance pour le mouvement cooperatif. Cette partie scrute ainsi le developpement des cooperatives, les vastes chantiers de construction et l'injection de millions de dollars dans l'electrification rurale. Cette troisieme partie prend egalement acte des premiers signes que quelque chose ne va pas si bien dans le monde cooperatif. Nous y verrons egalement les ruraux a l'oeuvre: comme membres, d'abord, mais aussi en tant que benevoles, puis a l'emploi des cooperatives. La quatrieme et derniere partie, les annees 1956 a 1964, aborde les changements majeurs qui ont cours dans l'univers cooperatif; il s'agit d'une ere nouvelle et difficile pour le mouvement cooperatif, dont les reseaux paraissent inadaptes aux changements de profil de la consommation d'electricite des usagers. L'OER sent alors le besoin de raffermir son controle des cooperatives, car il pressent les problemes et les defis auxquels elles auront a faire face. Notre etude se termine par l'acquisition des cooperatives par Hydro-Quebec, en 1963-64. Fondee sur des sources riches et variees, notre demarche propose un eclairage inedit sur une dimension importante de l'histoire de l'electricite au Quebec. Elle permet, ce faisant, de saisir les rouages et l'action de l'Etat sous un angle particulier, avant sa profonde transformation amorcee au cours des annees 1960. De meme, elle apporte quelques cles nouvelles pour une meilleure comprehension de la dynamique des milieux ruraux de cette periode.
Fofana, Youssouf; Traore, Bekaye; Dicko, Adama; Faye, Ousmane; Berthe, Siritio; Cisse, Lamissa; Keita, Alimata; Tall, Koureissi; Kone, Mamadou Bakary; Keita, Somita
2016-01-01
Introduction Les maladies de peau constituent un problème majeur de santé publique dans les pays en voie développement. En pratique courante les enfants représentent la couche sociale la plus touchée. Le but de notre travail était de décrire les aspects épidémio- cliniques des dermatoses chez les enfants de 0-15 ans dans le service de dermatologie du centre national d’appui à la lutte contre la maladie à Bamako, Mali. Méthodes Il s’agissait d’une étude transversale effectuée au cours de la période allant du premier janvier 2009 au 31 Décembre 2009 dans le service de Dermato-vénérologie du centre national d’appui à la lutte contre la maladie. Sur un total de 16339 patients ayant fait une consultation dermatologique 5149 enfants ont été inclus. Résultats La fréquence hospitalière des dermatoses infantiles était de 31,51%. Les malades se répartissaient en 2838 garçons (55,10%) et 2311 filles (44,90%) soit un sex-ratio de 1,22. L’âge des malades variait de 03 jours à 15 ans avec une moyenne d’âge de 8±5,7 ans. Parmi les affections retrouvées les dermatoses infectieuses représentaient 55,10% de l’ensemble des dermatoses, les dermatoses immuno-allergiques (32,5%), les dermatoses inflammatoires (11,85%). Conclusion Notre étude a révélé l’importance des pathologies infectieuses et immuno-allergiques et la nécessité de mener des actions de prévention simple comme l’hygiène, l’achat d’une tondeuse pour chaque enfant. PMID:28293354
Detection de la fin de la compaction des anodes par le son
NASA Astrophysics Data System (ADS)
Sanogo, Bazoumana
L'objectif de ce projet etait de developper un outil de controle en temps reel du temps de compaction en se servant du son genere par le vibrocompacteur pendant le formage des anodes crues. Ainsi, une application a ete developpee pour l'analyse des sons enregistres. Des essais ont ete realises avec differents microphones pour une meilleure qualite des mesures et un a ete choisi pour la suite du projet. De meme, differents tests ont ete realises sur des anodes de laboratoire ainsi que des anodes a l'echelle industrielle afin de mettre en place une methode pour la detection du temps optimal necessaire au formage des anodes. Les travaux au laboratoire de carbone a l'Universite du Quebec a Chicoutimi (UQAC) ont consiste a l'enregistrement de son des anodes fabriquees sur place avec differentes configurations; et a la caracterisation de certaines anodes de l'usine. Les anodes fabriquees au laboratoire sont reparties en deux groupes. Le premier regroupe les anodes pour la validation de notre methode. Ce sont des anodes produites avec des temps de compaction differents. Le laboratoire de carbone a l'UQAC est unique et il est possible de produire des anodes avec les memes proprietes que celles des anodes industrielles. Par consequent, la validation initialement prevue a l'usine a ete effectuee avec les anodes de laboratoire. Le deuxieme groupe a servi a etudier les effets des matieres premieres sur le temps de compaction. Le type de coke et le type de brai ont constitue les differentes variations dans ce deuxieme groupe. Quant aux tests et mesures a l'usine, ils ont ete realises en trois campagnes de mesure. La premiere campagne en juin 2014 a servi a standardiser et a trouver le meilleur positionnement des appareils pour les mesures, a regler le logiciel et a faire les premieres mesures. Une deuxieme campagne en mai 2015 a fait l'objet d'enregistrement de son en classant les anodes selon differents temps de compaction. La troisieme et derniere campagne en decembre 2015 a ete le lieu de tests finaux a l'usine en fabriquant des anodes avec differents criteres (variation du temps de compaction, taux de brai, arret manuel du compacteur, variation de la pression des ballons du haut du compacteur). Ces anodes ont ete ensuite analysees au laboratoire a l'UQAC. En parallele a ces travaux precites, l'amelioration de l'application d'analyse du son a ete faite avec le choix des parametres d'analyse et leur standardisation. Les resultats des premiers tests au laboratoire et ceux de la campagne de juin 2014 ont montre que la formation des anodes se fait suivant trois etapes : rearrangement des particules et du brai, compaction et consolidation et enfin la finition. Ces travaux ont montre en outre que le temps de compaction joue un role tres important dans la definition des proprietes finales des anodes. Ainsi, en plus du type de brai, du taux de brai et du type de coke, il faut tenir compte du temps de sur-compaction et de sous-compaction. En effet, ceci a ete demontre a travers les deux validations qui ont ete realisees. Les resultats de la caracterisation des echantillons (venant des anodes de la campagne de decembre 2015) ont montre qu'une anode compactee a un temps optimal acquiert une bonne resistance a la compression et sa resistivite electrique baisse. En outre, on note que le temps de compaction dans notre cas a baisse legerement avec l'augmentation de la pression des ballons de haut du vibrocompacteur. Ce qui a eu pour effet d'augmenter la densite crue de l'anode. Toutefois, il faut s'abstenir de generaliser ce constat car le nombre d'anodes testees est faible dans notre cas. Par ailleurs, cette etude montre que le temps necessaire pour le formage d'une anode croit avec l'augmentation du taux de brai et baisse legerement avec l'augmentation de la pression des ballons. (Abstract shortened by ProQuest.).
Adenomyose utérine, étude clinique et thérapeutique: à propos de 87 cas
Kdous, Moez; Ferchiou, Monia; Zhioua, Fethi
2015-01-01
Le but de notre étude est l'analyse des différents aspects épidémiologiques, cliniques, paracliniques et thérapeutiques de l'adénomyose. Il s'agit d'une étude rétrospective sur 87 patientes ayant bénéficié d'une hystérectomie pour des raisons diverses (hors prolapsus) entre le 1er janvier 2000 et 31 décembre 2006 et dont l’étude histologique de la pièce opératoire a révélé la présence d'adénomyose. 586 hystérectomies (hors prolapsus) ont été réalisées pendant la même période d’étude, soit une fréquence de l'adénomyose sur pièce opératoire de 14.85%. L'age moyen de nos patientes est de 43.97 ans (extrêmes: 26-64 ans). 29.88% d'entres-elles sont ménopausées et 41.37% avaient des antécédents de traumatisme utérin. La symptomatologie a été dominée par les ménometrorragies (82.77%) et les douleurs pelviennes (71.22%). Le diagnostic préopératoire a été suspecté sur les données de l'hystéroscopie dans 63.22% des cas, de l'hystérographie dans 58.46% des cas et de l’échographie transvaginale dans 40.5% des cas. Une chirurgie radicale a été indiquée de première intention dans 57 cas, après échec du traitement médical dans 16 cas et après échec d'une réduction endométriale dans 14 cas. L'analyse histologique des pièces d'hystérectomie trouve des myomes associés dans 32.18% des cas, une hyperplasie de l'endomètre dans 13.79%, des polypes dans 5.74% et une atrophie de l'endomètre dans 3.44%. L'adénomyose, maladie énigmatique, échappe toujours à une stratégie thérapeutique bien codifiée, et demeure étroitement liée à l'hystérectomie. Son dépistage chez des femmes de plus en plus jeunes et à des stades moins avancés pourrait éviter l’évolution systématique vers les traitements radicaux. PMID:26834926
Injection threshold for a star polymer inside a nanopore
NASA Astrophysics Data System (ADS)
Brochard-Wyart, Françoise; de Gennes, Pierre-Gilles
A linear, flexible polymer (in dilute solution with a good solvent) enters a pore (of diameter D smaller than its gyration radius R) only when the suction flux J is larger than a threshold value Jcl ≅ kT/η (T: temperature; η: solvent viscosity). We discuss here the case of an f arm star polymer (f >> 1). The results suggest that permeation through nanopores may provide an interesting characterization of mixtures containing linear and branched polymers with the same overall molecular weight. Un polymère linéaire flexible (en solution diluée dans un bon solvant) ne pénètre dans un pore (de diamètre D inférieure à son rayon de gyration R) que si le flux d'entraînement J est supérieur à une valeur seuil Jcl ≅ kT/η (T : température ; η: viscosité du solvant). Nous étendons ici la discussion au cas d'une étoile à f branches (f >> 1). Les résultats suggèrent que la perméation dans des nanopores peut être une méthode utile pour caractériser des mélanges de polymères linéaires et branchés de même masse moléculaire globale.
Occurrence of springs in massifs of crystalline rocks, northern Portugal
NASA Astrophysics Data System (ADS)
Pacheco, Fernando António Leal; Alencoão, Ana Maria Pires
2002-02-01
An inventory of artesian springs emerging from fractures (fracture springs) was conducted in the Pinhão River Basin and Morais Massif, northern Portugal, comprising an area of approximately 650 km2. Over 1,500 springs were identified and associated with geological domains and fracture sets. Using cross-tabulation analysis, spring distributions by fracture sets were compared among geological environments, and the deviations related to differences in rock structure and, presumably, to differences in deformational histories. The relation between spring frequencies and rock structures was further investigated by spectral determination, the model introduced in this study. Input data are the spring frequencies and fracture lengths in each geological domain, in addition to the angles between fracture strikes and present-day stress-field orientation (θ). The model's output includes the so-called intrinsic densities, a parameter indexing spring occurrence to factors such as fracture type and associated deformational regime and age. The highest densities (12.2 springs/km of lineament) were associated with young shear fractures produced by brittle deformation, and the lowest (0.1) with old tensional and ductile fractures. Spectral determination also relates each orientation class to a dominant structural parameter: where spring occurrence is controlled by θ, the class is parallel to the present-day stress-field orientation; where the control is attributed to the length of fractures, the spring occurrence follows the strike of large-scale normal faults crossing the region. Résumé. Un inventaire des sources artésiennes émergeant de fractures (sources de fractures) a été réalisé dans le bassin de la rivière Pinhão et dans le massif de Morais, dans le nord du Portugal, dans une région couvrant environ 650 km2. Plus de 1,500 sources ont été identifiées et associées à des domaines géologiques et à des ensembles de fractures. Grâce à une analyse de tableaux croisés, les distributions des sources par ensemble de fractures ont été comparées aux situations géologiques et aux écarts liés aux différences dans les structures des roches et, probablement, aux différences dans leurs histoires de déformations. Les relations entre la fréquence des sources et la structure des roches ont été étudiées ensuite par détermination spectrale, modèle présenté dans cette étude. Les données d'entrée sont les fréquences des sources et les longueurs des fractures dans chaque domaine géologique, en plus des angles entre directions de fractures et orientation du champ de contraintes actuel (θ). La sortie du modèle donne les densités dites intrinsèques, un paramètre indexant l'existence d'une source à des facteurs tels que le type de fracture et le régime et l'âge associés de la déformation. Les densités les plus fortes (12,2 sources par km de linéament) ont été associées à des fractures jeunes produites par des déformations lentes, et les plus faibles (0,1) aux fractures anciennes ductiles et de tension. La détermination spectrale associe également chaque classe d'orientation à un paramètre structural dominant: quand la présence d'une source est contrôlée par θ, la classe est parallèle à l'orientation actuelle du champ de contrainte; lorsque le contrôle est attribué à la longueur des fractures, la présence de sources suit le plan des failles normales à grande échelle traversant la région. Resumen. Se ha llevado a cabo un inventario de manantiales emergentes de fracturas (manantiales de fracturas) en la cuenca del Río Pinhão y en el Macizo de Morais. El área estudiada ocupa unos 650 km2 y se halla al Norte de Portugal. Se ha identificado más de 1.500 manantiales, los cuales han sido asociados con dominios geológicos y conjuntos de fracturas. Mediante el Análisis de la Tabulación Cruzada, se ha comparado la distribución de los manantiales por conjuntos de fracturas entre ambientes geológicos, así como las desviaciones relacionadas con diferencias en la estructura de la roca y, presumiblemente, en las historias de deformación. Se profundizó en la relación entre la frecuencia de los manantiales y las estructuras de la roca por medio de la Determinación Espectral, que es un modelo introducido en el presente estudio. Los datos de entrada son las frecuencias de los manantiales y la longitud de las fracturas en cada dominio geológico, además de los ángulos entre las direcciones de las fracturas y la orientación actual del campo de tensiones. Los resultados del modelo incluyen las denominadas densidades intrínsecas, parámetro que cuantifica la existencia de manantiales en función de factores como el tipo de fractura y el régimen y edad de deformación asociados. Las densidades mayores (12,2 manantiales por kilómetro de lineamiento) fueron atribuidas a fracturas jóvenes de cizalla causadas por deformación frágil, y las menores (valor 0,1) con fracturas antiguas y dúctiles. La Determinación Espectral también relaciona cada clase de orientación con un parámetro estructural dominante: donde la existencia de fracturas está dominada por el campo actual de tensiones, la clase es paralela a la orientación presente de dicho campo; donde domina la longitud de las fracturas, sigue la dirección de las fallas normales de gran escala que atraviesan la región.
Tumeur de Frantz: deux nouveaux cas
Bellarbi, Salma; Sina, Mohamed; Jahid, Ahmed; Zouaidia, Fouad; Bernoussi, Zakia; Mahassini, Najat
2013-01-01
A travers cet article, nous détaillons les caractéristiques clinico-pathologiques et discutons l'histogenèse de la tumeur de Frantz. Deux patients opérés pour tumeur de Frantz. Ils ont eu un traitement chirurgical seul. L'étude morphologique était couplée à un examen immuno-histochimique (IHC) utilisant les anticorps anti CD10, anti- vimentine, anti-énolase neuronale spécifique (NSE), anti-synaptophysine, anti-chromogranine A et anti-cytokératine. Un immuno-marquage à l'anti-oestrogène et l'anti-progestérone a été réalisé dans un cas. Il s'agissait d'une femme âgée de 45ans et d'un garçon de 12 ans. Les aspects échographiques et scannographiques étaient non spécifiques. Une exérèse chirurgicale complète a été réalisée dans les deux cas. L'analyse histologique évoquait une tumeur de Frantz. Le diagnostic a été retenu après étude immuno-histohimique. L'évolution était favorable sans récidive avec respectivement un recul de 18 et 16 mois. La tumeur de Frantz est une entité rare. Son diagnostic repose sur l'examen anatomopathologique complété par l'étude immuno-histochimique. Son pronostic est excellent après résection chirurgicale. PMID:23503717
Cause rare d'une perforation de la cloison nasale
Jahidi, Ali; Hemmaoui, Bouchaïb; Itoua, Wulfran Rosaire; Errami, Noureddine; Benariba, Fouad
2014-01-01
Les perforations de la cloison nasale constituent une pathologie fréquente en ORL. Leurs causes sont multiples et restent dominées par les traumatismes chirurgicaux. Les étiologies infectieuses et notamment la tuberculose sont rares. Nous présentons le cas d'une patiente ayant bénéficié d'une méatotomie bilatérale et chez laquelle une perforation de la cloison nasale a été découverte lors d'un examen systématique à un an de son intervention. D'abord considérée comme une complication de la chirurgie, la biopsie des berges de la perforation a permis de déterminer son origine tuberculeuse. La présentation clinique des perforations de la cloison nasale n'est pas spécifique. Elles sont souvent asymptomatiques et de découverte fortuite. Les traumatismes notamment chirurgicaux sont le plus siuvent en cause. L′orogine tuberculeuse resta très rare. Le diagnostic de certitude de tuberculose repose sur la biopsie des berges de cette perforation. Le but de ce travail est de mettre en avant l'intérêt de la biopsie dans le diagnostic de la tuberculose de la cloison nasale. Cette biopsie doit être systématique même en cas d'antécédents de chirurgie endonasale qui est le plus souvent en cause dans les perforations de la cloison nasale. PMID:24932334
Determination des Parametres Atmospheriques des Etoiles Naines Blanches de Type DB
NASA Astrophysics Data System (ADS)
Beauchamp, Alain
1995-01-01
Les etoiles naines blanches dont les spectres visibles sont domines par des raies fortes d'helium neutre sont subdivisees en trois classes, DB (raies d'helium neutre seulement), DBA (raies d'helium neutre et d'hydrogene) et DBZ (raies d'helium neutre et d'elements lourds). Nous analysons trois echantillons de spectres observes de ces types de naines blanches. Les echantillons consistent, respectivement, de 48 spectres dans le domaine du visible (3700-5100 A). 24 dans l'ultraviolet (1200-3100 A) et quatre dans la partie rouge du visible (5100-6900) A). Parmi les objets de l'echantillon visible, nous identifions quatre nouvelles DBA, ainsi que deux nouvelles DBZ, auparavant classees DB. L'analyse nous permet de determiner spectroscopiquement les parametres atmospheriques, soit la temperature effective, la gravite de surface, ainsi que l'abondance relative de l'hydrogene, N(H)/N(He), dans le cas des DBA. Pour les objets plus chauds que ~15,000 K, la gravite de surface determinee est fiable, et nous obtenons les masses stellaires avec une relation masse -rayon theorique. Les exigences propres a l'analyse de ces objets ont requis d'importantes ameliorations dans la modelisation de leurs atmospheres et distributions de flux de radiation emis par ces derniers. Nous avons inclus dans les modeles d'atmospheres, pour la premiere fois a notre connaissance, les effets dus a la molecule He_sp{2 }{+}, ainsi que l'equation d'etat de Hummer et Mihalas (1988), qui tient compte des perturbations entre particules dans le calcul des populations des differents niveaux atomiques. Nous traitons la convection dans le cadre de la theorie de la longueur de melange. Trois grilles de modeles d'atmospheres a l'ETL (equilibre thermodynamique local) ont ete produites, pour un ensemble de temperatures effectives, gravites de surface et abondances d'hydrogene couvrant les proprietes des etoiles de nos echantillons; elles sont caracterisees par differentes parametrisations appelees, respectivement, ML1, ML2 et ML3, de la theorie de longueur de melange. Nous avons calcule une grille de spectres synthetiques avec les memes parametrisations que la grille de modeles d'atmospheres. Notre traitement de l'elargissement des raies de l'helium neutre a ete ameliore de facon significative par rapport aux etudes precedentes. D'une part, nous tenons compte de l'elargissement des raies produit par les interactions entre l'emetteur et les particules neutres (elargissements par resonance et de van der Waals) en plus de celui par les particules chargees (elargissement Stark). D'autre part, nous avons calcule nous-memes les profils Stark avec les meilleures theories d'elargissement disponibles pour la majorite des raies observees; ces profils depassent en qualite ce qui a ete publie jusqu'a ce jour. Nous avons calcule la distribution de masse des etoiles DB plus chaudes que 15,000 K. La distribution de masse des DB est tres etroite, avec environ les trois quarts des etoiles incluses dans l'intervalle 0.55-0.65 Modot. La masse moyenne des etoiles DB est de 0.58 M_⊙ avec sigma = 0.07. La difference principale entre les distributions de masse des DB et DA est la faible proportion de DB dans les ailes de la distribution, ce qui implique que les DA moins massives que ~0.4 M odot et plus massives que ~0.8 M_⊙ ne se convertissent pas en DB. Les objets les plus massifs de notre echantillon sont de type DBA, ce qui suggere que la masse elevee favorise la visibilite de l'hydrogene. (Abstract shortened by UMI.).
Andonaba, Jean Baptiste; Barro-Traoré, Fatou; Yaméogo, Téné; Diallo, Boukary; Korsaga-Somé, Nina; Traoré, Adama
2013-01-01
La localisation cutanée de la maladie tuberculeuse demeure une forme rare et représente seulement 2,1% des localisations. L'objet de cette étude est de rapporter le profil épidémiologique, anatomoclinique et évolutif des cas de tuberculose ganglio-cutanée diagnostiqués dans un CHU au Burkina Faso. La fréquence de la tuberculose cutanée est très faible au CHUSS. Six cas ont été diagnostiqués entre 2004 et 2010, soit une fréquence de un cas par an. La durée d’évolution des cas allait de deux jusqu’à dix ans avant leur diagnostic. Les lésions observées étaient: trois scrofulodermes, trois gommes, une tuberculose testiculaire associée à un mal de Pott, un cas de polyadénopathies et des cicatrices atropho-rétractiles dans la plupart des cas. Sur le plan anatomopathologique, des granulomes tuberculoïdes ont été mis en évidence dans tous les cas avec une forte réaction tuberculinique à l'IDR. Sous antituberculeux pendant six mois, l’évolution a été bonne dans tous les cas mais au prix de séquelles cutanées cicatricielles inesthétiques. Son ampleur reste peut-être encore méconnue. Le renforcement du plateau technique du CHU et une bonne collaboration interdisciplinaire contribuerait à un meilleur diagnostic et prise en charge de cette affection. PMID:24648863
Les brulures electriques chez les voleurs de cuivre
Belmir, R.; Fejjal, N.; Achbouk, H.; El Mazouz, S.; Gharib, N.; Abassi, A.; Belmahi, A.
2011-01-01
Summary Les vols de biens fabriqués avec le cuivre semblent en hausse depuis un certain temps du fait de son prix élevé de revente, ce qui est à l’origine d’une augmentation du nombre d’accidents électriques par haut voltage (AEHV) qui sont graves du fait des brûlures profondes qu’elles provoquent le long des axes vasculo-nerveux. Les Auteurs rapportent une série de neuf cas d’AEHV traités au service de chirurgie plastique et de brûlés de l’Hôpital Ibn Sina de Rabat, Maroc, à travers laquelle ils étudient les caractéristiques épidémiologiques, cliniques et thérapeutiques. La population intéressée était jeune et active. Les brûlures étaient secondaires à un contact avec des câbles à haute tension lors de tentatives de vol par arrachement de conducteurs en cuivre dans les transformateurs dans 67% des cas, et lors de tentatives de coupure de caténaires alimentant les trains électriques sur le réseau ferroviaire dans 33% des cas. Le traitement des lésions électrothermiques a nécessité des interventions itératives avec amputation et désarticulation des segments de membres nécrosés dans 66% des cas, dont les suites étaient marquées par des séquelles fonctionnelles invalidantes. La prévention de ce type d’AEHV reste fondamentale. PMID:22262961
Use and abuse of the urban groundwater resource: Implications for a new management strategy
NASA Astrophysics Data System (ADS)
Drangert, J.-O.; Cronin, A. A.
Various human activities threaten the groundwater quality and resource under urban areas, and yet residents increasingly depend on it for their livelihood. The anticipated expansion of the world's urban population from 3 to 6 billion in the coming 50 years does not only pose a large water management threat but also provides an opportunity to conserve groundwater in a better way than up to now. The authors argue for a new way to manage urban activities in order to conserve the precious groundwater resource. The focus is on the quality of the discharged water after use in households. Restrictions on what is added to water while using it, e.g. detergents, excreta, paint residues, oils, and pharmaceuticals, are important to simplify the treatment and reuse of used water. Avoiding mixing different wastewater flows has the same positive effect. If increased volumes of wastewater can be treated and reused, the demand on the groundwater resource is reduced, as also occurs with demand management measures. Reduced discharge of polluted water to the environment from households and utilities also conserves the quality of groundwater and reduces sophisticated treatment costs. L'urbanisation conduit à une demande élevée et concentrée d'eau de qualité adéquate, accompagnée du rejet d'importants volumes correspondants d'eaux usées. La nourriture est importée dans les villes tandis que les micro-organismes et les nutriments provenant des excrétas humains sont rejetés dans les rivières, les lacs et aussi les eaux souterraines. De plus, une large gamme de biens de consommation est évacuée par les égouts. Les créances environnementales, c'est-à-dire l'appauvrissement des conditions environnementales qui demandera des apports humains et économiques pour la réhabilitation, sont habituelles dans toutes les villes, et pas seulement dans l'hémisphère sud, comme cela est indiqué dans le rapport sur l'alimentation en eau et la santé publique du monde (publié par l'OMS et UNICEF), établissant que la plupart des eaux résiduaires des zones urbaines reste non traitée (65% en Asie, 86% en Amérique latine et 100% en Afrique). La tâche à réaliser pour l'homme est de protéger les ressources en eau souterraine en sorte qu'elle reste disponible pour les habitants des villes dans le futur. Dans les prochaines 50 années, il faut s'attendre à ce que la population urbaine s'accroisse de 3 à 6 milliards de personnes selon les estimations des Nations Unies; aussi il est impératif de ne pas continuer à polluer les eaux souterraines sous les nouvelles zones urbaines en cours de construction. Dans cet article, nous analyserons la qualité des eaux souterraines et leur protection à la lumière des récents changements de politique de l'eau, c'est-à-dire de la gestion de l'alimentation en eau jusqu'à une gestion de la demande et en abordant éventuellement la période de gestion du recyclage. La urbanización lleva a una demanda elevada y concentrada de agua de calidad adecuada, acompañada por el vertido de volúmenes análogamente mayores de aguas residuales. Los alimentos se importan a ciudades donde los microorganismos y nutrientes de los excrementos humanos son descargados a ríos, lagos y, también, aguas subterráneas. Más aún, gran número de los bienes de consumo son eliminados vía las tuberías de las cloacas. Las deudas medioambientales, es decir, el empobrecimiento de las condiciones medioambientales, que requerirán de aportaciones humanas y económicas para rehabilitarlas, son comunes a todas las ciudades, sobretodo en el Hemisferio Sur, donde, según la Valoración Global de Suministro de Agua y Saneamiento (OMS y UNICEF), la mayor parte de las aguas residuales urbanas no son tratadas (65% en Asia, 86% en Latinoamérica, 100% en África). La tarea pendiente consiste en proteger los recursos de aguas subterráneas para que estén disponibles de forma rápida para los habitantes urbanos también el futuro. En los próximos 50 años, se espera que la población urbana aumente de 3,000 a 6,000 millones de personas, según estimaciones de las Naciones Unidas, por lo que es imperativo dejar de contaminar las aguas subterráneas existentes bajo las nuevas áreas urbanas en construcción. En este artículo, se escudriña la calidad de las aguas subterráneas y su protección a la luz de los cambios recientemente introducidos en las políticas del agua, esto es, desde la gestión de los abastecimientos de agua a la gestión de la demanda y, eventualmente, hastaa la gestión de la reutilitzación.
NASA Astrophysics Data System (ADS)
Floquet, Jimmy
Dans les cuves d'electrolyse d'aluminium, le milieu de reaction tres corrosif attaque les parois de la cuve, ce qui diminue leur duree de vie et augmente les couts de production. Le talus, qui se forme sous l'effet des pertes de chaleur qui maintiennent un equilibre thermique dans la cuve, sert de protection naturelle a la cuve. Son epaisseur doit etre controlee pour maximiser cet effet. Advenant la resorption non voulue de ce talus, les degats generes peuvent s'evaluer a plusieurs centaines de milliers de dollars par cuve. Aussi, l'objectif est de developper une mesure ultrasonore de l'epaisseur du talus, car elle serait non intrusive et non destructive. La precision attendue est de l'ordre du centimetre pour des mesures d'epaisseurs comprenant 2 materiaux, allant de 5 a 20 cm. Cette precision est le facteur cle permettant aux industriels de controler l'epaisseur du talus de maniere efficace (maximiser la protection des parois tout en maximisant l'efficacite energetique du procede), par l'ajout d'un flux thermique. Cependant, l'efficacite d'une mesure ultrasonore dans cet environnement hostile reste a demontrer. Les travaux preliminaires ont permis de selectionner un transducteur ultrasonore a contact ayant la capacite a resister aux conditions de mesure (hautes temperatures, materiaux non caracterises...). Differentes mesures a froid (traite par analyse temps-frequence) ont permis d'evaluer la vitesse de propagation des ondes dans le materiau de la cuve en graphite et de la cryolite, demontrant la possibilite d'extraire l'information pertinente d'epaisseur du talus in fine. Fort de cette phase de caracterisation des materiaux sur la reponse acoustique des materiaux, les travaux a venir ont ete realises sur un modele reduit de la cuve. Le montage experimental, un four evoluant a 1050 °C, instrumente d'une multitude de capteurs thermique, permettra une comparaison de la mesure intrusive LVDT a celle du transducteur, dans des conditions proches de la mesure industrielle. Mots-cles : Ultrasons, CND, Haute temperature, Aluminium, Cuve d'electrolyse.
Felli, M. C.; Parent, S.; Zelazo, P. D.; Tremblay, R. E.; Séguin, J. R.
2017-01-01
Résumé À la petite enfance, l’adaptation sociale de l’enfant dépend en partie des risques auxquels il est exposé dans son environnement. Toutefois, les mécanismes par lesquels les facteurs de risque opèrent leurs influences sur l’adaptation sociale de l’enfant sont peu documentés. Ainsi, cette étude examine dans un premier temps l’effet principal de l’adversité familiale, un cumul de facteurs de risque, sur les problèmes de comportement intériorisés et extériorisés, ainsi que sur la sécurité d’attachement des enfants d’âge préscolaire. Dans un deuxième temps, elle évalue le rôle médiateur du fonctionnement familial dans le lien entre l’adversité familiale et les problèmes de comportement de même qu’entre l’adversité familiale et la sécurité d’attachement des enfants d’âge préscolaire. Les 572 participants à l’étude (n=572) sont âgés entre cinq et 42 mois lors des mesures de l’adversité familiale et de 42 mois lors de la mesure des problèmes de comportement et du fonctionnement familial. Quatre-vingt d’entre eux (n=80) ont fait l’objet d’une mesure de sécurité d’attachement à 48 mois. Les résultats indiquent, d’abord, un effet principal de l’adversité familiale sur les problèmes de comportement intériorisés et extériorisés. Un effet médiateur significatif du fonctionnement familial est ensuite rapporté dans le lien entre l’adversité familiale et les problèmes de comportement intériorisés et extériorisés. Aucun effet significatif n’est observé pour la sécurité d’attachement des enfants de 48 mois. PMID:28567062
Methodes de calcul des forces aerodynamiques pour les etudes des interactions aeroservoelastiques
NASA Astrophysics Data System (ADS)
Biskri, Djallel Eddine
L'aeroservoelasticite est un domaine ou interagissent la structure flexible d'un avion, l'aerodynamique et la commande de vol. De son cote, la commande du vol considere l'avion comme une structure rigide et etudie l'influence du systeme de commande sur la dynamique de vol. Dans cette these, nous avons code trois nouvelles methodes d'approximation de forces aerodynamiques: Moindres carres corriges, Etat minimal corrige et Etats combines. Dans les deux premieres methodes, les erreurs d'approximation entre les forces aerodynamiques approximees par les methodes classiques et celles obtenues par les nouvelles methodes ont les memes formes analytiques que celles des forces aerodynamiques calculees par LS ou MS. Quant a la troisieme methode, celle-ci combine les formulations des forces approximees avec les methodes standards LS et MS. Les vitesses et frequences de battement et les temps d'executions calcules par les nouvelles methodes versus ceux calcules par les methodes classiques ont ete analyses.
NASA Astrophysics Data System (ADS)
Leger, Michel T.
Les activites humaines energivores telles l'utilisation intensive de l'automobile, la surconsommation de biens et l'usage excessif d'electricite contribuent aux changements climatiques et autres problemes environnementaux. Bien que plusieurs recherches rapportent que l'etre humain est de plus en plus conscient de ses impacts sur le climat de la planete, ces memes recherches indiquent qu'en general, les gens continuent a se comporter de facon non ecologique. Que ce soit a l'ecole ou dans la communaute, plusieurs chercheurs en education relative a l'environnement estiment qu'une personne bien intentionnee est capable d'adopter des comportements plus respectueux de l'environnement. Le but de cette these etait de comprendre le processus d'integration de comportements d'attenuation des changements climatiques dans des familles. A cette fin, nous nous sommes fixe deux objectifs : 1) decrire les competences et les procedes qui favorisent l'adoption de comportements d'attenuation des changements climatiques dans des familles et 2) decrire les facteurs et les dynamiques familiales qui facilitent et limitent l'adoption de comportements d'attenuation des changements climatiques dans des familles. Des familles ont ete invitees a essayer des comportements personnels et collectifs d'attenuation des changements climatiques de sorte a integrer des modes de vie plus ecologiques. Sur une periode de huit mois, nous avons suivi leur experience de changement afin de mieux comprendre comment se produit le processus de changement dans des familles qui decident volontairement d'adopter des comportements d'attenuation des changements climatiques. Apres leur avoir fourni quelques connaissances de base sur les changements climatiques, nous avons observe le vecu de changement des familles durant huit mois d'essais a l'aide de journaux reflexifs, d'entretiens d'explicitation et du journal du chercheur. La these comporte trois articles scientifiques. Dans le premier article, nous presentons une recension des ecrits sur le changement de comportement en environnement. Nous explorons egalement la famille comme systeme fonctionnel de sorte a mieux comprendre ce contexte d'action environnementale qui est, a notre connaissance, peu etudie. Dans le deuxieme article, nous presentons nos resultats de recherche concernant les facteurs d'influence observes ainsi que les competences manifestees au cours du processus d'adoption de nouveaux comportements environnementaux dans trois familles. Enfin, le troisieme article presente les resultats du cas d'une quatrieme famille ou les membres vivent depuis longtemps des modes de vie ecologique. Dans le cadre d'une demarche d'analyse par theorisation ancree, l'etude de ce cas modele nous a permis d'approfondir les categories conceptuelles identifiees dans le deuxieme article de sorte a produire une modelisation de l'integration de comportements environnementaux dans le contexte de la famille. Les conclusions degagees grace a la recension des ecrits nous ont permis d'identifier les elements qui pourraient influencer l'adoption de comportements environnementaux dans des familles. La recension a aussi permis une meilleure comprehension des divers facteurs qui peuvent affecter l'adoption de comportements environnementaux et, enfin, elle a permis de mieux cerner le phenomene de changement de comportement dans le contexte de la famille consideree comme un systeme. En appliquant un processus d'analyse inductif, a partir de nos donnees qualitatives, les resultats de notre etude multi-cas nous ont indique que deux construits conceptuels semblent influencer l'adoption de comportements environnementaux en famille : 1) les valeurs biospheriques communes au sein de la famille et 2) les competences collectivement mises a profit collectivement durant l'essai de nouveaux comportements environnementaux. Notre modelisation du processus de changement dans des familles indique aussi qu'une dynamique familiale collaborative et la presence d'un groupe de soutien exterieur sont deux elements conceptuels qui tendent a influencer les deux principaux construits et, par ce fait, tendent a augmenter les chances d'integrer de nouveaux comportements environnementaux dans des familles. En conclusion, nous presentons les limites de notre recherche ainsi que des pistes pour des recherches futures. Notamment, nous recommandons que l'ecole accueille les familles des eleves dans le cadre d'activites d'education a l'environnement ou les freres, les soeurs et les parents des eleves puissent apprendre ensemble, a l'ecole. Par exemple, nous recommandons la conduite en ERE d'une recherche action portant sur l'apprentissage intergenerationnel de nouveaux comportements dans le contexte de la famille. Mots-cles : education relative a l'environnement, comportement environnemental en famille, changement de comportement en famille, valeurs biospheriques, competences d'action.
La manucure et la pédicure dans la ville de Ouagadougou (Burkina Faso): pratiques et risqué
Korsaga-Somé, Nina; Andonaba, Jean Baptiste; Ouédraogo, Muriel Sidnoma; Tapsoba, Gilbert Patrice; Ilboudo, Léopold; Savadogo, Cérina; Barro-Traoré, Fatou; Niamba, Pascal; Traoré, Adama
2016-01-01
La manucure-pédicure est l'ensemble des soins esthétiques des mains, des pieds et des ongles. Au Burkina Faso, l'usage des produits de manucure-pédicure, les techniques utilisées ainsi que les risques encourus restent méconnus. L'objectif de notre étude était d’évaluer la pratique de la manucure-pédicure dans la ville de Ouagadougou. Nous avons mené une étude transversale descriptive de décembre 2010 à novembre 2012 incluant tout les praticiens ayant au moins six mois d'expérience dans l'activité et les clients présents sur les lieux au moment de l'enquête. Nous avons interrogé au total 313 praticiens et 313 clients. L’âge moyen des praticiens était de 19 ans et celui des clients de 32,2 ans. Les praticiens fixes étaient en majorité des femmes (96,87%), ceux mobiles surtout des hommes (68,37%), et 64,53% des clients étaient des femmes. Le pourcentage de praticiens n'ayant pas reçu de formation professionnelle était de 93,92%. 29,7% des praticiens faisaient tremper les instruments pendant au moins dix minutes dans de l'eau de javel; 75,71% savaient que l'utilisation de certains outils étaient dangereux et 26,51% étaient avaient présenté des effets secondaires. Parmi les clients, 40,25% savaient que le matériel utilisé comportait des risques et 30,35% avaient été victimes d'accidents. Les soins de manucure et de pédicure se font dans les salons de coiffure par des coiffeuses non formées à l'exercice de la profession La provenance et la composition des produits n'est pas connues. Des produits non recommandés sont utilisés (shampooing pour trempage des pieds, lame de rasoir et ciseaux pour raclage des pieds). Le recours à la manucure et/ou pédicure est parfois nécessaire mais cela ne doit pas faire perdre de vue les risques encourus. Une sensibilisation des clients et une formation des praticiens semblent nécessaires pour minimiser les risques. PMID:27642448
Bammo, Mariama; Dioussé, Pauline; Thiam, Marietou; Diop, Madoky Maguatte; Berthe, Adama; Faye, Flugence Abdou; Diallo, Thierno Abdoul Aziz; Sarr, Fatou Seck; Dione, Haby; Toure, Papa Souleymane; Diop, Bernard Marcel; Ka, Mamadou Mortalla
2015-01-01
De nombreuses études ont démontré que les femmes infectées par le VIH ont un risque accru de survenue de néoplasies cervicales intra épithéliales. L'association entre les deux affections étant bidirectionnelle, l'objectif était de décrire les anomalies cervicales chez les femmes séropositives au virus de l'immunodéficience humaine (VIH), de rechercher des facteurs associés et de proposer des recommandations en termes de suivi de ces femmes. Il s'agissait d'une étude transversale, multicentrique recensant l'ensemble des frottis cervico-vaginaux (FCV) et des colposcopies des patientes infectées par le VIH entre 2012 et 2014 dans les services de dermatologie de Thiès et de Mbour. Les données étaient recueillies et analysées par le logiciel EPI Info 2012 version 3.5.4. Les tests statistiques ont été effectués avec un seuil de significativité p <0,05. Etaient inclus 125 patientes. L’âge moyen était de 38,98 ± 10.2 ans [20-77]. Il n'y avait aucun signe d'appels dans 82.4%. Le FCV était normal dans 32.8%, inflammatoire dans 44.8%. Les anomalies cytologiques concernaient 22,4% dont, ASC-H (suspicion de lésions de haut grade: 2.4%), LSIL (lésions de bas grade: 8.8%), HSIL (lésions de haut grade: 4%). Leur majorité (60.7%) avaient un taux de CD4 < 500 et étaient au stade 3 de l'OMS dans 64.3%; la biopsie montrait une dysplasie sévère chez 37.5% des patientes ayant pu réaliser cet examen. Deux patientes ont bénéficié d'un traitement curatif notamment l'exérèse chirurgicale. La survenue de dysplasies cervicales même précoces semble être associée à un stade avancé de l'infection VIH. Un dépistage et un traitement précoces sont absolument nécessaires. PMID:26834915
Methodes d'amas quantiques a temperature finie appliquees au modele de Hubbard
NASA Astrophysics Data System (ADS)
Plouffe, Dany
Depuis leur decouverte dans les annees 80, les supraconducteurs a haute temperature critique ont suscite beaucoup d'interet en physique du solide. Comprendre l'origine des phases observees dans ces materiaux, telle la supraconductivite, est l'un des grands defis de la physique theorique du solide des 25 dernieres annees. L'un des mecanismes pressentis pour expliquer ces phenomenes est la forte interaction electron-electron. Le modele de Hubbard est l'un des modeles les plus simples pour tenir compte de ces interactions. Malgre la simplicite apparente de ce modele, certaines de ses caracteristiques, dont son diagramme de phase, ne sont toujours pas bien etablies, et ce malgre plusieurs avancements theoriques dans les dernieres annees. Cette etude se consacre a faire une analyse de methodes numeriques permettant de calculer diverses proprietes du modele de Hubbard en fonction de la temperature. Nous decrivons des methodes (la VCA et la CPT) qui permettent de calculer approximativement la fonction de Green a temperature finie sur un systeme infini a partir de la fonction de Green calculee sur un amas de taille finie. Pour calculer ces fonctions de Green, nous allons utiliser des methodes permettant de reduire considerablement les efforts numeriques necessaires pour les calculs des moyennes thermodynamiques, en reduisant considerablement l'espace des etats a considerer dans ces moyennes. Bien que cette etude vise d'abord a developper des methodes d'amas pour resoudre le modele de Hubbard a temperature finie de facon generale ainsi qu'a etudier les proprietes de base de ce modele, nous allons l'appliquer a des conditions qui s'approchent de supraconducteurs a haute temperature critique. Les methodes presentees dans cette etude permettent de tracer un diagramme de phase pour l'antiferromagnetisme et la supraconductivite qui presentent plusieurs similarites avec celui des supraconducteurs a haute temperature. Mots-cles : modele de Hubbard, thermodynamique, antiferromagnetisme, supraconductivite, methodes numeriques, larges matrices
An investigation of the Attenuation Provided by the Surefire EP3 Sonic Defender (Trademark) Earplug
2008-05-01
Reine (en droit du Canada), telle que représentée par le ministre de la Défense nationale, 2008 DRDC Toronto TR 2008-040 i Abstract...Surefire chez cinq hommes et cinq femmes. Selon le fabricant, un orifice percé dans le bouchon permet aux sons dont le niveau est sans danger de ...dispositif avec l’orifice ouvert et fermé en l’absence de bruits impulsifs. Cinq hommes et cinq femmes y ont participé. Le seuil d’audibilité de chaque
ERIC Educational Resources Information Center
Federation des parents francophones de l'Alberta, Edmonton (Canada).
This guidebook is intended for parents of French-speaking students in Alberta. It describes French-as-a-first-language education in Alberta and provides information to help parents, in collaboration with school personnel and the wider francophone community in Alberta, to preserve and develop their children's identity as speakers of French and as…
NASA Astrophysics Data System (ADS)
Kim, Youn Jong; Hamm, Se-Yeong
Groundwater contamination is becoming a major environmental problem in South Korea with the marked expansion of the industrial base and the explosive growth of the population. Even in rural areas, the increased use of fertilizers and pesticides, the presence of acid-mine drainage, and increase of volumes of domestic wastewaters are adding to groundwater pollution. The DRASTIC/EGIS model was used to evaluate the potential for groundwater contamination in the Cheongju city area, the first of several pilot studies. The model allows the designation of hydrogeologic settings within the study area, based on a composite description of all the major geologic and hydrogeologic factors for each setting. Then, a scheme for relative ranking of the hydrogeologic factors is applied to evaluate the relative vulnerability to groundwater contamination of each hydrogeologic setting. DRASTIC/EGIS can serve as a tool to evaluate pollution potential and so facilitate programs to protect groundwater resources. Résumé La contamination de l'eau souterraine devient un problème environnemental majeur en Corée du Sud, en relation avec le développement industriel bien marqué et l'explosion démographique. Meme dans les zones rurales, l'utilisation accrue d'engrais et de pesticides, le drainage acide de mines et les rejets croissants d'eaux usées contribuent à la pollution des nappes. Le modèle DRASTIC/EGIS a été utilisé pour évaluer le potentiel de contamination des eaux souterraines dans la région de la ville de Cheongju, la première de plusieurs régions pilotes. Le modèle permet de définir des ensembles hydrogéologiques dans la région étudiée, à partir de la description composite de tous les facteurs géologiques et hydrogéologiques essentiels pour chaque ensemble. Ensuite, un schéma pour le classement des facteurs hydrogéologiques est mis en oeuvre pour évaluer la vulnérabilité relative à la contamination des eaux souterraines pour chaque ensemble. DRASTIC/EGIS peut servir d'outil d'évaluation du potentiel de pollution et ainsi faciliter des plans de protection des ressources en eau souterraines. Resumen La contaminación de aguas subterráneas, debida a la expansión industrial y al fuerte crecimiento demográfico, supone un gran problema medioambiental en Corea del Sur. También en áreas rurales, el incremento en el uso de fertilizantes y pesticidas, el drenaje de minas y el aumento de los caudales de aguas residuales provocan un aumento de la contaminación. Para evaluar el riesgo de contaminación de las aguas subterráneas en el área de la ciudad de Cheongju, el primero de una serie de estudios piloto, se utilizó el modelo DRASTIC/EGIS. Este modelo permite la zonificación del área de estudio, basada en consideraciones geológicas e hidrogeológicas. En cada una de las zonas se aplica un esquema de clasificación que evalúa su vulnerabilidad relativa. El modelo DRASTIC/EGIS puede servir como una herramienta para evaluar el riesgo potencial de contaminación que facilite la creación de programas de protección de los recursos subterráneos.
Desclaux, Alice; Ky-Zerbo, Odette; Somé, Jean-François; Makhlouf-Obermeyer, Carla
2014-01-01
Résumé La politique actuelle de lutte contre le sida qui repose sur l’extension de l’accès aux traitements et à la prévention exige qu’une proportion élevée de la population connaisse son statut en matière de VIH. Pour cela, l’OMS a proposé le développement de stratégies communautaires délivrant le dépistage et le conseil au-delà des services de soins, comme le test à domicile ou les campagnes de sensibilisation et dépistage de grande envergure, appliqués en Afrique australe et de l’Est. Pour définir les stratégies pertinentes dans des régions de basse prévalence comme l’Afrique de l’Ouest, les expériences communautaires de promotion du dépistage doivent y être évaluées. Cet article présente une évaluation des campagnes au Burkina Faso du point de vue des usagers. Dans le cadre d’un projet sur les pratiques et l’éthique du dépistage dans quatre pays africains (MATCH), une enquête qualitative spécifique a été menée pendant la campagne de 2008, auprès de personnes ayant fait le test pendant la campagne, ayant fait le test hors campagne ou n’ayant pas fait le test. Les appréciations sont globalement très favorables aux campagnes, notamment à cause de l’information dispensée, l’accessibilité des sites, la gratuité du test, la qualité des services et l’effet d’entrainement. Les limites ou critiques sont essentiellement liées à l’affluence ou à la crainte de ne pas être soutenu en cas de résultat positif. La démarche de recours au test ne fait plus l’objet de suspicion, au moins pendant la campagne. Cette « normalisation » du recours au test et la mobilisation collective facilitent des pratiques en groupe, ce qui peut rendre difficile de garder son statut VIH secret. L’évaluation des campagnes par les usagers les présente comme une opportunité pour accéder facilement au test et pour communiquer à ce sujet dans divers espaces sociaux à partir des informations délivrées sur le VIH. PMID:24755264
Aborder la syllogomanie en médecine familiale
Frank, Christopher; Misiaszek, Brian
2012-01-01
Résumé Objectif Examiner comment se présente la syllogomanie et suggérer aux médecins de famille des approches et des ressources pour sa prise en charge. Source des données On a fait une recension dans PubMed de 2001 à mai 2011. Le mot-clé MeSH hoarding a été utilisé pour identifier la recherche à ce sujet et passer en revue les articles portant sur les aspects neuropsychologiques de l’accumulation pathologique, son diagnostic et son traitement. Message principal La syllogomanie ou accumulation pathologique est souvent un problème peu évident en médecine familiale. Les patients qui ont une syllogomanie se présentent souvent à cause d’un événement sentinelle comme une chute ou un incendie à leur domicile. Quoique la syllogomanie soit traditionnellement associée à un trouble obsessionnel-compulsif, le plus souvent, les patients ont une maladie systémique secondaire associée à un comportement syllogomaniaque ou ont une syllogomanie en l’absence de caractéristiques compulsives considérables. On s’attend à ce que la syllogomanie soit incluse dans la 5e édition du Manuel diagnostique et statistique des troubles mentaux. Si possible, il vaut mieux prendre en charge la syllogomanie selon une approche multidisciplinaire. Un nombre grandissant de centres offrent des programmes pour améliorer les symptômes ou réduire les dangers. Il a été démontré que la prise en charge pharmacologique a une certaine utilité pour traiter les causes secondaires. Chez les personnes plus âgées, des problèmes comme la démence, la dépression et la toxicomanie sont souvent associés à un comportement d’accumulation pathologique. Il faudrait essayer de maintenir les patients à domicile dans la mesure du possible, mais l’évaluation de la capacité devrait guider l’approche à adopter. Conclusion L’accumulation pathologique est plus fréquente que ne le pensent les médecins de famille. Si on identifie une syllogomanie, il faudrait rechercher des ressources locales pour contribuer à la prise en charge. Il faut évaluer et traiter les causes sous-jacentes lorsqu’elles sont cernées. On s’attend à ce que la syllogomanie primaire compte parmi les nouveaux diagnostics dans la 5e édition du Manuel diagnostique et statistique des troubles mentaux.
Tao, Fulu; Rötter, Reimund P; Palosuo, Taru; Gregorio Hernández Díaz-Ambrona, Carlos; Mínguez, M Inés; Semenov, Mikhail A; Kersebaum, Kurt Christian; Nendel, Claas; Specka, Xenia; Hoffmann, Holger; Ewert, Frank; Dambreville, Anaelle; Martre, Pierre; Rodríguez, Lucía; Ruiz-Ramos, Margarita; Gaiser, Thomas; Höhn, Jukka G; Salo, Tapio; Ferrise, Roberto; Bindi, Marco; Cammarano, Davide; Schulman, Alan H
2018-03-01
Climate change impact assessments are plagued with uncertainties from many sources, such as climate projections or the inadequacies in structure and parameters of the impact model. Previous studies tried to account for the uncertainty from one or two of these. Here, we developed a triple-ensemble probabilistic assessment using seven crop models, multiple sets of model parameters and eight contrasting climate projections together to comprehensively account for uncertainties from these three important sources. We demonstrated the approach in assessing climate change impact on barley growth and yield at Jokioinen, Finland in the Boreal climatic zone and Lleida, Spain in the Mediterranean climatic zone, for the 2050s. We further quantified and compared the contribution of crop model structure, crop model parameters and climate projections to the total variance of ensemble output using Analysis of Variance (ANOVA). Based on the triple-ensemble probabilistic assessment, the median of simulated yield change was -4% and +16%, and the probability of decreasing yield was 63% and 31% in the 2050s, at Jokioinen and Lleida, respectively, relative to 1981-2010. The contribution of crop model structure to the total variance of ensemble output was larger than that from downscaled climate projections and model parameters. The relative contribution of crop model parameters and downscaled climate projections to the total variance of ensemble output varied greatly among the seven crop models and between the two sites. The contribution of downscaled climate projections was on average larger than that of crop model parameters. This information on the uncertainty from different sources can be quite useful for model users to decide where to put the most effort when preparing or choosing models or parameters for impact analyses. We concluded that the triple-ensemble probabilistic approach that accounts for the uncertainties from multiple important sources provide more comprehensive information for quantifying uncertainties in climate change impact assessments as compared to the conventional approaches that are deterministic or only account for the uncertainties from one or two of the uncertainty sources. © 2017 John Wiley & Sons Ltd.
Epidémiologie du cancer gastrique: expérience d'un centre hospitalier marocain
Mellouki, Ihsane; laazar, Nawal; Benyachou, Bahija; Aqodad, Nouredine; Ibrahimi, Adil
2014-01-01
Le cancer de l'estomac est représenté essentiellement par Les adénocarcinomes gastriques, ces derniers demeurent l'une des dix premières causes mondiales de mortalité avec un pronostic qui est péjoratif. Son incidence reste variable à travers le monde, elle est caractérisée par une importante disparité géographique. Le but de notre travail est de décrire les caractéristiques épidémiologiques de l'adénocarcinome gastrique dans notre contexte à travers une étude rétrospective, observationnelle étalée sur une période de 10 ans (Janvier 2001- Janvier 2011), incluant tous les malades admis au service d'hépato-gastroentérologie du CHU Hassan II de Fès pour prise en charge d'un adénocarcinome gastrique. Durant cette période, 343 patients étaient admis pour prise en charge d'une tumeur gastrique, dont 170 patients avaient un adénocarcinome gastrique (49.5%). L’âge moyen de ces patients était de 58±13.4 ans [16 ans-0 ans]. Dans 43.7% des cas, les patients provenaient de la région de Fès, souvent du milieu rurale. On note une nette prédominance masculine, avec une différence significative entre les 2 sexes (p < ;0.05). Les patients âgés de moins de 60ans représentaient la tranche d’âge prédominante (63%) par rapports aux patients âgés de plus de 60ans (p = 0.02). 61% des patients consultaient dans un délai allant de 1 mois à 6 mois, 30.4% des patients étaient tabagiques, ce facteur avait une relation statistiquement significative avec l'adénocarcinome gastrique (p = 0.02). la non consommation de l'alcool est inversement liée et de façon significative à l'apparition de l'adénocarcinome gastrique (p = 0.03) dans notre contexte. L'infection par Hélicobacter pylori n’était mentionnée que chez peu de malades. Les formes métastatiques au moment du diagnostic dépassaient 50% avec un taux de décès au cours de l'hospitalisation de 2.6%. Sur le plan endoscopique, la localisation antropylorique, et la forme ulcéro-végétante étaient prédominantes, elles présentaient successivement 49% (p = 0,002) et 66% (p = 0.00001). Une chirurgie curative n’était proposée que chez 50 patients (30.2%). L'adénocarcinome gastrique représente le type histologique le plus fréquent, son pronostic reste fâcheux dans notre région, touchant une population jeune, minimisant ainsi les chances de tout traitement curatif. PMID:25018792
Treat, Claire C; Bloom, A Anthony; Marushchak, Maija E
2018-03-22
Wetlands are the single largest natural source of atmospheric methane (CH 4 ), a greenhouse gas, and occur extensively in the northern hemisphere. Large discrepancies remain between "bottom-up" and "top-down" estimates of northern CH 4 emissions. To explore whether these discrepancies are due to poor representation of nongrowing season CH 4 emissions, we synthesized nongrowing season and annual CH 4 flux measurements from temperate, boreal, and tundra wetlands and uplands. Median nongrowing season wetland emissions ranged from 0.9 g/m 2 in bogs to 5.2 g/m 2 in marshes and were dependent on moisture, vegetation, and permafrost. Annual wetland emissions ranged from 0.9 g m -2 year -1 in tundra bogs to 78 g m -2 year -1 in temperate marshes. Uplands varied from CH 4 sinks to CH 4 sources with a median annual flux of 0.0 ± 0.2 g m -2 year -1 . The measured fraction of annual CH 4 emissions during the nongrowing season (observed: 13% to 47%) was significantly larger than that was predicted by two process-based model ensembles, especially between 40° and 60°N (modeled: 4% to 17%). Constraining the model ensembles with the measured nongrowing fraction increased total nongrowing season and annual CH 4 emissions. Using this constraint, the modeled nongrowing season wetland CH 4 flux from >40° north was 6.1 ± 1.5 Tg/year, three times greater than the nongrowing season emissions of the unconstrained model ensemble. The annual wetland CH 4 flux was 37 ± 7 Tg/year from the data-constrained model ensemble, 25% larger than the unconstrained ensemble. Considering nongrowing season processes is critical for accurately estimating CH 4 emissions from high-latitude ecosystems, and necessary for constraining the role of wetland emissions in a warming climate. © 2018 John Wiley & Sons Ltd.
Les complications tardives de prothèse totale de la hanche: à propos de 42 cas
Azarkane, Mohamed; Boussakri, Hassan; Shimi, Mohamed; Elibrahimi, Abdlehalim; Elmrini, Abdlemeji
2013-01-01
L'arthroplastie de la hanche est un moyen fiable dans le traitement des affections de la hanche. En lui rendant sa mobilité sa stabilité et son indolence. Cependant cette chirurgie prothétique expose au risque de la survenue des complications qui peuvent engager le pronostic fonctionnel. Nous avons réalisé une étude rétrospective sur une durée de 8 ans de janvier 2004 au janvier 2012 au service de traumatologie-orthopédie de CHU HASSAN II FEZ. Pendant cette période nous avons opéré 240 patients pour PTH. Après un recul moyen de 5 ans nous avons noté chez 42 (17,4%) patients une complication tardive. Nous noté 13 cas de descellement aseptique soit 5,4%. Cette complication a été survenue dans notre série sur une prothèse cimentée dans 8 cas et non cimentée dans 5 cas. Le traitement que nous avons adopté dans notre série a été une reprise de PTH sans greffe osseuse ni anneau de reconstruction dans 4 cas, reprise avec mise en place d'anneau de Kerboull dans 7 cas et reprise avec greffe osseuse et anneau de kerboull dans 2 cas. Nous avons trouvé 11 cas de sepsis tardive soit 4,6% des cas. Nous avons le diabète comme facteur de risque chez 3 malades. L'agent causal a été staphylococcus épdermidis dans 5 cas, colibacille dans 2 cas et association staphylococcus-BGN dans 1 cas. Les différentes modalités que nous avons utilisé pour traiter l'infection dans notre ont été un lavage simple, système d'irrigation-drainage et réimplantation simple en un seul temps ou en 2 temps avec couverture systématique par une antibiothérapie adaptée selon l'antibiogramme. Nous avons noté également 11 cas de fracture sur PTH intéressant dans tous les cas le fémur, nous avons traité ce type de fracture dans notre série par une tige fémorale prothétique longue dans 4 cas, une plaque vissée cerclée dans 3 cas et cerclage simple dans 4 cas. La consolidation a été obtenue chez 9 patients avec 2 cas de pseudarthrose. Nous avons noté 7 cas de luxation tardive de PTH. Comme facteur de risque dans notre série nous avons trouvé le sexe féminin et le surpoids. Sur le plan technique la malposition de cotyle a été constituée l'étiologie principale avec 4 cas. Nous avons traité les cas de luxation par réduction simple avec traction dans 3 cas et une reprise chirurgicale pour corriger la malposition de cotyle dans 4 cas. Nos résultats sont comparables avec ceux de la littérature. Selon les résultats de la littérature le descellement aseptique constitue la complication la plus fréquente. Pour traiter cette complication les 2 modalités la plus fréquemment utilisées dans a littérature sont la reprise avec des greffes et anneaux de reconstruction ou fixer la nouvelle cupule sur os sain de néocotyle créé par descellement. Le résultat de la littérature objective aussi la responsabilité de staphylococcus comme agent causal la plus fréquent. Il montre également l'efficacité de traitement chirurgical par réimplantation de la prothèse en un seul ou en 2 temps. L'étude de la littérature objective aussi que La prise en charge des fractures sur PTH est difficile en raison de l'âge souvent avancé et de la fragilité des patients, de l'ostéoporose, et de la menace que ces fractures font peser sur la fixation de la prothèse parfois déjà défaillante. Les complications tardives de PTH sont fréquentes et sont causes de reprises de chirurgie prothétique et rendent leur prise en charge très difficile. Elles peuvent transformer les légitimes espoirs fonctionnels en catastrophe invalidante. PMID:23503704
None
2017-12-09
Et si la lumière au bout du tunnel du LHC était cosmique ? En dâautres termes, quâest-ce que le LHC peut nous apporter dans la connaissance de lâUnivers ? Car la montée en énergie des accélérateurs de particules nous permet de mieux appréhender lâunivers primordial, chaud et dense. Mais dans quel sens dit-on que le LHC reproduit des conditions proches du Big bang ? Quelles informations nous apporte-t-il sur le contenu de lâUnivers ? La matière noire est-elle détectable au LHC ? Lâénergie noire ? Pourquoi lâantimatière accumulée au CERN est-elle si rare dans lâUnivers ? Et si le CERN a bâti sa réputation sur lâexploration des forces faibles et fortes qui opèrent au sein des atomes et de leurs noyaux, est-ce que le LHC peut nous apporter des informations sur la force gravitationnelle qui gouverne lâévolution cosmique ? Depuis une trentaine dâannées, notre compréhension de lâunivers dans ses plus grandes dimensions et lâappréhension de son comportement aux plus petites distances sont intimement liées : en quoi le LHC va-t-il tester expérimentalement cette vision unifiée ? Tout public, entrée libre / Réservations au +41 (0)22 767 76 76
Quand le malheur frappe les bénéficiaires de la sécurité du revenu. Sur qui peuvent-ils s’appuyer ?
Tousignant, Michel; Caron, Jean
2013-01-01
Cette étude analyse les conditions de réalisation du soutien social dans les quartiers de Saint-Henri et de la Pointe Saint-Charles, en comparant un groupe de 61 prestataires de la sécurité du revenu avec un échantillon de 21 personnes de la population vivant au-dessus du seuil de la pauvreté, et en fonction du degré de détresse dans chaque groupe. Elle vise également à décrire comment une adversité vécue par les prestataires avec ou sans détresse vient briser ou modifier le réseau de soutien. Les résultats indiquent que le réseau social est moins fiable en présence de détresse qu’en son absence, que les personnes en détresse se sont vues plus fréquemment refuser du soutien ou être abandonnées et qu’elles ont davantage de personnes nuisibles dans leur entourage. De plus, les événements vécus comportent souvent une atteinte à leur réputation, des menaces, des trahisons et des refus à un droit légitime. Les personnes en détresse sont aussi davantage isolées. PMID:16505926
Ma, Wen; Peng, Yan; Wang, Weihui; Bian, Qiaoxia; Wang, Nannan; Lee, David Y-W; Dai, Ronghua
2016-10-01
A fast, sensitive and reliable ultra performance liquid chromatography-tandem mass spectrometry (UPLC-MS/MS) method has been developed and validated for simultaneous quantitation and pharmacokinetic study of five tanshinones (tanshinone I, tanshinone IIA, tanshinone IIB, dihydrotanshinone I, cryptotanshinone), the bio-active ingredients of Huo Luo Xiao Ling Dan (HLXLD) in rat plasma. After liquid-liquid extraction, chromatographic separation was accomplished on a Shim-pack XR-ODS column (75 × 3.0 mm, 2.2 µm particles) and eluted with a mobile phase consisting of acetonitrile-0.05% formic acid aqueous solution (80:20, v/v) at a flow rate of 0.4 mL/min, and the total run time was 7.0 min. The detection was performed on a triple quadrupole tandem mass spectrometry equipped with an electrospray ionization source in positive ionization and multiple reaction monitoring mode. The lower limits of quantification were 0.050-0.400 ng/mL for all the analytes. Linearity, precision and accuracy, the mean extraction recoveries and matrix effects all satisfied criteria for acceptance. This validated method was successfully applied to a comparative pharmacokinetic study of five bio-active components in rat plasma after oral administration of HLXLD or Salvia miltiorrhiza extract in normal and arthritic rats. The results showed that there were different pharmacokinetic characteristics among different groups. Copyright © 2016 John Wiley & Sons, Ltd. Copyright © 2016 John Wiley & Sons, Ltd.
NASA Astrophysics Data System (ADS)
Boyer, Sylvain
On estime que sur les 3,7 millions des travailleurs au Quebec, plus de 500 000 sont exposes quotidiennement a des niveaux de bruits pouvant causer des lesions de l'appareil auditif. Lorsqu'il n'est pas possible de diminuer le niveau de bruit environnant, en modifiant les sources de bruits, ou en limitant la propagation du son, le port de protecteurs auditifs individualises, telles que les coquilles, demeure l'ultime solution. Bien que vue comme une solution a court terme, elle est communement employee, du fait de son caractere peu dispendieux, de sa facilite d'implantation et de son adaptabilite a la plupart des operations en environnement bruyant. Cependant les protecteurs auditifs peuvent etre a la fois inadaptes aux travailleurs et a leur environnement et inconfortables ce qui limite leur temps de port, reduisant leur protection effective. Afin de palier a ces difficultes, un projet de recherche sur la protection auditive intitule : " Developpement d'outils et de methodes pour ameliorer et mieux evaluer la protection auditive individuelle des travailleur ", a ete mis sur pied en 2010, associant l'Ecole de technologie superieure (ETS) et l'Institut de recherche Robert-Sauve en sante et en securite du travail (IRSST). S'inscrivant dans ce programme de recherche, le present travail de doctorat s'interesse specifiquement a la protection auditive au moyen de protecteurs auditifs " passifs " de type coquille, dont l'usage presente trois problematiques specifiques presentees dans les paragraphes suivants. La premiere problematique specifique concerne l'inconfort cause par exemple par la pression statique induite par la force de serrage de l'arceau, qui peut reduire le temps de port recommande pour limiter l'exposition au bruit. Il convient alors de pouvoir donner a l'utilisateur un protecteur confortable, adapte a son environnement de travail et a son activite. La seconde problematique specifique est l'evaluation de la protection reelle apportee par le protecteur. La methode des seuils auditifs REAT (Real Ear Attenuation Threshold) aussi vu comme un "golden standard" est utilise pour quantifier la reduction du bruit mais surestime generalement la performance des protecteurs. Les techniques de mesure terrains, telles que la F-MIRE (Field Measurement in Real Ear) peuvent etre a l'avenir de meilleurs outils pour evaluer l'attenuation individuelle. Si ces techniques existent pour des bouchons d'oreilles, elles doivent etre adaptees et ameliorees pour le cas des coquilles, en determinant l'emplacement optimal des capteurs acoustiques et les facteurs de compensation individuels qui lient la mesure microphonique a la mesure qui aurait ete prise au tympan. La troisieme problematique specifique est l'optimisation de l'attenuation des coquilles pour les adapter a l'individu et a son environnement de travail. En effet, le design des coquilles est generalement base sur des concepts empiriques et des methodes essais/erreurs sur des prototypes. La piste des outils predictifs a ete tres peu etudiee jusqu'a present et meriterait d'etre approfondie. L'utilisation du prototypage virtuel, permettrait a la fois d'optimiser le design avant production, d'accelerer la phase de developpement produit et d'en reduire les couts. L'objectif general de cette these est de repondre a ces differentes problematiques par le developpement d'un modele de l'attenuation sonore d'un protecteur auditif de type coquille. A cause de la complexite de la geometrie de ces protecteurs, la methode principale de modelisation retenue a priori est la methode des elements finis (FEM). Pour atteindre cet objectif general, trois objectifs specifiques ont ete etablis et sont presentes dans les trois paragraphes suivants. (Abstract shortened by ProQuest.).
Ramilitiana, Benja; Ranivoharisoa, Eliane Mikkelsen; Dodo, Mihary; Razafimandimby, Evanirina; Randriamarotia, Willy Franck
2016-01-01
L'insuffisance rénale chronique est un problème de santé publique au niveau mondial. Dans les pays développés, cette affection survient essentiellement chez les sujets âgés, mais en Afrique, elle s'installe plutôt chez les sujets jeunes actifs. C'est une affection de lourde prise en charge dans un pays à faible revenu à cause de ses coûts. Notre but est de décrire les aspects épidémiologiques des nouveaux cas d'insuffisance rénale chronique à Madagascar. Il s'agit d'une étude rétrospective descriptive de 3 ans partant du 1er janvier 2007 au 31 décembre 2009 dans le service de Médecine Interne et Néphrologie du Centre Hospitalier Universitaire d'Antananarivo portant sur 239 patients diagnostiqués comme une insuffisance rénale chronique. L'incidence était de 8,51% parmi les patients hospitalisés dans le service. L’âge moyen des patients était de 45,4 ans avec des extrêmes de 16 et 82 ans et un sex-ratio de 1,46. Le principal antécédent était l'hypertension artérielle (59,8%). L'insuffisance rénale chronique était terminale dans 75,31% des cas (n=180). Les causes de l'insuffisance rénale chronique étaient dominées par la glomérulonéphrite chronique (40,1%), la néphroangiosclérose (35,5%). L'hémodialyse était réalisée chez 3 patients (1,26%), aucun patient n’était pas programmé pour une greffe rénale. Le taux de mortalité dans le service était de 28,87%. L'insuffisance rénale chronique est une maladie de pronostic redoutable et handicapante qui affecte les sujets jeunes à Madagascar. Son traitement reste inaccessible dans la majorité des patients. L'accent doit donc être mis principalement sur la prévention notamment une bonne prise en charge précoce des infections, de l'hypertension artérielle et du diabète pour réduire ses impacts négatifs sur la santé communautaire et publique. Le projet de la transplantation rénale - donneur vivant, traitement efficace et moins coûteux par rapport à l'hémodialyse pourrait être aussi une bonne solution chez ces sujets jeunes malgaches. PMID:27279966
Touré, Papa Souleymane; Léye, Abdoulaye; Diop, Madoky Maguette; Gueye, Mame Daouda; Léye, Yakham Mohamed; Berthé, Adama; Mourtalla Ka, Mamadou
2014-01-01
Introduction Les objectifs de notre travail étaient de déterminer les indications, les complications et l'apport diagnostique de la ponction biopsie hépatique (PBH) transpariétale. Méthodes Il s'agissait d'une étude rétrospective descriptive allant du janvier 2006 à décembre 2010, réalisée dans le service de Médecine Interne de l'hôpital de Pikine de Dakar. Etaient inclus, tous les malades ayant subi une biopsie hépatique, en ambulatoire ou en hospitalisation. Etaient exclus, tous les patients qui ont bénéficié d'une PBH dont les résultats n'ont pas été retrouvés. Les données suivantes étaient étudié: l’âge, le sexe, les indications, la taille du fragment biopsique, Le nombre de carottes, les complications, la comparaison des diagnostics pré biopsiques avec les comptes rendus histologiques. Résultats Ont été colligées 70 patients atteints d'hépatopathie chronique ayant bénéficiés d'une PBH. Il s'agissait de 46 hommes (65.71%) et 24 femmes (34.29%). L’âge moyen des patients était de 36 ans. Les PBH étaient réalisées en ambulatoire chez 58 patients (82.86%) et chez 12 malades hospitalisés (17,14%). Les indications étaient dominées par les hépatites virales chroniques dans 62,86% (44cas), suivi des processus tumoraux du foie dans 24.29% (17 cas). Les complications survenues chez 15 patients (21.43%) étaient représentées de 14 cas de douleur (20%) et d'un cas de malaise vagal (1.43%). Les 70 PBH effectuées ont ramené une carotte dans 35,71% des cas, 2 à 6 carottes dans 32,87% des cas. La longueur moyenne des fragments biopsiques était de 22 ±8 mm. Soixante-six résultats étaient interprétables et 4 non interprétables soit une performance diagnostique de 94,29%. Conclusion La PBH est de pratique sure, avec un respect des contres indications et une bonne maitrise de la technique. Son acceptabilité a été bonne dans notre pratique et sa rentabilité diagnostique excellente. Elle devrait être beaucoup plus vulgarisée dans notre pays, comme alternative aux moyens d'exploration non invasive. PMID:25452831
2009-09-01
le présent rapport, nous analysons la sécurité du secteur énergétique et de son infrastructure au Yémen et nous examinons les répercussions...conflits. Toutefois, le problème fondamental du secteur de l‘énergie au Yémen est l‘épuisement des réserves pétrolières, menant à une réduction rapide des...niveaux de production de pétrole. Le déclin du secteur de l‘énergie dans ce pays aura un effet très négligeable sur les réserves énergétiques
Internal Blast in a Compartment-type Vessel. Part 1: Finite Element Modeling Investigation
2012-11-01
données expérimentales devraient aussi être utilisées pour valider le modèle. DRDC Valcartier TM 2012-222 iii Executive summary Internal...pour simuler adéquatement le souffle d’explosion, incluant le choc et ses réflexions, à l’intérieur d’une large structure et le besoin de remédier à...terme, le développement et la validation d’un ‘raytracer’ et son couplage avec LS-DYNA seront étudiés pour modéliser le choc dans le compartiment
Liposarcome dorsal: aspect clinique rare
Agbessi, Odry; Arrob, Adil; Fiqhi, Kamal; Khalfi, Lahcen; Nassih, Mohammed; El Khatib, Karim
2015-01-01
Décrit la première fois par Virchow en 1860, le liposarcome est une tumeur mésenchymateuse rare. Cette rareté est relative car les liposarcomes représentent quand même 14 à 18% de l'ensemble des tumeurs malignes des parties molles et ils constituent le plus fréquent des sarcomes des parties molles. Pour la majorité des auteurs, il ne se développerait jamais sur un lipome ou une lipomatose préexistant. Nous rapportons un cas de volumineux liposarcome de la face dorsale du tronc. L'histoire de la maladie, l'aspect clinique inhabituel « de tumeur dans tumeur », l'aspect de la pièce opératoire nous fait évoquer la possibilité de la transformation maligne d'un lipome bénin préexistant. PMID:26113914
Developpement de techniques de diagnostic non intrusif par tomographie optique
NASA Astrophysics Data System (ADS)
Dubot, Fabien
Que ce soit dans les domaines des procedes industriels ou de l'imagerie medicale, on a assiste ces deux dernieres decennies a un developpement croissant des techniques optiques de diagnostic. L'engouement pour ces methodes repose principalement sur le fait qu'elles sont totalement non invasives, qu'elle utilisent des sources de rayonnement non nocives pour l'homme et l'environnement et qu'elles sont relativement peu couteuses et faciles a mettre en oeuvre comparees aux autres techniques d'imagerie. Une de ces techniques est la Tomographie Optique Diffuse (TOD). Cette methode d'imagerie tridimensionnelle consiste a caracteriser les proprietes radiatives d'un Milieu Semi-Transparent (MST) a partir de mesures optiques dans le proche infrarouge obtenues a l'aide d'un ensemble de sources et detecteurs situes sur la frontiere du domaine sonde. Elle repose notamment sur un modele direct de propagation de la lumiere dans le MST, fournissant les predictions, et un algorithme de minimisation d'une fonction de cout integrant les predictions et les mesures, permettant la reconstruction des parametres d'interet. Dans ce travail, le modele direct est l'approximation diffuse de l'equation de transfert radiatif dans le regime frequentiel tandis que les parametres d'interet sont les distributions spatiales des coefficients d'absorption et de diffusion reduit. Cette these est consacree au developpement d'une methode inverse robuste pour la resolution du probleme de TOD dans le domaine frequentiel. Pour repondre a cet objectif, ce travail est structure en trois parties qui constituent les principaux axes de la these. Premierement, une comparaison des algorithmes de Gauss-Newton amorti et de Broyden- Fletcher-Goldfarb-Shanno (BFGS) est proposee dans le cas bidimensionnel. Deux methodes de regularisation sont combinees pour chacun des deux algorithmes, a savoir la reduction de la dimension de l'espace de controle basee sur le maillage et la regularisation par penalisation de Tikhonov pour l'algorithme de Gauss-Newton amorti, et les regularisations basees sur le maillage et l'utilisation des gradients de Sobolev, uniformes ou spatialement dependants, lors de l'extraction du gradient de la fonction cout, pour la methode BFGS. Les resultats numeriques indiquent que l'algorithme de BFGS surpasse celui de Gauss-Newton amorti en ce qui concerne la qualite des reconstructions obtenues, le temps de calcul ou encore la facilite de selection du parametre de regularisation. Deuxiemement, une etude sur la quasi-independance du parametre de penalisation de Tikhonov optimal par rapport a la dimension de l'espace de controle dans les problemes inverses d'estimation de fonctions spatialement dependantes est menee. Cette etude fait suite a une observation realisee lors de la premiere partie de ce travail ou le parametre de Tikhonov, determine par la methode " L-curve ", se trouve etre independant de la dimension de l'espace de controle dans le cas sous-determine. Cette hypothese est demontree theoriquement puis verifiee numeriquement sur un probleme inverse lineaire de conduction de la chaleur puis sur le probleme inverse non-lineaire de TOD. La verification numerique repose sur la determination d'un parametre de Tikhonov optimal, defini comme etant celui qui minimise les ecarts entre les cibles et les reconstructions. La demonstration theorique repose sur le principe de Morozov (discrepancy principle) dans le cas lineaire, tandis qu'elle repose essentiellement sur l'hypothese que les fonctions radiatives a reconstruire sont des variables aleatoires suivant une loi normale dans le cas non-lineaire. En conclusion, la these demontre que le parametre de Tikhonov peut etre determine en utilisant une parametrisation des variables de controle associee a un maillage lâche afin de reduire les temps de calcul. Troisiemement, une methode inverse multi-echelle basee sur les ondelettes associee a l'algorithme de BFGS est developpee. Cette methode, qui s'appuie sur une reformulation du probleme inverse original en une suite de sous-problemes inverses de la plus grande echelle a la plus petite, a l'aide de la transformee en ondelettes, permet de faire face a la propriete de convergence locale de l'optimiseur et a la presence de nombreux minima locaux dans la fonction cout. Les resultats numeriques montrent que la methode proposee est plus stable vis-a-vis de l'estimation initiale des proprietes radiatives et fournit des reconstructions finales plus precises que l'algorithme de BFGS ordinaire tout en necessitant des temps de calcul semblables. Les resultats de ces travaux sont presentes dans cette these sous forme de quatre articles. Le premier article a ete accepte dans l'International Journal of Thermal Sciences, le deuxieme est accepte dans la revue Inverse Problems in Science and Engineering, le troisieme est accepte dans le Journal of Computational and Applied Mathematics et le quatrieme a ete soumis au Journal of Quantitative Spectroscopy & Radiative Transfer. Dix autres articles ont ete publies dans des comptes-rendus de conferences avec comite de lecture. Ces articles sont disponibles en format pdf sur le site de la Chaire de recherche t3e (www.t3e.info).
Lupande, David; Kaishusha, David; Mihigo, Carine; Itongwa, Moise; Yenga, Gustave; Katchunga, Philippe
2017-01-01
Introduction En Afrique subsaharienne, les méthodes de diagnostic de la tuberculose sont insuffisantes et reposent essentiellement sur la microscopie. Elles constituent un réel frein pour le contrôle de la tuberculose. La présente étude voudrait évaluer les performances du GeneXpert MTB/RIF vis à vis de la microscopie classique de Ziehl-Neelsen à l’Hôpital Provincial Général de Référence de Bukavu, à l’Est de la République Démocratique du Congo après 10 mois d’utilisation. Méthodes Les résultats de la coloration au Ziehl-Neelsen et de la biologie moléculaire sur GeneXpert MTB/RIF de 452 patients suspects de tuberculose ont été colligés. La validité d’un test par rapport à l’autre dans la détection de la tuberculose a été étudiée. Résultats Dans le groupe entier, la fréquence de la tuberculose pulmonaire était de 16.3%. La positivité était significativement plus élevée pour le GeneXpert MTB/RIF que pour le Ziehl-Neelsen dans le groupe entier (15.9% vs 9.3%, p= 0.03) et chez les séropositifs pour le VIH (52.0% vs 24.0%; p = 0.007). Cependant, la sensibilité de GeneXpert MTB/RIF comparé au Ziehl-Neelsen n’était pas maximale (95.2%). Enfin, GeneXpert MTB/RIF a détecté 20.8% de résistance à la rifampicine. Conclusion La présente étude confirme la supériorité de GeneXpert MTB/RIF sur la coloration de Ziehl-Neelsen dans la détection de la tuberculose et dans la prédiction de la multi résistance. Son utilisation systématique couplée au Ziehl-Neelsen permettrait de mieux contrôler la tuberculose en Afrique subSaharienne. PMID:29187929
Marceline, Yaméogo Téné; Issiaka, Sombié; Gilberte, Kyélem Carole; Nadège, Rouamba; Macaire, Ouédraogo Sampawindé; Arsène, Yaméogo Aimé; Djingri, Lankoandé; Apollinaire, Sawadogo; Joseph, Drabo Youssouf
2014-01-01
Introduction Les conséquences du syndrome métabolique impliquent son diagnostic effectif pour une prise en charge globale des comorbidités dépistées. Objectif: Déterminer la capacité à diagnostiquer le syndrome métabolique en routine, sa prévalence chez les diabétiques, leurs connaissances et pratiques vis-à-vis du risque cardio-métabolique. Méthodes Il s'est agi d'une étude transversale auprès de 388 diabétiques au CHU de Bobo-Dioulasso. Les critères de la fédération internationale du diabète (2009) ont été utilisés. Résultats l’âge moyen était de 53,5±13,5 ans, le sex ratio de 0,7. L'obésité abdominale était présente dans 61,9% des cas; L'HTA l’était dans 56,4% des cas. La prescription du bilan lipidique a été documentée dans 55,4% des cas pour le HDL et 56,2% pour les triglycérides pour un taux de réalisation de 49,3% et 62,9%. Le taux de dépistage des critères lipidiques était de 26,8%. Un taux de HDL bas a été noté dans 46 cas (43,4%) et une hypertriglycéridémie dans 24 cas (17,6%). In fine, la prévalence du syndrome métabolique était de 48,9% (n = 190). Seuls 27,4% savaient que d'autres facteurs de risque cardiovasculaire pouvaient être associés au diabète et seulement 6,7% pratiquaient une activité physique régulière. Conclusion Malgré la faible contribution du laboratoire, le syndrome métabolique est fréquent parmi nos diabétiques. Les patients sont peu sensibilisés sur le risque vasculaire et la pratique d'une activité physique régulière reste faible. Un programme d’éducation adaptée contribuerait à un meilleur dépistage et à une prise en charge optimale des cas. PMID:25932077
Analyse des interactions energetiques entre un arena et son systeme de refrigeration
NASA Astrophysics Data System (ADS)
Seghouani, Lotfi
La presente these s'inscrit dans le cadre d'un projet strategique sur les arenas finance par le CRSNG (Conseil de Recherche en Sciences Naturelles et en Genie du Canada) qui a pour but principal le developpement d'un outil numerique capable d'estimer et d'optimiser la consommation d'energie dans les arenas et curlings. Notre travail s'inscrit comme une suite a un travail deja realise par DAOUD et coll. (2006, 2007) qui a developpe un modele 3D (AIM) en regime transitoire de l'arena Camilien Houde a Montreal et qui calcule les flux de chaleur a travers l'enveloppe du batiment ainsi que les distributions de temperatures et d'humidite durant une annee meteorologique typique. En particulier, il calcule les flux de chaleur a travers la couche de glace dus a la convection, la radiation et la condensation. Dans un premier temps nous avons developpe un modele de la structure sous la glace (BIM) qui tient compte de sa geometrie 3D, des differentes couches, de l'effet transitoire, des gains de chaleur du sol en dessous et autour de l'arena etudie ainsi que de la temperature d'entree de la saumure dans la dalle de beton. Par la suite le BIM a ete couple le AIM. Dans la deuxieme etape, nous avons developpe un modele du systeme de refrigeration (REFSYS) en regime quasi-permanent pour l'arena etudie sur la base d'une combinaison de relations thermodynamiques, de correlations de transfert de chaleur et de relations elaborees a partir de donnees disponibles dans le catalogue du manufacturier. Enfin le couplage final entre l'AIM +BIM et le REFSYS a ete effectue sous l'interface du logiciel TRNSYS. Plusieurs etudes parametriques on ete entreprises pour evaluer les effets du climat, de la temperature de la saumure, de l'epaisseur de la glace, etc. sur la consommation energetique de l'arena. Aussi, quelques strategies pour diminuer cette consommation ont ete etudiees. Le considerable potentiel de recuperation de chaleur au niveau des condenseurs qui peut reduire l'energie requise par le systeme de ventilation de l'arena a ete mis en evidence. Mots cles. Arena, Systeme de refrigeration, Consommation d'energie, Efficacite energetique, Conduction au sol, Performance annuelle.
Small black holes in global AdS spacetime
NASA Astrophysics Data System (ADS)
Jokela, Niko; Pönni, Arttu; Vuorinen, Aleksi
2016-04-01
We study the properties of two-point functions and quasinormal modes in a strongly coupled field theory holographically dual to a small black hole in global anti-de Sitter spacetime. Our results are seen to smoothly interpolate between known limits corresponding to large black holes and thermal AdS space, demonstrating that the Son-Starinets prescription works even when there is no black hole in the spacetime. Omitting issues related to the internal space, the results can be given a field theory interpretation in terms of the microcanonical ensemble, which provides access to energy densities forbidden in the canonical description.
NASA Astrophysics Data System (ADS)
Allen, D. M.; Mackie, D. C.; Wei, M.
The Grand Forks aquifer, located in south-central British Columbia, Canada was used as a case study area for modeling the sensitivity of an aquifer to changes in recharge and river stage consistent with projected climate-change scenarios for the region. Results suggest that variations in recharge to the aquifer under the different climate-change scenarios, modeled under steady-state conditions, have a much smaller impact on the groundwater system than changes in river-stage elevation of the Kettle and Granby Rivers, which flow through the valley. All simulations showed relatively small changes in the overall configuration of the water table and general direction of groundwater flow. High-recharge and low-recharge simulations resulted in approximately a +0.05 m increase and a -0.025 m decrease, respectively, in water-table elevations throughout the aquifer. Simulated changes in river-stage elevation, to reflect higher-than-peak-flow levels (by 20 and 50%), resulted in average changes in the water-table elevation of 2.72 and 3.45 m, respectively. Simulated changes in river-stage elevation, to reflect lower-than-baseflow levels (by 20 and 50%), resulted in average changes in the water-table elevation of -0.48 and -2.10 m, respectively. Current observed water-table elevations in the valley are consistent with an average river-stage elevation (between current baseflow and peak-flow stages). L'aquifère de Grand Forks, situé en Colombie britannique (Canada), a été utilisé comme zone d'étude pour modéliser la sensibilité d'un aquifère à des modifications de la recharge et du niveau de la rivière, correspondant à des scénarios envisagés de changement climatique dans cette région. Les résultats font apparaître que les variations de recharge de l'aquifère pour différents scénarios de changement climatique, modélisées pour des conditions de régime permanent, ont un impact sur le système aquifère beaucoup plus faible que les changements du niveau des rivières Kettle et Granby, qui coulent dans la vallée. Toutes les simulations ont montré des différences relativement faibles dans la configuration d'ensemble de la nappe et dans la direction générale des écoulements. Des simulations de conditions de recharge forte et de recharge faible produisent respectivement une remontée de 0,05 m et un abaissement de 0,025 m, approximativement, des cotes de la nappe pour l'ensemble de l'aquifère. Des changements simulés de la cote du niveau de la rivière, pour refléter des niveaux plus hauts que ceux des pics de crues (de 20 et de 50%), produisent respectivement des remontées de la nappe de 2,72 et 3,45 m en moyenne. Des changements simulés de l'altitude du niveau de la rivière, pour refléter des niveaux plus bas que ceux de basses eaux (de 20 et de 50%), produisent respectivement des abaissements de la nappe de 0,48 et 2,10 m en moyenne. Les altitudes courantes observées de la nappe dans la vallée sont cohérentes avec une cote moyenne du niveau de la rivière (entre les niveaux courants de basses eaux et de crues). El acuífero de los Grand Forks, situado al sur de la Columbia Británica central (Canadá) ha sido utilizado como lugar de estudio para modelar la sensibilidad de un acuífero a los cambios en la recarga y el caudal de los ríos de acuerdo con escenarios previstos de cambio climático en la región. Los resultados sugieren que las variaciones en la recarga al acuífero bajo los diversos escenarios, que han sido modelados en régimen estacionario, tienen un impacto mucho menor en las aguas subterráneas que los cambios en el caudal de los ríos Kettle y Granby, que discurren por el valle. Todas las simulaciones muestran diferencias relativamente pequeñas en la configuración regional de los niveles freáticos y en la dirección general del flujo subterráneo. Las simulaciones de recarga elevada y baja causan un incremento de 0,05 m y un decremento de 0,025 m, respectivamente, en los niveles del acuífero. Los cambios de la elevación del río, simulados para reflejar niveles de flujo mayores que los valores pico (en un 20% y un 50%) resultan en cambios medios de los niveles del acuífero de 2,72 m y 3,45 m, respectivamente. Los cambios simulados en la elevación del río para flujos inferiores al caudal de base (en un 20% y en un 50%) provocan descensos en los niveles de 0,48 y 2,10 m, respectivamente. Los niveles actuales del acuífero en el valle son coherentes con una elevación media del nivel en el río (entre el caudal de base actual y los picos de caudal).
Eco-hydrology: Groundwater flow and site factors in plant ecology
NASA Astrophysics Data System (ADS)
Klijn, Frans; Witte, Jan-Philip M.
Résumé En écologie végétale, le site est un concept central. Un site, c'est l'endroit où une espèce végétale ou une communauté de plantes se développe le site assure un ensemble de conditions dans lesquelles elles vivent. Dans un matériau homogène à l'origine, l'écoulement gravitaire d'une nappe influence les conditions du site par l'intermédiaire de la distribution spatiale des nutriments et d'autres composés chimiques associés. Les remontées d'eau peuvent tout spécialement produire et maintenir les conditions du site essentielles pour différentes espèces et communautés de plantes relativement rares. Les écologues ont porté une attention accrue à ces remontées d'eau, en sorte qu'une coopération avec les hydrologues en a résulté, avec l'émergence d'une discipline propre, l'éco-hydrologie, à la limite des deux domaines scientifiques et liée au concept de site. Aux Pays-Bas, une classification des types d'eau, basée sur l'histoire de l'eau souterraine à proximité de la surface, a été mise en oeuvre pour constituer une base nationale de données géographiques sur les remontées d'eau d'intérêt écologique. Des analyses des correspondances des données de cette base, portant sur l'existence de certaines espèces de plantes, montrent que dans les sols sableux pauvres du Pléistocène la remontée d'eau explique très bien la présence de certaines espèces et communautés, alors que, dans les plaines fluviales et les régions de polders à sols argileux riches, l'influence de la remontée d'eau est masquée par l'importance des caractéristiques des sols. En conclusion donc, certaines espèces de plantes peuvent être utilisées comme des indicateurs de la remontée d'eau dans des diagnostiques et des levés de terrain rapides, mais à condition de prendre en permanence des précautions sur les limites de l'approche. Resumen En ecología botánica un concepto de gran importancia es el de emplazamiento, definido como el lugar que proporciona unas condiciones de vida adecuadas que permiten el crecimiento de una especie o una comunidad botánica. En un material inicialmente homogéneo, el flujo subterráneo gravífico influencia las condiciones del emplazamiento variando la distribución espacial de los nutrientes y de otros agentes químicos relevantes. En especial, el flujo ascendente puede producir y mantener una serie de condiciones que son esenciales para algunas especies y comunidades de plantas relativamente raras. La especial atención hacia este fenómeno ha dado lugar a una cooperación entre ecologistas e hidrogeólogos y a la aparición de una nueva disciplina - eco-hidrología -, en la frontera de los dos campos científicos. En Holanda, se ha usado una clasificación sencilla de tipos de agua para crear una base de datos, a nivel nacional, de lugares donde la presencia de flujos ascendentes pueda ser de interés ecológico. El análisis de correspondencias entre esta base de datos y los tipos de plantas existentes muestra que en los suelos arenosos pobres del Pleistoceno los flujos ascendentes explican la presencia de algunas especies y comunidades de plantas. Por el contrario, en las llanuras fluviales y pólders, con suelos más arcillosos, la influencia de estos flujos es despreciable frente a la relativa a las propias características de los suelos. Se concluye que las especies botánicas se pueden usar como indicadores de la presencia de flujo ascendente sólo en campañas preliminares, pero que el método presenta grandes limitaciones para su extensión a casos generales.
Oga, Maxime; Brou, Hermann; Dago-Akribi, Hortense; Coffie, Patrick; Amani-Bossé, Clarisse; Ékouévi, Didier; Yapo, Vincent; Menan, Hervé; Ndondoki, Camille; Timité-Konan, M.; Leroy, Valériane
2014-01-01
Résumé Problème: Le dépistage VIH chez les enfants a rarement été au centre des préoccupations des chercheurs. Quand le dépistage pédiatrique a retenu l'attention, cela a été pour éclairer seulement sur les performances diagnostiques en ignorant même que le test pédiatrique comme bien d'autres peut s'accepter ou se refuser. Cet article met au cœur de son analyse les raisons qui peuvent expliquer qu'on accepte ou qu'on refuse de faire dépister son enfant. Objectif: Etudier chez les parents, les mères, les facteurs explicatifs de l'acceptabilité du test VIH des nourrissons de moins de six mois. Méthodes: Entretien semi-directif à passages répétés avec les parents de nourrissons de moins de six mois dans les formations sanitaires pour la pesée/vaccination et les consultations pédiatriques avec proposition systématique d'un test VIH pour leur nourrisson. Résultats: Nous retenons que la réalisation effective du test pédiatrique du VIH chez le nourrisson repose sur trois éléments. Primo, le personnel de santé par son discours (qui dénote de ses connaissances et perceptions même sur l'infection) orienté vers les mères influence leur acceptation ou non du test. Secundo, la mère qui par ses connaissances et perceptions même sur le VIH, dont le statut particulier, l'impression de bien-être chez elle et son enfant influence toute réalisation du test pédiatrique VIH. Tertio, l'environnement conjugal de la mère, particulièrement caractérisé par les rapports au sein du couple, sur la facilité de parler du test VIH et sa réalisation chez les deux parents ou chez la mère seulement sont autant de facteurs qui influencent la réalisation effective du dépistage du VIH chez l'enfant. Le principe préventif du VIH, et le désir de faire tester l'enfant ne suffisent pas à eux seuls pour aboutir à sa réalisation effective, selon certaines mères confrontées au refus du conjoint. A l'opposé, les autres mères refusant la réalisation du test pédiatrique disent s'y opposer ; bien entendu, même dans le cas où le conjoint l'accepterait. Discussion: Les mères sont les principales mises en cause et craignent les réprimandes et la stigmatisation. Le père, le conjoint peut être un obstacle, quand il s'oppose au test VIH du nourrisson, ou devenir le facilitateur de sa réalisation s'il est convaincu. Le positionnement du père demeure donc essentiel dans la question de l'acceptabilité du VIH pédiatrique. Les mères en ont conscience et présagent des difficultés à faire dépister ou non les enfants sans avis préalable du conjoint à la fois père, et chef de famille. Conclusion: La question du dépistage pédiatrique du VIH, au terme de notre analyse, met en face trois éléments qui exigent une gestion globale pour assurer une couverture effective. Ces trois éléments n'existeraient pas sans s'influencer, donc ils sont constamment en interaction et empêchent ou favorisent la réalisation ou non du test pédiatrique. Aussi, dans une intention d'aboutir à une couverture effective du dépistage VIH des nourrissons, faut-il tenir compte d'une gestion harmonieuse de ces trois éléments: La première, la mère seule (avec ses connaissances, ses perceptions), son environnement conjugal (de proposition du test intégrant 1- l’époux et / ou père de l'enfant avec ses perceptions et connaissances sur l'infection 2- la facilité de parler du test et sa réalisation chez les deux ou un des parents, la mère) et les connaissances, attitudes et pratiques du personnel de l’établissement sanitaire sur l'infection du VIH. Recommandations: Nos recommandations proposent une redéfinition de l'approche du VIH/sida vers des familles exposées au VIH et une intégration plus accentuée du père facilitant leur propre acceptation du test VIH et celle de leur enfant. PMID:25088574
Evaluation of probabilistic flow in two unsaturated soils
NASA Astrophysics Data System (ADS)
Boateng, Samuel
2001-11-01
A variably saturated flow model is coupled to a first-order reliability algorithm to simulate unsaturated flow in two soils. The unsaturated soil properties are considered as uncertain variables with means, standard deviations, and marginal probability distributions. Thus, each simulation constitutes an unsaturated probability flow event. Sensitivities of the uncertain variables are estimated for each event. The unsaturated hydraulic properties of a fine-textured soil and a coarse-textured soil are used. The properties are based on the van Genuchten model. The flow domain has a recharge surface, a seepage boundary along the bottom, and a no-flow boundary along the sides. The uncertain variables are saturated water content, residual water content, van Genuchten model parameters alpha (α) and n, and saturated hydraulic conductivity. The objective is to evaluate the significance of each uncertain variable to the probabilistic flow. Under wet conditions, saturated water content and residual water content are the most significant uncertain variables in the sand. For dry conditions in the sand, however, the van Genuchten model parameters α and n are the most significant. Model parameter n and saturated hydraulic conductivity are the most significant for the wet clay loam. Saturated water content is most significant for the dry clay loam. Résumé. Un modèle d'écoulement variable en milieu saturé est couplé à un algorithme d'exactitude de premier ordre pour simuler les écoulements en milieu non saturé dans deux sols. Les propriétés des sols non saturés sont considérés comme des variables incertaines avec des moyennes, des écarts-types et des distributions de probabilité marginale. Ainsi chaque simulation constitue un événement d'écoulement non saturé probable. La sensibilité des variables incertaines est estimée pour chaque événement. Les propriétés hydrauliques non saturées d'un sol à texture fine et d'un sol à texture grossière sont utilisées. Les propriétés sont basées sur le modèle de van Genuchten. Le domaine d'écoulement possède une surface de recharge, une limite de fuite à sa base et des limites sans écoulement sur les côtés. Les variables incertaines sont la teneur en eau à saturation, la teneur en eau résiduelle, les paramètres alpha (α) et n du modèle de van Genuchten et la conductivité hydraulique à saturation. L'objectif est d'évaluer la signification de chacune des variables incertaines dans l'écoulement probabiliste. Dans des conditions humides, la teneur en eau à saturation et la teneur en eau résiduelle sont les variables incertaines les plus significatives dans le sable. Toutefois, dans des conditions sèches dans le sable, les paramètres α et n du modèle de van Genuchten sont les plus significatifs. Le paramètre n du modèle et la conductivité hydraulique à saturation sont les plus significatifs pour un sol argileux humide. La teneur en eau à saturation est très significative pour le sol argileux sec. Resumen. Se ha acoplado un modelo de flujo de saturación variable con un algoritmo de fiabilidad de primer orden con el fin de simular el flujo no saturado en dos tipos de suelos. Se ha tratado las propiedades del suelo no saturado como variables inciertas, a las que se asigna las medias, desviaciones estándar y distribuciones de probabilidad marginal correspondientes. Así, cada simulación constituye un evento probabilístico de flujo no saturado y la sensibilidad de las variables inciertas es estimada para cada evento. Se ha utilizado las propiedades de la conductividad hidráulica no saturada de dos suelos con dos tipos de textura - fina y gruesa - mediante el modelo de van Genuchten. El dominio de flujo está delimitado por una superficie de recarga, base de goteo y contornos laterales de flujo nulo. Las variables inciertas son el contenido de agua residual, el de saturación, los parámetros del modelo de van Genuchten (α y n) y la conductividad hidráulica saturada. El objetivo era evaluar la contribución de cada variable incierta al flujo probabilístico. Para arenas, las variables inciertas más importantes, en condiciones de humedad, son el contenido de agua residual y el de saturación en ausencia de humedad, lo son ambos parámetros del modelo de van Genuchten. Para margas arcillosas, las variables más significativas en condiciones húmedas son el parámetro n y la conductividad hidráulica saturada; en condiciones secas, el contenido de agua en saturación.
La création et l’implantation réussie d’un outil de remédiation en résidence de médecine familiale
Sanche, Gilbert; Béland, Normand; Audétat, Marie-Claude
2011-01-01
Résumé Problème à l’étude Comme dans la majorité des programmes de formation médicale post-graduée, environ 10% des résidents du programme de résidence en médecine familiale de l’Université de Montréal éprouvent des difficultés considérables dans la construction de leurs compétences. Objectif du programme Afin de mieux soutenir les enseignants du programme dans le diagnostic de ces difficultés ainsi que dans la conception, la planification et le suivi d’une stratégie de remédiation, le Comité d’évaluation du programme de résidence a conçu un outil constitué d’un plan type de remédiation et d’un guide de rédaction de ce plan. Description du programme L’outil de remédiation est constitué de 2 documents. Le premier est un plan type de remédiation constitué d’une partie contractuelle suivie de 4 sections: diagnostic pédagogique, intentions de remédiation, moyens de remédiation et évaluation de la remédiation, avec un bilan intermédiaire et un bilan final. Le deuxième est un guide de rédaction et de systématisation d’un plan de remédiation. Conclusion L’accueil favorable qu’a reçu l’outil et l’utilisation qui en a été faite durant l’année de son implantation témoignent du succès des processus que nous avions adoptés. L’appui de la faculté, le mécanisme de «co-construction» de l’outil, de même que la formation et le soutien aux utilisateurs sont des facteurs qui expliquent ce succès. Un projet de recherche est en route pour documenter l’impact qu’aura l’utilisation de cet outil dans notre programme de résidence. PMID:22170208
Spectroscopie du Furanne et du Thiophene Par Diffusion Inelastique D'electrons
NASA Astrophysics Data System (ADS)
Lotfi, Said
Nous avons etudie les molecules de furanne ( rm C_4H_4O) et de thiophene (rm C_4H_4O) au moyen de la spectroscopie de diffusion inelastique d'electrons. Pour (rm C_4H_4O), les spectres realises dans differentes conditions d'energie d'impact et d'angle de diffusion contiennent des singularites ou des families de pics correspondant a: (1) des vibrations de l'etat fondamental dans le domaine 0-0.5 eV, (2) des etats triplets ^3 B_1 et ^3 A_1 qui dominent la region 3-5.5 eV, (3) des etats de valences, entre 5 et 10 eV, dont certains son accompagnes de progressions vibrationnelles, soit ~ A _1B_2, ~ B ^1A_1 et ~ C ^1A_1, (4) toujours entre 5 et 10 eV, deux series de Ryhdberg (rm 1a_2to nda_2 et rm 1a_2to npb_2) qui convergent vers la premiere limite d'ionisation de la molecule, avec une progression vibrationnelle associee au mdoe nu_4 pour la seconde, et une troisieme serie (rm 2b_1to nsa_1 ) convergent vers la seconde limite d'ionisation accompagnee de la progression de mode nu _1. Pour rm C_4H_4S, nos spectres presentent les memes etats de vibration et les memes etats triplets que pour rm C_4H _4O. Nous avons releve egalement, dans la region de 5 a 10 eV, des etats de valence ~ A ^1A_1 (ou ~ A ^1B_2), ~ B ^1A_1 (ou ~ B ^1B _2) et ~ C ^1A_1 (ou ~ C ^1B_2). Pour la premiere fois, par la spectroscopie de diffusion inelastique d'electrons, de nombreux pics ont ete identifies et attribues, dans le cadre de ce travail. Il s'agit, notamment, des etats de vibration de l'etat electronique fondamental de ces molecules et egalement de certains etats de Rydberg dans le cas du furanne.
Tuberculose pelvi-péritoneale pseudotumorale: à propos de quatre cas
Saadi, Hanane; Mamouni, Nissrine; Errarhay, Sanaa; Bouchikhi, Chahrazed; Banani, Abdelaziz; Ammor, Hicham; Sqalli, Nadia; Tizniti, Siham; Benmajdoube, Karim; Maazaze, Khalid; Fatmi, Hind; Amarti, Afaf
2012-01-01
La tuberculose pelvienne pseudo tumorale est une maladie infectieuse curable. Son tableau clinique est souvent trompeur simulant une tumeur ovarienne ou tubaire. Le but de notre travail est de préciser les caractéristiques cliniques, biologiques et radiologiques de cette pathologie et sa prise en charge. Nous rapportons une étude rétrospective à propos de quatre observations. L’âge moyen de nos patientes est de 24 ans (16 ans, 40 ans), trois parmi elles étaient célibataires. Le motif de consultation est dominé par les douleurs abdominopelviennes chroniques. Les résultats des explorations radiologiques (échographie pelvienne associé à la TDM ou IRM pelvienne) ont été en faveur d'une tumeur ovarienne dans trois cas et d'un hydrosapinx bilatéral pour un cas. L'ascite a été présente dans tous les cas. Le dosage de la Ca 125 a été élevé. La prise en charge a été l'exploration chirurgicale soit par c'lioscopie ou laparotomie. Deux cas ont bénéficié seulement des biopsies et deux patientes ont eu une salpingectomie bilatérale devant l'aspect pseudo tumoral très suspect. L’étude histologique a confirmé des lésions graulomateuses avec nécrose caséeuse. Le traitement par les antibacillaires a été instauré selon le protocole 2ERHZ/ 4RH. La tuberculose pelvienne pseudo tumorale est l'apanage de la femme jeune. Son pronostic est lié à l'infertilité séquellaire. PMID:23330043
Note des Éditeurs scientifiques
NASA Astrophysics Data System (ADS)
Averbuch, P.
Cette série d'articles est une revue de résultats expérimentaux sur différents "fluides" moléculaires, dans lesquels la cohésion est due à des forces de Van der Waals et à des liaisons hydrogène, l'eau étant un de ces fluides. Ces résultats sont présentés de façon à justifier expérimentalement un modèle original, non extensif, des propriétés de ces fluides, et l'ensemble se présente sous la forme de trois articles décrivant le modèle, suivis chacun par un article le comparant aux résultats expérimentaux publiés par de nombreux auteurs. Le caractère non extensif des propriétés physiques des fluides est choquant, contraire à beaucoup d'idées établies, il semble n'avoir en sa faveur qu'un argument, la comparaison avec un nombre de résultats expérimentaux assez grand pour que l'effet du hasard soit difficilement soupçonnable. En particulier, les écarts entre des résultats de mesures faits par des auteurs différents dans des conditions différentes sont expliqués, le sérieux et la compétence des différents expérimentateurs ne sont plus mis en doute : mais l'interprétation de ces résultats avec un modèle extensif non adapté est seule mise en cause. Les modèles extensifs étant utilisés systématiquement, au delà des expériences de physiciens, dans les calculs d'ingénieurs, et dans la modélisation d'appareils qui fonctionnent et de phénomènes naturels observés par tout le monde, il fallait expliquer pourquoi on pouvait renoncer à l'extensivité. Les raisons du succès pratique des modèles extensifs sont données, d'abord dans le cas des nématiques, puis dans celui des liquides ordinaires, et c'est ce qui rend l'ensemble cohérent, tant avec les mesures physiques fines qu'avec les observations quotidiennes. Il n'en reste pas moins que si l'interprétation donnée dans cette série d'articles est généralisable, une justification théorique du modèle utilisé devient nécessaire. Pour ce qui est des propriétés d'équilibre, une séparation de l'énergie libre en énergie libre de volume et en énergie libre de surface devrait donner les mêmes résultats ; par contre les choses deviennent troublantes dès que l'on passe aux coefficients de transport, c'est-à-dire à l'aspect macroscopique de la dynamique moléculaire. Il y a là un écart notable avec les conceptions courantes, ce qui rend très surprenante la lecture de ces articles. On peut mentionner la liste des problèmes théoriques posés par la description phénoménologique qui est celle de cette série d'articles : la généralisation de lois d'échelle en dehors de zones critiques n'est pas absolument nouvelle, par contre la simplicité des lois reliant l'exposant v à la température pose problème ; le sens des temps de relaxation utilisés est sans doute également à préciser. Enfin les modes considérés semblent n'intervenir dans les propriétés thermodynamiques que par un facteur par mode, comme si seulement l'énergie potentielle devait intervenir, les termes cinétiques ne participant pas vraiment aux transitions de phase. Tout cela pose donc problème, et l'on peut se demander si un pareil modèle peut être compatible avec tout ce qui est connu par ailleurs en physique statistique. Mais s'il rend bien compte de beaucoup de résultats expérimentaux, ce sont ces derniers qui seraient en difficulté avec la mécanique statistique. Il a donc semblé préférable de publier le modèle, sa justification expérimentale et de poser quelques problèmes, tant aux théoriciens, qui pourraient expliquer pourquoi un tel modèle rend compte de résultats observés, qu'aux expérimentateurs, qui pourraient reprendre certaines mesures, et délimiter le caractère plus ou moins général du modèle.
Zheng, Wenjing; Balzer, Laura; van der Laan, Mark; Petersen, Maya
2018-01-30
Binary classification problems are ubiquitous in health and social sciences. In many cases, one wishes to balance two competing optimality considerations for a binary classifier. For instance, in resource-limited settings, an human immunodeficiency virus prevention program based on offering pre-exposure prophylaxis (PrEP) to select high-risk individuals must balance the sensitivity of the binary classifier in detecting future seroconverters (and hence offering them PrEP regimens) with the total number of PrEP regimens that is financially and logistically feasible for the program. In this article, we consider a general class of constrained binary classification problems wherein the objective function and the constraint are both monotonic with respect to a threshold. These include the minimization of the rate of positive predictions subject to a minimum sensitivity, the maximization of sensitivity subject to a maximum rate of positive predictions, and the Neyman-Pearson paradigm, which minimizes the type II error subject to an upper bound on the type I error. We propose an ensemble approach to these binary classification problems based on the Super Learner methodology. This approach linearly combines a user-supplied library of scoring algorithms, with combination weights and a discriminating threshold chosen to minimize the constrained optimality criterion. We then illustrate the application of the proposed classifier to develop an individualized PrEP targeting strategy in a resource-limited setting, with the goal of minimizing the number of PrEP offerings while achieving a minimum required sensitivity. This proof of concept data analysis uses baseline data from the ongoing Sustainable East Africa Research in Community Health study. Copyright © 2017 John Wiley & Sons, Ltd. Copyright © 2017 John Wiley & Sons, Ltd.
Caracterisation thermique de modules de refroidissement pour la photovoltaique concentree
NASA Astrophysics Data System (ADS)
Collin, Louis-Michel
Pour rentabiliser la technologie des cellules solaires, une reduction du cout d'exploitation et de fabrication est necessaire. L'utilisation de materiaux photovoltaiques a un impact appreciable sur le prix final par quantite d'energie produite. Une technologie en developpement consiste a concentrer la lumiere sur les cellules solaires afin de reduire cette quantite de materiaux. Or, concentrer la lumiere augmente la temperature de la cellule et diminue ainsi son efficacite. Il faut donc assurer a la cellule un refroidissement efficace. La charge thermique a evacuer de la cellule passe au travers du recepteur, soit la composante soutenant physiquement la cellule. Le recepteur transmet le flux thermique de la cellule a un systeme de refroidissement. L'ensemble recepteur-systeme de refroidissement se nomme module de refroidissement. Habituellement, la surface du recepteur est plus grande que celle de la cellule. La chaleur se propage donc lateralement dans le recepteur au fur et a mesure qu'elle traverse le recepteur. Une telle propagation de la chaleur fournit une plus grande surface effective, reduisant la resistance thermique apparente des interfaces thermiques et du systeme de refroidissement en aval vers le module de refroidissement. Actuellement, aucune installation ni methode ne semble exister afin de caracteriser les performances thermiques des recepteurs. Ce projet traite d'une nouvelle technique de caracterisation pour definir la diffusion thermique du recepteur a l'interieur d'un module de refroidissement. Des indices de performance sont issus de resistances thermiques mesurees experimentalement sur les modules. Une plateforme de caracterisation est realisee afin de mesurer experimentalement les criteres de performance. Cette plateforme injecte un flux thermique controle sur une zone localisee de la surface superieure du recepteur. L'injection de chaleur remplace le flux thermique normalement fourni par la cellule. Un systeme de refroidissement est installe a la surface opposee du recepteur pour evacuer la chaleur injectee. Les resultats mettent egalement en evidence l'importance des interfaces thermiques et les avantages de diffuser la chaleur dans les couches metalliques avant de la conduire au travers des couches dielectriques du recepteur. Des recepteurs de multiples compositions ont ete caracterises, demontrant que les outils developpes peuvent definir la capacite de diffusion thermique. La repetabilite de la plateforme est evaluee par l'analyse de l'etendue des mesures repetees sur des echantillons selectionnes. La plateforme demontre une precision et reproductibilite de +/- 0.14 ° C/W. Ce travail fournit des outils pour la conception des recepteurs en proposant une mesure qui permet de comparer et d'evaluer l'impact thermique de ces recepteurs integres a uri module de refroidissement. Mots-cles : cellule solaire, photovoltaique, transfert de chaleur, concentration, resistances thermiques, plateforme de caracterisation, refroidissement
Biotransformation of pesticides in saturated-zone materials
NASA Astrophysics Data System (ADS)
Hoyle, Blythe L.; Arthur, Ellen L.
Many studies have been conducted to evaluate pesticide contamination of groundwater in the United States, but investigations of pesticide biotransformation in saturated zones are much less numerous than in surface soils. Because results of studies using soils are not directly applicable to the subsurface, the purpose of this paper is to illustrate examples of pesticide biotransformation in saturated-zone materials. Although it must be considered with caution, the US Environmental Protection Agency's (EPA) "Pesticides in Ground Water Database" was used to focus the discussion on the biotransformation potential of dibromoethane (EDB), atrazine, acetanilide herbicides, and aldicarb, all of which have been detected in groundwater in the United States. Results of more than two dozen studies indicate that a biotransformation potential for these pesticides exists in saturated-zone materials, although for any given pesticide substantial differences in biotransformation occurred. These variations were due both to differences in experimental methods and to heterogeneities in the subsurface materials under investigation. However, because biotransformation mechanisms were not well investigated, it is generally not possible to extrapolate predictions of biotransformation potential beyond the specific sites investigated. These results highlight the need to better understand microbial genetic regulation of biotransformation processes so that genetic information may be effectively incorporated into future investigations of biotransformation potential in the subsurface. Résumé De nombreuses études ont été réalisées pour évaluer le degré de pollution des aquifères par les pesticides aux États-Unis, mais les recherches concernant la biotransformation des pesticides dans les eaux souterraines sont beaucoup moins nombreuses que dans les sols. Du fait que les résultats des études concernant les sols ne sont pas directement applicables au milieu souterrain, le propos de cet article est d'illustrer par des exemples la biotransformation des pesticides dans les nappes. Bien qu'il faille la considérer avec précaution, la base de données sur les pesticides dans les eaux souterraines de l'Agence américaine pour la protection de l'environnement a été utilisée pour centrer la discussion sur le potentiel de biotransformation du dibromoéthane (EDB), de l'atrazine, des désherbants acétanildés et de l'aldicarb, qui tous ont été détectés dans les nappes des États-Unis. Les résultats de plus de deux douzaines d'études indiquent qu'il existe un potentiel de biotransformation de ces pesticides dans les nappes, bien qu'entre chacun de ces pesticides il existe des différences très nettes dans la biotransformation. Ces variations sont en fait dues à la fois à des différences dans les méthodes expérimentales et dans les hétérogénéités dans les matériaux étudiés. Cependant, parce que les mécanismes de la biotransformation ne sont pas bien étudiés, il est en général impossible d'extrapoler les prédictions du potentiel de biotransformation à des sites d'étude spécifiques. Ces résultats soulignent la nécessité de mieux comprendre la régulation génétique microbienne des processus de biotransformation, pour que l'information génétique puisse être efficacement prise en compte dans les futures recherches sur le potentiel de biotransformation dans le sous-sol. Resumen Se han llevado a cabo un gran número de estudios para evaluar la contaminación por pesticidas en los acuíferos de los Estados Unidos de América. Sin embargo, las investigaciones sobre biotransformación de pesticidas en la zona saturada son mucho menos numerosas que en suelos. Como los resultados obtenidos en suelos no son directamente transladables a la zona saturada, el objetivo de este artículo es mostrar ejemplos de biotransformación de pesticidas en la zona saturada. Aunque debe tomarse con cautela, la base de datos "Pesticides in Ground Water Database (Base de Datos de Pesticidas en Aguas Subterráneas)" perteneciente a la US EPA (Agencia de Protección Ambiental de los EEUU) se usó para centrar la discusión en la biotransformación potencial de diversos compuestos orgánicos detectados en diversos acuíferos de los EEUU. Los resultados de más de dos docenas de estudios indican que la biotransformación potencial de estos pesticidas en la zona saturada es posible, aunque para un pesticida dado pueden presentarse grandes diferencias, debidas tanto a diferencias en los métodos experimentales como a la heterogeneidad de los materiales. Sin embargo, no es posible en general extrapolar las predicciones de biotransformación potencial más allá de las zonas específicas estudiadas, al no haberse investigado en detalle sus mecanismos. Los resultados del estudio indican la necesidad de entender mejor la regulación genética de los procesos de biotransformación, para que la información genética pueda incorporarse de manera efectiva en las investigaciones futuras de biotransformación potencial en acuíferos.
Etude des melanges co-continus d'acide polylactique et d'amidon thermoplastique (PLA/TPS)
NASA Astrophysics Data System (ADS)
Chavez Garcia, Maria Graciela
Les melanges co-continus sont des melanges polymeriques ou chaque composant se trouve dans une phase continue. Pour cette raison, les caracteristiques de chacun des composants se combinent et il en resulte un materiau avec une morphologie et des proprietes particulieres. L'acide polylactique (PLA) et l'amidon thermoplastique (TPS) sont des biopolymeres qui proviennent de ressources renouvelables et qui sont biodegradables. Dans ce projet, differents melanges de PLA et TPS a une haute concentration de TPS ont ete prepares dans une extrudeuse bi-vis afin de generer des structures co-continues. Grace a la technique de lixiviation selective, le TPS est enleve pour creer une structure poreuse de PLA qui a pu etre analysee au moyen de la microtomographie R-X et de la microscopie electronique a balayage MEB. L'analyse des images 2D et 3D confirme la presence de la structure co-continue dans les melanges dont la concentration en TPS. se situe entre 66% et 80%. L'effet de deux plastifiants, le glycerol seul et le melange de glycerol et de sorbitol, dans la formulation de TPS est etudie dans ce travail. De plus, nous avons evalue l'effet du PLA greffe a l'anhydride maleique (PLAg) en tant que compatibilisant. On a trouve que la phase de TPS obtenue avec le glycerol est plus grande. L'effet de recuit sur la taille de phases est aussi analyse. Grace aux memes techniques d'analyse, on a etudie l'effet du procede de moulage par injection sur la morphologie. On a constate que les pieces injectees presentent une microstructure heterogene et differente entre la surface et le centre de la piece. Pres de la surface, une peau plus riche en PLA est presente et les phases de TPS y sont allongees sous forme de lamelles. Plus au centre de la piece, une morphologie plus cellulaire est observee pour chaque phase continue. L'effet des formulations sur les proprietes mecaniques a aussi ete etudie. Les pieces injectees dont la concentration de TPS est plus grande presentent une moindre resistance a la traction. La presence du compatibilisant dans la region co-continue affecte negativement cette resistance. En considerant que l'amidon est un biomateriau abondant, moins cher et plus rapidement biodegradable, son ajout dans le PLA presente l'avantage de reduire le cout tout en augmentant la vitesse de degradation du PLA. De plus, une structure continue poreuse de PLA produit par la technique de lixiviation selective a des applications potentielles soit comme materiau a degradation rapide ou encore, une fois la phase TPS retiree, comme substrat a porosite ouverte pour la fabrication de membranes, de supports cellulaires ou de filtres. Mots-cles : melanges immiscibles, acide polylactique, amidon thermoplastique, morphologie cocontinue, lixiviation selective, microtomographie R-X, materiau rigide poreux biodegradable.
Le Laboratoire de Mécanique Appliquée Raymond Chaléat a 40 ans !
NASA Astrophysics Data System (ADS)
Comité D'Organisation Du Colloque Ime 2002, Le
2002-12-01
Le LMARC a été créé par Raymond Chaléat dans les locaux de l'École Nationale d'Horlogerie (a présent Lycée Technique Jules Haag).L'équipe de recherche était alors constituée de 2 enseignants-chercheurs (Raymond Chaléat et Gérard Lallement) et d'un technicien (Bernard Prêtre). Les travaux de recherche se situaient naturellement dans le domaine de la chronométrie et en particulier dans la mécanique non linéaire analytique inhérente à la montre en fonctionnement. En effet, Raymond Chaléat fut l'élève, puis le collaborateur du Professeur Jules Haag, mathématicien et mécanicien, lui-même élève de Poincarré.Le LMARC a étendu ses activités avec l'arrivée de Claude Oudet, puis de Claude Oytana à la rhéologie des matériaux solides qui est devenue plus tard l'Équipe Propriétés Mécaniques des Matériaux. En parallèle, G. Lallement a créé une équipe Vibrations devenue à ce jour Dynamique des Structures. À ce jour, le Laboratoire compte plus de 110 personnes dont 40 doctorants.Il a depuis diversifié ses activités avec 3 nouvelles équipes tournées vers la Modélisation et la Mise en Forme des Matériaux, les Micromachines et la Biomécanique et les Mécanismes. Il a su également prendre toute sa place au sein de l'Institut des Microtechniques de Franche-Comté en contribuant à plusieurs thèmes.Notre Laboratoire a été l'un des premiers laboratoires associé au CNRS (4ème) et a toujours été rattaché à l'Université de Franche-Comté (Présidence par C. Oytana de 1996 a 2001) par l'entremise de I'UFR Sciences et Techniques. Il a toujours maintenu des liens forts avec I'ENSMM (École Nationale Supérieure de Mécanique et des Microtechniques) d'une part par ses enseignants-chercheurs et d'autre part deux de ses directeurs, Raymond Chaléat et actuellement Jean-Claude Gelin.En plus de ses relations constantes avec l'industrie régionale, le LMARC a développé des actions contractuelles avec de grands groupes tels que EDF, Peugeot SA, Renault, SNECMA, EADS, ...Il a su s'ouvrir aux collaborations internationales tout d'abord avec la Tchécoslovaquie, le Brésil, la Pologne, maintenant la Chine, la Russie, Corée du Sud, la Hongrie, la Roumanie ...Tout ce travail n'aurait pas pu se faire sans des ingénieurs, techniciens et des services techniques et administratifs épaulant efficacement les chercheurs CNRS et les enseignants-chercheurs.Globalement, si les aspects appliqués en mécanique sont un point fort du laboratoire, ce qui justifie son nom, son activité de recherche est restée plus généralement orientée vers les interactions entre expériences et modélisation en mécanique du solide.À l'occasion de ses 40 ans Le LMARC a souhaité organiser une conférence sur ce thème regroupant des chercheurs, collègues et amis pour faire le point sur ce sujet. Grâce à 6 conférences plénières et de 52 conférences en deux sessions, des sujets traitant du comportement des matériaux, de leur mise en forme, de la dynamique des structures, de la biomécanique et de la robotique ont pu être abordés. Ce livre regroupe l'ensemble des papiers présentés lors de cette conférence.
Roncarati, Alessandra; Pérez, Juan A; Ravenna, Marcella; Navarro-Pertusa, Esperanza
2009-02-01
In this paper, we develop the theory of ontologization: Social representations that prevent members of minority and majority groups who are living in contact with each other to mingle. The process of ontologization consists of separating some humans from their own species, and anchoring them in another environment, that of an animal, for example. We propose that underlying the famous slogan "equal but separate" is the social representation of interracial mixing as a "counter-nature" phenomenon. It is predicted that a sexual relationship between people of different "races" leads to a greater degree of ontologization, and, as such, this miscegenation will be explained in terms of biologistic thinking, like an instinctive nature or atavistic animal impulse. An experiment (N = 360) features the case of a woman who, though already in a stable relationship, is unfaithful to her partner. In a 2×3 factor design, the ethnic-national identity of this woman (in-group: Spanish/Italian vs out-group: Senegalese) and the ethnic-national identity of her lovers (in-group: Spanish/Italian vs out-group: Rumanian vs out-group: Senegalese) were manipulated. In general, results fit the hypothesis of ontologization in interracial conditions better, rather than the customary in-group favouritism and/or out-group discrimination bias. We then go on to discuss the way in which a biologistic way of thinking enables a differentiation at the human level, in terms of culture groups and nature groups, in "races," so that an interracial sexual relationship is seen as evidence of a wild and irrepressible impulse, which stigmatizes the people involved in these relationships. This research was supported by the Italian/Spanish Integrated Action Program HI2004_0241 and the Spanish Ministerio de Ciencia y Tecnología BSO2003-00476/PSCE. Dans cet article, nous développons la théorie de l'ontologisation: des représentations sociales qui empêchent les membres des groupes minoritaire et majoritaire qui vivent en contact les uns avec les autres d'intergir ensemble. Le processus d'ontologisation consiste à séparer quelques humains de leur propre espèce et de les ancrer dans un autre environnement, celui des animaux, à titre d'exemple. Nous proposons que ce qui est sous-jacent au fameux slogan «égaux mais distincts» est la représentation sociale de mélange inter-racial comme un phénomène «contre-nature». Il est prédit qu'une relation sexuelle entre des gens de différentes «races» amènerait à un plus grand degré d'ontologisation et en tant que tel, ce mélange sera expliqué en termes de pensée biologistique, à l'instar d'une nature instinctuelle ou une impulsion animale atavistique. Une expérimentation (N = 360) présente le cas d'une femme qui, même si elle est déjà dans une relation stable, elle est infidèle à son partenaire. Dans un devis 2×3, l'identité ethno-nationale de cette femme (endogroupe-espagnol/italien vs. exogroupe-sénégalais) et l'identité ethno-nationale de ses amants (endogroupe-espagnol/italien vs. exogroupe-roumain vs. exogroupe-sénégalais) ont été manipulées. En général, les résultats soutiennent l'hypothèse de l'ontologisation mieux dans les condition inter-raciales plutôt que le favoritisme de l'endogroupe coutumier et/ou le biais de la discrimination de l'exogroupe. Ensuite, nous poursuivons en discutant la manière dont la façon de penser biologistique permet une différentiation au niveau humain, en termes de groupes culturels et de groupes naturels, dans des «races», de manière à ce qu'une relation sexuelle inter-raciale est vue comme une preuve d'une impulsion sauvage et irrépressible qui peut stigmatiser les gens impliqués dans ces relations. En el presente artículo se discute la teoría de la ontologización: representaciones sociales que prevenien la fusión entre los miembros de grupos minoritarios o mayoritarios que viven en contacto unos con otros. El proceso de ontologización consiste en la separación de algunos seres humanos de sus propias especies y en la reubicación de estos en otro medio ambiente, por ejemplo el de un animal. Nosotros suponemos basados en el famoso eslogan "igual pero diferente" que la representación social de una mixtura interracial es un fenómeno "antinatural". Se ha observado que relaciones sexuales entre personas de "razas" diferentes conllevan a un elevado nivel de ontologización. Desde una perspectiva biologista se explica esta mezcla racial en términos de un instinto natural o de impulsos animales ancestrales. En un experimento (N = 360) se presenta el caso de una mujer, que a pesar de estar en una relación estable, no es fiel a su pareja. En un dieseño con 2×3 factores se manipuló la identidad étnica-nacional de esta mujer (intragrupo español/italiano vs. exogrupo senegalés) y la identidad étnica-nacional de sus amantes (intragrupo español/italiano vs. exogrupo rumano vs. exogrupo senegalés). En general los resultados apoyan más claramente la hipótesis de la ontologización en condiciones interraciales, que la acostumbrada hipótesis relacionada con sesgos de favoritismo hacia el intragrupo y/o de discriminación hacia el exogrupo. Posteriormente se discutió en que medida un aproximación de tipo biologista posibilita una diferenciación a nivel humano, en términos de grupos culturales y grupos naturales, en "razas", de tal medida que relaciones sexuales interraciales son vistas como evidencia de un impulso salvaje e incontrolable, el cual estigmatiza a las personas envueltas en estas relaciones.
Proprietes ionochromes et photochromes de derives du polythiophene
NASA Astrophysics Data System (ADS)
Levesque, Isabelle
La synthese et la caracterisation de derives regioreguliers du polythiophene ont ete effectuees en solution et sur des films minces. La spectroscopie UV-visible de ces derives a permis de constater qu'ils peuvent posseder des proprietes chromiques particulieres selon le stimulus auquel ils sont soumis. Par exemple, une augmentation de la temperature permet en effet aux polymeres de passer d'une couleur violette a jaune, et ce, a l'etat solide aussi bien qu'en solution. Ces proprietes chromiques semblent regies par une transition conformationnelle (plane a non-plane) de la chaine principale. Ce travail avait pour but de mieux comprendre l'influence de l'organisation des chaines laterales sur les transitions chromiques. Deux derives synthetises possedant des chaines laterales sensibles aux cations alcalins se sont averes etre ionochromes en plus d'etre thermochromes. Il s'agit d'un polymere comportant des chaines laterales de type oligo(oxyethylene) et d'un autre comportant un groupement ether couronne specifique aux ions lithium. Les effets chromiques observes sont expliques par des interactions non-covalentes des cations avec les atomes d'oxygene des chaines laterales dans le cas du premier polymere, et par l'insertion de l'ion Li + dans la cavite de l'ether couronne dans le cas du second polymere. Ces interactions semblent provoquer une diminution de l'organisation induisant ainsi une torsion de la chaine principale. Les deux polymeres semblent specifiques a certains cations et pourraient donc servir comme detecteurs optiques. La specificite aux ions Li+ du second polymere pourrait aussi permettre la conduction ionique, en plus de la conductivite electronique caracteristique des polythiophenes, ce qui pourrait s'averer utile dans le cas de batteries legeres entierement faites de polymeres et de sels de lithium. D'autres derives comportant des chaines laterales de type azobenzene se sont averes etre photochromes en plus d'etre thermochromes. Le groupement lateral a la possibilite de changer de configuration de la forme trans a la forme cis lorsqu'il est soumis a une irradiation dans le domaine de l'ultraviolet ce qui provoque, selon toute evidence, un effet marque sur l'organisation des chaines laterales. Cela induit alors une torsion de la chaine principale thiophene entrainant une diminution de conjugaison marquee. Ces effets peuvent etre exploites entre autres dans l'ecriture optique. Il s'est avere que le polymere irradie peu conjugue peut etre force a retourner a son etat initial conjugue tres rapidement par un traitement electrochimique simple. En conclusion, on a pu prouver qu'une modification dans l'organisation des chaines laterales par un stimulus exterieur affecte considerablement la conformation de la chaine principale. Cela porte a croire que les chaines laterales stabilisent une conformation particuliere des polythiophenes.
Tuberculose cutanée à Bamako, Mali
Dicko, Adama; Faye, Ousmane; Fofana, Youssouf; Soumoutera, Moussa; Berthé, Siritio; Touré, Saidou; Traoré, Bekaye; Guindo, Binta; Tall, Koureissi; Keita, Alimata; Kéita, Lassine; Coulibaly, Karim; Keita, Somita
2017-01-01
Introduction La tuberculose est la mycobactériose la plus fréquente en Afrique subsaharienne. La localisation cutanée est rare et sous diagnostiquée à cause de son polymorphisme clinique et la faiblesse du plateau technique. Le but de cette étude était de décrire les aspects épidémiologiques, cliniques, histopathologiques de la tuberculose cutanée à Bamako (Mali). Méthodes De janvier 1991 à décembre 2008 nous avons réalisé une étude transversale descriptive. L’étude s’est déroulée dans le service de Dermatologie du Centre National d’Appui à la lutte contre la Maladie et le service de Pneumo-phtisiologie au l’hôpital du Point G. Ont été inclus dans l’étude les cas de tuberculose confirmés par l’histologie et ou la biologie. Résultats Sur 4269 dossiers, 61 cas de tuberculose cutanée étaient recensées (1,43%). Les hommes représentaient 59% des cas (36 malades) et les femmes 41 % soit (25 cas); soit un sex-ratio de 1,44. L’âge des malades variait de 3 mois à 61 ans pour une moyenne de 27,56 ± 36 ans. La durée d’évolution était en moyenne de 10,9 ± 10 mois. Les formes cliniques recensées étaient le scrofuloderme (41 cas), la forme ulcéreuse (13 cas), la forme verruqueuse (4 cas), et le lupus tuberculeux (3 cas). La tuberculose était associée au VIH dans 7 cas, à la lèpre dans 3 cas. Conclusion La tuberculose cutanée est sous diagnostiquée au Mali. Des efforts sont nécessaires pour améliorer l’accessibilité et le plateau technique des services spécialisés, pour mener une étude approfondie interdisciplinaire sur cette pathologie. PMID:28819523
NASA Astrophysics Data System (ADS)
Aliouane, T.; Bouzid, D.; Belkhir, N.; Bouzid, S.; Herold, V.
2005-05-01
La fabrication des composants en verre optique nécessite des moyens de grande précision dans les procédés de finition vue l'importance accordée à leur qualité. Durant le processus de polissage des verres optiques, le polissoir est un élément clé et a un impact direct sur les performances des composants optiques, non seulement il est utilisé comme support de grains abrasifs mais il doit posséder la fonction de transmission de la pression aux grains. La connaissance de ses propriétés, essentiellement mécanique, est impérative afin d'obtenir un état de surface optimal des composants optiques destinés à remplir des fonctions très précises dans des appareils optiques très performants. Dans cette étude, nous avons constaté que les propriétés des polissoirs en polyuréthanne tel que la dureté, le module d'élasticité et la densité varient au cours du polissage. Ce changement a des effets sur l'état de surface de verre optique, causé par le changement microstructural de la surface du polissoir (distribution et dimensions des pores) et par conséquent sur la quantité des abrasifs (en oxyde de cérium) insérée dans les pores, ce qui influe sur la quantité de verre enlevée et sur l'état de surface du composant. Sur la base des résultats obtenus, il a été prouvé que le polissoir subit des modifications très importantes ce qui influe considérablement sur son efficacité de polissage.
Persistance de la veine cave supérieure gauche: à propos d'un cas
Abidi, Kamel; Jellouli, Manel; Hammi, Yousra; Gargah, Tahar
2015-01-01
La persistance de la veine cave supérieure gauche (PVCSG) est une malformation congénitale rare et bénigne. Elle est souvent asymptomatique et sa découverte est dans la majorité des cas fortuite. Nous rapportons le cas d'un enfant chez lequel on découvre cette anomalie suite à une perte de connaissance. S.M, âgé de 9 ans, sans antécédents pathologiques notables, admis pour perte de connaissance de durée brève, sans mouvements anormaux toniques ou cloniques. L'examen physique à son admission est normal. L’électrocardiogramme est sans anomalies. La radiographie du thorax a montré un arc moyen gauche en double contour. Le Holter rythmique a montré des signes d'hyperréactivité vagale. L’échocardiographie trans-thoracique (ETT) a mis en évidence une dilatation nette du sinus coronaire et a éliminé la présence d'une cardiopathie. Une angio- IRM cardiaque a confirmé le diagnostic de PVCSG. Par ailleurs l'aorte thoracique a été normale dans ces différents segments. PMID:26664537
NASA Astrophysics Data System (ADS)
Laux, Patrick; Nguyen, Phuong N. B.; Cullmann, Johannes; Kunstmann, Harald
2016-04-01
Regional climate models (RCMs) comprise both terrestrial and atmospheric compartments and thereby allowing to study land atmosphere feedbacks, and in particular the land-use and climate change impacts. In this study, a methodological framework is developed to separate the land use change induced signals in RCM simulations from noise caused by perturbed initial boundary conditions. The framework is applied for two different case studies in SE Asia, i.e. an urbanization and a deforestation scenario, which are implemented into the Weather Research and Forecasting (WRF) model. The urbanization scenario is produced for Da Nang, one of the fastest growing cities in Central Vietnam, by converting the land-use in a 20 km, 14 km, and 9 km radius around the Da Nang meteorological station systematically from cropland to urban. Likewise, three deforestation scenarios are derived for Nong Son (Central Vietnam). Based on WRF ensemble simulations with perturbed initial conditions for 2010, the signal to-noise ratio (SNR) is calculated to identify areas with pronounced signals induced by LULCC. While clear and significant signals are found for air temperature, latent and sensible heat flux in the urbanization scenario (SNR values up to 24), the signals are not pronounced for deforestation (SNR values < 1). Albeit statistically significant signals are found for precipitation, low SNR values hinder scientifically sound inferences for climate change adaptation options. It is demonstrated that ensemble simulations with more than at least 5 ensemble members are required to derive robust LULCC adaptation strategies, particularly if precipitation is considered. This is rarely done in practice, thus potentially leading to erroneous estimates of the LULCC induced signals of water and energy fluxes, which are propagated through the regional climate - hydrological model modeling chains, and finally leading to unfavorable decision support.
A potato model intercomparison across varying climates and productivity levels.
Fleisher, David H; Condori, Bruno; Quiroz, Roberto; Alva, Ashok; Asseng, Senthold; Barreda, Carolina; Bindi, Marco; Boote, Kenneth J; Ferrise, Roberto; Franke, Angelinus C; Govindakrishnan, Panamanna M; Harahagazwe, Dieudonne; Hoogenboom, Gerrit; Naresh Kumar, Soora; Merante, Paolo; Nendel, Claas; Olesen, Jorgen E; Parker, Phillip S; Raes, Dirk; Raymundo, Rubi; Ruane, Alex C; Stockle, Claudio; Supit, Iwan; Vanuytrecht, Eline; Wolf, Joost; Woli, Prem
2017-03-01
A potato crop multimodel assessment was conducted to quantify variation among models and evaluate responses to climate change. Nine modeling groups simulated agronomic and climatic responses at low-input (Chinoli, Bolivia and Gisozi, Burundi)- and high-input (Jyndevad, Denmark and Washington, United States) management sites. Two calibration stages were explored, partial (P1), where experimental dry matter data were not provided, and full (P2). The median model ensemble response outperformed any single model in terms of replicating observed yield across all locations. Uncertainty in simulated yield decreased from 38% to 20% between P1 and P2. Model uncertainty increased with interannual variability, and predictions for all agronomic variables were significantly different from one model to another (P < 0.001). Uncertainty averaged 15% higher for low- vs. high-input sites, with larger differences observed for evapotranspiration (ET), nitrogen uptake, and water use efficiency as compared to dry matter. A minimum of five partial, or three full, calibrated models was required for an ensemble approach to keep variability below that of common field variation. Model variation was not influenced by change in carbon dioxide (C), but increased as much as 41% and 23% for yield and ET, respectively, as temperature (T) or rainfall (W) moved away from historical levels. Increases in T accounted for the highest amount of uncertainty, suggesting that methods and parameters for T sensitivity represent a considerable unknown among models. Using median model ensemble values, yield increased on average 6% per 100-ppm C, declined 4.6% per °C, and declined 2% for every 10% decrease in rainfall (for nonirrigated sites). Differences in predictions due to model representation of light utilization were significant (P < 0.01). These are the first reported results quantifying uncertainty for tuber/root crops and suggest modeling assessments of climate change impact on potato may be improved using an ensemble approach. © 2016 John Wiley & Sons Ltd.
Exploring uncertainty of Amazon dieback in a perturbed parameter Earth system ensemble.
Boulton, Chris A; Booth, Ben B B; Good, Peter
2017-12-01
The future of the Amazon rainforest is unknown due to uncertainties in projected climate change and the response of the forest to this change (forest resiliency). Here, we explore the effect of some uncertainties in climate and land surface processes on the future of the forest, using a perturbed physics ensemble of HadCM3C. This is the first time Amazon forest changes are presented using an ensemble exploring both land vegetation processes and physical climate feedbacks in a fully coupled modelling framework. Under three different emissions scenarios, we measure the change in the forest coverage by the end of the 21st century (the transient response) and make a novel adaptation to a previously used method known as "dry-season resilience" to predict the long-term committed response of the forest, should the state of the climate remain constant past 2100. Our analysis of this ensemble suggests that there will be a high chance of greater forest loss on longer timescales than is realized by 2100, especially for mid-range and low emissions scenarios. In both the transient and predicted committed responses, there is an increasing uncertainty in the outcome of the forest as the strength of the emissions scenarios increases. It is important to note however, that very few of the simulations produce future forest loss of the magnitude previously shown under the standard model configuration. We find that low optimum temperatures for photosynthesis and a high minimum leaf area index needed for the forest to compete for space appear to be precursors for dieback. We then decompose the uncertainty into that associated with future climate change and that associated with forest resiliency, finding that it is important to reduce the uncertainty in both of these if we are to better determine the Amazon's outcome. © 2017 John Wiley & Sons Ltd.
Transitions de phase dans le oxyde de yttrium vanadium
NASA Astrophysics Data System (ADS)
Roberge, Benoit
Dans le mémoire qui suit, les ordres structural, magnétiques et orbital dans le YVO3 sont étudiés avec l'aide de la diffraction des rayons X,de la spectroscopie Raman et de la technique de la cavité résonnante hyperfréquence. L'objectif premier consiste à observer l'évolution de ces ordres en fonction de la température. Le mémoire met ensuite en évidence le couplage entre les différents ordres cohabitants dans le YVO3 . Les mesures effectuées par la diffraction des rayons X permettent de mesurer le caractère polycrystallin des échantillons du YVO 3. Une comparaison de nos mesures avec des mesures de diffraction des rayons X faites sur la poudre de YVO3 indique la faible présence de maclage. Les mesures effectuées avec la technique de résonnance hyperfréquence permettent de suivre l'évolution de la constante diélectrique en fonction de la température. Les changements impliquant l'ordre orbital se manifestent de manière évidente dans la constante diélectrique à 200 K et à 77 K. La transition diélectrique détectée à 77 K est une transition de premier ordre. Un couplage entre les propriétés diélectriques et magnétiques est observable à la température de Néel à 114 K. L'effet d'un champ magnétique fixe sur la température de transition de l'ordre orbital survenant à 77 K est également remarquable. Cela indique un couplage magnétodiélectrique démontrant ainsi le caractère multiferroïque du YVO 3. Finalement, l'observation d'un mécanisme de relaxation pouvant être modélisé par le modèle d'Havriliak-Negami est observé en dessous de 77 K. En utilisant le modèle d'Arrhénius et le modèle d'Havriliak-Negami, on peut caractériser le mécanisme avec son énergie d'activation et son temps de relaxation. Les mesures effectuées en spectroscopie Raman permettent de suivre l'évolution de la structure du YVO3 en fonction de la température. Les deux changements structuraux survenant à 200 K et 77 K sont observés. Le couplage entre le réseau et l'ordre orbital se manifeste par une augmentation de l'anharmonicité qui se traduit par une augmentation de l'intensité des processus de deuxième et troisième ordres. Les différentes théories expliquant comment l'ordre orbital interagit avec le réseau cristallin seront abordées en mettant l'accent sur la théorie de Van den Brink ['] qui réflète le mieux la réalité. Une comparaison de nos mesures avec d'autres travaux en spectroscopie Raman effectués sur le YVO3 sera également effectuée. Le couplage entre le réseau et l'ordre magnétique s'observe par la présence d'excitations magnétiques dans les spectres Raman et par la présence d'un ramollissement/durcissement survenant à la température de Néel. La théorie de Granado expliquant le phénomène de durcissement/ramollissement sera discutée.
B-Lajoie, Marie-Renée; Carrier, Johanne
2012-01-01
Résumé Objectif Cette recherche visait à documenter la perception de la prise en charge chez les médecins résidents en médecine familiale. Type d’étude Un questionnaire électronique quantitatif bilingue de 10 questions. Contexte Québec. Participants Tous les résidents en médecine familiale au Québec, soit 747 résidents. Principaux paramètres de l’étude Le questionnaire visait à préciser les intentions des médecins résidents quant à leur perception de la prise en charge et son inclusion dans leur pratique, et les moyens qu’ils privilégieraient pour valoriser cet aspect de la pratique. Résultats Au total, 289 médecins résidents ont rempli le questionnaire (38,7 %). De ce nombre, 201 répondants ont indiqué qu’ils anticipaient faire de la prise en charge dans leurs 5 premières années de pratique. Les facteurs inhibitifs les plus soulignés dans la section commentaires sont la difficulté à quitter la pratique, la complexité des cas et les responsabilités face au suivi du patient. Les plans régionaux d’effectifs médicaux et les activités médicales particulières ne sont pas ressortis de manière significative comme facteurs inhibitifs. Selon les répondants, la valorisation de la médecine familiale devrait passer par la promotion auprès des étudiants en médecine, par une modification de la culture institutionnelle et par une augmentation de la visibilité des médecins résidents et des patrons en médecine familiale au sein des équipes dans les milieux de formation. Conclusion Cette étude permet de conclure que les médecins résidents québécois prévoient inclure la prise en charge dans leur pratique. Toutefois, des solutions tangibles doivent être établies pour mitiger le poids de la pratique en cabinet et continuer à promouvoir la prise en charge auprès des jeunes médecins de famille.
L'Abondance du Deutérium, de l'Ultraviolet au Visible
NASA Astrophysics Data System (ADS)
Hébrard, Guillaume
2000-12-01
Dans le cadre du modèle standard du Big Bang, le deutérium est l'élément dont l'abondance primordiale est la plus sensible à la densité baryonique de l'Univers. Cet élément est uniquement créé lors de la nucléosynthèse primordiale, quelques minutes après le Big Bang ; aucune théorie standard n'en prédit actuellement d'autres sources significatives. Au contraire, étant brûlé dans les étoiles, son abondance D/H décroît au cours de l'évolution cosmique. Les mesures de D/H apportent ainsi des contraintes sur les modèles de Big Bang et d'évolution chimique des galaxies. On peut distinguer trois types de mesures de D/H: les abondances primordiale, proto-solaire et interstellaire, respectivement représentatives de l'Univers il y a environ 15 milliards d'années, 4.5 milliards d'années et à l'époque actuelle. Si l'évolution du deutérium semble qualitativement claire, les résultats concernant ces trois types d'abondance ne convergent pas pour l'instant vers trois valeurs bien définies. Les travaux entrepris durant cette thèse sont reliés à la mesure de l'abondance interstellaire du deutérium. Celle-ci s'obtient habituellement par l'observation spectroscopique en absorption des séries de Lyman de l'hydrogène et du deutérium. Ces observations se font dans le domaine ultraviolet, au moyen d'observatoires spatiaux. Les résultats présentés ici ont été obtenus avec le Télescope spatial Hubble puis le satellite FUSE, récemment mis en orbite. D'autre part, une nouvelle méthode d'observation du deutérium a été proposée, dans le domaine visible à partir de télescopes au sol. Ce travail a mené aux premières détections et à l'identification de la série de Balmer du deutérium, observée en émission dans des régions HII avec le Télescope Canada-France-Hawaii et le Very Large Telescope. On-line Thesis, Guillaume Hébrard
Fièvre bilieuse hémoglobinurique (FBH) de révélation tardive: à propos d'un cas au CHU de Dakar
Thiongane, Aliou; Ndongo, Aliou Abdoulaye; Faye, Papa Moctar; Sylla, Assane; Kéïta, Younoussa; Boiro, Djibril; Basse, Idrissa; Guèye, Ndèye Ramatoulaye Diagne; Ndiaye, Ousmane
2015-01-01
La fièvre bilieuse hémoglobinurique (FBH) est une forme grave du paludisme; caractérisée par la survenue d'une hémolyse intravasculaire aiguë se traduisant par une anémie hémolytique, une insuffisance rénale aiguë et une hypovolémie. Son diagnostic repose essentiellement sur la clinique notamment la couleur des urines d'aspect rouge porto. Nous rapportons un cas de fièvre bilieuse hémoglobinurique chez un jeune garçon de 10 ans originaire et vivant dans une zone d'endémie palustre, colligé dans un CHU de Dakar (Sénégal). V.G est un garçon de 10 ans qui était hospitalisé pendant 2 jours au service des urgences dans un centre de santé de proximité pour une fièvre associée à des vomissements qui évoluaient depuis 3 jours. Le test de diagnostic rapide (TDR) au paludisme était positif à la présence d'antigènes de Plasmodium falciparum dans le sang. Un traitement à base de quinine injectable (25 mg/kg/j), a été entrepris pendant 03 jours. Au quatrième jour, sont apparues une hémolyse intravasculaire aiguë et une hémoglobinurie avec une insuffisance rénale aiguë anurique. La goutte épaisse était revenue négative et le traitement par la quinine injectable arrêté. Le relais a été fait avec les dérivés de l'artémisinine. Trois (03) séances d'hémodialyse ont été réalisées. L’évolution était favorable, par la reprise de la diurèse et la normalisation de la fonction rénale. La FBH existe encore dans notre pratique quotidienne. Il faut y penser devant l'apparition brutale d'une hémolyse avec insuffisance rénale aiguë et urines rouges porto au cours du traitement d'un paludisme. PMID:26966497
NASA Astrophysics Data System (ADS)
Woirgard, J.; Salmon, E.; Gaboriaud, R. J.; Rabier, J.
1994-03-01
A very sensitive apparatus using the vibrating reed technique in a magnetic field is described. This new technic is an internal friction measurement which has been developed and applied to the study of vortex pinning in high T_c type II superconductors. The vibrating reed is simply used as a sample holder for the superconductor which can be oriented thin films, bulk samples or powders. The salient feature of this experimental set-up is the excitation mode of the reed for which the imposed vibration frequency can be freely chosen in the range 10^{-4}-10 Hz. Furthermore, the measurement sensitivity improves the performances obtained up to now by such similar apparatus as forced torsion pendulums. Damping values corresponding to phase lags between 10^{-5} and 10^{-4} radian can be readily obtained for vibration frequencies in the range 10^{-1} 10 Hz. Some preliminary results show damping peaks which might be due to the so-called fusion of the vortex network obtained with thin films whose thickness is 1000 Å and with textured bulk samples of YBaCuO. Une nouvelle technique basée sur la mesure du frottement intérieur en vibrations forcées est appliquée à l'étude de l'ancrage des vortex dans les oxydes supraconducteurs à haute température critique. Dans cette méthode la lame, excitée électrostatiquement, voit son rôle limité à celui de porte-échantillon sur lequel peuvent être disposés des couches minces, des échantillons massifs ou des poudres. L'originalité de cet appareillage réside dans la conception du mode d'excitation de la lame : la fréquence d'oscillation forcée peut être choisie dans une large gamme allant de 10^{-4} Hz à quelques dizaines de hertz. D'autre part, la sensibilité de la mesure améliore sensiblement les performances obtenues jusqu'à ce jour en vibrations forcées. Des amortissements correspondant à des déphasages compris entre à 10^{-5} et 10^{-4} radian peuvent être facilement mesurés. Les premiers essais réalisés sur une couche mince épitaxiée de 1000 Å d'épaisseur d'YBaCuO ont permis de mettre en évidence un pic d'amortissement, de grande amplitude, qui pourrait être dû à la fusion du réseau de vortex. Prochainement, cet appareillage sera employé pour l'étude de l'ancrage des lignes de flux sur les défauts du réseau cristallin, défauts naturels ou artificiels créés par implantation ionique dans les films minces ou par déformation plastique dans les échantillons massifs.
NASA Astrophysics Data System (ADS)
Oki, Delwyn S.; Souza, William R.; Bolke, Edward L.; Bauer, Glenn R.
The coastal aquifer system of southern Oahu, Hawaii, USA, consists of highly permeable volcanic aquifers overlain by weathered volcanic rocks and interbedded marine and terrestrial sediments of both high and low permeability. The weathered volcanic rocks and sediments are collectively known as caprock, because they impede the free discharge of groundwater from the underlying volcanic aquifers. A cross-sectional groundwater flow and transport model was used to evaluate the hydrogeologic controls on the regional flow system in southwestern Oahu. Controls considered were: (a) overall caprock hydraulic conductivity; and (b) stratigraphic variations of hydraulic conductivity in the caprock. Within the caprock, variations in hydraulic conductivity, caused by stratigraphy or discontinuities of the stratigraphic units, are a major control on the direction of groundwater flow and the distribution of water levels and salinity. Results of cross-sectional modeling confirm the general groundwater flow pattern that would be expected in a layered coastal system. Groundwater flow is: (a) predominantly upward in the low-permeability sedimentary units; and (b) predominantly horizontal in the high-permeability sedimentary units. Résumé Le système aquifère littoral du sud d'Oahu (Hawaii, États-Unis) est constitué par des aquifères de terrains volcaniques très perméables, recouverts par des roches volcaniques altérées, et interstratifiés avec des sédiments marins et continentaux de perméabilité aussi bien forte que faible. Les roches volcaniques altérées et les sédiments sont globalement considérés comme une couverture, parce qu'ils s'opposent à l'écoulement de l'eau souterraine provenant des aquifères volcaniques sous-jacents. Les contrôles hydrogéologiques sur le système aquifère régional du sud-ouest d'Oahu ont étéévaluées au moyen d'un modèle d'écoulement et de transport sur une section transversale. Ces contrôles prennent en compte la conductivité hydraulique de la couverture dans son ensemble et les variations de la conductivité hydraulique liées à la stratigraphie de la couverture. A l'intérieur de la couverture, les variations de la conductivité hydraulique, dues à la stratigraphie ou à des discontinuités entre les unités stratigraphiques, sont le contrôle principal de la direction d'écoulement et de la répartition des niveaux et de la salinité de l'eau. La modélisation sur une section transversale a donné des résultats qui confirment l'organisation générale des directions d'écoulement, telle qu'elle pouvait être envisagée dans un aquifère littoral multicouche. L'écoulement souterrain est essentiellement vertical vers le haut dans les unités sédimentaires à faible perméabilité, et essentiellement horizontal dans les unités sédimentaires à forte perméabilité. Resumen El sistema acuífero costero de la zona sur de Oahu, en Hawaii, está formado por acuíferos volcánicos de alta permeabilidad, subyacentes a rocas volcánicas alteradas, con inclusiones de sedimentos marinos y terrestres, tanto de alta como de baja permeabilidad. Al conjunto de rocas volcánicas alteradas y sedimentos se le conoce por "tapón de roca", ya que impide la descarga libre de las aguas subterráneas del acuífero volcánico subyacente. Se usó un modelo de flujo de agua subterránea y transporte de solutos en sección vertical para evaluar los aspectos hidrogeológicos que controlan el flujo regional en la zona sudoeste de Oahu. Se consideraron: (a) la conductividad hidráulica global del tapón y (b) las variaciones estratigráficas de la conductividad hidráulica. En el tapón de roca, las variaciones de la conductividad hidráulica, causadas por la estratigrafía o por discontinuidades en las unidades estratigráficas, son las que controlan la dirección del flujo subterráneo y la distribución de niveles piezométricos y salinidad. Los resultados del modelo en sección transversal confirman la distribución del flujo subterráneo que cabría esperar en un sistema costero estratificado. El flujo de aguas subterráneas es: (a) predominantemente vertical hacia arriba en las unidades sedimentarias de baja permeabilidad; y (b) predominantemente horizontal en las unidades sedimentarias de alta permeabilidad.
The Importance of Biological Databases in Biological Discovery.
Baxevanis, Andreas D; Bateman, Alex
2015-06-19
Biological databases play a central role in bioinformatics. They offer scientists the opportunity to access a wide variety of biologically relevant data, including the genomic sequences of an increasingly broad range of organisms. This unit provides a brief overview of major sequence databases and portals, such as GenBank, the UCSC Genome Browser, and Ensembl. Model organism databases, including WormBase, The Arabidopsis Information Resource (TAIR), and those made available through the Mouse Genome Informatics (MGI) resource, are also covered. Non-sequence-centric databases, such as Online Mendelian Inheritance in Man (OMIM), the Protein Data Bank (PDB), MetaCyc, and the Kyoto Encyclopedia of Genes and Genomes (KEGG), are also discussed. Copyright © 2015 John Wiley & Sons, Inc.
Patterns of evolution of research strands in the hydrologic sciences
NASA Astrophysics Data System (ADS)
Schwartz, F. W.; Fang, Y. C.; Parthasarathy, S.
2005-03-01
This paper examines issues of impact and innovation in groundwater research by using bibliometric data and citation analysis.The analysis is based on 3120 papers from the journal Water Resources Research with full contents and their citation data from the ISI Web of Science. The research is designed to develop a better understanding of the way citation numbers can be interpreted by scientists. Not surprisingly, the most highly cited papers appear to be pioneers in the field with papers departing significantly from what has come before and to be effective in creating similar, follow-on papers. Papers that are early contributions to a new research strand that is highly influential will be on average highly cited. However, the importance of a research strand as measured by citations seems to fall with time. The citation patterns of some classic papers show that the activity in the topical area and impact of follow-on papers gradually decline with time, which has similarities with Kuhn's ideas of revolutionary and normal science. The results of this study reinforce the importance of being a pioneer in a research strand, strategically shifting research strands, adopting strategies that can facilitate really major research breakthroughs. L'article examine les problèmes d'impact et d'innovation dans la recherche des eaux souterraines en utilisant les données bibliométriques et l'analyse des citations. L'analyse a été faite sur 3120 articles parus dans Water Resources Research en tenant compte de leur texte complet et de toutes citations parues dans l' ISI Web de la Science. Le but de la recherche a été de mieux comprendre comment le nombre des citations peut être interprété par les scientifiques. Ce n'est pas une surprise que les plus cités articles soient les articles-pionniers dans leurs domaines, qui s'écartent d'une manière significative de ce qui a été écrit auparavant et qui ont été suivi par des nouveaux articles. Les articles qui présentent une première contribution dans leur domaine et qui ont beaucoup influencé la recherche sont en général les plus cités. Il semble que la diminution de l'importance d'un domaine de recherche est aussi reflétée par le nombre de citations. Le modèle des citations des quelques articles classiques montre que l'activité dans le domaine ainsi que l'impact sur les articles suivantes déclinent progressivement pendant le temps ce qui présente une analogie avec les idées de Kuhn sur la science normale et révolutionnaire. Le résultat de l'étude renforce une fois de plus l'importance d'être un pionnier dans un domaine, en faisant avancer la recherche dans le domaine respectif, en adoptant des stratégies qui peuvent créer des percées majeures dans la recherche. Este artículo examina los temas de impacto e innovación en la investigación de las aguas subterráneas, mediante el uso de datos bibliométricos y del análisis de las referencias bibliográficas. El análisis se basó en 3120 artículos de la revista Water Resources Research, con el contenido completo y sus datos de referencias bibliográficas obtenidos de la Red de Ciencia ISI. La investigación se diseñó para desarrollar un entendimiento mayor de la forma en que la cantidad de citas bibliográficas puede ser interpretada por los científicos. No es sorprendente que los artículos más citados, parecen ser los pioneros en el campo, siendo artículos que divergen significativamente de lo que se ha hecho anteriormente, los cuales son efectivos creando de manera similar otros artículos "seguidores". Los artículos que son contribuciones iniciales en una línea de investigación nueva, la cual es de alta influencia, serán en promedio citados muy frecuentemente. Sin embargo, la importancia de una línea de investigación, de acuerdo a su medida por las veces que es citada, parece disminuir con el tiempo. Las tendencias en cuanto a hacer citas bibliográficas de algunos artículos clásicos, muestran que la actividad en el área de actualidad, lo mismo que el impacto de los artículos "seguidores", declinan con el tiempo gradualmente, lo cual muestra parecidos con las ideas de Kuhn acerca de la ciencia revolucionariay la ciencia normal. Los resultados de este estudio refuerzan la importancia de ser un pionero en una línea de investigación, cambiando estratégicamente de líneas de investigación y adoptando estrategias que puedan facilitar verdaderos avances en investigaciones de trascendencia.
Syndrome naviculo-capital de Fenton (à propos d’un nouveau cas)
Bennis, Azzelarab; Benabbouha, Abdellatif; Ouzaa, Mohammed Reda; Lamkhanter, Adil; Benchakroun, Mohammed; Jaafar, Abdelouahab
2017-01-01
La fracture scapho-capitale ou syndrome naviculo-capital de Fenton, est une lésion très rare, souvent méconnue. Elle résulte d'un traumatisme du poignet de haute énergie. Son mécanisme est controversé. Les auteurs rapportent l'observation d'un patient,qui a présenté dans les suites d’un accident de la voie publique une fracture du scaphoïde associée à une fracture du capitatum, du triquetrum et de la styloïde cubitale. La voie d'abord dorsale, a permis une réduction et une contention par embrochage de la première rangée, indépendamment de la deuxième rangée. Les ligaments interosseux scapho-lunaire et lunaro-triquétral étaient intacts. Une immobilisation plâtrée antébrachio-palmaire a été mise en place pour 12 semaines. La rééducation a durée six mois. A deux ans de recul, le score fonctionnel de Cooney était bon et l'ensemble des fractures a consolidé sans aucune désaxation intracarpienne. La reprise du travail était au huitième mois après l’accident. Scapho-capitate fracture or Fenton’s naviculo-capitate fracture syndrome is a very rare and often ignored lesion. It is caused by a high-energy traumatic injury to the wrist. Its mechanism is controversial. This study reports the case of a patient with scaphoid fracture associated with fracture of the capitatum, triquetrum and ulnar styloid due to public road accident. Dorsal approach allowed reduction and containment by internal fixation in the first row, regardless the second row. Scapholunate interosseous ligaments and luno-triquetral were intact. The patient underwent antebrachial-palmar plaster immobilization for 12 weeks. Rehabilitation program lasted for six months. Cooney’s wrist function score was good and all fractures consolidated without intracarpal malalignment at 2 years follow up. The patient resumed work in the eighth month after the road accident. PMID:28690721
NASA Astrophysics Data System (ADS)
Libersa, C.; Arsicault, M.; Lallemand, J.-P.
2002-12-01
Ces travaux entrent dans le cadre des études nécessaires à la mise au point d'une structure déformable actionnée par fils en alliage à mémoire de forme. L'application visée est son utilisation comme module de locomotion d'un microrobot intratubulaire autonome de type “ lombric ”. Un module est constitué d'un cadre élastique carré forcé en post-flambement sur un squelette rigide, de manière à obtenir deux configurations symétriques d'équilibre stable correspondant au premier mode de flambage. Le passage d'un état d'équilibre à l'autre est obtenu par la contraction de fils AMF éduqués disposés sur le cadre post-flambé. Un assemblage par juxtaposition de cinq modules identiques compose le corps du microrobot. Suivant un cycle de locomotion adéquat, chacun de ces actionneurs “ tout ou rien ” permet la prise d'appui sur les parois du tube ou l'allongement local nécessaire à l'avance du microrobot. Nous présentons ici les résultats obtenus lors d'un chargement transversal d'un module, et en particulier les courbes reliant l'effort de réaction et le déplacement du point en contact avec le tube. L'influence du serrage subit par le module sur le maintien du microrobot dans un tube vertical est déterminée. Les résultats expérimentaux obtenus sont comparés avec les résultats numériques.
NASA Astrophysics Data System (ADS)
Auban-Senzier, P.; Audouard, A.; Laukhin, V. N.; Rousseau, R.; Canadell, E.; Brossard, L.; Jérome, D.; Kushch, N. D.
1995-10-01
Magnetotransport measurements have been carried out in layered organic metal α-(ET){2}TlHg(SeCN){4} at temperatures down to 0.4 K and under hydrostatic pressure. Only one... Des mesures de magnétorésistance ont été effectuées dans le conducteur organique bidimensionnel α-(ET){2}TlHg(SeCN){4} jusqu'à la température de 0.4 K et sous pression hydrostatique. Une seule série d'oscillations Shubnikov-de Haas est observée dans la gamme de pression comprise entre 3.5 et 11 kbar. La masse cyclotron décroit lentement lorsque la pression augmente et la fréquence des oscillations augmente rapidement depuis la valeur de (653± 3)T à pression ambiante jusqu'à (790± 3)T à 11 kbar. Une modélisation basée sur la méthode des liaisons fortes suggère que la dépendance en pression de l'aire de l'orbite fermée de la surface de Fermi est due au glissement, induit par la pression, des molécules des chaines ne contenant qu'un type de donneurs. Au contraire de son composé frère α-(ET){2}NH{4}Hg(SCN){4}, il présente des oscillations lentes, de fréquence (47± 3)T, à pression ambiante. Elles ne sont pas observées entre 3.5 et 11 kbar et pourraient être en relation avec un emboîtement des orbites ouvertes à pression ambiante qui pourraient détruire la supraconductivité dans le composé à base de sélénium.
NASA Astrophysics Data System (ADS)
Agay, D.; Clarencon, D.; Multon, E.; Mestries, J.-C.; van der Meeren, A.; Mouthon, M.-A.; Gourmelon, P.
1998-04-01
The monolithic image of radiation pathology, the physiopathological mechanisms of which are limited to the conventional concept of specific “target cell" with mitotic and apoptotic cell death, is changing owing to our increasing knowledge about intercellular communications. The cellular radiationbiology is currently enriched by the “humoral" radiationbiology with its concept of “target network" including cells and intercellular messengers. The radiation-induced disorders observed in these networks take shape in the inflammatory reaction, which is largely involved, in the physiopathological development of the acute radiation syndrome. These concepts of a perpetual cascade of cytokines, leading to radiation-induced late effects with no biological latent period, are especially illustrated by the radiation-induced pneumonitis and pulmonary fibrosis. L'image monolithique de la radiopathologie dont les mécanismes physiopathologiques sont réduits aux concepts classiques de “cellule cible" spécifique avec mort cellulaire mitotique et apoptotique, se modifie grâce à l'accroissement de nos connaissances sur les communications intercellulaires. La radiobiologie cellulaire s'enrichit aujourd'hui de la radiobiologie “humorale" avec son concept de “réseau cible" tant au niveau des cellules que des messagers intercellulaires. Les désordres radio-induits observés au niveau de ces réseaux se concrétisent dans la réaction inflammatoire qui est fortement impliquée dans l'évolution physiopathologique du syndrome aigu d'irradiation. Ces concepts d'une cascade perpétuelle de cytokines, sans période de latence biologique et qui amènent aux effets tardifs radio-induits, sont particulièrement illustrés dans la pneumonie et la fibrose pulmonaire radio-induites.
Domain structure in biphenyl incommensurate phase II observed by electron paramagnetic resonance
NASA Astrophysics Data System (ADS)
Véron, A.; Emery, J.; Spiesser, M.
1994-11-01
The domain structure in incommensurate phase II of single biphenyl crystal has been observed by investigations of the optically excited states of the Electronic Paramagnetic Resonance (E.P.R.) deuterated naphthalene molecular probes which substitute biphenyl molecules. Our results confirm that this phase is a 1q bi-domain one. The analysis of the spectra obtained in X band (9.5 GHz) experiments, in relation with the spin Hamiltonian parameter properties permits us to show that the E.P.R. probe rotates around a direction perpendicular to its long axis while the biphenyl molecule undergoes a twist movement around this axis. They also account for a regime which is like a “ multi-soliton " regime while the modulation is a plane wave one in the pure single crystal. The two molecules of the high temperature cell do not exactly experience the saure displacement field in the incommensurate phase and consequently the two domains can be distinguished. The spin Hamiltonian parameters which characterize the E.P.R. probes have been determined in the incommensurate phase II of biphenyl. La structure en domaines de la phase II du biphényle est mise en évidence par les investigations dans les états photo-excités des molécules de naphtalène deutéré, utilisées comme sondes de Résonance Paramagnétique Electronique, se substituant de manière diluée dans le mono-cristal de biphényle. Ceci confirme que cette phase est 1q bi-domaine. L'analyse des spectres obtenus dans des expériences en bande X (9.5 GHz) en relation avec les propriétés de l'hamiltonien de spin permet de montrer que la sonde moléculaire tourne autour d'une direction perpendiculaire à son grand axe alors que la molécule de biphényle subit un mouvement de twist autour de cet axe. Les résultats montrent que ces sondes rendent compte d'un régime qui est comme un régime “ multi-solitons " alors que la modulation est plane dans le cristal pur. Les deux molécules sondes de la cellule élémentaire haute température ne subissent pas les mêmes champs de déplacements dans la phase incommensurable et en conséquence les deux domaines peuvent être distingués. Les paramètres de l'hamiltonien de spin qui caractérisent les sondes R.P.E. ont été déterminés dans la phase II du biphényle.
NASA Astrophysics Data System (ADS)
Lamarre, Simon G.
Le moulage par injection a basse pression de poudre metallique est une technique de mise en forme de pieces de formes complexes. La poudre metallique est melangee avec des polymeres basse viscosite (ex. : cire) pour former un melange homogene a une temperature superieure a la temperature de fusion des polymeres. Pour faciliter l'injection dans la cavite du moule, la composition des melanges est ajustee pour diminuer la viscosite. D'une part, les melanges peu visqueux possedent une bonne moulabilite. D'autre part, le phenomene de la segregation se manifeste rapidement avec les melanges peu visqueux. Les machines commerciales sont munies d'un canal d'injection et d'une valve qui relient le reservoir de melange et la cavite du moule. Le melange reste stationnaire dans ces composantes entre deux sequences d'injection, ce qui le rend propice a la segregation. Plusieurs brevets tentent de resoudre ce probleme en utilisant des pompes et des canaux de recirculation. Ces composantes sont difficiles a nettoyer en raison de leur complexite. Une machine a injection basse pression a ete concue et fabriquee pour l'etude de l'aptitude au moulage des melanges de tres faible viscosite (ex. : 0.1 Pa˙s), qui tient compte du phenomene de segregation et des contraintes de nettoyage. Un piston d'injection puise le volume desire d'un reservoir. Ensuite, un mouvement lateral cisaille le melange a l'intersection entre le reservoir et le cylindre et bouche l'orifice de sortie du reservoir. Le cylindre est degage et peut recevoir le moule. A la suite de l'injection, le piston retourne a la position du reservoir et entre dans son orifice de sortie. Le melange residuel est retourne dans le reservoir, melange et desaere a nouveau. L'appareil a ete valide par des essais d'injectabilite avec un melange de poudre d'acier inoxydable et de liants a basse viscosite. Des essais d'injection ont montre que le melange contenant l'acide stearique a parcouru la plus grande distance dans le moule de forme spirale, suivi du melange contenant l'acide stearique et l'ethylene vinyle acetate et finalement du melange contenant seulement la cire de paraffine. Des essais de rheologie ont correle ces resultats pour une viscosite associee a un faible taux de cisaillement. Un essai de segregation a montre qu'un temps d'attente de moins d'une minute devait etre respecte avant de mesurer une segregation importante. De plus, le fonctionnement du systeme de vacuum a ete valide par des analyses radiographiques. Un temps de melange sous vacuum de 30 min est suffisant pour eliminer completement la presence de bulles d'air dans la piece injectee.
NASA Astrophysics Data System (ADS)
Cote, Jean-Charles
Les cartographies T1 par séquences d'échos stimulés et Look- Locker sont les plus communément utilisées pour mesurer les temps de relaxation T 1 en imagerie par résonance magnétique (IRM). Elles ont des performances d'usage clinique, ne prenant que quelques minutes pour produire une carte des valeurs de T1. Ces séquences demeurent cependant très sensibles à la précision des pulses radiofréquences (RF) qui réorientent l'aimantation pour produire les signaux mesurés. Les pulses RF rectangulaires régulièrement utilisés en IRM produisent un basculement de l'aimantation directement proportionnel à l'intensité du champ magnétique B 1 produit par l'antenne émettrice. Les antennes cliniques ont des distributions de champs B1 qui fluctuent énormément. En exemple, l'antenne servant à produire des images de la tête possède un champ B1 qui est distribué dans son volume utile sur une plage allant de 0,5 à 1,2 relativement à son centre. Cette variation spatiale de B1 entraîne des erreurs systématiques sur les valeurs ajustées de T1 dépassant les 50%. Le développement d'un nouveau concept d'excitation RF à approche tangentielle ayant des propriétés adiabatiques pouvant remplacer les demi-passages adiabatiques (AHP) et son utilisation sous la forme d'un BIR-4-S2 (B1-Insensitive Rotation-4 AHP-Sequentialized 2 steps) dans les séquences de cartographie T1 a permis de réduire à moins de 10% les erreurs systématiques dans le cas mesuré par échos stimulés compensés et à moins de 5% pour le Look-Locker. Le BIR-4-S2 possède une imprécision sur l'angle de basculement de moins de 5° sur une plage relative allant de 0,75 à 1,75 autour d'un champ de référence B1 ref, pour un choix de basculement sur 360°. Et, contrairement aux pulses adiabatiques, il demeure un pulse RF tridimentionnel (3D) à faible puissance pouvant être utilisé à répétition cliniquement sans risque d'échauffement dangereux pour les patients. La séquence d'échos stimulés compensés dont nous avons parlé ci-haut utilise un autre de nos développements: la compensation. Le signal produit par une séquence traditionnelle d'échos stimulés tend vers zéro en suivant la relaxation T1 dans le temps. Parfois ceci cause des problèmes lorsque le signal des derniers échos commence à être influencé par le bruit. La compensation a pour effet de modifier la décroissance exponentielle du signal. Ce changement s'opère en tenant compte de la relaxation T1 lors du calcul des angles de basculement nécessaire à la séquence. La compensation transfère une partie de la demande du volume de signal des premiers échos vers les derniers. On peut compenser entièrement et ainsi programmer une séquence qui produira des signaux égaux entre tous les échos ou compenser partiellement pour soutenir les signaux des derniers échos en conservant un maximum de signal total.
Applicability and methodology of determining sustainable yield in groundwater systems
NASA Astrophysics Data System (ADS)
Kalf, Frans R. P.; Woolley, Donald R.
2005-03-01
There is currently a need for a review of the definition and methodology of determining sustainable yield. The reasons are: (1) current definitions and concepts are ambiguous and non-physically based so cannot be used for quantitative application, (2) there is a need to eliminate varying interpretations and misinterpretations and provide a sound basis for application, (3) the notion that all groundwater systems either are or can be made to be sustainable is invalid, (4) often there are an excessive number of factors bound up in the definition that are not easily quantifiable, (5) there is often confusion between production facility optimal yield and basin sustainable yield, (6) in many semi-arid and arid environments groundwater systems cannot be sensibly developed using a sustained yield policy particularly where ecological constraints are applied. Derivation of sustainable yield using conservation of mass principles leads to expressions for basin sustainable, partial (non-sustainable) mining and total (non-sustainable) mining yields that can be readily determined using numerical modelling methods and selected on the basis of applied constraints. For some cases there has to be recognition that the groundwater resource is not renewable and its use cannot therefore be sustainable. In these cases, its destiny should be the best equitable use.
NASA Astrophysics Data System (ADS)
Ouerdane, Youcef; Laporte, Pierre
2005-06-01
L'objectif de la série de colloques UVX est de réunir, au rythme d'une fois tous les deux ans, les scientifiques et industriels travaillant dans le domaine du développement des sources de photon de grande énergie (UV, VUV, et X) et de leurs applications. En particulier cette manifestation est l'occasion de faire se rencontrer une communauté très pluridisciplinaire (physique, chimie, biologie, sciences de l'univers) liée à des domaines en forte évolution technologique (lasers et rayonnement synchrotron notamment). Le colloque UVX 2004 s'est tenu au Palais des Congrès de Saint-Étienne (42000) du 7 au 11 juin 2004. La période écoulée depuis l'édition précédente (Oléron 2002) a été particulièrement active dans tous les domaines concernés : grands projets de sources, méthodes de diagnostic au sens large. Une nouvelle fois on constate que le bref et l'ultra-bref ont une place privilégiée, qu'il s'agisse du travail sur les accélérateurs ou sur les lasers qui, bien sûr, dans la course aux temps courts remportent la palme avec la présence de spécialistes du domaine attoseconde. La communauté représentée a la chance d'être en prise directe avec de très grands projets en phase active de réalisation comme le Laser Megajoule (LMJ), la source SOLEIL, et un projet d'ampleur plus modeste mais remarquable dans son domaine : la source LASERIX d'Orsay/Palaiseau. On pourra citer aussi le projet Arc en Ciel qui, lui, est encore au stade de sa définition. - SOLEIL, source de nouvelle génération de rayonnement synchrotron (plateau de Saclay) est dans une phase active de réalisation : achèvement de l'infrastructure en 2005 et injection du 1o faisceau dans l'anneau de stockage prévu également en 2005. Cette source devrait être la meilleure au monde dans le domaine VUV/X mous, tout en restant très polyvalente (brillance, accordabilité, structure temporelle, polarisation) et complémentaire de l'ESRF. Au final on disposera de 21 lignes de lumière sur onduleurs et 22 sur aimants de courbure. Les premiers “utilisateurs” sont prévus au printemps 2006 avec couverture de l'IR jusqu'aux X durs pour des études variées notamment dans le domaine de la matière condensée. - La LIL (ligne d'intégration laser) du LMJ fonctionne avec 4 faisceaux (de 30 kJ à 351 nm) et un ensemble de diagnostics plasma est en cours de validation (énergie, imagerie X, spectrométrie X). Un souci d'ouverture collaborative (France et étranger) est affiché. - LASERIX (LIXAM, LOA) a pour but de doter les scientifiques français d'un laser émettant en “quasi-routine” de l'émission laser X à 6 tirs/mn basée sur différents schémas collisionnels et donc différentes longueurs d'ondes, et mettant en oeuvre un laser saphir-titane ultra bref de 40 J pour la génération plasma. - Le projet Arc en Ciel (CEA, LOA) se penche sur la possibilité de mise en oeuvre d'une source de “4^ogénération”. Ces sources se veulent à la fois brillantes, cohérentes, dans la gamme des 100 femtosecondes, ce qui conduit à tourner le dos aux anneaux de stockage pour se focaliser sur la combinaison accélérateur linéaire/onduleur, complétée par un laser saphir-titane (génération d'harmoniques UV/X dans des gaz). - Une avancée particulièrement intéressante a été récemment réalisée, notamment au LOA, par injection d'un laser X (plasma) par un faisceau X de bonne qualité (polarisation, divergence, temps, contraste...) issu de la génération d'harmoniques élevées par une chaîne saphir-titane femto. - On notera aussi les avancées réalisées dans le domaine des sources incohérentes de forte intensité dans le domaine des X par interaction optimisée de l'interaction laser de puissance-agrégats (GPS-Paris 6 et 7, CEA Saclay), ainsi que par techniques X-pinch à fils à foyer de 10 microns (LPTP-École Polytechnique). - La génération d'harmoniques d'ordres élevés à partir de chaînes laser amplifiées a continué à faire l'objet de très belles études, d'une part par génération dans les gaz et l'obtention bien maîtrisée et caractérisée de rayonnement attoseconde utilisé maintenant pour des mesures effectives de processus électroniques au sein des atomes, et d'autre part par focalisation sur cible solide. Ces derniers travaux (CEA et LOA), par mise en oeuvre du concept de “miroir plasma” qui combat l'ASE, ont permis de monter que la génération d'harmoniques cohérents sur solide était effective. - Dans le domaine des sources UV deux exposés ont présenté l'état de l'art des sources diodes ellesmêmes (LED et Lasers), ainsi que le développement des sources laser ps haute cadence (multikHz/MHz) avec génération d'harmoniques, de puissance moyenne élevée adaptée à de nombreux secteurs applicatifs (traitement des matériaux, biologie, microscopie...). L'aspect “sources”, au sens large était, on le voit, particulièrement représenté avec de belles perspectives pour les années qui viennent. Au delà de ces développements, les sources X ont été utilisées pour des réalisations instrumentales intéressantes dans le domaine de la microscopie X, de la microscopie interférentielle, et de la reconstruction 3D. De tels travaux sont susceptibles de rapides transferts en direction du secteur bio/santé. On notera également l'avancée que représente la réalisation d'un spectromètre à transformée de Fourier pour VUV/XUV (LCFIO/LPPM/SOLEIL). Le domaine du diagnostic, de la mesure, et de la modélisation dans les plasmas est, lui aussi, très actif avec des outils expérimentaux et théoriques très conséquents : modélisation des propriétés spectrales des ions multichargés (CEA-DAM) ; coefficients d'absorption de plasmas lasers (CEA-DSM, LULI, CEA-DAM) ; spectres d'absorption X dans les plasmas femtosecondes incluant des expériences type “pompe-sonde” résolues spatialement et spectralement (LULI, CEA-DAM, CELIA) ; interaction laseratome/molécule en régime UVX ultra-bref (CELIA)... Dans le domaine que l'on peut appeler, au sens large, “travail des matériaux”, on distinguera particulièrement les avancées dans le domaine de la microlithographie “prévues” par road map, avec l'arrivée semble-t-il inéluctable des technologies UVX à 13,5 nm. Les enjeux économiques favorisent des avancées technologiques multiples (optiques multicouches en réflexion, sources...). Par ailleurs l'aptitude des technologies femto pour l'ablation quasi athermique (micro-usinage) et le dépôt de couches minces spécifiques se confirme tout à fait. Enfin, à fluence plus faible, l'outil laser reste un instrument de choix pour l'étude de l'interaction photon-surface : désorption sous illumination laser à excimères à 157 nm et photoémission/photoconductivité du diamant sous éclairement ultra-bref de l'infrarouge à l'UVX. Nous tenons à remercier les membres du comité d'organisation, le comité scientifique et les différents partenaires, institutionnels et industriels, qui par leur soutien ont permis que le colloque UVX puisse se dérouler. Ce colloque a été parrainé par plusieurs départements du CNRS, la Délégation Générale de l'Armement (DGA), le CEA DRECAM, le CEA DAM, le Conseil Général de la Loire, l'Université Jean MONNET de Saint-Étienne, Saint-Étienne Métropole, la ville de Saint-Étienne, Le Pôle Optique Rhône-Alpes, la Société Française d'Optique et le Groupement de Recherche “SAXO” du CNRS. À tous, nous donnons rendez-vous à Caen pour UVX-2006. Youcef OUERDANE Pierre LAPORTE
Betons durables a base de cendres d'ecorces de riz
NASA Astrophysics Data System (ADS)
Wilson, William
De nos jours, le développement durable est devenu une nécessité dans l'ensemble des sphères d'activité de notre monde, et particulièrement dans le domaine du béton. En effet, le développement des sociétés passe inévitablement par l'augmentation des infrastructures; le béton est le matériau principalement utilisé et son empreinte environnementale considérable gagnerait à être diminuée. L'industrie et la recherche sont très actives à ce niveau et la science des bétons durables est en pleine expansion. Dans ce contexte, une piste de solution est l'utilisation de résidus industriels ou agricoles comme ajouts cimentaires, ce qui permet de remplacer partiellement le ciment très polluant, tout en produisant des bétons avec une meilleure durabilité. Les cendres d'écorce de riz (RHA) présentent ainsi un potentiel cimentaire similaire aux meilleurs ajouts cimentaires actuellement utilisés, mais les applications concrètes de ce nouveau matériau demeurent peu développées à ce jour. Le présent projet a donc été conçu afin d'illustrer le potentiel des RHA d'une part dans les pays industrialisés pour améliorer la durabilité des bétons hautes performances (BHP) et pour améliorer les propriétés à l'état frais des bétons autoplaçants (BAP); et d'autre part, dans les pays en développement pour démocratiser les bétons durables produits avec des technologies adaptées aux réalités locales. Une première phase réalisée avec des RHA de haute qualité (RHAI) a ainsi été consacrée aux applications en pays industrialisés. La caractérisation des RHAI a indiqué une composition de 90% de silice amorphe, des particules légèrement plus grossières que le ciment, et une microstructure très poreuse et absorbante. Afin de pallier à cette absorption d'eau, l'optimisation du type de superplastifiant a permis de déterminer que l'utilisation du
Etude descriptive et analytique du cancer de l’œsophage au Togo
Oumboma, Bouglouga; Mawuli, Lawson-Ananissoh Laté; Aklesso, Bagny; Laconi, Kaaga; Datouda, Redah
2014-01-01
Introduction Décrire les aspects épidémiologiques, cliniques, endoscopiques et histologiques du cancer de l’œsophage (CO) au Togo. Méthodes Il s'agit d'une étude rétrospective descriptive et analytique menée sur 8 ans (Janvier 2005-Décembre 2012) dans le service d'hépato-gastroentérologie (HGE) du CHU Campus de Lomé. Etaient inclus les dossiers des patients hospitalisés pour CO confirmé histologiquement. Résultats Sur 8 ans, 24 patients remplissant nos critères d'inclusion ont été retenus soit 3cas de CO par an et 0,55% des hospitalisations. L’âge moyen des patients était de 57,08 ans (extrêmes: 32 et 82 ans). La dysphagie et l’épigastralgie étaient les motifs d'hospitalisation les plus rencontrés. L'alcool (n=15), le tabac (n=13) étaient les facteurs de risque les plus présents. A la fibroscopie, les lésions étaient ulcéro-bourgeonnantes et hémorragiques (n=12), ulcéro-bourgeonnantes (n=5); ces lésions siégeaient au niveau du 1/3 inférieur (n= 11), à l'union 1/3 supérieur 1/3moyen de l’œsophage (n= 13) et aucun au niveau du 1/3 supérieur. Seize lésions étaient des carcinomes épidermoïdes et 3 des adénocarcinomes. L’évolution dans le service a été fatale dans 2cas; 16 patients avaient été transférés en chirurgie pour des soins palliatifs et 5 patients (20,8%) étaient perdus de vue. Conclusion Le CO semble en augmentation au Togo. L'alcool et le tabac sont les facteurs de risque et le pronostic sévère dans notre série est lié au retard diagnostic. Son dépistage précoce passe par une consultation rapide devant toute dysphagie chez un sujet de 50 ans et plus. PMID:25883742
Forme pseudotumorale de la tuberculose pulmonaire et les difficultés diagnostic: à propos d’un cas
Ouarssani, Aziz; Atoini, Fouad; Reda, Rafik; Lhou, Fatima Ait; Rguibi, Mustapha Idrissi
2013-01-01
La tuberculose pulmonaire est un problème majeur de santé publique. Dans sa forme commune, le diagnostic est habituellement aisé, mais elle peut se présenter sous une forme trompeuse et entrainer un retard diagnostic et thérapeutique. Nous rapportons le cas d’un patient âgé de 25ans, étudiant, sans antécédents pathologiques particuliers, hospitalisé dans notre formation pour un syndrome bronchique trainant avec altération de l’état général. L’examen clinique pleuropulmonaire est normal, l’examen des aires ganglionnaires trouve une adénopathie sus claviculaire droite, la radiographie thoracique de face objective une opacité hilaire droite hétérogène à contours irréguliers, la TDM thoracique retrouve un processus lésionnel tissulaire du lobe supérieur droit qui s’étend vers le médiastin et englobe partiellement la veine cave supérieure avec une adénopathie latérotracheale droite nécrosée. La fibroscopie bronchique objective un élargissement des éperons intersegmentaires du lobe supérieur droit, les biopsies réalisées avec étude histologique sont non concluantes. Les recherches de BK dans les expectorations et dans le liquide d’aspiration bronchique sont negatives. L’IDR à la tuberculine est à 15mm. C’est la ponction transparietale scannoguidée avec étude anatomopathologique qui confirme le diagnostic de tuberculose caseofolliculaire. La sérologie VIH est négative. Le diagnostic de tuberculose pulmonaire pseudotumorale chez un immunocompétent a été retenu et le patient a été mis sous traitement antibacillaire (régime standard national Marocain) par rifampicine, isoniazide, pyrazinamide et éthambutol pendant 6 mois avec évolution clinique et radiologique favorable. La tuberculose pulmonaire ne cesse de tromper le clinicien par son polymorphisme clinique et radiologique, elle doit être évoquée devant toute atteinte pulmonaire d’allure tumorale pour permettre une prise en charge précoce de la maladie. PMID:23646217
Kêdoté, N.M.; Brousselle, A.; Champagne, F.; Laudy, D.
2016-01-01
Résumé Introduction Dans les politiques internationales et nationales sur le VIH/sida, le consentement libre et éclairé est reconnu comme une composante essentielle des programmes de dépistage. Le consentement libre et éclairé implique pour les femmes enceintes d’obtenir des informations sur le programme de prévention de la transmission du VIH de la mère à l’enfant (PTME), de les comprendre et de faire un choix autonome après avoir évalué les risques et avantages. Cependant, aucune évaluation du programme de PTME ne s’est intéressée au consentement. L’objectif de cet article est d’explorer le caractère libre et éclairé du consentement des femmes enceintes quant au dépistage et à leurs motivations à faire le test. Méthode Nous avons utilisé des données récoltées dans le cadre d’une analyse d’implantation du programme de PTME au Bénin. Cette analyse s’appuie sur un devis d’étude de cas multiples incluant six maternités choisies parmi les 56 sites fonctionnels. Spécifiquement pour l’analyse du consentement, nous avons associé les données provenant d’une enquête à celles d’une recherche qualitative. Résultats Hormis trois cas de dépistage à l’insu, le caractère volontaire du consentement au test est respecté sur les sites de PTME. Vingt-neuf cas de refus ont été identifiés. Les raisons les plus souvent évoquées par les femmes enceintes sont la peur du résultat positif et de ses conséquences sur la vie familiale dans 55,2 % des cas et l’attente de l’accord ou du désaccord du mari dans 27,6 % des cas. Si globalement le consentement a été volontaire sur tous les sites, son caractère éclairé est moins probant. PMID:27840660
Lebreton, T.; Fontaine, M.; Le Floch, R.
2017-01-01
Summary Les brûlures chimiques par ciment représentent une cause fréquente de corrosion cutanée en France. Elles nécessitent fréquemment un traitement chirurgical. Notre étude rétrospective concerne tous les patients admis pour une brûlure par ciment dans le service entre 2004 et 2016. Quarante-neuf patients âgés de 21 à 71 ans ont été pris en charge dans le centre des brûlés du Centre Hospitalier Saint Joseph Saint Luc à Lyon entre 2004 et 2016. La population concernée était majoritairement masculine, relativement jeune (44 ans en moyenne) et professionnellement active. Les brûlures survenaient principalement dans le cadre d’accidents domestiques (78%). Elles étaient profondes et atteignaient majoritairement les membres inférieurs, de façon bilatérale. La surface brûlée représentait 3% de la surface cutanée totale. Presque tous les patients (98%) ont nécessité une prise en charge chirurgicale pour excision et autogreffe de peau mince. Un seul patient a bénéficié d’une cicatrisation dirigée. Le délai moyen entre la brûlure et la chirurgie était de 13 jours et la durée moyenne d’hospitalisation de 8 jours. Sept patients ont nécessité une prise en charge en centre de rééducation à leur sortie du service. Cette étude confirme la sévérité des brûlures chimiques par ciment. Elle met également en avant l’impact que peut avoir ce type de brûlure en terme de retentissement socio-économique dans une population de patients majoritairement jeune et active. Elle insiste sur le fait que des mesures doivent être prises afin d’informer cette population rarement professionnelle sur les risques encourus lors du mésusage du ciment. La réglementation actuelle, classant le ciment comme irritant, ne prend pas en compte son caractère corrosif et devrait être amendée. PMID:28592929
Boyd, Jami; Boyer-Rémillard, Marie-Eve; Pilon-Piquette, Michael; McKinley, Patricia
2013-01-01
RÉSUMÉ Objectif : traduire le Sport Concussion Assessment Tool 2 (SCAT2) dans la langue française parlée au Québec et en vérifier l'acceptabilité pour la population québécoise francophone. Méthodologie : le processus de traduction de la version originale du SCAT2 a fait appel à une variante de la méthode de traduction et d'adaptation d'outils proposée par l'Organisation mondiale de la santé. Une traduction parallèle a d'abord été réalisée. Ensuite, un comité a révisé cette traduction parallèle dans le but de produire une version préliminaire du SCAT2-Qc. Puis, on a procédé à une rétrotraduction parallèle, que l'on a comparée à la version originale. La version préliminaire a été modifiée. Pour parvenir à la version finale, on a intégré les suggestions et les commentaires formulés par deux sujets sains lors de l'essai de l'outil, et lors de la comparaison du SCAT2-Qc à la version française existante par trois réviseurs du domaine de la santé. On a ensuite testé la version finale du SCAT2-Qc auprès de douze sujets sains pour en vérifier l'acceptabilité. Résultats : les douze sujets sains n'ont eu aucun problème de compréhension en utilisant le SCAT2-Qc. Conclusion : les différentes étapes de traduction ont permis de créer le SCAT2-Qc. Son contenu ayant été validé, il peut à présent être utilisé dans le milieu sportif et scientifique québécois. PMID:24396168
Identification des objets et detection de leur alignement en utilisant la technologie RFID
NASA Astrophysics Data System (ADS)
Rahma, Zayoud
De nos jours, les vehicules motorises sont essentiels dans notre vie quotidienne, d'ou la necessite de leur approvisionnement en carburant. L'approvisionnement en carburant peut entrainer certains inconvenients, tels que: les files d'attente, la disponibilite non-continuelle du carburant et les fraudes. Les problemes d'attente et de disponibilite non-continuelle du carburant peuvent etre facilement resolus en allant a une autre station d'essence aux alentours si disponibles. Par contre le probleme de fraudes est plus difficile a resoudre. De ce fait, decoule notre solution qui consiste a developper un systeme intelligent pour la gestion d'approvisionnement en carburant afin de remedier a ce probleme de fraudes. Pour des raisons de surete, il faut eviter les risques d'etincelles dans l'environnement du carburant. En particulier, il convient de ne pas utiliser un systeme utilisant 1'electricite proche de la pompe, du tuyau ou du reservoir du carburant du vehicule. Nous avons choisi la technologie RFID (Radio Frequency IDentification) et avons opte pour l'utilisation des etiquettes passives, etant donne que les etiquettes semi-passives ou actives contiennent une batterie electrique et sont nettement plus cheres. Un vehicule motorise sera identifie avec une etiquette RFID passive collee au-dessus du goulot de son reservoir. Deux autres etiquettes RFID seront placees sur le pistolet de sorte que le flux du carburant ne sera autorise que lorsque les trois etiquettes sont alignees. Notre travail etait a la demande d'une entreprise petroliere ayant une chaine internationale de stations de carburant. Le travail consiste en la conception, par la recherche, du systeme requis et s'articule sur l'optimisation de la topologie des antennes et des etiquettes de sorte que le systeme juge qu'il y a alignement lorsque le bec du pistolet est fonce dans le goulot du reservoir, et par consequent autorise le versement du carburant. Dans tous les autres cas, le systeme doit juger qu'il n'y a pas alignement et par consequent le flux du carburant n'est pas autorise. Mots cles: RFID, identification, localisation, alignement, fraudes, station-service.
NASA Astrophysics Data System (ADS)
Tadolini, T.; Spizzico, M.
The radon-222 (222Rn) activity in groundwater of the Apulian karstic aquifer in southern Italy is as great as 500 Becquerel per liter (Bq/L) locally. Normal radium-226 (226Ra) activity in the limestone and calcareous dolomites of the aquifer is not enough to explain such a high level. Laboratory investigations identified high 226Ra activity in the "terra rossa," the residuum occupying fissures and cavities in the bedrock, and also the relation between (1) 226Ra-bearing bedrock and "terra rossa" and (2) 222Rn in water. The "terra rossa" is the primary source of the radon in the groundwater. The experimental results show the need to characterize the "terra rossa" of Apulia on the basis of 226Ra activity and also to study the distribution and variations in 222Rn activity over time in the aquifer. Résumé L'activité du radon-222 (222Rn) dans les eaux souterraines de l'aquifère karstique des Pouilles, dans le sud de l'Italie, atteint localement 500 Becquerel par litre (Bq/L). L'activité normale du radium-226 (226Ra) dans les calcaires et dans les calcaires dolomitiques de l'aquifère n'est pas assez élevée pour expliquer des valeurs aussi élevées. Des analyses de laboratoire ont mis en évidence une forte activité en 226Ra dans la terra rossa, remplissage de fissures et de cavités de la roche, ainsi qu'une relation entre (1) la roche et la terra rossa contenant du 226Ra et (2) le 222Rn dans l'eau. La terra rossa est la source primaire de radon dans l'eau souterraine. Les résultats expérimentaux montrent qu'il est nécessaire de caractériser la terra rossa des Pouilles par son activité en 226Ra et d'étudier la distribution et les variations de l'activité en 222Rn au cours du temps dans l'aquifère. Resumen La actividad del radon-222 (222Rn) en el agua subterránea del acuífero cárstico de Apulia, al sur de Italia, alcanza localmente los 500Bq/L. La actividad normal del radio-226 (226Ra) en las calcitas y dolomitas del acuífero no es suficiente para explicar estos niveles tan altos. Las investigaciones de laboratorio han identificado alta actividad de 226Ra en la "terra rossa", el material que rellena las fisuras y cavidades de la matriz rocosa, y han identificado también la relación entre (1) el 226Ra presente en la roca portante y la "terra rossa" y (2) el contenido de 222Rn en el agua. La "terra rossa" es, pues, la fuente principal de radón en las aguas subterráneas. Los resultados experimentales muestran la necesidad de caracterizar la "terra rossa" de Apulia sobre la base de la actividad de 226Ra, así como de estudiar la distribución y las variaciones en la actividad del 222Rn en el acuífero a lo largo del tiempo.
Missounga, Landry; Ba, Josaphat Iba; Nseng Nseng Ondo, Ingrid Rosalie; Nziengui Madjinou, Maria Ines Carine; Malekou, Doris; Mouendou Mouloungui, Emeline Gracia; Nzengue, Emmanuel Ecke; Boguikouma, Jean Bruno; Kombila, Moussavou
2017-01-01
La littérature rapporte que la connectivite mixte semble plus fréquente dans la population noire et chez les asiatiques. Le but de l'étude était de déterminer la prévalence de la connectivite mixte (CM) parmi les connectivites et l'ensemble des pathologies rhumatologiques dans une population hospitalière au Gabon; de décrire ensuite les caractéristiques cliniques de la maladie. Il s'agissait d'une étude rétrospective des dossiers de patients suivis pour connectivite mixte (critères de Kasukawa) et les autres entités de connectivites (critères ACR) en rhumatologie au CHU de Libreville entre janvier 2010 et décembre 2015. Pour chaque cas de CM, les manifestations articulaires et extra-articulaires, le taux d'anticorps anti-U1RNP, l'évolution, étaient les paramètres étudiés. Sept cas ont été colligés en 6 ans parmi 6050 patients et 67 cas de connectivites soit une prévalence de 0,11% et de 10,44% respectivement. Il s'agissait de 7 femmes (100%), d'âge moyen de 39,5 ans. Les signes articulaires comprenaient: polyarthrite, myalgies, doits boudinés et phénomène de Raynaud dans 87,5%, 87,5%, 28,6% et 14% respectivement. Les 7 patients avaient un taux d'anti-U1RNP élevé entre 5 et 35N (N≤7 UI). Un cas de décès par HTAP était constaté. Il s'agit de la série de CM la plus importante rapportée en Afrique noire. La maladie semble rare chez le noir africain, la raison pourrait être génétique. Les aspects démographiques et cliniques paraissent similaires chez les caucasiens, les asiatiques et les noirs hormis une faible fréquence du phénomène de Raynaud chez les noirs. PMID:28904690
Pratique anesthésique à Lubumbashi: indications, types de chirurgie et types de patient
Kabey, Alain Kabey a; Lubanga, Muyumba; Tshamba, Mundongo; Kaut, Mukeng; Kakambal, Kaij; Muteya, Manika; Manzanza, Kilembe; Kalal, Kapend
2015-01-01
Introduction Cette étude a pour objectif de décrire la pratique anesthésique dans un pays à faible revenu et où le plateau technique anesthésique est moins équipé. Méthodes Une étude descriptive transversale a été menée durant l'année 2013. L'enquête a concerné les pratiques anesthésiques, les indications chirurgicales et les caractéristiques des malades. L'encodage et l'analyse des données ont été réalisées grâce aux logiciels Epi Info 3.5.3 et Excel 2010. Résultats Nous avons enregistré 2358 patients dont l’âge médian était de 29 + 15 ans, avec 81,5% âgés de 11 à 50 ans. Parmi eux, 67,3% des malades étaient du sexe féminin. Dans ensemble, 62,5% de ces patients étaient pris en charge pour les interventions programmées. L’évaluation du risque anesthésique a montré que 91,9% des patients étaient de la classe ASA I et II. La chirurgie la plus pratiquée était viscérale (46,7%) suivie de la chirurgie gynéco-obstétricale (29,2%). Les différents types d'anesthésie étaient les suivants: anesthésie générale (87,6%), locorégionale (11,8%) et combinée (0,6%). Conclusion La pratique anesthésique dans la population d’étude était dominée par l'anesthésie générale. Les malades étaient au trois quart de sexe féminin et de la classe ASA I et II. Les résultats de cette étude indiquent la nécessité d’évaluer l'issue de cette pratique. La pratique anesthésique à Lubumbashi est tributaire du plateau technique, des compétences du personnel et de l'acceptabilité du type d'anesthésie par les patients. PMID:26523180
NASA Astrophysics Data System (ADS)
Jackson, R. E.
The migration, dissolution, and subsequent fate of spilled chlorinated solvents in the urban alluvial valleys of the southwestern U.S. appear to be governed by a unique set of hydrogeologic and geochemical processes occurring within terrigeneous clastic depositional systems. The alluvial and lacustrine fill of the basins, the trapping of solvents in fine-grained sediments beneath the urbanized valley centers, the oxic conditions typical of the deeper alluvium, and the contaminant-transport patterns produced by large-scale basin pumping combine to produce long aqueous-phase plumes derived from the dissolution of trapped chlorinated solvents. Although of limited aqueous solubility, these dense solvents are sufficiently mobile and soluble in the southwestern alluvial valleys to have produced aqueous plumes that have migrated several kilometers through the deeper alluvium and have contaminated valuable water-supply well fields in California, Arizona, and New Mexico. The typical length of these plumes and the presence of oxic groundwater indicate that it is unlikely that natural attenuation will be a practical remedial option in the southwestern alluvial valleys or in other alluvial systems in which similar hydrogeologic and geochemical conditions exist. Résumé La migration, la dissolution et l'évolution consécutive des rejets de solvants chlorés dans les vallées alluviales du sud-ouest des États-Unis paraissent déterminées par un même ensemble de processus hydrogéologiques et géochimiques intervenant dans des formations de dépôts clastiques terrigènes. Les remplissages alluviaux et lacustres des bassins, le piégeage des solvants par des sédiments fins sous les centres des vallées urbanisées, les conditions oxiques typiques des alluvions plus profondes et les types de transport de contaminants provoqués par le pompage à l'échelle du bassin se combinent pour produire des panaches, étendus dans la phase aqueuse, provenant de la dissolution de solvants chlorés piégés. Malgré leur faible solubilité dans l'eau, ces solvants denses sont suffisamment mobiles et solubles pour avoir produit, dans le sud-ouest des vallées alluviales, des panaches aqueux qui ont migré de plusieurs kilomètres dans les alluvions plus profondes et ont contaminé des champs captants pour l'eau potable en Californie, en Arizona et au Nouveau-Mexique. La longueur de ces panaches et la présence d'eau souterraine en conditions oxiques indiquent qu'il est peu probable que la décroissance naturelle soit un recours pratique de décontamination dans les vallées alluviales du sud-ouest ou dans d'autres systèmes alluviaux dans lesquels existent des conditions hydrogéologiques et géochimiques semblables. Resumen La migración, disolución y transporte de compuestos clorados en valles aluviales urbanos del sudoeste de los Estados Unidos de América parecen estar gobernados por un conjunto único de procesos hidrogeológicos y geoquímicos que tienen lugar en los depósitos clásticos. El relleno aluvial y lacustre de las cuencas, la inmovilización de los solutos en sedimentos de grano fino bajo las zonas urbanizadas, los condiciones óxicas típicas del aluvial profundo y las direcciones de transporte regidas por los fuertes bombeos en las cuencas se combinan para producir grandes penachos en fase acuosa procedentes de la disolución de los compuestos clorados atrapados en el medio. Aunque la solubilidad de estos compuestos clorados densos es pequeña, es suficiente para producir penachos que en algunos casos se han desplazado varios kilómetros a través del aluvial profundo y han llegado a contaminar zonas de extracción muy productivas en California, Arizona y Nuevo México. La longitud de estos penachos y la presencia de agua subterránea oxidante indican que es improbable que la degradación natural sea un buen método de limpieza de estos acuíferos o de otros sistemas aluviales que presenten características hidrogeológicas y geoquímicas semejantes.
Fiami
2018-05-21
Qu'est-ce que l'astronomie? A quoi sert-elle ? Qui était Galilée ? Une soirée avec Fiami, auteur et dessinateur autour des vies de Galilée, titre de son nouvel ouvrage. Galilée y joue le protagoniste ou le complice de grandes découvertes à différentes époques et sous divers profils : Galilée à Babylone (-568) | Galilée à Alexandrie (-197) | Galilée en Inde (499) | Galilée à Venise (1609) | Galilée et Halley (1705) | Galilée revient (2009) Dans le cadre de l'année mondiale de l'astronomie.
Contribution a l'etude et au developpement de nouvelles poudres de fonte
NASA Astrophysics Data System (ADS)
Boisvert, Mathieu
L'obtention de graphite libre dans des pieces fabriquees par metallurgie des poudres (M/P) est un defi auquel plusieurs chercheurs se sont attardes. En effet, la presence de graphite apres frittage ameliore l'usinabilite des pieces, permettant donc de reduire les couts de production, et peut aussi engendrer une amelioration des proprietes tribologiques. L'approche utilisee dans cette these pour tenter d'obtenir du graphite libre apres frittage est par l'utilisation de nouvelles poudres de fontes atomisees a l'eau. L'atomisation a l'eau etant un procede de production de poudres relativement peu couteux qui permet de grandes capacites de production, le transfert des decouvertes de ce doctorat vers des applications industrielles sera donc economiquement plus favorable. En plus de l'objectif d'obtenir du graphite libre apres frittage, un autre aspect important des travaux est le controle de la morphologie du graphite libre apres frittage. En effet, il est connu dans la litterature des fontes coulees/moulees que la morphologie du graphite influencera les proprietes des fontes, ce qui est aussi vrai pour les pieces de M/P. Les fontes ductiles, pour lesquelles le graphite est sous forme de nodules spheroidaux isoles les uns des autres, possedent des proprietes mecaniques superieures aux fontes grises pour lesquelles le graphite est sous forme lamellaire et continu dans la matrice. Les resultats presentes dans cette these montrent qu'il est possible, dans des melanges contenant des poudres de fontes, d'avoir un controle sur la morphologie du graphite et donc sur les proprietes des pieces. Le controle de la morphologie du graphite a principalement ete realise par le type de frittage et le phenomene de diffusion " uphill " du carbone cause par des gradients en silicium. En effet, pour les frittages en phase solide, tous les nodules de graphite sont presents a l'interieur des grains de poudre apres frittage. Pour les frittages en phase liquide, l'intensite de la diffusion " uphill " permet de conserver plus ou moins de graphite nodulaire a l'interieur des regions riches en silicium, alors que le reste du graphite precipite sous forme lamellaire/vermiculaire dans les regions interparticulaires. L'etude des poudres de fontes et la recherche des mecanismes regissant la morphologie du graphite dans les fontes coulees/moulees nous ont amenes a produire des poudres de fontes traitees au magnesium avant l'atomisation. Plusieurs resultats fondamentaux ont ete obtenus de la caracterisation des poudres traitees au magnesium et de leur comparaison avec des poudres de chimies similaires non traitees au magnesium. D'abord, il a ete possible d'observer des bifilms d'oxyde de silicium dans la structure du graphite primaire d'une poudre de fonte grise hypereutectique. Il s'agit des premieres images montrant la structure double de ces defauts, venant ainsi appuyer la theorie elaboree par le professeur John Campbell. Ensuite, il a ete montre que le traitement au magnesium forme une atmosphere protectrice gazeuse autogeneree qui empeche l'oxydation de la surface du bain liquide et donc, la formation et l'entrainement des bifilms. Le role du magnesium sur la morphologie du graphite est de diminuer le soufre en solution en formant des precipites de sulfure de magnesium et ainsi d'augmenter l'energie d'interface graphite-liquide. En reponse a cette grande energie d'interface graphite-liquide, le graphite cherche a minimiser son ratio surface/volume, ce qui favorise la formation de graphite spheroidal. De plus, deux types de germination ont ete observes dans la poudre de fonte hypereutectique traitee au magnesium. Le premier type est une germination heterogene sur un nombre limite de particules faites de magnesium, d'aluminium, de silicium et d'oxygene. Le deuxieme type est une germination homogene des nodules dans certaines regions du liquide plus riches en silicium. L'observation du centre reel tridimensionnel, en microscopie electronique en transmission en haute resolution, d'un des nodules ayant subi une germination homogene a permis de confirmer que le mode de croissance du graphite spheroidal se produit selon le modele de la croissance en feuille de chou. (Abstract shortened by ProQuest.).
Resonant optical spectroscopy and coherent control of Cr4+ spin ensembles in SiC and GaN
NASA Astrophysics Data System (ADS)
Koehl, William
Spins bound to point defects have emerged as an important resource in quantum information and spintronic technologies, especially as new materials systems have been developed that enable robust and precise quantum state control via optical, electronic, or mechanical degrees of freedom. In an effort to broaden the range of materials platforms available to such defect-based quantum technologies, we have recently begun exploring optically active transition metal ion spins doped into common wide-bandgap semiconductors. The spins of such ions are derived in part from unpaired d orbital electron states, suggesting in some cases that they may be portable across multiple materials systems. This in contrast to many vacancy-related defect spins such as the diamond nitrogen vacancy center or silicon carbide divacancy, which are formed primarily from the dangling bond states of the host. Here we demonstrate ensemble optical spin polarization and time-resolved optically detected magnetic resonance (ODMR) of the S = 1 electronic ground state of chromium (Cr4+) impurities in silicon carbide (SiC) and gallium nitride (GaN). We find that these impurities possess narrow optical linewidths (<8.5 GHz at cryogenic temperatures) that allow us to optically resolve the magnetic sublevels of the spins even when probing a large ensemble of many ions simultaneously. This enables us to directly polarize and probe the Cr4+ spins using straightforward optical techniques, which we then combine with coherent microwave excitation in order to characterize the dynamical properties of the ensemble. Significantly, these near-infrared emitters also possess exceptionally weak phonon sidebands, ensuring that >73% of the overall optical emission is contained within the defects' zero-phonon lines. These characteristics make the Cr4+ ion system a promising target for further study in the ongoing effort to integrate optically active quantum states within common optoelectronic materials. In collaboration with B. Diler, S. J. Whiteley, A. Bourassa, N. T. Son, E. Janzén, and D. D. Awschalom. This work supported by AFOSR, ARO, NSF MRSEC, the Argonne LDRD Program, LiLi-NFM, and the Knut and Alice Wallenberg Foundation.
Hypertension artérielle pulmonaire au cours de la sclérodermie: à propos de 12 cas
Diao, Maboury; Ndiaye, Mouhamadou Bamba; Kane, Adama; Bodian, Malick; Tchintchui, Nadége Christelle; Mbaye, Alassane; Mounir Dia, Mouhamadoul; Sarr, Moustapha; Kane, Assane; Abdou Ba, Serigne
2012-01-01
Introduction La survenue de l’hypertension artérielle pulmonaire (HTAP) est un tournant dans l’évolution de la sclérodermie. L’objectif de cette étude est de décrire les aspects épidémiologiques et évolutifs de l’HTAP au cours de la sclérodermie systémique. Méthodes Nous avons réalisé une étude descriptive concernant des patients suivis pour sclérodermie systémique, au service de Dermatologie de l’hôpital Aristide Le Dantec entre Janvier 2000 et Août 2009. Ces patients étaient inclus dans l’étude après exploration cardio-vasculaire (ECG, échocardiographie-Doppler). Nous avons étudié les paramètres épidémiologiques, cliniques, paracliniques et évolutifs des patients. Résultats Nous avons enregistré 12 cas d’hypertension artérielle pulmonaire parmi les 83 patients atteints de sclérodermie systémique soit une prévalence de 14,45%. L’âge moyen des patients était de 43,58 ans±12,5 ans et le sex-ratio (H/F) de 0,33. Sur le plan clinique, la dyspnée était quasi constante (75%) et la douleur thoracique présente dans 25% des cas. Le syndrome de Raynaud était observé chez 8 patients soit 66,67% de nos patients. L’électrocardiogramme montrait des signes de surcharge droite chez 4 malades (33,33%) et la radiographie thoracique en faveur d’une fibrose pulmonaire chez 4 patients. L’échocardiographie-Doppler notait une insuffisance tricuspide importante dans 58, 33% des cas (7 patients), une pression artérielle pulmonaire systolique (PAPs) en moyenne de 66,25±29,3 mmHg, une dilatation des cavités cardiaques droites dans 5 cas et un mouvement paradoxal du septum interventriculaire chez 3 malades (33,33%). Il était également noté 3 cas (25%) d’épanchement péricardique. Nous avons déploré 4 décès (33,33%). Conclusion L’hypertension artérielle pulmonaire est une complication fréquente et grave de la sclérodermie. Son dépistage, grâce à l’échocardiographie-Doppler systématique, constitue une étape fondamentale de la prise en charge. PMID:22368752
Relation of streams, lakes, and wetlands to groundwater flow systems
NASA Astrophysics Data System (ADS)
Winter, Thomas C.
Surface-water bodies are integral parts of groundwater flow systems. Groundwater interacts with surface water in nearly all landscapes, ranging from small streams, lakes, and wetlands in headwater areas to major river valleys and seacoasts. Although it generally is assumed that topographically high areas are groundwater recharge areas and topographically low areas are groundwater discharge areas, this is true primarily for regional flow systems. The superposition of local flow systems associated with surface-water bodies on this regional framework results in complex interactions between groundwater and surface water in all landscapes, regardless of regional topographic position. Hydrologic processes associated with the surface-water bodies themselves, such as seasonally high surface-water levels and evaporation and transpiration of groundwater from around the perimeter of surface-water bodies, are a major cause of the complex and seasonally dynamic groundwater flow fields associated with surface water. These processes have been documented at research sites in glacial, dune, coastal, mantled karst, and riverine terrains. Résumé Les eaux de surface sont parties intégrantes des systèmes aquifères. Les eaux souterraines interagissent avec les eaux de surface dans presque tous les types d'environnements, depuis les petits ruisseaux, les lacs et les zones humides jusqu'aux bassins versants des vallées des grands fleuves et aux lignes de côte. Il est en général admis que les zones topographiquement hautes sont des lieux de recharge des aquifères et les zones basses des lieux de décharge, ce qui est le cas des grands systèmes aquifères régionaux. La superposition de systèmes locaux, associés à des eaux de surface, à l'organisation régionale d'écoulements souterrains résulte d'interactions complexes entre les eaux souterraines et les eaux de surface dans tous les environnements, quelle que soit la situation topographique régionale. Les processus hydrologiques associés aux eaux de surface elles-mêmes, tels que des niveaux d'eau de surface saisonnièrement hauts et l'évaporation et la transpiration de l'eau souterraine à la périphérie des eaux de surface, sont les causes essentielles de la dynamique complexe et saisonnière des nappes associées aux eaux de surface. Ces processus ont été mis en évidence sur des sites de recherche dans des formations glaciaires, dunaires, littorales, fluviales et de karst couvert. Resumen Los cuerpos de aguas superficiales son partes integrales de los sistemas de flujo subterráneo. El agua subterránea interactúa con la superficial en prácticamente todo tipo de paisajes, desde pequeños torrentes, lagos y humedales, hasta grandes valles fluviales y costas. Aunque se suele asumir que las áreas topográficamente elevadas son zonas de recarga de aguas subterráneas, mientras las áreas topográficamente más bajas lo son de descarga, esto es cierto básicamente para los sistemas de flujo regional. Al superponer los sistemas de flujo local, asociados a los cuerpos de agua superficial, a las condiciones regionales, resultan interacciones complejas, y esto ocurre independientemente de su posición topográfica. Los procesos hidrológicos asociados con los propios cuerpos de agua superficial, como los niveles superficiales máximos estacionales y la evapotranspiración de agua subterránea en los perímetros de cuerpos superficiales, son una de las principales causas de la complejidad y de las variaciones dinámicas de las interacciones entre aguas subterráneas y superficiales. Estos procesos se han documentado en distintas zonas investigadas, incluyendo depósitos glaciares, dunas, áreas costeras, karsts y terrazas fluviales.
Le rôle de l’omalizumab dans le traitement de l’asthme allergique grave
Chapman, Kenneth R; Cartier, André; Hébert, Jacques; McIvor, R Andrew; Schellenberg, R Robert
2006-01-01
CONTEXTE : Un nouveau traitement anti-immunoglobuline E (anti-IgE) contre l’asthme, l’omalizumab, a été approuvé au Canada. OBJECTIF : Passer en revue les données fondamentales et cliniques sur l’omalizumab et examiner le rôle possible de ce médicament dans la prise en charge de l’asthme au Canada. MÉTHODOLOGIE : Une recherche documentaire a été effectuée dans MEDLINE afin de repérer les études menées de 1960 à 2006 sur l’omalizumab. La recherche a également porté sur les résumés de réunions scientifiques récentes dans le domaine des maladies respiratoires et des allergies; par ailleurs, toute donnée non publiée a été demandée au fabricant. Après avoir revu et résumé les données, un comité mixte constitué de spécialistes des maladies respiratoires et des allergies a rédigé un ensemble de recommandations relatives à l’utilisation de l’omalizumab. RÉSULTATS : L’omalizumab est un anticorps monoclonal humanisé qui se lie au domaine C epsilon 3 de la molécule d’IgE pour former des complexes immuns solubles qui sont éliminés par le système réticulo-endothélial. L’administration d’injections sous-cutanées espacées de deux ou de quatre semaines à la dose recommandée entraîne une diminution rapide des taux d’IgE circulantes libres. Lors de deux essais cliniques de phase III menés auprès de 1 405 adultes et adolescents atteints d’asthme modéré à grave qui recevaient des doses moyennes stables de corticostéroïdes en inhalation (CSI), l’omalizumab a diminué les taux d’exacerbation par rapport au placebo et a été associé à une amélioration des symptômes ainsi qu’à une épargne plus importante des corticostéroïdes. Dans un essai mené auprès de 419 patients atteints d’asthme grave non maîtrisé malgré l’utilisation de doses élevées de CSI et de la prise concomitante d’agonistes bêta-2 à action prolongée, les exacerbations graves étaient de 50 % moins fréquentes chez les patients traités par l’omalizumab que chez les sujets témoins. Des analyses rétrospectives ont permis d’identifier les caractéristiques des patients les plus susceptibles de répondre au traitement par l’omalizumab. RECOMMANDATIONS : L’omalizumab pourrait être envisagé comme traitement d’appoint dans les cas atopiques d’asthme grave non maîtrisé avec des traitements classiques par des doses optimales de CSI et un traitement d’appoint approprié (p. ex. : agonistes bêta-2 à action prolongée). En général, les patients sont classés en fonction de leur recours – traitement court et fréquent ou continu et oral – aux corticostéroïdes. Il ne faut amorcer le traitement qu’après avoir consulté un spécialiste pour confirmer le diagnostic et s’assurer que le traitement classique est optimal.
Etude aerodynamique d'un jet turbulent impactant une paroi concave
NASA Astrophysics Data System (ADS)
LeBlanc, Benoit
Etant donne la demande croissante de temperatures elevees dans des chambres de combustion de systemes de propulsions en aerospatiale (turbomoteurs, moteur a reaction, etc.), l'interet dans le refroidissement par jets impactant s'est vu croitre. Le refroidissement des aubes de turbine permet une augmentation de temperature de combustion, ce qui se traduit en une augmentation de l'efficacite de combustion et donc une meilleure economie de carburant. Le transfert de chaleur dans les au bages est influence par les aspects aerodynamiques du refroidissement a jet, particulierement dans le cas d'ecoulements turbulents. Un manque de comprehension de l'aerodynamique a l'interieur de ces espaces confinees peut mener a des changements de transfert thermique qui sont inattendus, ce qui augmente le risque de fluage. Il est donc d'interet pour l'industrie aerospatiale et l'academie de poursuivre la recherche dans l'aerodynamique des jets turbulents impactant les parois courbes. Les jets impactant les surfaces courbes ont deja fait l'objet de nombreuses etudes. Par contre des conditions oscillatoires observees en laboratoire se sont averees difficiles a reproduire en numerique, puisque les structures d'ecoulements impactants des parois concaves sont fortement dependantes de la turbulence et des effets instationnaires. Une etude experimentale fut realisee a l'institut PPRIME a l'Universite de Poitiers afin d'observer le phenomene d'oscillation dans le jet. Une serie d'essais ont verifie les conditions d'ecoulement laminaires et turbulentes, toutefois le cout des essais experimentaux a seulement permis d'avoir un apercu du phenomene global. Une deuxieme serie d'essais fut realisee numeriquement a l'Universite de Moncton avec l'outil OpenFOAM pour des conditions d'ecoulement laminaire et bidimensionnel. Cette etude a donc comme but de poursuivre l'enquete de l'aerodynamique oscillatoire des jets impactant des parois courbes, mais pour un regime d'ecoulement transitoire, turbulent, tridimensionnel. Les nombres de Reynolds utilises dans l'etude numerique, bases sur le diametre du jet lineaire observe, sont de Red = 3333 et 6667, consideres comme etant en transition vers la turbulence. Dans cette etude, un montage numerique est construit. Le maillage, le schema numerique, les conditions frontiere et la discretisation sont discutes et choisis. Les resultats sont ensuite valides avec des donnees turbulentes experimentales. En modelisation numerique de turbulence, les modeles de Moyennage Reynolds des Equations Naviers Stokes (RANS) presentent des difficultes avec des ecoulements instationnaires en regime transitionnel. La Simulation des Grandes Echelles (LES) presente une solution plus precise, mais au cout encore hors de portee pour cette etude. La methode employee pour cette etude est la Simulation des Tourbillons Detaches (DES), qui est un hybride des deux methodes (RANS et LES). Pour analyser la topologie de l'ecoulement, la decomposition des modes propres (POD) a ete egalement ete effectuee sur les resultats numeriques. L'etude a demontre d'abord le temps de calcul relativement eleve associe a des essais DES pour garder le nombre de Courant faible. Les resultats numeriques ont cependant reussi a reproduire correctement le basculement asynchrone observe dans les essais experimentaux. Le basculement observe semble etre cause par des effets transitionnels, ce qui expliquerait la difficulte des modeles RANS a correctement reproduire l'aerodynamique de l'ecoulement. L'ecoulement du jet, a son tour, est pour la plupart du temps tridimensionnel et turbulent sauf pour de courtes periodes de temps stable et independant de la troisieme dimension. L'etude topologique de l'ecoulement a egalement permit la reconaissances de structures principales sousjacentes qui etaient brouillees par la turbulence. Mots cles : jet impactant, paroi concave, turbulence, transitionnel, simulation des tourbillons detaches (DES), OpenFOAM.
NASA Astrophysics Data System (ADS)
Carrier, Jean-Francois
Les nanotubes de carbone de type monoparoi (C-SWNT) sont une classe recente de nanomateriaux qui ont fait leur apparition en 1991. L'interet qu'on leur accorde provient des nombreuses proprietes d'avant-plan qu'ils possedent. Leur resistance mecanique serait des plus rigide, tout comme ils peuvent conduire l'electricite et la chaleur d'une maniere inegalee. Non moins, les C-SWNT promettent de devenir une nouvelle classe de plateforme moleculaire, en servant de site d'attache pour des groupements reactifs. Les promesses de ce type particulier de nanomateriau sont nombreuses, la question aujourd'hui est de comment les realiser. La technologie de synthese par plasma inductif thermique se situe avantageusement pour la qualite de ses produits, sa productivite et les faibles couts d'operation. Par contre, des recherches recentes ont permis de mettre en lumiere des risques d'expositions reliees a l'utilisation du cobalt, comme catalyseur de synthese; son elimination ou bien son remplacement est devenu une preoccupation importante. Quatre recettes alternatives ont ete mises a l'essai afin de trouver une alternative plus securitaire a la recette de base; un melange catalytique ternaire, compose de nickel, de cobalt et d'oxyde d'yttrium. La premiere consiste essentiellement a remplacer la proportion massique de cobalt par du nickel, qui etait deja present dans la recette de base. Les trois options suivantes contiennent de nouveaux catalyseurs, en remplacement au Co, qui sont apparus dans plusieurs recherches scientifiques au courant des dernieres annees: le dioxyde de zircone (ZrO2), dioxyde de manganese (MnO2) et le molybdene (Mo). La methode utilisee consiste a vaporiser la matiere premiere, sous forme solide, dans un reacteur plasma a haute frequence (3 MHz) a paroi refroidi. Apres le passage dans le plasma, le systeme traverse une section dite de "croissance", isolee thermiquement a l'aide de graphite, afin de maintenir une certaine plage de temperature favorable a la synthese de C-SWNT. Le produit final est par la suite recolte sur des filtres metalliques poreux, une fois le systeme mis a l'arret. Dans un premier temps, une analyse thermodynamique, calculee avec le logiciel Fact-Sage, a permis de mettre en lumiere l'etat des differentes produits et reactifs, tout au long de leur passage dans le systeme. Elle a permis de reveler la similitude de composition de la phase liquide du melange catalytique ternaire de base, avec celui du melange binaire, avec nickel et oxyde d'yttrium. Par la suite, une analyse du bilan d'energie, a l'aide d'un systeme d'acquisition de donnees, a permis de determiner que les conditions operatoires des cinq echantillons mis a l'essai etaient similaires. Au total, le produit final a ete caracterise a l'aide de six methodes de caracterisations differentes : l'analyse thermogravimetrique, la diffraction de rayons X, la microscopie electronique a balayage a haute resolution (HRSEM), la microscopie electronique a transmission (MET), la spectroscopie RAMAN, ainsi que la mesure de la surface specifique (BET). Les resultats de ces analyses ont permis de constater, de facon coherente, que le melange a base de molybdene etait celui qui produisait la moins bonne qualite de produit. Ensuite, en ordre croissant, s'en suivait du melange a base de MnO2 et de ZrO2. Le melange de reference, a base de cobalt, est au deuxieme rang en matiere de qualite. La palme revient au melange binaire, dont la proportion est double en nickel. Les resultats de ce travail de recherche permettent d'affirmer qu'il existe une alternative performante au cobalt pour effectuer la synthese de nanotubes de carbone monoparoi, par plasma inductif thermique. Cette alternative est l'utilisation d'un melange catalytique binaire a base de nickel et d'oxyde d'yttrium. Il est suggere que les performances plus faibles des recettes alternatives, moins performantes, pourraient etre expliquees par le profil thermique fixe du reacteur. Ceci pourrait favoriser certains melanges, au detriment des autres, qui possedent des proprietes thermodynamiques differentes. Le montage, l'equipement, ainsi que les parametres d'operations, pourraient etre modifies en fonction de ces catalyseurs afin d'optimiser la synthese. Mots cles : nanotubes de carbone mono paroi, plasma inductif thermique, cobalt, nickel, dioxyde de zirconium, dioxyde de manganese, molybdene, trioxyde d'yttrium et noir de carbone
Diagne, Nafissatou; Faye, Atoumane; Ndao, Awa Cheikh; Djiba, Boundia; Kane, Baidy Sy; Ndongo, Souhaibou; Pouye, Abdoulaye
2016-01-01
La maladie de Basedow est une affection auto immune associant une thyrotoxicose à des manifestations de fréquence variable comme le goitre, l'ophtalmopathie et le myxœdème prétibial. Son diagnostic est souvent facile, tandis que sa prise en charge demeure encore difficile. L'instauration d'un traitement médical simple expose à un risque de récidive. Au Sénégal et en Afrique Sub-saharienne peu d'études ont porté sur la maladie de Basedow. L'objectif de l'étude était de décrire les aspects épidémiologique, clinique, thérapeutique et évolutif de la maladie de Basedow en milieu hospitalier à Dakar. Il s'agissait d'une étude rétrospective menée du 1er janvier 2010 au 31 décembre 2013 dans le service de Médecine Interne du centre hospitalier universitaire Aristide Le Dantec. Durant la période, 108 patients suivis en consultation externe pour maladie de Basedow, ont été inclus sur un total de 834 patients suivis en consultation externe. le diagnostic a été retenu devant les signes cliniques, biologiques et immunologiques. Cent huit patients, atteints de maladie de Basedow ont été inclus sur un total de 834 consultations. Le sex ratio était de 7,3 et la moyenne d'âge de 34,6 ans. Les principaux motifs de consultation étaient : les palpitations et l'amaigrissement dans respectivement 46,3% et 39,8% des cas. Le syndrome de thyrotoxicose était présent chez 93,5% des patients, un goitre était noté chez 87% des patients et une exophtalmie chez 78,7% des patients. La principale complication était à type de cardiothyréose retrouvée chez 11,1% des patients. Tous les patients ont eu un traitement par antithyroïdiens de synthèse. L'évolution a été favorable dans 19,4% des cas. Une récidive à été notée dans 57% des cas et dans 23,1% des cas les patients ont été perdus de vue. La maladie de Basedow est la cause de la plus fréquente d'hyperthyroïdie. Le tableau est dominé par les manifestations cliniques liées à l'hyper métabolisme de l'organisme. Dans cette étude, il apparait que la thyroïdectomie n'est pas de première intention si l'on connait le nombre élevé de récidive après le traitement médical. PMID:28154699
NASA Astrophysics Data System (ADS)
Coulibaly, Issa
Principale source d'approvisionnement en eau potable de la municipalite d'Edmundston, le bassin versant Iroquois/Blanchette est un enjeu capital pour cette derniere, d'ou les efforts constants deployes pour assurer la preservation de la qualite de son eau. A cet effet, plusieurs etudes y ont ete menees. Les plus recentes ont identifie des menaces de pollution de diverses origines dont celles associees aux changements climatiques (e.g. Maaref 2012). Au regard des impacts des modifications climatiques annonces a l'echelle du Nouveau-Brunswick, le bassin versant Iroquois/Blanchette pourrait etre fortement affecte, et cela de diverses facons. Plusieurs scenarios d'impacts sont envisageables, notamment les risques d'inondation, d'erosion et de pollution a travers une augmentation des precipitations et du ruissellement. Face a toutes ces menaces eventuelles, l'objectif de cette etude est d'evaluer les impacts potentiels des changements climatiques sur les risques d'erosion et de pollution a l'echelle du bassin versant Iroquois/Blanchette. Pour ce faire, la version canadienne de l'equation universelle revisee des pertes en sol RUSLE-CAN et le modele hydrologique SWAT ( Soil and Water Assessment Tool) ont ete utilises pour modeliser les risques d'erosion et de pollution au niveau dans la zone d'etude. Les donnees utilisees pour realiser ce travail proviennent de sources diverses et variees (teledetections, pedologiques, topographiques, meteorologiques, etc.). Les simulations ont ete realisees en deux etapes distinctes, d'abord dans les conditions actuelles ou l'annee 2013 a ete choisie comme annee de reference, ensuite en 2025 et 2050. Les resultats obtenus montrent une tendance a la hausse de la production de sediments dans les prochaines annees. La production maximale annuelle augmente de 8,34 % et 8,08 % respectivement en 2025 et 2050 selon notre scenario le plus optimiste, et de 29,99 % en 2025 et 29,72 % en 2050 selon le scenario le plus pessimiste par rapport a celle de 2013. Pour ce qui est de la pollution, les concentrations observees (sediment, nitrate et phosphore) connaissent une evolution avec les changements climatiques. La valeur maximale de la concentration en sediments connait une baisse en 2025 et 2050 par rapport a 2013, de 11,20 mg/l en 2013, elle passe a 9,03 mg/l en 2025 puis a 6,25 en 2050. On s'attend egalement a une baisse de la valeur maximale de la concentration en nitrate au fil des annees, plus accentuee en 2025. De 4,12 mg/l en 2013, elle passe a 1,85 mg/l en 2025 puis a 2,90 en 2050. La concentration en phosphore par contre connait une augmentation dans les annees a venir par rapport a celle de 2013, elle passe de 0,056 mg/l en 2013 a 0,234 mg/l en 2025 puis a 0,144 en 2050.
NASA Astrophysics Data System (ADS)
Chavez, Milagros
Cette these presente la trajectoire et les resultats d'une recherche dont l'objectif global est de developper un modele educationnel integrant l'ethique de l'environnement comme dimension transversale de l'education en sciences et en technologies. Face au paradigme positiviste toujours dominant dans l'enseignement des sciences, il a semble utile d'ouvrir un espace de reflexion et de proposer, sous forme d'un modele formel, une orientation pedagogique qui soit plus en resonance avec quelques-unes des preoccupations fondamentales de notre epoque: en particulier celle qui concerne la relation de humain avec son environnement et plus specifiquement, le role de la science dans le faconnement d'une telle relation, par sa contribution a la transformation des conditions de vie, au point de compromettre les equilibres naturels. En fonction de cette problematique generale, les objectifs de la recherche sont les suivants: (1) definir les elements paradigmatiques, theoriques et axiologiques du modele educationnel a construire et (2) definir ses composantes strategiques. De caractere theorico-speculatif, cette recherche a adopte la demarche de l'anasynthese, en la situant dans la perspective critique de la recherche en education. Le cadre theorique de cette these s'est construit autour de quatre concepts pivots: modele educationnel, education en sciences et en technologies, transversalite educative et ethique de l'environnement. Ces concepts ont ete clarifies a partir d'un corpus textuel, puis, sur cette base, des choix theoriques ont ete faits, a partir desquels un prototype du modele a ete elabore. Ce prototype a ensuite ete soumis a une double validation (par des experts et par une mise a l'essai), dans le but d'y apporter des ameliorations et, a partir de la, de construire un modele optimal. Ce dernier comporte deux dimensions: theorico-axiologique et strategique. La premiere s'appuie sur une conception de l'education en sciences et en technologies comme appropriation d'un patrimoine culturel, dans une perspective critique et emancipatrice. Dans cette optique, l'ethique de l'environnement intervient comme processus reflexif et existentiel de notre relation a l'environnement, susceptible d'etre integre comme dimension transversale de la dynamique educative. A cet effet, la dimension strategique du modele suggere une approche transversale de type existentiel, une strategie globale de type dialogique et des strategies pedagogiques specifiques dont des strategies d'apprentissage et des strategies d'evaluation. La realisation de ce modele a mis en relief certaines perspectives interessantes. Par exemple (1) la necessite de croiser la dimension cognitive des processus educatifs en sciences et en technologies avec d'autres dimensions de l'etre humain (affective, ethique, existentielle, sociale, spirituelle, etc.); (2) une vision de l'education en sciences et en technologies comme acte de liberte fondamentale qui consiste a s'approprier de facon critique un certain patrimoine culturel; (3) une vision de l'ethique de l'environnement comme processus de reflexion qui nous confronte a des questions existentielles de base.
Benlahfid, Mohammed; Erguibi, Driss; Elhattabi, Khalid; Bensardi, Fatimazahra; Khaiz, Driss; Lafriekh, Rachid; Rebroub, Dounia; Fadil, Abdelaziz; Aboussaouira, Touria
2017-01-01
Introduction La carcinose péritonéale est une diffusion inéluctablement terminale chez les patients atteints de cancers abdominaux. C'est le signe d'une maladie avancée ou d'une ré-évolution le plus souvent associée à un pronostic sombre. Environ deux tiers de l'ensemble des carcinoses péritonéales sont d'origine digestive et un tiers d'origine non digestive. Méthodes Il s'agit d'une étude rétrospective descriptive menée entre janvier 2008 et décembre 2010, dans le but de dresser le profil épidémiologique et les facteurs de risques de la carcinose péritonéale d'origine digestive au Centre Hospitalier Universitaire de Casablanca. Résultats Quarante-sept cas de carcinose péritonéale d'origine digestive ont été recensées (22 femmes, 25 hommes) ce qui représente une prévalence de 6.19% et un nombre moyen de 15.6 cas par an. L'âge était le facteur de risque essentiel dans notre série avec un âge moyen de 55.55 ans ±12.32. Les antécédents familiaux présentaient aussi un facteur de risque à prendre en considération. Conclusion A travers notre étude, nous avons conclus que les principaux facteurs de risque de la carcinose péritonéale d'origine digestive au Centre Hospitalier Universitaire Ibn Rochd Casablanca, sont l'âge et les antécédents familiaux. PMID:28979636
Kyste épidermoide de la selle turcique: à propos d’un cas
El Mghari, Ghizlane; Rafiq, Bouchra; El Ansari, Nawal
2017-01-01
Le kyste épidermoïde (KE) ou cholestéatome est une tumeur bénigne d'origine souvent congénitale, survenant dans les espaces sous-arachnoïdiens, son traitement est principalement chirurgical. Nous rapportons le cas d'un patient, âgé de 38 ans, qui a présenté d'une façon progressive, un syndrome d'hypertension intracrânienne, associé à des signes d'insuffisance antéhypophysaire des axe corticotrope, thyréotrope et gonadotrope installés depuis 1an et chez qui l'IRM cérébrale a été en faveur d'un craniopharyngiome, avec révélation de kyste épidermoide sur pièce anatomo-pathologique. PMID:29158862
None
2017-12-09
Le Dr.Bruno Bettelheim, psychologue américain, d'origine viennoise, a passé son doctorat en psychologie à l'université de Vienne. Il émigra aux Etats-Unis et enseigna la psychologie au Rockford College en Illinois et la psychologie de l'éducation à L'université de Chicago, où il dirigea également l'institut orthogénique Sonia-Shankman pour le traitement des enfants psychotiques. Cet homme a bouleversé la compréhension des relations parents et enfants en y introduisant la psychanalyse. Basé sur ses expériences aux Etats-Unis,il nous parle des changements dans la structure de la famille et ses conséquences pour la relation entre enfants et parents.
STS-84 post landing - Dan Goldin presents gifts to Linenger
NASA Technical Reports Server (NTRS)
1997-01-01
KENNEDY SPACE CENTER, FL - NASA Administrator Daniel Goldin presents some gifts to returning astronaut Jerry M. Linenger, who spent the last four months on the Russian Space Station Mir. Goldin met with Linenger in the Crew Transport Vehicle shortly after the Space Shuttle orbiter Atlantis landed on Runway 33 of KSC's Shuttle Landing Facility at the conclusion of the nine-day STS-84 mission. Goldin gave the astronaut flowers for Linenger's wife, Kathryn; a stuffed bear for their 18-month-old son, John; and a rattle for their unborn child who is due next month. STS-84 was the sixth of nine planned dockings of the Space Shuttle with the Mir. Mir 23 crew member Linenger was replaced on the Russian space station by STS-84 Mission Specialist C. Michael Foale.
Élaboration d'un bronze Cu-8%Sn fritté sous pression et l'étude de son aptitude à l'absorption
NASA Astrophysics Data System (ADS)
Loucif, K.; Keraghel, F.; Alem, S.
2005-05-01
L'introduction des píeces miniatures dans le domaine de l'informatique et la microélectronique nécessite une grande précision et un environnement propre. D'autre part, la conservation d'énergie exige des pièces légères et une bonne longévité. Pour résoudre ces problèmes, des pièces autolubrifiées ont été proposées. En effet, plusieurs disciplines peuvent s'ingérer pour élaborer ces pièces: la métallurgie des poudres pour produire des pièces poreuses, la tribologie pour caractériser la pièce en fonctionnement et la mécanique des fluides pour évaluer le comportement échantillon -lubrifiant. Dans ce présent travail, nous présentons l'évolution de la densité des échantillons élaborés en fonction de: la température d'élaboration, la pression de compactage, et le temps de maintien et l'évolution de l'absorption des lubrifiants par un alliage Cu-8% Sn fritté sous pression. Les lubrifiants choisis sont l'eau et une huile de machine à usage domestique et leur aptitude à l'autolubrification.
Wang, Fenrong; Wu, Yun; Ai, Yu; Bian, Qiaoxia; Ma, Wen; Lee, David Y-W; Dai, Ronghua
2016-03-01
Huo Luo Xiao Ling Dan (HLXLD), a Chinese herbal formula, is used in folk medicine for the treatment of arthritis and other chronic inflammatory diseases. However, the in vivo integrated metabolism of its multiple components remains unknown. In this paper, an ultra-performance liquid chromatography coupled with quadrupole time-of-flight tandem mass spectrometry (UPLC-Q-TOF-MS) method was developed for detection and identification of HLXLD metabolites in rat urine at high and normal clinical dosages. The prototype constituents and their metabolites in urine were analyzed. The mass measurements were accurate within 8 ppm, and subsequent fragment ions offered higher quality structural information for interpretation of the fragmentation pathways of various compounds. A total of 85 compounds were detected in high dosages urine samples by a highly sensitive extracted ion chromatograms method, including 31 parent compounds and 54 metabolites. Our results indicated that phase 2 reactions (e.g. glucuronidation, glutathionidation and sulfation) were the main metabolic pathways of lactones, alkaloids and flavones, while phase I reactions (e.g. hydrogenation and hydroxylation) were the major metabolic reaction for coumarins, paeoniflorin and iridoids. This investigation provided important structural information on the metabolism of HLXLD and provided scientific evidence to obtain a more comprehensive metabolic profile. Copyright © 2015 John Wiley & Sons, Ltd.
NASA Astrophysics Data System (ADS)
Boissonneault, Maxime
L'electrodynamique quantique en circuit est une architecture prometteuse pour le calcul quantique ainsi que pour etudier l'optique quantique. Dans cette architecture, on couple un ou plusieurs qubits supraconducteurs jouant le role d'atomes a un ou plusieurs resonateurs jouant le role de cavites optiques. Dans cette these, j'etudie l'interaction entre un seul qubit supraconducteur et un seul resonateur, en permettant cependant au qubit d'avoir plus de deux niveaux et au resonateur d'avoir une non-linearite Kerr. Je m'interesse particulierement a la lecture de l'etat du qubit et a son amelioration, a la retroaction du processus de mesure sur le qubit de meme qu'a l'etude des proprietes quantiques du resonateur a l'aide du qubit. J'utilise pour ce faire un modele analytique reduit que je developpe a partir de la description complete du systeme en utilisant principalement des transfprmations unitaires et une elimination adiabatique. J'utilise aussi une librairie de calcul numerique maison permettant de simuler efficacement l'evolution du systeme complet. Je compare les predictions du modele analytique reduit et les resultats de simulations numeriques a des resultats experimentaux obtenus par l'equipe de quantronique du CEASaclay. Ces resultats sont ceux d'une spectroscopie d'un qubit supraconducteur couple a un resonateur non lineaire excite. Dans un regime de faible puissance de spectroscopie le modele reduit predit correctement la position et la largeur de la raie. La position de la raie subit les decalages de Lamb et de Stark, et sa largeur est dominee par un dephasage induit par le processus de mesure. Je montre que, pour les parametres typiques de l'electrodynamique quantique en circuit, un accord quantitatif requiert un modele en reponse non lineaire du champ intra-resonateur, tel que celui developpe. Dans un regime de forte puissance de spectroscopie, des bandes laterales apparaissent et sont causees par les fluctuations quantiques du champ electromagnetique intra-resonateur autour de sa valeur d'equilibre. Ces fluctuations sont causees par la compression du champ electromagnetique due a la non-linearite du resonateur, et l'observation de leur effet via la spectroscopie d'un qubit constitue une premiere. Suite aux succes quantitatifs du modele reduit, je montre que deux regimes de parametres ameliorent marginalement la mesure dispersive d'un qubit avec un resonateur lineaire, et significativement une mesure par bifurcation avec un resonateur non lineaire. J'explique le fonctionnement d'une mesure de qubit dans un resonateur lineaire developpee par une equipe experimentale de l'Universite de Yale. Cette mesure, qui utilise les non-linearites induites par le qubit, a une haute fidelite, mais utilise une tres haute puissance et est destructrice. Dans tous ces cas, la structure multi-niveaux du qubit s'avere cruciale pour la mesure. En suggerant des facons d'ameliorer la mesure de qubits supraconducteurs, et en decrivant quantitativement la physique d'un systeme a plusieurs niveaux couple a un resonateur non lineaire excite, les resultats presentes dans cette these sont pertinents autant pour l'utilisation de l'architecture d'electrodynamique quantique en circuit pour l'informatique quantique que pour l'optique quantique. Mots-cles: electrodynamique quantique en circuit, informatique quantique, mesure, qubit supraconducteur, transmon, non-linearite Kerr
NASA Astrophysics Data System (ADS)
Haguma, Didier
Il est dorenavant etabli que les changements climatiques auront des repercussions sur les ressources en eau. La situation est preoccupante pour le secteur de production d'energie hydroelectrique, car l'eau constitue le moteur pour generer cette forme d'energie. Il sera important d'adapter les regles de gestion et/ou les installations des systemes hydriques, afin de minimiser les impacts negatifs et/ou pour capitaliser sur les retombees positives que les changements climatiques pourront apporter. Les travaux de la presente recherche s'interessent au developpement d'une methode de gestion des systemes hydriques qui tient compte des projections climatiques pour mieux anticiper les impacts de l'evolution du climat sur la production d'hydroelectricite et d'etablir des strategies d'adaptation aux changements climatiques. Le domaine d'etude est le bassin versant de la riviere Manicouagan situe dans la partie centrale du Quebec. Une nouvelle approche d'optimisation des ressources hydriques dans le contexte des changements climatiques est proposee. L'approche traite le probleme de la saisonnalite et de la non-stationnarite du climat d'une maniere explicite pour representer l'incertitude rattachee a un ensemble des projections climatiques. Cette approche permet d'integrer les projections climatiques dans le probleme d'optimisation des ressources en eau pour une gestion a long terme des systemes hydriques et de developper des strategies d'adaptation de ces systemes aux changements climatiques. Les resultats montrent que les impacts des changements climatiques sur le regime hydrologique du bassin de la riviere Manicouagan seraient le devancement et l'attenuation de la crue printaniere et l'augmentation du volume annuel d'apports. L'adaptation des regles de gestion du systeme hydrique engendrerait une hausse de la production hydroelectrique. Neanmoins, une perte de la performance des installations existantes du systeme hydrique serait observee a cause de l'augmentation des deversements non productibles dans le climat futur. Des strategies d'adaptation structurale ont ete analysees pour augmenter la capacite de production et la capacite d'ecoulement de certaines centrales hydroelectriques afin d'ameliorer la performance du systeme. Une analyse economique a permis de choisir les meilleures mesures d'adaptation et de determiner le moment opportun pour la mise en oeuvre de ces mesures. Les resultats de la recherche offrent aux gestionnaires des systemes hydriques un outil qui permet de mieux anticiper les consequences des changements climatiques sur la production hydroelectrique, incluant le rendement de centrales, les deversements non productibles et le moment le plus opportun pour inclure des modifications aux systemes hydriques. Mots-cles : systemes hydriques, adaptation aux changements climatiques, riviere Manicouagan
Molecular motions in glassy crystal cyanoadamantane : a proton spin-lattice relaxation study
NASA Astrophysics Data System (ADS)
Amoureux, J. P.; Decressain, R.; Sahour, M.; Cochon, E.
1992-02-01
Cyanoadamantane C{10}H{15}CN exhibits four different solid phases : two cubic plastic (I and I'), one cubic glassy (Ig) and one monoclinic ordered (II). In cubic plastic phases (I, I') three types of motion coexist : a uniaxial rotation of the molecule around its C—CequivN axis, a tumbling reorientation of this dipolar axis between the <~ngle 001rangle directions and a vacancy self-diffusion. In the cubic glassy state (Ig) the tumbling motion is frozen and therefore only the uniaxial rotation survives. In the ordered phase (II), the molecules only perform a 3-fold uniaxial rotation among identical positions. These different molecular motions in the four solid phases have been studied by the analysis of the T_{1 z} and T_{1 ρ} spin-lattice relaxation times in ^1H-NMR. The derived residence time are compared, when possible, to values previously deduced from quasi-elastic neutron scattering, dielectric relaxation and second moment of the ^1H-NMR lineshape. Le cyanoadamantane C{10}H{15}CN possède quatre phases solides différentes : deux plastiques cubiques (I et I'), une vitreuse cubique (Ig) et une ordonnée monoclinique (II). Dans les phases plastiques cubiques (I, I') trois types de mouvements coexistent : une rotation uniaxiale de la molécule autour de son axe C—CequivN, un basculement de cet axe dipolaire entre les directions <~ngle 001rangle et une diffusion moléculaire. Dans l'état vitreux cubique (Ig), le mouvement de basculement est gelé et seule la rotation uniaxiale subsiste. Enfin dans la phase ordonnée (II), les molécules effectuent une rotation uniaxiale d'ordre 3 entre positions indiscernables. Ces différents mouvements dans les quatre phases solides ont été évalués par l'analyse des temps de relaxation spin-réseau T_{1 z} et T_{1 ρ} en ^1H-RMN. Les temps de résidence qui en sont déduits sont comparés (lorsque cela est possible) aux valeurs correspondantes déduites précédemment par diffusion quasi-élastique des neutrons, par relaxation diélectrique et par mesure du second moment de la raie RMN.
N'goran, Kouamé; Akaffou, Evelyne; Konan, Anhum Nicaise; N'goan-Domoua, Anne-Marie
2011-01-01
Ce cas clinique rapporte un cas de tuberculose hépatique de présentation échographique exceptionnelle. Nous avons réalisé l’échographie abdominale d'un adolescent de 12 ans, immuno-compétent, sans notion de contage tuberculeux, se plaignant de douleur abdominale chronique évoluant depuis 8 mois associée à des signes frustres d‘imprégnation tuberculeuse. L'examen échographique a été réalisé à l'aide d'un appareil écho-doppler de marque Logic 400 de la firme General Electric. L’échographie abdominale a mis en évidence, une hépatomégalie comportant de multiples micro-abcès hypoéchogènes homogènes, mesurant entre 3 et 4 mm de diamètre et disséminés dans tout le parenchyme hépatique donnant l'aspect de miliaire. Une ascite de moyenne abondance localisée dans le pelvis a été objectivée. Il n'y avait pas d'adénopathies profondes ni de nodules péritonéaux. La ponction biopsie hépatique sous guidage échographique a permis de faire le diagnostic de tuberculose hépatique à l'histologie et à la bactériologie. Le patient a été mis sous traitement spécifique avec une surveillance échographique mensuelle. La disparition des micro-abcès et le tarissement de l'ascite ont été obtenus au bout du 4ème mois du traitement. Celle de l'hépatomégalie est survenue un mois plus tard. L’échographie joue un rôle très important dans la détection précoce de la tuberculose hépatique, son diagnostic précis et la surveillance du traitement. Lors de sa réalisation dans un contexte de douleur abdominale chronique chez l'enfant, l’échographiste devrait évoquer le diagnostic de tuberculose hépatique devant une hépatomégalie multi-micro-abcédée, même chez l'enfant immuno-compétent. PMID:22355417
NASA Astrophysics Data System (ADS)
Monteil, C.; Amouroux, M.
1993-10-01
Greenhouse heating can be achieved using various systems, for the generator as well as for the exchanger. The exchanger characteristics involve quite different modes of energy distribution, with differing agronomic and economic consequences. This paper focuses on two ground-level heating systems with low temperature (20 40°C) water circulation: a “radiant mulch” exchanger, composed of a network of ground-level heating hoses, and a “buried pipes” exchanger, composed of a network of under-ground pipes. The first part of the paper develops a model for these exchangers and its integration into a previously described greenhouse global model. The second part compares the effects of these exchangers on the greenhouse energetical behaviour with those of classic aerial metallic pipes with hot (50 70°C) water circulation. Le chauffage des serres agricoles peut être réalisé avec divers types de systèmes, tant pour le générateur que pour l'échangeur situé au sein de la serre. Les caractéristiques de l'échangeur induisent des modes de distribution de l'énergie très différents, dont les conséquences agronomiques et économiques peuvent être importantes. Le présent article s'intéresse à deux types d'échangeurs à circulation d'eau “à basse température” (20 40°C) localisés au niveau du sol de la serre: chauffage par gaines en matière plastique posées à même le sol (ou “paillage radiant”), chauffage par réseau de tubes enterrés à faible profondeur dans le sol de la serre. Une première partie développe une modélisation de ces échangeurs et son intégration dans un modèle plus global de la serre agricole, déjà présenté par ailleurs. Une seconde partie exploite cette modélisation en effectuant une analyse comparative de ces échangeurs avec un échangeur de référence constitué de tubes métalliques aériens à circulation d'eau chaude (50 70°C), très classiquement utilisé dans les serres.
Profil pressionnel de l’adolescent en milieu scolaire à Lubumbashi, République Démocratique du Congo
Kakoma, Placide Kambola; Muyumba, Emmanuel Kiyana; Mukeng, Clarence Kaut; Musung, Jaques Mbaz; Kakisingi, Christian Ngama; Mukuku, Olivier; Nkulu, Dophra Ngoy
2018-01-01
Introduction L'objectif de cette étude était de donner le profil de la pression artérielle (PA) des adolescents âgés de 15 à 19 ans en milieu scolaire à Lubumbashi, République Démocratique du Congo. Méthodes il s'agit d'une étude transversale, portant sur les adolescents âgés de 15 à 19 ans au moyen d'un échantillonnage aléatoire des écoles secondaires de Lubumbashi durant les années scolaires 2013-2014, 2014-2015 et 2015-2016. Trois mesures de PA étaient effectuées le même jour. Résultats 1766 adolescents âgés de 15-19 ans ont été inclus parmi eux 995 étaient de sexe féminin et 771 garçons. Les garçons avaient significativement une pression artérielle systolique élevée que les filles dans les tranches d'âges de 17, 18 et 19 ans. La pression artérielle diastolique n'était pas différente statistiquement dans toutes les tranches d'âges dans les deux sexes. Par contre, dans les deux sexes, la pression artérielle systolique été en corrélation significative avec le poids, la taille, l'indice de masse corporelle, le tour de taille et la fréquence cardiaque. Quant à la pression artérielle diastolique, des corrélations significatives étaient retrouvées avec le poids et l'indice de masse corporelle chez les filles alors que la fréquence cardiaque était en corrélation significative dans les deux sexes. Discussion Au cours de notre étude, il était question de déterminer les valeurs moyennes de PA et sa corrélation avec les paramètres anthropométriques, la FC et le poids de naissance chez les adolescents d'âge compris entre 15 et 19 ans. Notre étude a révélé des valeurs moyennes de PAS chez les garçons qui étaient plus élevées que les filles statistiquement significatives dans les tranches d'âges de 17, 18 et 19 ans alors que les valeurs moyennes de PAD n'avait pas de différence statistiquement significative dans toutes les tranches d'âges dans les deux sexes. Harrabi et al. [16], dans leur étude incluant 1569 sujets âgés de 13 à 19 ans, avaient trouvé que les garçons de 16, 17 et 18 ans avaient des PAS élevées sans différence statistiquement significatives mais les différences statistiquement significatives étaient remarquées chez les filles de 13 et 14 ans concernant la PAD. Dans son étude chez les enfants, Forrester et al. [17] avaient rapporté une corrélation positive entre la PAS et l'âge chez les garçons et négative chez les filles. Cette corrélation négative trouvée entre la PAS et l'âge chez les filles pourrait être expliquée par les modifications hormonales liées à la puberté qui commencent plus tôt chez les filles que chez les garçons. Se référant à la littérature, la PA augmente avec la croissance en âge plus chez les garçons suite à l'augmentation de la masse musculaire pendant la puberté [18-20]. Notre étude a montré que la PAS était en corrélation significative avec le poids, la taille, l'IMC, le tour de taille et la FC dans les deux sexes. Ce constat est similaire à celui faite par l'étude de Harrabi et al. [16] qui rapportait que la PAS était en corrélation positive avec la taille (garçons: r = 0,33; p < 0,0001; filles: r = 0,08; p = 0,02), le poids (garçons: r = 0,47, p < 0,0001; filles: r = 0,35; p < 0,0001) et l'âge (r = 0,12; p < 0,0001). Quant à la PAD dans notre étude, les corrélations significatives positives étaient retrouvées avec le poids (r = 0,093; p = 0,003) et l'IMC (r = 0,079; p = 0,012) seulement chez les filles, alors que la FC était en corrélation significative positive chez les garçons (r = 0,168; p < 0,0001) mais non chez les filles (r = 0,12, p < 0,0001) [16]. Dans une étude similaire chez les adolescents réalisée par Sinaiko et al. [21], une corrélation a été trouvée entre le poids et la PAS chez les garçons (r = 0,167, p < 0,0001) et les filles (r = 0,112, p < 0,0001). L'effet de la taille et du poids sur la PA a déjà été démontré dans plusieurs études transversales antérieures sur les enfants concluant en une forte corrélation positive [22,23]. L'insuffisance de déclaration des naissances à l'état civil dans plusieurs pays en développement, conséquente au recours aux poids de naissance déclarés auprès des parents ou tuteurs, serait un biais dans la réalisation des résultats statistiquement comparables. Conclusion Malgré les faiblesses potentielles de la présente étude dans sa conception transversale et les mesures de la PA le même jour, les données pourraient aider les responsables de la santé à adopter une stratégie nationale de prévention de l'hypertension artérielle dans notre population. PMID:29875975
Shen, S N
2017-07-28
Zhen Dan, the abbreviated form of Zhen Dan Sha, or called Zhu Sha (Cinnabar, HgS). It can be ruled out that Zhen Dan is the nickname of Qian Dan (Minium, Pb(3)O(4)) through the homologous formulas contrast. The prescriptions containing Zhen Dan in the Zheng lei ben cao ( Classified Materia Medica ) was put under the "attached prescriptions" of Qian Dan, while Zhong yao da ci dian ( Great Dictionary of Chinese Materia Medica )and Zhong hua ben cao ( Chinese Herbology )all definitelyconfirmed that Zhen Dan is the other name of Qian Dan, which are wrong and should be corrected.
Mise à jour sur l’utilisation clinique de la buprénorphine
Ducharme, Simon; Fraser, Ronald; Gill, Kathryn
2012-01-01
Résumé Objectif Examiner les données scientifiques actuelles sur la buprénorphine-naloxone pour le traitement des troubles liés aux opioïdes, en insistant sur le contexte des soins primaires. Qualité des données On a fait une recension dans MEDLINE et la base de données Cochrane des synthèses critiques. Les données probantes sont surtout de niveau I. Message principal La buprénorphine est un agoniste partiel des récepteurs μ des opioïdes et un antagoniste des récepteurs κ des opioïdes ayant une longue demi-vie et un potentiel moins grand que la méthadone d’entraîner un usage abusif. Pour une désintoxication, la buprénorphine est au moins équivalente à la méthadone et supérieure à la clonidine. Comme thérapie de substitution, la buprénorphine est clairement supérieure au placebo. La méthadone comporte de légers avantages en ce qui a trait à la rétention en thérapie, mais une approche par étape en utilisant initialement la buprénorphine-naloxone est aussi efficace. Il est possible, sécuritaire et efficace de recourir à la buprénorphine en milieu de soins primaires. On peut obtenir l’autorisation de prescrire de la buprénorphine après avoir suivi une formation en ligne. Conclusion La buprénorphine est un agent sécuritaire et efficace pour la désintoxication en cas de dépendance aux opioïdes. Elle peut servir d’agent de première intention dans les programmes de thérapie de substitution, en raison de son potentiel plus faible d’usage abusif en comparaison d’autres opioïdes. Son efficacité en milieux de soins primaires en fait un outil thérapeutique utile pour les médecins de famille.
Copolymères (carbazolylène-pyrrolylène) : synthèse par oxydation chimique et propriétés
NASA Astrophysics Data System (ADS)
Boucard, V.; Adès, D.; Siove, A.
1998-06-01
Conditions in which (carbazolylene-pyrrolylene) random copolymers could be synthetized directly by chemical oxidation by FeCl3 were studied. A substantial amount of soluble copolymers is obtained after work-up in the conditions corresponding to carbazole/pyrrole/2 FeCl3 molar proportions. An important fraction of polypyrrole was obtained beside a fraction of species soluble in ethanol (carbazole and dimer) and an other fraction of products soluble in water (pyrrole accompanied by the first terms of the oligomeric series). Soluble copolymers were characterized by means of SEC, NMR and UV-Visible spectroscopies. Cyclic voltammetry analysis disclosed that these copolymers exhibit both the carbazolic and the pyrrolic features. Les conditions dans lesquelles des copolymères statistiques (carbazo lylène-pyrrolylène) pouvaient être synthétisés directement par oxydation chimique par FeCl3 ont été étudiées. Des quantités substantielles de copolymères solubles en milieu organique sont obtenues par extraction lorsque les proportions molaires en réactifs carbazole/pyrrole/2 FeCl3 sont utilisées. Une fraction importante de polypyrrole est obtenue à côté d'une fraction d'espèces solubles dans l'éthanol (carbazole et son dimère) et d'une fraction de produits solubles dans l'eau (pyrrole et les premiers termes oligomères). Les copolymères solubles ont été caractérisés par CES, spectroscopies RMN et UV-Visible. L'analyse voltampérométrique de ces matériaux révèle qu'ils possèdent à la fois les caractéristiques des entités carbazolylènes et celles des entités pyrrolylènes.
Occlusion veineuse rétinienne et syndrome d'hyperviscosité
Younes, Samar; Abdellaoui, Meriem; Zahir, Fadoua; Benatiya, Idriss A; Tahri, Hicham
2015-01-01
Les occlusions veineuses rétiniennes secondaires aux syndromes d'hyperviscosité sont rares. Plusieurs cas d'occlusion de la veine centrale de la rétine [OVCR] compliquant une hémopathie ont été décrits, principalement au cours des polycythémies primitives ou secondaires, des lymphomes ou des leucémies. A travers cette observation, nous rapportons le cas d'un patient qui présente une OVCR de l’œil droit survenant dans le cadre d'un myélome multiple. La rétinopathie du syndrome d'hyperviscosité est liée au ralentissement circulatoire qui affecte de manière prépondérante le secteur veineux et donne un aspect de rétinopathie de stase bilatérale, avec dilatation et tortuosité de l'ensemble des veines rétiniennes. A un certain degré d'hyperviscosité, une occlusion veineuse véritable peut survenir. Le traitement comprend la réhydratation, phlébotomie, et plasmaphérèse. PMID:25995806
Compactification de la Supergravite 10-D Sur les Varietes de Calabi-Yau
NASA Astrophysics Data System (ADS)
Gagnon, Michel
Les varietes de Calabi-Yau permettent une description relativement simple et assez juste de la realite. Recemment, de nombreuses equipes de recherche s'y sont interessees, en particulier P. Candelas, A. M. Dale, C. A. Lutken et R. Schimmrigk (13) qui ont propose une liste de 7868 configurations distinctes. Toutefois, nous croyons que certaines des techniques qui sont exploitees pour construire cette liste ne sont pas suffisamment justifiees et ont pour effet de soustraire a nos investigations bon nombre de configurations potentiellement interessantes. Ainsi, nous produisons, sans utiliser ces techniques simplificatrices, une liste de 97360 configurations. Ensuite, dans le cadre des modeles a 4 generations, nous appliquons un ensemble de criteres, fondes sur les symetries discretes, pour delimiter le domaine des configurations phenomenologiquement viables. Finalement, apres avoir fixe notre choix sur une configuration particuliere, nous essayons de montrer tout l'interet physique des varietes de Calabi-Yau en exposant certains aspects de la phenomenologie a basse energie, notamment les nombres quantiques, les spectres fermioniques, la brisure intermediaire du groupe de jauge et la duree de vie du proton.
Predictability of the Indian Ocean Dipole in the coupled models
NASA Astrophysics Data System (ADS)
Liu, Huafeng; Tang, Youmin; Chen, Dake; Lian, Tao
2017-03-01
In this study, the Indian Ocean Dipole (IOD) predictability, measured by the Indian Dipole Mode Index (DMI), is comprehensively examined at the seasonal time scale, including its actual prediction skill and potential predictability, using the ENSEMBLES multiple model ensembles and the recently developed information-based theoretical framework of predictability. It was found that all model predictions have useful skill, which is normally defined by the anomaly correlation coefficient larger than 0.5, only at around 2-3 month leads. This is mainly because there are more false alarms in predictions as leading time increases. The DMI predictability has significant seasonal variation, and the predictions whose target seasons are boreal summer (JJA) and autumn (SON) are more reliable than that for other seasons. All of models fail to predict the IOD onset before May and suffer from the winter (DJF) predictability barrier. The potential predictability study indicates that, with the model development and initialization improvement, the prediction of IOD onset is likely to be improved but the winter barrier cannot be overcome. The IOD predictability also has decadal variation, with a high skill during the 1960s and the early 1990s, and a low skill during the early 1970s and early 1980s, which is very consistent with the potential predictability. The main factors controlling the IOD predictability, including its seasonal and decadal variations, are also analyzed in this study.
Modelisation de la diffusion sur les surfaces metalliques: De l'adatome aux processus de croissance
NASA Astrophysics Data System (ADS)
Boisvert, Ghyslain
Cette these est consacree a l'etude des processus de diffusion en surface dans le but ultime de comprendre, et de modeliser, la croissance d'une couche mince. L'importance de bien mai triser la croissance est primordiale compte tenu de son role dans la miniaturisation des circuits electroniques. Nous etudions ici les surface des metaux nobles et de ceux de la fin de la serie de transition. Dans un premier temps, nous nous interessons a la diffusion d'un simple adatome sur une surface metallique. Nous avons, entre autres, mis en evidence l'apparition d'une correlation entre evenements successifs lorsque la temperature est comparable a la barriere de diffusion, i.e., la diffusion ne peut pas etre associee a une marche aleatoire. Nous proposons un modele phenomenologique simple qui reproduit bien les resultats des simulations. Ces calculs nous ont aussi permis de montrer que la diffusion obeit a la loi de Meyer-Neldel. Cette loi stipule que, pour un processus active, le prefacteur augmente exponentiellement avec la barriere. En plus, ce travail permet de clarifier l'origine physique de cette loi. En comparant les resultats dynamiques aux resultats statiques, on se rend compte que la barriere extraite des calculs dynamiques est essentiellement la meme que celle obtenue par une approche statique, beaucoup plus simple. On peut donc obtenir cette barriere a l'aide de methodes plus precises, i.e., ab initio, comme la theorie de la fonctionnelle de la densite, qui sont aussi malheureusement beaucoup plus lourdes. C'est ce que nous avons fait pour plusieurs systemes metalliques. Nos resultats avec cette derniere approche se comparent tres bien aux resultats experimentaux. Nous nous sommes attardes plus longuement a la surface (111) du platine. Cette surface regorge de particularites interessantes, comme la forme d'equilibre non-hexagonale des i lots et deux sites d'adsorption differents pour l'adatome. De plus, des calculs ab initio precedents n'ont pas reussi a confirmer la forme d'equilibre et surestiment grandement la barriere. Nos calculs, plus complets et dans un formalisme mieux adapte a ce genre de probleme, predisent correctement la forme d'equilibre, qui est en fait due a un relachement different du stress de surface aux deux types de marches qui forment les cotes des i lots. Notre valeur pour la barriere est aussi fortement diminuee lorsqu'on relaxe les forces sur les atomes de la surface, amenant le resultat theorique beaucoup plus pres de la valeur experimentale. Nos calculs pour le cuivre demontre en effet que la diffusion de petits i lots pendant la croissance ne peut pas etre negligee dans ce cas, mettant en doute la valeur des interpretations des mesures experimentales. (Abstract shortened by UMI.)
NASA Astrophysics Data System (ADS)
Vérinaud, Christophe
2000-11-01
Dans le domaine de la haute résolution angulaire en astronomie, les techniques de l'interférométrie optique et de l'optique adaptative sont en plein essor. La principale limitation de l'interférométrie est laturbulence atmosphérique qui entraîne des pertes de cohérence importantes, préjudiciables à la sensibilité et à la précision des mesures. L'optique adaptative appliquée à l'interférométrie va permettre un gain en sensibilité considérable. Le but de cette thèse est l'étude de l'influence de l'optique adaptative sur les mesures interférométriques et son application au Grand Interféromètre à DeuxTélescopes (GI2T) situé sur le Mont Calern dans le sud de la France. Deux problèmes principaux sont étudiés de manière théorique par des développements analytiques et des simulations numériques: le premier est le contrôle en temps réel de la variation des différences de marche optique, encore appelée piston différentiel, induite par l'optique adaptative ; le deuxième problème important est la calibration des mesures de contraste des franges dans le cas de la correction partielle. Je limite mon étude au cas d'un interféromètre multi-modes en courtes poses, mode de fonctionnement principal du GI2T également prévu sur le Very Large Telescope Interferometer installé au Cerro Paranal au Chili. Je développe une méthode de calibration des pertes de cohérence spatio-temporelles connaissant la fonction de structure des fronts d'onde corrigés. Je montre en particulier qu'il est possible d'estimer fréquence par fréquence la densité spectrale des images en courtes poses, méthode très utile pour augmenter la couverture du plan des fréquences spatiales dans l'observation d'objets étendus. La dernière partie de ce mémoire est consacrée au développements instrumentaux auxquels j'ai participé. J'ai développé un banc de qualification du système d'optique adaptative à courbure destiné au GI2T et j'ai étudié l'implantation optique de deux systèmes dans la table de recombinaison.
A comparison of breeding and ensemble transform vectors for global ensemble generation
NASA Astrophysics Data System (ADS)
Deng, Guo; Tian, Hua; Li, Xiaoli; Chen, Jing; Gong, Jiandong; Jiao, Meiyan
2012-02-01
To compare the initial perturbation techniques using breeding vectors and ensemble transform vectors, three ensemble prediction systems using both initial perturbation methods but with different ensemble member sizes based on the spectral model T213/L31 are constructed at the National Meteorological Center, China Meteorological Administration (NMC/CMA). A series of ensemble verification scores such as forecast skill of the ensemble mean, ensemble resolution, and ensemble reliability are introduced to identify the most important attributes of ensemble forecast systems. The results indicate that the ensemble transform technique is superior to the breeding vector method in light of the evaluation of anomaly correlation coefficient (ACC), which is a deterministic character of the ensemble mean, the root-mean-square error (RMSE) and spread, which are of probabilistic attributes, and the continuous ranked probability score (CRPS) and its decomposition. The advantage of the ensemble transform approach is attributed to its orthogonality among ensemble perturbations as well as its consistence with the data assimilation system. Therefore, this study may serve as a reference for configuration of the best ensemble prediction system to be used in operation.
NASA Astrophysics Data System (ADS)
Dagallier, Adrien
L'emergence des lasers a impulsion ultrabreves et des nanotechnologies a revolutionne notre perception et notre maniere d'interagir avec l'infiniment petit. Les gigantesques intensites generees par ces impulsions plus courtes que les temps de relaxation ou de diffusion du milieu irradie induisent de nombreux phenomenes non-lineaires, du doublement de frequence a l'ablation, dans des volumes de dimension caracteristique de l'ordre de la longueur d'onde du laser. En biologie et en medecine, ces phenomenes sont utilises a des fins d'imagerie multiphotonique ou pour detruire des tissus vivants. L'introduction de nanoparticules plasmoniques, qui concentrent le champ electromagnetique incident dans des regions de dimensions nanometriques, jusqu'a une fraction de la longueur d'onde, amplifie les phenomenes non-lineaires tout en offrant un controle beaucoup plus precis de la deposition d'energie, ouvrant la voie a la detection de molecules individuelles en solution et a la nanochirurgie. La nanochirurgie repose principalement sur la formation d'une bulle de vapeur a proximite d'une membrane cellulaire. Cette bulle de vapeur perce la membrane de maniere irreversible,entrainant la cellule a sa mort, ou la perturbe temporairement, ce qui permet d'envisager de faire penetrer dans la cellule des medicaments ou des brins d'ADN pour de la therapie genique. C'est principalement la taille de la bulle qui va decider de l'issue de l'irradiation laser. Il est donc necessaire de controler finement les parametres du laser et la geometrie de la nanoparticule afin d'atteindre l'objectif fixe. Le moyen le plus direct a l'heure actuelle de valider un ensemble de conditions experimentales est de realiser l'experience en laboratoire,ce qui est long et couteux. Les modeles de dynamique de bulle existants ne prennent pas en compte les parametres de l'irradiation et ajustent souvent leurs conditions initiales a partir de leurs mesures experimentales, ce qui limite la portee du modele au cas pour lequel il est ecrit. Ce memoire se propose de predire la taille maximale ainsi que la dynamique des bulles generees par des impulsions ultrabreves en fonction uniquement de la geometrie de la particule et des parametres du laser, entre autres la duree de pulse, la longueur d'onde centrale et la fluence d'irradiation.
Profil épidémiologique des tumeurs malignes primitives des glandes salivaires : à propos de 154 cas
Setti, Khadija; Mouanis, Mohamed; Moumni, Abdelmounim; Maher, Mostafa; Harmouch, Amal
2014-01-01
Introduction Les tumeurs des glandes salivaires sont des tumeurs rares représentant 3à 5% des tumeurs de la tête et du cou. La classification de l'OMS 2005 distingue les tumeurs épithéliales, les tumeurs mésenchymateuses, les tumeurs hématologiques et les tumeurs secondaires. Méthodes Notre travail consiste en une étude rétrospective réalisée sur une période de 10 ans allant de janvier 2002 à janvier 2012. Les critères d'inclusion étaient: l'âge, le sexe, le siège de la tumeur et le type histologique. Résultats L'incidence annuelle des tumeurs malignes primitives des glandes salivaires dans notre série était de 15 cas par an. Cent cinquante quatre cas de tumeurs malignes primitives des glandes salivaires ont été colligés sans prédominance de sexe (78 femmes (50,6%) et 76 hommes (49,4%)). La moyenne d'âge était de 60 ans avec des extrêmes de 4 et 83 ans et un pic de fréquence entre 51et 70 ans. Deux tiers des cas (65%) avaient une localisation au niveau des glandes principales avec 66 cas au niveau de la parotide (43%) et 34 cas au niveau de la glande sous maxillaire (22%). Cinquante quatre patients avaient une tumeur maligne des glandes salivaires accessoires (35%) dont 61% au niveau du palais. Aucun cas de tumeur maligne de la glande sublinguale n'a été recensé dans notre étude. Le type histologique prédominant dans notre série était le carcinome adénoïde kystique et retrouvé chez 43 patients (27,9%), suivi de l'adénocarcinome sans autre indication chez 37 patients (24%) puis du carcinome mucoépidermoïde chez 16 patients (10,4%) et de l'adénocarcinome polymorphe de bas grade également chez 16 patients (10. 4%). Conclusion Les tumeurs malignes des glandes salivaires représentent un ensemble hétérogène de maladies de caractérisation complexe et de fréquence variable. PMID:25120861
The Ensembl REST API: Ensembl Data for Any Language.
Yates, Andrew; Beal, Kathryn; Keenan, Stephen; McLaren, William; Pignatelli, Miguel; Ritchie, Graham R S; Ruffier, Magali; Taylor, Kieron; Vullo, Alessandro; Flicek, Paul
2015-01-01
We present a Web service to access Ensembl data using Representational State Transfer (REST). The Ensembl REST server enables the easy retrieval of a wide range of Ensembl data by most programming languages, using standard formats such as JSON and FASTA while minimizing client work. We also introduce bindings to the popular Ensembl Variant Effect Predictor tool permitting large-scale programmatic variant analysis independent of any specific programming language. The Ensembl REST API can be accessed at http://rest.ensembl.org and source code is freely available under an Apache 2.0 license from http://github.com/Ensembl/ensembl-rest. © The Author 2014. Published by Oxford University Press.
Ensembl BioMarts: a hub for data retrieval across taxonomic space.
Kinsella, Rhoda J; Kähäri, Andreas; Haider, Syed; Zamora, Jorge; Proctor, Glenn; Spudich, Giulietta; Almeida-King, Jeff; Staines, Daniel; Derwent, Paul; Kerhornou, Arnaud; Kersey, Paul; Flicek, Paul
2011-01-01
For a number of years the BioMart data warehousing system has proven to be a valuable resource for scientists seeking a fast and versatile means of accessing the growing volume of genomic data provided by the Ensembl project. The launch of the Ensembl Genomes project in 2009 complemented the Ensembl project by utilizing the same visualization, interactive and programming tools to provide users with a means for accessing genome data from a further five domains: protists, bacteria, metazoa, plants and fungi. The Ensembl and Ensembl Genomes BioMarts provide a point of access to the high-quality gene annotation, variation data, functional and regulatory annotation and evolutionary relationships from genomes spanning the taxonomic space. This article aims to give a comprehensive overview of the Ensembl and Ensembl Genomes BioMarts as well as some useful examples and a description of current data content and future objectives. Database URLs: http://www.ensembl.org/biomart/martview/; http://metazoa.ensembl.org/biomart/martview/; http://plants.ensembl.org/biomart/martview/; http://protists.ensembl.org/biomart/martview/; http://fungi.ensembl.org/biomart/martview/; http://bacteria.ensembl.org/biomart/martview/.
Persistance du 5ème arc aortique associé à une interruption de l’arche aortique
Houssa, Mahdi Ait; Atmani, Noureddine; Bamous, Mehdi; Abdou, Abdessamad; Nya, Fouad; Seghrouchni, Anis; Amahzoune, Brahim; El Bekkali, Youssef; Drissi, Mohamed; Boulahya, Abdelatif
2017-01-01
Les auteurs rapportent un cas de persistance du 5ème arc aortique associé à une interruption totale de l'arche aortique. Ce cas clinique montre le piège diagnostic posé par la persistance du 5ème arc aortique et son effet bénéfique hémodynamique. Le tableau clinique était trompeur en préopératoire en raison de la persistance des pouls fémoraux et des signes cliniques d'un shunt gauche-droite via un large canal artériel. Le diagnostic a été redressé en peropératoire grâce au monitorage de la pression artérielle par un cathéter placé dans l'artère fémorale. PMID:29187934
Precipitation forecast verification over Brazilian watersheds on present and future climate
NASA Astrophysics Data System (ADS)
Xavier, L.; Bruyere, C. L.; Rotunno, O.
2016-12-01
Evaluating the quality of precipitation forecast is an essential step for hydrological studies, among other applications, which is particularly relevant when taking into account climate change and the consequent likely modification of precipitation patterns. In this study we analyzed daily precipitation forecasts given by the global model CESM and the regional model WRF on present and future climate. For present runs, CESM data have been considered from 1980 to 2005, and WRF data from 1990 to 2000. CESM future runs were available for 3 RCP scenarios (4.5, 6.0 and 8.5), over 2005-2100 period; for WRF, future runs spanned 4 different 11-year periods (2020-2030, 2030-2040, 2050-2060 and 2080-2090). WRF simulations had been driven by bias-corrected forcings, and had been done on present climate for a 24 members ensemble created by varying the adopted parameterization schemes. On WRF future climate simulations, data from 3 members out of the original ensemble were available. Precipitation data have been spatially averaged over some large Brazilian watersheds (Amazon and subbasins, Tocantins, Sao Francisco, 4 of Parana`s subbasins) and have been evaluated for present climate against a gauge gridded dataset and ERA Interim data both spanning the 1980-2013 period. The evaluation was focused on the analysis of precipitation forecasts probabilities distribution. Taking into account daily and monthly mean precipitation aggregated on 3-month periods (DJF,MAM,JJA,SON), we adopted some skill measures, amongst them, the Perkins Skill Score (PSS). From the results we verified that on present climate WRF ensemble mean led to clearly better results when compared with CESM data for Amazon, Tocantins and Sao Francisco, but model was not as skillful to the other basins, which could be also been observed for future climate. PSS results from future runs showed that few changes would be observed over the different periods for the considered basins.
Chudley, Albert E.; Conry, Julianne; Cook, Jocelynn L.; Loock, Christine; Rosales, Ted; LeBlanc, Nicole
2005-01-01
Résumé LE DIAGNOSTIC DE L'ENSEMBLE DES TROUBLES CAUSÉS PAR L'ALCOOLISATION FÉTALE (ETCAF) est complexe et l'élaboration de lignes directrices concernant le diagnostic est justifiée. Un sous-comité du Comité consultatif national de l'Agence de santé publique du Canada sur l'Ensemble des troubles causés par l'alcoolisation fœtale a examiné, analysé et intégré les méthodes de diagnostic actuelles afin de parvenir à une méthode de diagnostic normalisée faisant le consensus au Canada. L'objet du présent document est d'examiner et de clarifier l'utilisation des systèmes de diagnostic actuels et de formuler des recommandations quant à leur application pour le diagnostic des déficiences liées à l'ETCAF chez des individus de tous les âges. Les lignes directrices sont fondées sur un vaste consensus de praticiens et d'autres intervenants spécialisés dans le domaine. Ces lignes directrices ont été organisées en sept catégories, soit le dépistage et l'orientation vers les spécialistes, l'examen physique et le diagnostic différentiel, l'évaluation du comportement neurologique, le traitement et le suivi, les antécédents de consommation d'alcool de la mère pendant la grossesse, les critères du diagnostic pour le syndrome d'alcoolisation fœtale (SAF), SAF partiel et troubles neurologiques du développement liés à l'alcool, l'harmonisation de l'Institute of Medicine (IOM) et des approches du Code diagnostique à 4 chiffres. Le diagnostic exige une évaluation complète des antécédents, ainsi qu'un examen physique et du comportement neurologique, tout en recourant à une approche multidisciplinaire. Les présentes lignes directrices pour le diagnostic du syndrome d'alcoolisation fœtale et des déficiences qui y sont associées sont les premières à avoir été élaborées au Canada et elles sont fondées sur la consultation d'un grand éventail de spécialistes du diagnostic.
Etude du champ magnetique dans les nuages moleculaires
NASA Astrophysics Data System (ADS)
Houde, Martin
2001-12-01
Ce travail est une étude du champ magnétique duns l'environnement circumstellaire des étoiles jeunes. Il a pour origine la certitude qu'avait l'auteur qu'il se devait d'être possible de détecter la présence d'un champ magnétique, et de possiblement le caractériser, par le biais d'observations de profils spectraux d'espèces moléculaires ioniques. Il en découle donc qu'un des buts principaux était de prouver que cela est effectivement possible. La thèse comporte alors des éléments théoriques et expérimentaux qui sont à la fois complémentaires et intimement liés. L'aspect théorique est basé sur l'interaction mutuelle que des particules neutres et chargées peuvent avoir l'une sur l'autre daps un plasma faiblement ionisé comme ceux existants daps les nuages moléculaires sites de formation stellaire. Il appert que la présence d'un champ magnétique a un effet direct sur le comportement des ions (via la force de Lorentz) et indirect sur les molécules neutres (via les nombreuses collisions entre les deux types de particules). Une telle interaction est, comme il est maintenant bien connu, présente dans les premières étapes de la formation dune étoile. Il s'agit bien sûr de la diffusion ambipolaire. Nous montrerons qu'il existe cependant un autre type de diffusion, jusqu'ici inconnue, qui se manifeste plus tard au tours de l'évolution des nuages moléculaires. Celle-ci peut avoir un effet dramatique sur l'apparence des profils spectraux (de rotation moléculaire) des espèces ioniques lorsque comparés à ceux qu'exhibent des espèces neutres coexistantes. Mais pour ce faire, il doit y avoir existence de mouvements organisés (des flots ou jets) de matière ou encore la présence de turbulence dans les régions considérées. Une distribution de vélocité du type maxwellienne ne révèlera pas la présence du champ magnétique. Les observations, qui ont pour but de confirmer la théorie, se situent dans le domaine des longueurs d'ondes millimétriques et sous- millimétriques. Plusieurs espèces moléculaires furent détectées dans un échantillon significatif de nuages moléculaires. L'effet prédit fut confirmé et ce peu importe si les raies observées sont opaques ou transparentes. Dans le dernier chapitre, nous considérerons une application intéressante où nous utiliserons la manifestation de cet effet (ou son manque) pour vérifier l'alignement préférentiel des flots bipolaires, qui accompagnent souvent la présence de proto- étoiles, avec le champ magnétique local.
Apport de l'imagerie dans le diagnostic des sacroiliites infectieuses : à propos de 19 cas
Abid, Hanen; Chaabouni, Salim; Frikha, Faten; Toumi, Nozha; Souissi, Basma; Lahiani, Dorra; Bahloul, Zouhir; Ben Mahfoudh, Khaireddine
2014-01-01
Les sacro-iliites infectieuses méritent d’être mieux connues. Leur diagnostic est souvent retardé en raison d'une symptomatologie trompeuse et des diffcultés d'exploration de l'articulation sacro-iliaque. Notre travail est basé sur une étude rétrospective portant sur les cas de SII, recueillis sur une période comprise entre 1997 et 2008 dans notre centre universitaire Sfax-Tunisie. Le diagnostic de sacro-iliite était retenu en présence d'arguments cliniques et radiologiques d'atteinte sacroiliaque. Nous rapportons dix neuf cas de sacroiliites infectieuses (10 hommes et 9 femmes), avec un âge moyen de 32 ans. L'atteinte était unilatérale dans tous les cas. Les radiographies standard faites dans tous les cas ont été suggestives dans 14 cas et normales dans les autres cas. La TDM faite dans 13 cas a montré, un abcès des parties molles dans 8 cas et un séquestre osseux dans 2 cas. L'IRM réalisée dans 8 cas, a objectivé une infiltration des parties molles dans tous les cas et un abcès dans 3 cas. Le germe a été identifié dans 9 cas (3 cas de tuberculose, 3 cas de brucellose, 2 sacro-iliites à pyogène et un cas de candidose). Cette identification était faite par biopsie dans 3 cas, hémocultures dans 2 cas, prélèvement au niveau de la porte d'entrée dans 1 cas et sérodiagnostic dans 3 cas. Pour les autres cas, l'origine pyogène a été retenue sur des arguments cliniques et biologiques. L'imagerie joue un rôle primordial dans le diagnostic précoce et l'orientation étiologique d'une sacroiliite infectieuse. PMID:25120884
Interpretation of tracer tests performed in fractured rock of the Lange Bramke basin, Germany
NASA Astrophysics Data System (ADS)
Maloszewski, Piotr; Herrmann, Andreas; Zuber, Andrzej
Two multitracer tests performed in one of the major cross-fault zones of the Lange Bramke basin (Harz Mountains, Germany) confirm the dominant role of the fault zone in groundwater flow and solute transport. Tracers having different coefficients of molecular diffusion (deuterium, bromide, uranine, and eosine) yielded breakthrough curves that can only be explained by a model that couples the advective-dispersive transport in the fractures with the molecular diffusion exchange in the matrix. For the scale of the tests (maximum distance of 225m), an approximation was used in which the influence of adjacent fractures is neglected. That model yielded nearly the same rock and transport parameters for each tracer, which means that the single-fracture approximation is acceptable and that matrix diffusion plays an important role. The hydraulic conductivity of the fault zone obtained from the tracer tests is about 1.5×10-2m/s, whereas the regional hydraulic conductivity of the fractured rock mass is about 3×10-7m/s, as estimated from the tritium age and the matrix porosity of about 2%. These values show that the hydraulic conductivity along the fault is several orders of magnitude larger than that of the remaining fractured part of the aquifer, which confirms the dominant role of the fault zones as collectors of water and conductors of fast flow. Résumé Deux multitraçages ont été réalisés dans l'une des zones principales de failles du bassin de Lange Bramke (massif du Harz, Allemagne); les résultats confirment le rôle prédominant de la zone de failles pour l'écoulement souterrain et le transport de soluté. Les traceurs, possédant des coefficients de diffusion différents (deutérium, bromure, uranine et éosine), ont fourni des courbes de restitution qui ne peuvent être expliquées que par un modèle qui associe un transport advectif-dispersif dans les fractures à un échange par diffusion moléculaire dans la matrice. A l'échelle des expériences (distance maximale de 225m), l'influence des fractures adjacentes a été négligée. Ce modèle a fourni pour chaque traceur pratiquement les mêmes paramètres pour la roche et le transport, ce qui signifie que l'approximation de la fracture unique est acceptable et que la diffusion dans la matrice joue un rôle important. La conductivité hydraulique de la zone de faille fournie par les traçages est d'environ 1,5×10-2m/s, alors que la conductivité hydraulique régionale de la roche fracturée dans son ensemble est de l'ordre de 3×10-7m/s, selon l'estimation tirée des âges tritium et de la porosité de la matrice d'environ 2%. Ces valeurs montrent que la conductivité hydraulique le long de la faille est supérieure de plusieurs ordres de grandeur à celle de la partie fracturée restante de l'aquifère, ce qui confirme le rôle prédominant joué par les zones de failles comme drains de l'eau et comme axes d'écoulement rapide. Resumen Dos ensayos con múltiples trazadores realizados en una de las zonas más fracturadas de la cuenca de Lange Bramke (Montes Harz, Alemania) confirman el papel dominante de la zona de fractura en el flujo de agua subterránea y el transporte de solutos. Trazadores con distintos coeficientes de difusión molecular (deuterio, bromuro, uranina y eosina) dieron curvas de llegada que sólo pueden ser explicadas mediante un modelo que acople el transporte advectivo-dispersivo en las fracturas con la difusión en la matriz. Para la escala de los ensayos (distancia máxima de 225m), se usó como aproximación que la influencia de las fracturas adyacentes podía despreciarse. Este modelo dio lugar para cada trazador a valores muy similares de los parámetros de transporte, lo que supone que la aproximación de fractura única es aceptable y que la difusión en la matriz es un mecanismo importante. La conductividad hidráulica de la zona fracturada obtenida de los ensayos es de unos 1.5×10-2m/s, mientras que la conductividad hidráulica regional para la matriz rocosa es de unos 3×10-7m/s, valor estimado de la edad del tritio y la porosidad de la matriz es del 2%. Estos resultados indican que la conductividad hidráulica a lo largo de la fractura es varios órdenes de magnitud mayor que la correspondiente al resto de la parte fracturada del acuífero, lo que confirma el papel dominante de las fracturas como zonas conductoras preferentes de agua.
Yang, Shan; Al-Hashimi, Hashim M.
2016-01-01
A growing number of studies employ time-averaged experimental data to determine dynamic ensembles of biomolecules. While it is well known that different ensembles can satisfy experimental data to within error, the extent and nature of these degeneracies, and their impact on the accuracy of the ensemble determination remains poorly understood. Here, we use simulations and a recently introduced metric for assessing ensemble similarity to explore degeneracies in determining ensembles using NMR residual dipolar couplings (RDCs) with specific application to A-form helices in RNA. Various target ensembles were constructed representing different domain-domain orientational distributions that are confined to a topologically restricted (<10%) conformational space. Five independent sets of ensemble averaged RDCs were then computed for each target ensemble and a ‘sample and select’ scheme used to identify degenerate ensembles that satisfy RDCs to within experimental uncertainty. We find that ensembles with different ensemble sizes and that can differ significantly from the target ensemble (by as much as ΣΩ ~ 0.4 where ΣΩ varies between 0 and 1 for maximum and minimum ensemble similarity, respectively) can satisfy the ensemble averaged RDCs. These deviations increase with the number of unique conformers and breadth of the target distribution, and result in significant uncertainty in determining conformational entropy (as large as 5 kcal/mol at T = 298 K). Nevertheless, the RDC-degenerate ensembles are biased towards populated regions of the target ensemble, and capture other essential features of the distribution, including the shape. Our results identify ensemble size as a major source of uncertainty in determining ensembles and suggest that NMR interactions such as RDCs and spin relaxation, on their own, do not carry the necessary information needed to determine conformational entropy at a useful level of precision. The framework introduced here provides a general approach for exploring degeneracies in ensemble determination for different types of experimental data. PMID:26131693
Residue-level global and local ensemble-ensemble comparisons of protein domains.
Clark, Sarah A; Tronrud, Dale E; Karplus, P Andrew
2015-09-01
Many methods of protein structure generation such as NMR-based solution structure determination and template-based modeling do not produce a single model, but an ensemble of models consistent with the available information. Current strategies for comparing ensembles lose information because they use only a single representative structure. Here, we describe the ENSEMBLATOR and its novel strategy to directly compare two ensembles containing the same atoms to identify significant global and local backbone differences between them on per-atom and per-residue levels, respectively. The ENSEMBLATOR has four components: eePREP (ee for ensemble-ensemble), which selects atoms common to all models; eeCORE, which identifies atoms belonging to a cutoff-distance dependent common core; eeGLOBAL, which globally superimposes all models using the defined core atoms and calculates for each atom the two intraensemble variations, the interensemble variation, and the closest approach of members of the two ensembles; and eeLOCAL, which performs a local overlay of each dipeptide and, using a novel measure of local backbone similarity, reports the same four variations as eeGLOBAL. The combination of eeGLOBAL and eeLOCAL analyses identifies the most significant differences between ensembles. We illustrate the ENSEMBLATOR's capabilities by showing how using it to analyze NMR ensembles and to compare NMR ensembles with crystal structures provides novel insights compared to published studies. One of these studies leads us to suggest that a "consistency check" of NMR-derived ensembles may be a useful analysis step for NMR-based structure determinations in general. The ENSEMBLATOR 1.0 is available as a first generation tool to carry out ensemble-ensemble comparisons. © 2015 The Protein Society.
Residue-level global and local ensemble-ensemble comparisons of protein domains
Clark, Sarah A; Tronrud, Dale E; Andrew Karplus, P
2015-01-01
Many methods of protein structure generation such as NMR-based solution structure determination and template-based modeling do not produce a single model, but an ensemble of models consistent with the available information. Current strategies for comparing ensembles lose information because they use only a single representative structure. Here, we describe the ENSEMBLATOR and its novel strategy to directly compare two ensembles containing the same atoms to identify significant global and local backbone differences between them on per-atom and per-residue levels, respectively. The ENSEMBLATOR has four components: eePREP (ee for ensemble-ensemble), which selects atoms common to all models; eeCORE, which identifies atoms belonging to a cutoff-distance dependent common core; eeGLOBAL, which globally superimposes all models using the defined core atoms and calculates for each atom the two intraensemble variations, the interensemble variation, and the closest approach of members of the two ensembles; and eeLOCAL, which performs a local overlay of each dipeptide and, using a novel measure of local backbone similarity, reports the same four variations as eeGLOBAL. The combination of eeGLOBAL and eeLOCAL analyses identifies the most significant differences between ensembles. We illustrate the ENSEMBLATOR's capabilities by showing how using it to analyze NMR ensembles and to compare NMR ensembles with crystal structures provides novel insights compared to published studies. One of these studies leads us to suggest that a “consistency check” of NMR-derived ensembles may be a useful analysis step for NMR-based structure determinations in general. The ENSEMBLATOR 1.0 is available as a first generation tool to carry out ensemble-ensemble comparisons. PMID:26032515
The Ensembl REST API: Ensembl Data for Any Language
Yates, Andrew; Beal, Kathryn; Keenan, Stephen; McLaren, William; Pignatelli, Miguel; Ritchie, Graham R. S.; Ruffier, Magali; Taylor, Kieron; Vullo, Alessandro; Flicek, Paul
2015-01-01
Motivation: We present a Web service to access Ensembl data using Representational State Transfer (REST). The Ensembl REST server enables the easy retrieval of a wide range of Ensembl data by most programming languages, using standard formats such as JSON and FASTA while minimizing client work. We also introduce bindings to the popular Ensembl Variant Effect Predictor tool permitting large-scale programmatic variant analysis independent of any specific programming language. Availability and implementation: The Ensembl REST API can be accessed at http://rest.ensembl.org and source code is freely available under an Apache 2.0 license from http://github.com/Ensembl/ensembl-rest. Contact: ayates@ebi.ac.uk or flicek@ebi.ac.uk Supplementary information: Supplementary data are available at Bioinformatics online. PMID:25236461
Nucléation, ascension et éclatement d'une bulle de champagne
NASA Astrophysics Data System (ADS)
Liger-Belair, G.
2006-03-01
People have long been fascinated by bubbles and foams dynamics, and since the pioneering work of Leonardo da Vinci in the early 16th century, this subject has generated a huge bibliography. However, only quite recently, much interest was devoted to bubbles in Champagne wines and carbonated beverages. Since the time of the benedictine monk dom Pierre Perignon (1638-1715), champagne is the wine of celebration. This fame is largely linked to the elegance of its effervescence and foaming properties. In this book, the latest results about the chemical physics behind the bubbling properties of Champagne and sparkling wines are collected and fully illustrated. The first chapter is devoted to the history of champagne and to a presentation of the tools of the physical chemistry of interfaces needed for a whole comprehension of the book. Then, the three main steps of a fleeting champagne bubble's life are presented in chronological order, that is, the bubble nucleation on the glass wall (Chap.2), the bubble ascent and growth through the liquid matrix (Chap.3), and the bursting of bubbles at the liquid surface (Chap.4), which constitutes the most intriguing, functional, and visually appealing step. L'objectif général de ce travail consacré à l'étude des processus physicochimiques liés à l'effervescence des vins de Champagne était de décortiquer les différentes étapes de la vie d'une bulle de champagne en conditions réelles de consommation, dans une flûte. Nous résumons ci-après les principaux résultats obtenus pour chacune des étapes de la vie de la bulle, depuis sa naissance sur les parois d'une flûte, jusqu'à son éclatement en surface. Nucléation À l'aide d'une caméra rapide munie d'un objectif de microscope, nous avons pu mettre à mal une idée largement répandue. Ce ne sont pas les anfractuosités de la surface du verre ou de la flûte qui sont responsable de la nucléation hétérogène des bulles, mais des particules adsorbées sur les parois du verre ou de la flûte. Dans la majorité des cas, il s'agit de fibres de cellulose creuses dont les propriétés géométriques permettent le piégeage d'une poche d'air en leur sein au moment du versement. Un modèle de piégeage a été construit et met en avant le rôle fondamental joué par la vitesse du versement. Plus cette vitesse augmente, plus on augmente la probabilité de piéger des poches d'air au sein de ces fibres, provoquant ainsi une effervescence plus importante. La dynamique de production des bulles a également été filmée in situ à l'aide de la caméra, puis modélisée en utilisant les équations de la diffusion adaptées à la géométrie de notre fibre supposée approximativement cylindrique. Nous avons montré que le temps caractéristique de production d'une bulle par la fibre est largement gouverné par la croissance de cette petite poche de gaz par diffusion du CO{2} dissous vers la poche. Nous avons démontré que la convection du liquide joue un rôle essentiel lors du transfert de masse du CO{2} dissous vers la poche. En effet, un modèle purement diffusif ne permet pas du tout de reproduire la dynamique de croissance expérimentale de ces poches de gaz piégées au cœur des fibres. Nous avons également pu mettre en évidence des changements spectaculaires dans la dynamique de bullage de certains sites de nucléation suivis au cours du temps pendant le processus de dégazage. Ces observations font de la fibre de cellulose immergée dans le champagne le plus petit système de bullage non-linéaire observé à ce jour. Dynamique ascensionnelle Pour mesurer la vitesse d'une bulle tout au long de son trajet vers la surface libre du champagne, nous avons tiré profit de la production répétitive de bulles au niveau des sites de nucléation. Par la mise en place d'un dispositif expérimental simple qui associe une lumière stroboscopique et un appareil photographique muni de bagues macros, nous avons pu accéder à l'observation fine des trains de bulles ainsi qu'à la détermination de la vitesse ascensionnelle des bulles. Les mesures expérimentales du rayon et de la vitesse d'une bulle nous ont permis de déterminer le coefficient de traînée d'une bulle montante qui constitue une mesure indirecte de son état de surface en termes de mobilité interfaciale. Ces mesures nous ont montré que l'interface d'une bulle de champagne conserve une grande mobilité interfaciale pendant sa phase ascensionnelle, à la différence des bulles de taille fixe qui montent dans une solution de macromolécules tensioactives. C'est la faible dilution du champagne en macromolécules tensioactives et le grossissement continu des bulles pendant l'ascension qui assurent aux bulles une faible contamination de leur interface. Pour comparaison, nous avons réalisé le même type de mesures sur des bulles de bière. Le contenu en macromolécules tensioactives étant beaucoup plus important dans une bière, l'effet de dilution du matériel tensioactif à la surface des bulles lié à l'accroissement de la surface des bulles ne compense plus l'adsorption massive des tensioactifs à la surface des bulles. Contrairement aux bulles du champagne, les bulles de bière adoptent vite un comportement de type sphère rigide. Nous avons également discuté l'influence relative de certains paramètres sur la taille des bulles lorsqu'elles parviennent en surface. Il a notamment été montré que le rôle théorique joué par la température du champagne sur la taille des bulles est quasiment négligeable. Pour finir, nous avons proposé d'essayer de faire du train de bulles une sorte d'empreinte digitale du liquide effervescent dans lequel il évolue en analysant la dynamique ascensionnelle des bulles via la mesure de leur coefficient de frottement. Nous avons pu différencier à ce jour par cette méthode trois grandes familles de boissons gazeuses : les vins effervescents au sens large (champagne compris), les bières et les eaux gazeuses. Éclatement En utilisant les techniques classiques de la macrophotographie, nous avons obtenu des instantanés de la situation qui suit immédiatement la rupture du mince film liquide qui constitue la partie émergée d'une bulle isolée en surface. Nous avons ainsi pu mettre en évidence l'existence des jets de liquide engendrés par les éclatements de bulle, et leur rupture en gouttelettes suite au développement très rapide de l'instabilité de Rayleigh-Plateau. En faisant un parallèle légitime entre le pétillement des bulles à la surface du champagne et le “pétillement de l'océan”, nous avons émis l'idée que les gouttelettes de jet étaient beaucoup plus concentrées en matériel tensioactif (et potentiellement aromatique) que le cœur de phase du liquide. Il semble donc que l'éclatement de bulles joue un rôle essentiel dans l'effet exhausteur d'arômes au cours de la dégustation d'un champagne. Pendant les quelques secondes qui suivent le versement du champagne dans la flûte, nous avons également réalisé des clichés macrophotographiques et des films à haute vitesse d'éclatements de bulles en monocouche (ou radeau de bulles). Les premiers résultats de ces observations font apparaître des déformations spectaculaires dans le film liquide des bulles premières voisines littéralement aspirées par succion capillaire dans la cavité laissée vacante par la bulle centrale en train d'éclater. Ces premières images suggèrent des contraintes, dans le mince film des bulles déformées, très supérieures à celles qui existent dans le sillage d'une bulle isolée qui éclate. Nous avons également pu mettre en évidence des différences structurales entre les jets de liquide qui suivent l'éclatement des bulles isolées et celles qui éclatent dans un radeau de bulles.
Ras activation by SOS: Allosteric regulation by altered fluctuation dynamics
Iversen, Lars; Tu, Hsiung-Lin; Lin, Wan-Chen; Christensen, Sune M.; Abel, Steven M.; Iwig, Jeff; Wu, Hung-Jen; Gureasko, Jodi; Rhodes, Christopher; Petit, Rebecca S.; Hansen, Scott D.; Thill, Peter; Yu, Cheng-Han; Stamou, Dimitrios; Chakraborty, Arup K.; Kuriyan, John; Groves, Jay T.
2014-01-01
Activation of the small guanosine triphosphatase H-Ras by the exchange factor Son of Sevenless (SOS) is an important hub for signal transduction. Multiple layers of regulation, through protein and membrane interactions, govern activity of SOS. We characterized the specific activity of individual SOS molecules catalyzing nucleotide exchange in H-Ras. Single-molecule kinetic traces revealed that SOS samples a broad distribution of turnover rates through stochastic fluctuations between distinct, long-lived (more than 100 seconds), functional states. The expected allosteric activation of SOS by Ras–guanosine triphosphate (GTP) was conspicuously absent in the mean rate. However, fluctuations into highly active states were modulated by Ras-GTP. This reveals a mechanism in which functional output may be determined by the dynamical spectrum of rates sampled by a small number of enzymes, rather than the ensemble average. PMID:24994643
HLPI-Ensemble: Prediction of human lncRNA-protein interactions based on ensemble strategy.
Hu, Huan; Zhang, Li; Ai, Haixin; Zhang, Hui; Fan, Yetian; Zhao, Qi; Liu, Hongsheng
2018-03-27
LncRNA plays an important role in many biological and disease progression by binding to related proteins. However, the experimental methods for studying lncRNA-protein interactions are time-consuming and expensive. Although there are a few models designed to predict the interactions of ncRNA-protein, they all have some common drawbacks that limit their predictive performance. In this study, we present a model called HLPI-Ensemble designed specifically for human lncRNA-protein interactions. HLPI-Ensemble adopts the ensemble strategy based on three mainstream machine learning algorithms of Support Vector Machines (SVM), Random Forests (RF) and Extreme Gradient Boosting (XGB) to generate HLPI-SVM Ensemble, HLPI-RF Ensemble and HLPI-XGB Ensemble, respectively. The results of 10-fold cross-validation show that HLPI-SVM Ensemble, HLPI-RF Ensemble and HLPI-XGB Ensemble achieved AUCs of 0.95, 0.96 and 0.96, respectively, in the test dataset. Furthermore, we compared the performance of the HLPI-Ensemble models with the previous models through external validation dataset. The results show that the false positives (FPs) of HLPI-Ensemble models are much lower than that of the previous models, and other evaluation indicators of HLPI-Ensemble models are also higher than those of the previous models. It is further showed that HLPI-Ensemble models are superior in predicting human lncRNA-protein interaction compared with previous models. The HLPI-Ensemble is publicly available at: http://ccsipb.lnu.edu.cn/hlpiensemble/ .
Wang, Nannan; Zhao, Xiaoning; Li, Yiran; Cheng, Congcong; Huai, Jiaxin; Bi, Kaishun; Dai, Ronghua
2018-06-01
To reveal the material basis of Huo Luo Xiao Ling Dan (HLXLD), a sensitive and selective ultra-high performance liquid chromatography coupled with quadrupole-time-of-flight mass spectrometry (UHPLC-Q-TOF/MS) method was developed to identify the absorbed components and metabolites in rat plasma after oral administration of HLXLD. The plasma samples were pretreated by liquid-liquid extraction and separated on a Shim-pack XR-ODS C 18 column (75 × 3.0 mm, 2.2 μm) using a gradient elution program. With the optimized conditions and single sample injection of each positive or negative ion mode, a total of 109 compounds, including 78 prototype compounds and 31 metabolites, were identified or tentatively characterized. The fragmentation patterns of representative compounds were illustrated as well. The results indicated that aromatization and hydration were the main metabolic pathways of lactones and tanshinone-related metabolites; demethylation and oxidation were the major metabolic pathways of alkaloid-related compounds; methylation and sulfation were the main metabolic pathways of phenolic acid-related metabolites. It is concluded the developed UHPLC-Q-TOF/MS method with high sensitivity and resolution is suitable for identifying and characterizing the absorbed components and metabolites of HLXLD, and the results will provide essential data for further studying the relationship between the chemical components and pharmacological activity of HLXLD. Copyright © 2018 John Wiley & Sons, Ltd.
NASA Astrophysics Data System (ADS)
Gautschi, Andreas
2001-01-01
As part of the Swiss programme for high-level radioactive-waste disposal, a Jurassic shale (Opalinus Clay) is being investigated as a potential host rock. Observations in clay pits and the results of a German research programme focusing on hazardous waste disposal have demonstrated that, at depths of 10-30 m, the permeability of the Opalinus Clay decreases by several orders of magnitude. Hydraulic tests in deeper boreholes (test intervals below 300 m) yielded hydraulic conductivities <10-12 m/s, even though joints and faults were included in some of the test intervals. These measurements are consistent with hydrogeological data from Opalinus Clay sections in ten tunnels in the Folded Jura of northern Switzerland. Despite extensive faulting, only a few indications of minor water inflow were encountered in more than 6,600 m of tunnel. All inflows were in tunnel sections where the overburden is less than 200 m. The hydraulic data are consistent with clay pore-water hydrochemical and isotopic data. The extensive hydrogeological data base - part of which derives from particularly unfavourable geological environments - provides arguments that advective transport through faults and joints is not a critical issue for the suitability of Opalinus Clay as a host rock for deep geological waste disposal. Résumé. Dans le cadre du programme suisse de stockage de déchets hautement radioactifs, une formation argileuse du Jurassique, l'argile à Opalinus, a été étudiée en tant que roche hôte potentielle. Des observations dans des cavités dans l'argile et les résultats du programme de recherche allemand consacré au stockage de déchets à risques ont démontré que, à des profondeur de 10 à 30 m, la perméabilité des argiles à Opalinus décroît de plusieurs ordres de grandeur. Des essais hydrauliques dans des forages plus profonds (intervalles de test á une profondeur de plus de 300 m) ont donné des conductivités hydrauliques inférieures à 10-12 m/s, même lorsque des fractures et des failles existaient dans certains des intervalles d'essais. Ces mesures sont conformes aux données hydrogéologiques tirées du recoupement des argiles à Opalinus par dix tunnels du Jura plissé du nord de la Suisse. Malgré une tectonique intense, peu de manifestations de faibles venues d'eau ont été rencontrées dans plus de 6600 m de tunnel. Toutes les venues d'eau se sont produites dans des sections de tunnel où le recouvrement est inférieur à 200 m. Les données hydrauliques sont en bon accord avec les données hydrochimiques et isotopiques de l'eau porale des argiles. En se basant sur le grand nombre de données hydrogéologiques, qui portent en partie sur les environnements géologiques particulièrement peu propices, on peut avancer que le transport advectif le long des failles et des fractures n'est pas un facteur susceptible de remettre en question le choix de l'argile à Opalinus comme roche hôte pour le stockage de déchets radioactifs en formation géologique profonde. Resúmen. Dentro del programa suizo de eliminación de residuos radiactivos de alta actividad, se está investigando la posibilidad de utilizar unos esquistos Jurásicos (Arcilla Opalina) como depósito geológico. Las observaciones efectuadas en pozos en arcilla y los resultados de un programa de estudio alemán sobre eliminación de residuos peligrosos han demostrado que, a profundidades de entre 10 y 30 m, la permeabilidad de la Arcilla Opalina decrece en varios órdenes de magnitud. Los ensayos hidráulicos realizados en sondeos más profundos (en intervalos situados a más de 300 m) proporcionaron conductividades hidráulicas inferiores a 10-12 m/s, pese a que algunos de los intervalos interceptaban juntas y fallas. Estas medidas son coherentes con los datos hidrogeológicos de las secciones de Arcilla Opalina existentes en 10 túneles del Jurásico Plegado, al norte de Suiza. A pesar de las fallas extensivas, apenas se hallaron indicios de entrada de agua en los más de 6.600 m de túnel. Todos los flujos tenían lugar en secciones del túnel que soportan sobrecargas inferiores a 200 m. Los datos hidráulicos son coherentes con los datos hidroquímicos e isotópicos del agua intersticial de las arcillas. Los abundantes datos hidrogeológicos -parte de los cuales proceden de medios particularmente desfavorables desde el punto de vista geológico- proporcionan argumentos de que el transporte advectivo a través de fallas y juntas no es un aspecto crítico en lo que respecta a la idoneidad de la Arcilla Opalina como almacenamiento geológico profundo de residuos.
Exploring the calibration of a wind forecast ensemble for energy applications
NASA Astrophysics Data System (ADS)
Heppelmann, Tobias; Ben Bouallegue, Zied; Theis, Susanne
2015-04-01
In the German research project EWeLiNE, Deutscher Wetterdienst (DWD) and Fraunhofer Institute for Wind Energy and Energy System Technology (IWES) are collaborating with three German Transmission System Operators (TSO) in order to provide the TSOs with improved probabilistic power forecasts. Probabilistic power forecasts are derived from probabilistic weather forecasts, themselves derived from ensemble prediction systems (EPS). Since the considered raw ensemble wind forecasts suffer from underdispersiveness and bias, calibration methods are developed for the correction of the model bias and the ensemble spread bias. The overall aim is to improve the ensemble forecasts such that the uncertainty of the possible weather deployment is depicted by the ensemble spread from the first forecast hours. Additionally, the ensemble members after calibration should remain physically consistent scenarios. We focus on probabilistic hourly wind forecasts with horizon of 21 h delivered by the convection permitting high-resolution ensemble system COSMO-DE-EPS which has become operational in 2012 at DWD. The ensemble consists of 20 ensemble members driven by four different global models. The model area includes whole Germany and parts of Central Europe with a horizontal resolution of 2.8 km and a vertical resolution of 50 model levels. For verification we use wind mast measurements around 100 m height that corresponds to the hub height of wind energy plants that belong to wind farms within the model area. Calibration of the ensemble forecasts can be performed by different statistical methods applied to the raw ensemble output. Here, we explore local bivariate Ensemble Model Output Statistics at individual sites and quantile regression with different predictors. Applying different methods, we already show an improvement of ensemble wind forecasts from COSMO-DE-EPS for energy applications. In addition, an ensemble copula coupling approach transfers the time-dependencies of the raw ensemble to the calibrated ensemble. The calibrated wind forecasts are evaluated first with univariate probabilistic scores and additionally with diagnostics of wind ramps in order to assess the time-consistency of the calibrated ensemble members.
NASA Astrophysics Data System (ADS)
Bahhou, J.; Alaoui Mhamdi, M.
1999-03-01
The diel changes of the biochemical composition of the phytoplankton were studied in the Idriss first reservoir (located on the Inaouen river at thirty Km from the city of Fes, Morrocco) during September 1994. Several biomass and metabolic indicators (proteins, carbohydrates, lipids, chlorophyll a and primary production) were assessed every fourth hour over tow days (7, 8 and 9 September). Since the Protein/Carbohydrates ratio (P/C) is largely recognised as a good integrator of the metabolic functions of the cells, we examined its distribution pattern concomitantly with aforementioned parameters. The results demonstrated enhanced P/C ratios clearly indicating that nutrients were sufficiently available for growth. In addition, this index showed a diel significant variation with levels higher in the night than in the day. Moreover, these results suggest that phytoplankton species during the night used the day-synthesised carbohydrates to insure the cell metabolic functioning. The P/C presents relatively high values in proposition to the ones that have been recorded in temperate regions, and seems to be related to azotic inputs of the Inaouen river. Dans le but de parfaire nos connaissances sur le fonctionnement du sous écosystème phytoplancton, nous nous sommes intéressés à étudier son cycle nycthéméral et son métabolisme cellulaire dans la retenue du barrage Idriss premier. Cette dernière, construite sur l'Oued Inaouène, est située à une trentaine de Km de la ville de Fès. Au cours de ce cycle, les prélèvements ont été effectués selon une séquence temporelle de 4 heures pendant 48 heures, les 7, 8 et 9 septembre 1994. L'étude de l'évolution des composantes biochimiques des cellules phytoplanctoniques à savoir les protéines, les glucides et les lipides a permis de mettre en évidence des variations nycthémérales importantes. Ces variations sont d'autant plus importantes que les variations spatiales observées entre les profondeurs. De plus, le rapport protéines/glucides (P/G), reconnu comme un bon indicateur de l'état physiologique des algues, présente des valeurs plus élevées la nuit que le jour au niveau du fond du lac. Ce résultat suggère que le phytoplancton utilise les produits de réserve synthétisés le jour pour assurer le fonctionnement métabolique des cellules. De plus, les valeurs de ce rapport sont relativement élevées par rapport à celle enregistrées dans les régions tempérés et semblent être liées aux ressources azotées du milieu en particulier les apports de l'Oued Inaouène.
NASA Astrophysics Data System (ADS)
Pellerin, Anne
2005-02-01
Le but de cette thèse était de développer et tester la technique de synthè;se spectrale évolutive aux longueurs d'onde de l'ultraviolet lointain. Jusquà récemment, cette technique n'était appliqué quà des données au-delà de 1200 Å. Le lancement du satellite FUSE en 1999 a permis d'explorer le domaine de l'ultraviolet lointain (900-1200 Å) avec une grande résolution spectrale. J'ai donc utilisé les spectres du satellite FUSE de 228 étoiles chaudes de type O et B, de 24 galaxies à sursauts de formation d'étoiles et de quatre galaxies Seyfert. Dans un premier temps, j'ai caractérisé le comportement des profils de raies stellaires en fonction du type spectral, de la classe de luminosité et de la métallicité des étoiles. Les raies O vi >>1031.9, 1037.6, S iv >>1062.7, 1073.0, 1073.5, P v>>1118.0, 1128.0 et C iii >1175.6 ont été identifiées comme étant des indicateurs stellaires potentiellement intéressants pour la synthèse spectrale. Le domaine de longueur d'onde inférieur à 1000 Å couvert par FUSEmontre aussi des signatures stellaires mais qui sont peu intéressantes pour la synthèse en raison de la contamination interstellaire. J'ai ensuite crééé; une bibliothèque de spectres FUSE qui a été intégrée au code de synthèse LavalSBafin de produire des spectres de synthèse dans l'ultraviolet lointain pour diverses populations stellaires théoriques. Il s'est avéré que les raies de P vet de C iii sont d'excellents indicateurs d'âge, de métallicité et de fonction de masse initiale de la population stellaire, tandis que les raies de O vi et de S ivne sont pas aussi efficaces. La comparaison des spectres FUSEde galaxies avec les spectres synthétiques a révèlé des âges entre 2.5 et 18 millions d'années pour un large éventail de métallicités. On trouve aussi une forte dominance du mode instantané de formation stellaire. Ce travail a aussi permis d'estimer quantitativement l'extinction interne et les masses stellaires impliquées dans les sursauts. La synthèse des raies de l'ultraviolet lointain s'est avérée beaucoup plus précise que la synthèse à > 1200 Å en raison de la résolution spectrale exceptionnelle de FUSE et parce que les raies stellaires n'ont pas de profils saturés, même aux métallicités élevées. Les propriétés physiques globales des 24 galaxies à sursauts ont aussi été étudiées dans leur ensemble afin de mieux décrire le phénomène des sursauts de formation stellaires.
MSEBAG: a dynamic classifier ensemble generation based on `minimum-sufficient ensemble' and bagging
NASA Astrophysics Data System (ADS)
Chen, Lei; Kamel, Mohamed S.
2016-01-01
In this paper, we propose a dynamic classifier system, MSEBAG, which is characterised by searching for the 'minimum-sufficient ensemble' and bagging at the ensemble level. It adopts an 'over-generation and selection' strategy and aims to achieve a good bias-variance trade-off. In the training phase, MSEBAG first searches for the 'minimum-sufficient ensemble', which maximises the in-sample fitness with the minimal number of base classifiers. Then, starting from the 'minimum-sufficient ensemble', a backward stepwise algorithm is employed to generate a collection of ensembles. The objective is to create a collection of ensembles with a descending fitness on the data, as well as a descending complexity in the structure. MSEBAG dynamically selects the ensembles from the collection for the decision aggregation. The extended adaptive aggregation (EAA) approach, a bagging-style algorithm performed at the ensemble level, is employed for this task. EAA searches for the competent ensembles using a score function, which takes into consideration both the in-sample fitness and the confidence of the statistical inference, and averages the decisions of the selected ensembles to label the test pattern. The experimental results show that the proposed MSEBAG outperforms the benchmarks on average.
Simulation studies of the fidelity of biomolecular structure ensemble recreation
NASA Astrophysics Data System (ADS)
Lätzer, Joachim; Eastwood, Michael P.; Wolynes, Peter G.
2006-12-01
We examine the ability of Bayesian methods to recreate structural ensembles for partially folded molecules from averaged data. Specifically we test the ability of various algorithms to recreate different transition state ensembles for folding proteins using a multiple replica simulation algorithm using input from "gold standard" reference ensembles that were first generated with a Gō-like Hamiltonian having nonpairwise additive terms. A set of low resolution data, which function as the "experimental" ϕ values, were first constructed from this reference ensemble. The resulting ϕ values were then treated as one would treat laboratory experimental data and were used as input in the replica reconstruction algorithm. The resulting ensembles of structures obtained by the replica algorithm were compared to the gold standard reference ensemble, from which those "data" were, in fact, obtained. It is found that for a unimodal transition state ensemble with a low barrier, the multiple replica algorithm does recreate the reference ensemble fairly successfully when no experimental error is assumed. The Kolmogorov-Smirnov test as well as principal component analysis show that the overlap of the recovered and reference ensembles is significantly enhanced when multiple replicas are used. Reduction of the multiple replica ensembles by clustering successfully yields subensembles with close similarity to the reference ensembles. On the other hand, for a high barrier transition state with two distinct transition state ensembles, the single replica algorithm only samples a few structures of one of the reference ensemble basins. This is due to the fact that the ϕ values are intrinsically ensemble averaged quantities. The replica algorithm with multiple copies does sample both reference ensemble basins. In contrast to the single replica case, the multiple replicas are constrained to reproduce the average ϕ values, but allow fluctuations in ϕ for each individual copy. These fluctuations facilitate a more faithful sampling of the reference ensemble basins. Finally, we test how robustly the reconstruction algorithm can function by introducing errors in ϕ comparable in magnitude to those suggested by some authors. In this circumstance we observe that the chances of ensemble recovery with the replica algorithm are poor using a single replica, but are improved when multiple copies are used. A multimodal transition state ensemble, however, turns out to be more sensitive to large errors in ϕ (if appropriately gauged) and attempts at successful recreation of the reference ensemble with simple replica algorithms can fall short.
NASA Astrophysics Data System (ADS)
Brahmi, Noura; Dhieb, Mohsen; Chedly Rabia, Mohamed
2018-05-01
La submersion marine est l'une des principales menaces qui pèsent sur les zones humides littorales de la péninsule du Cap Bon. Or, cette menace est amenée à se renforcer en raison du réchauffement climatique qui entraînera une élévation du niveau marin et vraisemblablement un renforcement de l'intensité des tempêtes et des cyclones tropicaux d'ici à l'horizon 2100. L'objectif a donc été d'évaluer la vulnérabilité de la lagune face à la submersion. Dans cette optique, après avoir identifié les enjeux liés à l'élévation du niveau de la mer pour la lagune, nous avons dressé une cartographie prévisionnelle des risques de submersion par l'intermédiaire d'une application cartographique basée sur une modélisation numérique de terrain et analysé les impacts potentiels de ce phénomène. La cartographie est donc amenée à devenir centrale pour l'étude de l'impact du risque de la submersion marine sur les lagunes côtières et la gestion de ces espaces dans les décennies à venir. La cartographie de l'aléa submersion marine a montré que l'ouverture épisodique de brèches lors des tempêtes pourrait entraîner la submersion de l'ensemble du domaine lagunaire et aurait un impact morphogénique essentiel. En effet, le phénomène d'une accélération de l'élévation du niveau marin et d'un renforcement des tempêtes génère le morcellement du cordon littoral qui sépare la lagune de la mer. Par ailleurs, les pertes de matériel sédimentaire pour la plage augmenteront, dans la mesure où, lors d'une tempête, une grande partie des matériaux déplacés par les vagues dans les étangs par submersion ou par ouverture d'une brèche, ne peut être récupérée par la suite. Tout ceci constitue un facteur d'accélération du recul ou de disparition de la plage déjà très érodée. Les impacts de cette submersion pourraient être importants en absence de mesures préventives. Elle aurait ainsi des répercussions profondes sur les systèmes naturels et environnementaux et sur la qualité de vie de la population locale.
Elahmadi, Brahim; Motiaa, Youssef; Hatim, Abdedaim Elghadbane; Atmani, Noureddine; Moutakillah, Younes; Wahid, Fouad Amal; Elbekkali, Youssef; Houssa, Mahdi Ait; Razine, Rachid; Boulahya, Abdelatif; Drissi, Mohammed
2015-01-01
Le ballon de contre pulsion intra-aortique (BCPIA) est fréquemment utilisé en chirurgie cardiaque, comme moyen d'assistance circulatoire en cas de bas débit cardiaque. Il est d'intérêt clinique de déterminer les facteurs pronostiques chez les patients porteurs d'un BCPIA en chirurgie cardiaque, et qui restent un sujet rarement élucidé dans la littérature. L'objectif de notre travail est de déterminer les facteurs prédictifs de morbi-mortalité chez les patients sous ballon de contre pulsion intraortique en périopératoire d'une chirurgie cardiaque. Il s'agit d'une étude rétrospective portant sur l'ensemble des patients opérés en chirurgie cardiaque sous circulation extracorporelle, et ayant bénéficiés de la mise en place d'un ballon de contre pulsion intra-aortique en périopératoire, au service de chirurgie cardiovasculaire de l'Hôpital Militaire Mohamed V de Rabat, entre le mois de janvier 2005 et le mois d'aout 20014. Soixante dix patients ont été inclus dans notre étude. En analyse univariée l'âge, la dyspnée de stade III et IV, l'insuffisance cardiaque, la présence d'un infarctus du myocarde, d'une coronaropathie mono et bitronculaire, les anomalies du doppler de trons supra-aortique et du membre inférieur, le caractère urgent de la chirurgie, la durée de la circulation extracorporelle, l'instabilité hémodynamique postopératoire, le saignement et l'insuffisance rénale postopératoire étaient statistiquement associés à une mortalité postopératoire élevée. La dyskinésie préopératoire et la sortie de circulation extracorporelle sous drogues étaient associées à une morbidité globale élevée. En analyse multi variée, seule l'âge, constituait un facteur de risque indépendant de mortalité dans notre série avec un Odds Ratio (OR): 1,89 ; un Intervalle de Confiance (IC) 95% de (1,52-4,97) et un p =0,045. Au terme de notre étude, le taux de mortalité était de 48,57% et de morbidité globale était de 87,1%. Il nous parait donc nécessaire pour diminuer l'incidence de cette morbimortalité dans notre population, d'agir sur les facteurs que nous jugeons modifiables tels l'amélioration de la fonction cardiaque préopératoire, l'optimisation de la fonction rénale, la réduction de la durée de CEC et le contrôle du saignement. PMID:26587158
DISCOURS QUI RÉSISTENT À L’OBJECTIVATION : QUE PEUT-ON EN TIRER POUR L’ÉVALUATION?
Brousselle, Astrid
2013-01-01
Résumé L’évaluateur doit porter attention aux distorsions qu’il contribue à créer lorsqu’il utilise l’entrevue comme méthode de collecte de données. L’évaluation est un exercice politique qui, placé dans un contexte politique, peut favoriser l’émergence de discours de résistance à l’objectivation. À partir des entrevues que nous avons effectuées lors de l’évaluation du processus d’implantation de l’initiative ONUSIDA d’accès aux médicaments au Chili, nous illustrons différentes tactiques que les acteurs utilisent et qui peuvent soit attirer la sympathie de l’évaluateur, soit faire obstacle à son besoin d’information. Nous présentons une méthode d’analyse que l’évaluateur peut utiliser pour redonner du sens aux discours de résistance. PMID:23997421
La carence en vitamine D chez l'adulte au Gabon: cas isolé ou problème méconnu?
Ntyonga-Pono, Marie-Pierrette
2014-01-01
La carence en vitamine D chez l'adulte est un sujet d'actualité à cause de ses multiples effets et de son extension de par le monde. Cependant elle est peu explorée au Gabon et en Afrique centrale en général. Le but de cet article qui rapporte trois cas documentés de carence en vitamine D chez l'adulte au Gabon, est d'attirer l'attention sur l'existence de ce problème même en zone équatoriale ensoleillée. Vu les implications de cette carence dans diverses pathologies osseuses, cardio-vasculaires, métaboliques, infectieuses, auto-immunes, néoplasiques..., des recherches plus approfondies sont nécessaires pour cerner le problème et prendre des mesures appropriées. PMID:25815104
Monthly ENSO Forecast Skill and Lagged Ensemble Size
DelSole, T.; Tippett, M.K.; Pegion, K.
2018-01-01
Abstract The mean square error (MSE) of a lagged ensemble of monthly forecasts of the Niño 3.4 index from the Climate Forecast System (CFSv2) is examined with respect to ensemble size and configuration. Although the real‐time forecast is initialized 4 times per day, it is possible to infer the MSE for arbitrary initialization frequency and for burst ensembles by fitting error covariances to a parametric model and then extrapolating to arbitrary ensemble size and initialization frequency. Applying this method to real‐time forecasts, we find that the MSE consistently reaches a minimum for a lagged ensemble size between one and eight days, when four initializations per day are included. This ensemble size is consistent with the 8–10 day lagged ensemble configuration used operationally. Interestingly, the skill of both ensemble configurations is close to the estimated skill of the infinite ensemble. The skill of the weighted, lagged, and burst ensembles are found to be comparable. Certain unphysical features of the estimated error growth were tracked down to problems with the climatology and data discontinuities. PMID:29937973
Monthly ENSO Forecast Skill and Lagged Ensemble Size
NASA Astrophysics Data System (ADS)
Trenary, L.; DelSole, T.; Tippett, M. K.; Pegion, K.
2018-04-01
The mean square error (MSE) of a lagged ensemble of monthly forecasts of the Niño 3.4 index from the Climate Forecast System (CFSv2) is examined with respect to ensemble size and configuration. Although the real-time forecast is initialized 4 times per day, it is possible to infer the MSE for arbitrary initialization frequency and for burst ensembles by fitting error covariances to a parametric model and then extrapolating to arbitrary ensemble size and initialization frequency. Applying this method to real-time forecasts, we find that the MSE consistently reaches a minimum for a lagged ensemble size between one and eight days, when four initializations per day are included. This ensemble size is consistent with the 8-10 day lagged ensemble configuration used operationally. Interestingly, the skill of both ensemble configurations is close to the estimated skill of the infinite ensemble. The skill of the weighted, lagged, and burst ensembles are found to be comparable. Certain unphysical features of the estimated error growth were tracked down to problems with the climatology and data discontinuities.
Generalized canonical ensembles and ensemble equivalence
DOE Office of Scientific and Technical Information (OSTI.GOV)
Costeniuc, M.; Ellis, R.S.; Turkington, B.
2006-02-15
This paper is a companion piece to our previous work [J. Stat. Phys. 119, 1283 (2005)], which introduced a generalized canonical ensemble obtained by multiplying the usual Boltzmann weight factor e{sup -{beta}}{sup H} of the canonical ensemble with an exponential factor involving a continuous function g of the Hamiltonian H. We provide here a simplified introduction to our previous work, focusing now on a number of physical rather than mathematical aspects of the generalized canonical ensemble. The main result discussed is that, for suitable choices of g, the generalized canonical ensemble reproduces, in the thermodynamic limit, all the microcanonical equilibriummore » properties of the many-body system represented by H even if this system has a nonconcave microcanonical entropy function. This is something that in general the standard (g=0) canonical ensemble cannot achieve. Thus a virtue of the generalized canonical ensemble is that it can often be made equivalent to the microcanonical ensemble in cases in which the canonical ensemble cannot. The case of quadratic g functions is discussed in detail; it leads to the so-called Gaussian ensemble.« less
Schram, Carrie A.
2012-01-01
Résumé Objectif Passer en revue le diagnostic des patients atteints de fibrose kystique (FK) atypique. Sources des données On a procédé à une recension exhaustive dans MEDLINE (de 1950 à la troisième semaine de mai 2009), dans MEDLINE In-Process and Other Non-Indexed Citations and Cases (de 1950 à la troisième semaine de 2009) et dans EMBASE (de 1980 à la quatrième semaine de mars 2009). On a aussi passé en revue le site web de Fibrose kystique Canada et on a consulté son plus récent rapport des inscriptions de données sur les patients. Message principal La FK atypique est une forme moins intense du trouble de la FK, qui est associée à des mutations du gène régulateur de la conductance transmembranaire de la fibrose kystique. Au lieu d’avoir les symptômes classiques, les personnes atteintes d’une FK atypique pourraient avoir une légère dysfonction d’un seul système organique et avoir ou non des concentrations de chlorure élevées dans la sueur. La FK atypique est un trouble très diversifié affectant différents systèmes organiques à divers degrés. Les symptômes du patient peuvent aussi fluctuer avec le temps; par ailleurs, certains signes et symptômes cliniques touchant les systèmes respiratoire, gastro-intestinal, endocrinien et métabolique et génito-urinaire devraient signaler aux médecins la possibilité d’une FK. Les patients atteints d’une FK atypique ont moins d’hospitalisations durant l’enfance que ceux qui ont une FK classique et le diagnostic peut passer inaperçu pendant de nombreuses années, parfois même jusqu’à l’âge adulte. Conclusion Même si les patients atteints d’une FK atypique ont une espérance de vie plus longue que les personnes atteintes de la forme classique, les issues à long terme pour de nombreuses personnes qui ont la forme atypique sont inconnues. Il est important de conseiller les patients à propos de la possibilité d’une manifestation future de la maladie. Renseigner les patients à propos de la FK peut les aider à comprendre leurs symptômes, à modifier leur mode de vie pour optimiser leur santé, à réduire l’incidence des complications et à recevoir au besoin du counseling sur la planification familiale.
NASA Astrophysics Data System (ADS)
Lebeuf, Martin
La production d'aluminium est une industrie importante au Québec. Les propriétés de ce métal le vouent à de multiples usages présents et futurs dans le cadre d'une économie moderne durable. Toutefois, le procédé Hall-Héroult est très énergivore et des progrès demeurent donc nécessaires pour en diminuer les coûts financiers et environnementaux. Parmi les améliorations envisageables de la cellule d'électrolyse se trouve le contact entre la cathode et la barre collectrice, qui doit offrir une faible résistivité au passage du courant électrique. En cours d'opération de la cellule, ce contact a tendance à se dégrader, générant des pertes énergétiques significatives. Les causes de cette dégradation, pouvant provenir de phénomènes chimiques, thermiques, mécaniques et/ou électriques, demeurent mal comprises. Le but du présent projet était donc d'étudier les phénomènes chimiques se produisant au contact bloc-barre de la cellule d'électrolyse Hall-Héroult. En premier lieu, un aspect crucial à considérer est la pénétration du bain électrolytique dans la cathode, car des composés de bain atteignent éventuellement la barre collectrice et peuvent y réagir. A cet effet, une méthode novatrice a été développée afin d'étudier les cathodes et la pénétration du bain dans celles-ci à l'aide de la microtomographie à rayons X. Cette méthode rapide et efficace s'est avérée fort utile dans le projet et a un potentiel important pour l'étude future des cathodes et des phénomènes qui s'y produisent. Ensuite, une cellule d'électrolyse rectangulaire à petite échelle a été développée. Plusieurs phénomènes observés 'en industrie sur des autopsies de cellules post-opération et rapportés dans la littérature ont été reproduis avec succès à l'aide de cette cellule expérimentale. Puis, des tests sans électrolyse, ciblant l'effet du bain électrolytique sur l'acier, ont aussi été conçus et complétés afin de ségréger l'influence des différents paramètres en jeu. L'analyse des résultats de l'ensemble de ces tests a permis de constater différents phénomènes au contact bloc-barre, dont la présence systématique de NaF et, surtout, de β-Al 2O3. Outre la carburation inévitable de la barre collectrice, la formation d'une couche Fe-Al a aussi été observée, favorisée par une pénétration rapide du bain électrolytique dans la cathode ainsi que par une composition de bain acide en surface de la barre. Cette couche comportait par ailleurs des cristaux de β-Al 2O3 pouvant nuire à sa conductivité électrique. Ensuite, à des ratios de bain entre 2.5 et 4.9, une mince couche contenant les éléments Al et N peut se former en surface de la barre. Pour un bain très basique (> 6.0), c'est plutôt une couche Na 2O qui a été observée. En conditions d'électrolyse mais sans une pénétration rapide du bain dans la cathode, du Na a pu carrément pénétrer dans la barre collectrice, préférentiellement avec le carbone. De plus, de la corrosion ainsi que des couches de fer et d'oxyde de fer peuvent se former sur la barre et potentiellement dégrader la qualité du contact électrique. Pour la suite des travaux, des mesures de résistivité ainsi que l'analyse des échantillons industriels permettraient d'évaluer l'impact de ces phénomènes sur la qualité du contact. Mots-clés : Électrolyse, aluminium, Hall-Héroult, interface barre-cathode, bain électrolytique.
NASA Astrophysics Data System (ADS)
Verkade, J. S.; Brown, J. D.; Reggiani, P.; Weerts, A. H.
2013-09-01
The ECMWF temperature and precipitation ensemble reforecasts are evaluated for biases in the mean, spread and forecast probabilities, and how these biases propagate to streamflow ensemble forecasts. The forcing ensembles are subsequently post-processed to reduce bias and increase skill, and to investigate whether this leads to improved streamflow ensemble forecasts. Multiple post-processing techniques are used: quantile-to-quantile transform, linear regression with an assumption of bivariate normality and logistic regression. Both the raw and post-processed ensembles are run through a hydrologic model of the river Rhine to create streamflow ensembles. The results are compared using multiple verification metrics and skill scores: relative mean error, Brier skill score and its decompositions, mean continuous ranked probability skill score and its decomposition, and the ROC score. Verification of the streamflow ensembles is performed at multiple spatial scales: relatively small headwater basins, large tributaries and the Rhine outlet at Lobith. The streamflow ensembles are verified against simulated streamflow, in order to isolate the effects of biases in the forcing ensembles and any improvements therein. The results indicate that the forcing ensembles contain significant biases, and that these cascade to the streamflow ensembles. Some of the bias in the forcing ensembles is unconditional in nature; this was resolved by a simple quantile-to-quantile transform. Improvements in conditional bias and skill of the forcing ensembles vary with forecast lead time, amount, and spatial scale, but are generally moderate. The translation to streamflow forecast skill is further muted, and several explanations are considered, including limitations in the modelling of the space-time covariability of the forcing ensembles and the presence of storages.
NASA Astrophysics Data System (ADS)
Nazé, Yaël
2009-04-01
Quelle que soit la civilisation à laquelle il appartient, l'être humain cherche dans le ciel des réponses aux questions qu'il se pose sur son origine, son avenir et sa finalité. Le premier mérite de ce livre est de nous rappeler que l'astronomie a commencé ainsi à travers les mythes célestes imaginés par les Anciens pour expliquer l'ordre du monde et la place qu'ils y occupaient. Mais les savoirs astronomiques passés étaient loin d'être négligeables et certainement pas limités aux seuls travaux des Grecs : c'est ce que l'auteur montre à travers une passionnante enquête, de Stonehenge à Gizeh en passant par Pékin et Mexico, fondée sur l'étude des monuments anciens et des sources écrites encore accessibles. Les tablettes mésopotamiennes, les annales chinoises, les chroniques médiévales, etc. sont en outre d'une singulière utilité pour les astronomes modernes : comment sinon remonter aux variations de la durée du jour au cours des siècles, ou percer la nature de l'explosion qui a frappé tant d'observateurs en 1054 ? Ce livre offre un voyage magnifiquement illustré à travers les âges, entre astronomie et archéologie.
A Theoretical Analysis of Why Hybrid Ensembles Work.
Hsu, Kuo-Wei
2017-01-01
Inspired by the group decision making process, ensembles or combinations of classifiers have been found favorable in a wide variety of application domains. Some researchers propose to use the mixture of two different types of classification algorithms to create a hybrid ensemble. Why does such an ensemble work? The question remains. Following the concept of diversity, which is one of the fundamental elements of the success of ensembles, we conduct a theoretical analysis of why hybrid ensembles work, connecting using different algorithms to accuracy gain. We also conduct experiments on classification performance of hybrid ensembles of classifiers created by decision tree and naïve Bayes classification algorithms, each of which is a top data mining algorithm and often used to create non-hybrid ensembles. Therefore, through this paper, we provide a complement to the theoretical foundation of creating and using hybrid ensembles.
Haberman, Jason; Brady, Timothy F; Alvarez, George A
2015-04-01
Ensemble perception, including the ability to "see the average" from a group of items, operates in numerous feature domains (size, orientation, speed, facial expression, etc.). Although the ubiquity of ensemble representations is well established, the large-scale cognitive architecture of this process remains poorly defined. We address this using an individual differences approach. In a series of experiments, observers saw groups of objects and reported either a single item from the group or the average of the entire group. High-level ensemble representations (e.g., average facial expression) showed complete independence from low-level ensemble representations (e.g., average orientation). In contrast, low-level ensemble representations (e.g., orientation and color) were correlated with each other, but not with high-level ensemble representations (e.g., facial expression and person identity). These results suggest that there is not a single domain-general ensemble mechanism, and that the relationship among various ensemble representations depends on how proximal they are in representational space. (c) 2015 APA, all rights reserved).
Chlorine-36 in groundwater of the United States: empirical data
NASA Astrophysics Data System (ADS)
Davis, Stanley; Moysey, Stephen; Cecil, DeWayne; Zreda, Marek
2002-11-01
Natural production of the radionuclide chlorine-36 (36Cl) has provided a valuable tracer for groundwater studies. The nuclear industry, especially the testing of thermonuclear weapons, has also produced large amounts of 36Cl that can be detected in many samples of groundwater. In order to be most useful in hydrologic studies, the natural production prior to 1952 should be distinguished from more recent artificial sources. The object of this study was to reconstruct the probable preanthropogenic levels of 36Cl in groundwater in the United States. Although significant local variations exist, they are superimposed on a broad regional pattern of 36Cl/Cl ratios in the United States. Owing to the influence of atmospherically transported ocean salt, natural ratios of 36Cl/total Cl are lowest near the coast and increase to a maximum in the central Rocky Mountains of the United States. Résumé. La production naturelle du radionucléide chlore-36 (36Cl) fournit un intéressant traceur pour l'étude des eaux souterraines. L'industrie nucléaire, en particulier les essais de bombes thermonucléaires, a également produit de grandes quantités de 36Cl qui a pu être détecté dans de nombreux échantillons d'eau souterraine. Afin d'en améliorer l'usage dans les études hydrologiques, la production naturelle avant 1952 doit être distinguée des sources artificielles plus récentes. L'objectif de cette étude a été la reconstruction des niveaux probables de 36Cl dans les eaux souterraines des États-Unis, avant la production anthropique du 36Cl. Bien qu'il existe des variations locales significatives, elles se surimposent à un canevas régional de rapports 36Cl/Cl dans les États-Unis. Du fait de l'influence du sel océanique transporté dans l'atmosphère, les rapports naturels de 36Cl/Cl total sont plus faibles près de la côte et augmentent jusqu'à un maximum dans les Montagnes Rocheuses centrales des États-Unis. Resumen. La producción natural del radionucleido cloro-36 (36Cl) representa un trazador valioso para estudios de hidrogeología. La industria nuclear, sobretodo por los ensayos con armas nucleares, también ha producido grandes cantidades de 36Cl que pueden ser detectadas en muchas muestras de aguas subterráneas. Para que sean lo más útiles posible en estudios hidrológicos, la producción natural anterior al año 1952 debe ser diferenciada de la procedente de fuentes artificiales más recientes. El objeto de este estudio era la reconstrucción de los niveles probables de 36Cl en las aguas subterráneas de los Estados Unidos de América con anterioridad a las aportaciones de origen antrópico. Aunque existen variaciones locales significativas, éstas se superponen a un extenso patrón regional de la relación 36Cl/Cl en el país. Debido a la influencia de la sal transportada en los aerosoles marinos, las proporciones naturales de 36Cl/Cl total son menores cerca de la costa, y alcanzan su máximo en el centro de las Montañas Rocosas.
National Centers for Environmental Prediction
Ensemble Users Meetings 7th NCEP/NWS Ensemble User Workshop 13-15 June 2016 6th NCEP/NWS Ensemble User Workshop 25 - 27 March 2014 5th NCEP/NWS Ensemble User Workshop 10 - 12 May, 2011 4th NCEP/NWS Ensemble User Workshop 13 - 15 May, 2008 3rd NCEP/NWS Ensemble User Workshop 31 Oct - 2 Nov, 2006 2nd NCEP/NWS
On the generation of climate model ensembles
NASA Astrophysics Data System (ADS)
Haughton, Ned; Abramowitz, Gab; Pitman, Andy; Phipps, Steven J.
2014-10-01
Climate model ensembles are used to estimate uncertainty in future projections, typically by interpreting the ensemble distribution for a particular variable probabilistically. There are, however, different ways to produce climate model ensembles that yield different results, and therefore different probabilities for a future change in a variable. Perhaps equally importantly, there are different approaches to interpreting the ensemble distribution that lead to different conclusions. Here we use a reduced-resolution climate system model to compare three common ways to generate ensembles: initial conditions perturbation, physical parameter perturbation, and structural changes. Despite these three approaches conceptually representing very different categories of uncertainty within a modelling system, when comparing simulations to observations of surface air temperature they can be very difficult to separate. Using the twentieth century CMIP5 ensemble for comparison, we show that initial conditions ensembles, in theory representing internal variability, significantly underestimate observed variance. Structural ensembles, perhaps less surprisingly, exhibit over-dispersion in simulated variance. We argue that future climate model ensembles may need to include parameter or structural perturbation members in addition to perturbed initial conditions members to ensure that they sample uncertainty due to internal variability more completely. We note that where ensembles are over- or under-dispersive, such as for the CMIP5 ensemble, estimates of uncertainty need to be treated with care.
Assimilator Ensemble Post-processor (EnsPost) Hydrologic Model Output Statistics (HMOS) Ensemble Verification capabilities (see diagram below): the Ensemble Pre-processor, the Ensemble Post-processor, the Hydrologic Model (OpenDA, http://www.openda.org/joomla/index.php) to be used within the CHPS environment. Ensemble Post
Molecular kinetics. Ras activation by SOS: allosteric regulation by altered fluctuation dynamics.
Iversen, Lars; Tu, Hsiung-Lin; Lin, Wan-Chen; Christensen, Sune M; Abel, Steven M; Iwig, Jeff; Wu, Hung-Jen; Gureasko, Jodi; Rhodes, Christopher; Petit, Rebecca S; Hansen, Scott D; Thill, Peter; Yu, Cheng-Han; Stamou, Dimitrios; Chakraborty, Arup K; Kuriyan, John; Groves, Jay T
2014-07-04
Activation of the small guanosine triphosphatase H-Ras by the exchange factor Son of Sevenless (SOS) is an important hub for signal transduction. Multiple layers of regulation, through protein and membrane interactions, govern activity of SOS. We characterized the specific activity of individual SOS molecules catalyzing nucleotide exchange in H-Ras. Single-molecule kinetic traces revealed that SOS samples a broad distribution of turnover rates through stochastic fluctuations between distinct, long-lived (more than 100 seconds), functional states. The expected allosteric activation of SOS by Ras-guanosine triphosphate (GTP) was conspicuously absent in the mean rate. However, fluctuations into highly active states were modulated by Ras-GTP. This reveals a mechanism in which functional output may be determined by the dynamical spectrum of rates sampled by a small number of enzymes, rather than the ensemble average. Copyright © 2014, American Association for the Advancement of Science.
Project fires. Volume 2: Protective ensemble performance standards, phase 1B
NASA Astrophysics Data System (ADS)
Abeles, F. J.
1980-05-01
The design of the prototype protective ensemble was finalized. Prototype ensembles were fabricated and then subjected to a series of qualification tests which were based upon the protective ensemble performance standards PEPS requirements. Engineering drawings and purchase specifications were prepared for the new protective ensemble.
Ensemble training to improve recognition using 2D ear
NASA Astrophysics Data System (ADS)
Middendorff, Christopher; Bowyer, Kevin W.
2009-05-01
The ear has gained popularity as a biometric feature due to the robustness of the shape over time and across emotional expression. Popular methods of ear biometrics analyze the ear as a whole, leaving these methods vulnerable to error due to occlusion. Many researchers explore ear recognition using an ensemble, but none present a method for designing the individual parts that comprise the ensemble. In this work, we introduce a method of modifying the ensemble shapes to improve performance. We determine how different properties of an ensemble training system can affect overall performance. We show that ensembles built from small parts will outperform ensembles built with larger parts, and that incorporating a large number of parts improves the performance of the ensemble.
A Theoretical Analysis of Why Hybrid Ensembles Work
2017-01-01
Inspired by the group decision making process, ensembles or combinations of classifiers have been found favorable in a wide variety of application domains. Some researchers propose to use the mixture of two different types of classification algorithms to create a hybrid ensemble. Why does such an ensemble work? The question remains. Following the concept of diversity, which is one of the fundamental elements of the success of ensembles, we conduct a theoretical analysis of why hybrid ensembles work, connecting using different algorithms to accuracy gain. We also conduct experiments on classification performance of hybrid ensembles of classifiers created by decision tree and naïve Bayes classification algorithms, each of which is a top data mining algorithm and often used to create non-hybrid ensembles. Therefore, through this paper, we provide a complement to the theoretical foundation of creating and using hybrid ensembles. PMID:28255296
On the predictability of outliers in ensemble forecasts
NASA Astrophysics Data System (ADS)
Siegert, S.; Bröcker, J.; Kantz, H.
2012-03-01
In numerical weather prediction, ensembles are used to retrieve probabilistic forecasts of future weather conditions. We consider events where the verification is smaller than the smallest, or larger than the largest ensemble member of a scalar ensemble forecast. These events are called outliers. In a statistically consistent K-member ensemble, outliers should occur with a base rate of 2/(K+1). In operational ensembles this base rate tends to be higher. We study the predictability of outlier events in terms of the Brier Skill Score and find that forecast probabilities can be calculated which are more skillful than the unconditional base rate. This is shown analytically for statistically consistent ensembles. Using logistic regression, forecast probabilities for outlier events in an operational ensemble are calculated. These probabilities exhibit positive skill which is quantitatively similar to the analytical results. Possible causes of these results as well as their consequences for ensemble interpretation are discussed.
Cant, Jonathan S; Xu, Yaoda
2017-02-01
Our visual system can extract summary statistics from large collections of objects without forming detailed representations of the individual objects in the ensemble. In a region in ventral visual cortex encompassing the collateral sulcus and the parahippocampal gyrus and overlapping extensively with the scene-selective parahippocampal place area (PPA), we have previously reported fMRI adaptation to object ensembles when ensemble statistics repeated, even when local image features differed across images (e.g., two different images of the same strawberry pile). We additionally showed that this ensemble representation is similar to (but still distinct from) how visual texture patterns are processed in this region and is not explained by appealing to differences in the color of the elements that make up the ensemble. To further explore the nature of ensemble representation in this brain region, here we used PPA as our ROI and investigated in detail how the shape and surface properties (i.e., both texture and color) of the individual objects constituting an ensemble affect the ensemble representation in anterior-medial ventral visual cortex. We photographed object ensembles of stone beads that varied in shape and surface properties. A given ensemble always contained beads of the same shape and surface properties (e.g., an ensemble of star-shaped rose quartz beads). A change to the shape and/or surface properties of all the beads in an ensemble resulted in a significant release from adaptation in PPA compared with conditions in which no ensemble feature changed. In contrast, in the object-sensitive lateral occipital area (LO), we only observed a significant release from adaptation when the shape of the ensemble elements varied, and found no significant results in additional scene-sensitive regions, namely, the retrosplenial complex and occipital place area. Together, these results demonstrate that the shape and surface properties of the individual objects comprising an ensemble both contribute significantly to object ensemble representation in anterior-medial ventral visual cortex and further demonstrate a functional dissociation between object- (LO) and scene-selective (PPA) visual cortical regions and within the broader scene-processing network itself.
Hung, Wei-Ting; Wu, Fang-Ju; Wang, Chun-Jen; Luo, Ching-Wei
2012-05-01
Although differential screening-selected gene aberrative in neuroblastoma (DAN, official symbol NBL1) is the founding member of the DAN subfamily of bone morphogenetic protein (BMP) antagonists, its antagonizing targets, gene regulation, and physiological functions remain unclear. Using diverse cell expression systems, we found that the generation of bioactive DAN is likely to be cell type specific. Unlike other phylogenetically close members, which are covalently linked homodimers, DAN forms a noncovalently linked homodimer during folding. Purified recombinant DAN specifically blocked signaling of BMP2 and BMP4 but not that of other ovarian-expressed transforming growth factor-beta members. Although widely distributed in many organs, DAN transcript level was periodically regulated by gonadotropins. Ovarian microdissection indicated that NBL1 (DAN) mRNA is mainly expressed in granulosa cells, where its transcript level is up-regulated by the gonadotropin-driven cAMP cascade. We further investigated the local regulation and ovarian functions of DAN. NBL1 (DAN) mRNA expression in granulosa cells was up-regulated by oocyte-derived growth differentiation factor 9 (GDF9), whereas treatment with DAN significantly reversed the inhibitory effect of BMP4 on follicle-stimulating hormone-induced progesterone production in cultured granulosa cells. Our findings suggest the DAN gradient in granulosa cells, established by oocyte-derived GDF9, may serve as an antagonist barrier that modulates the actions of theca-derived BMP4 and granulosa/theca-derived BMP2 during folliculogenesis both spatially and temporally.
Rathwell-Deault, Dominick; Godard, Béatrice; Frank, Diane; Ravel, André; Doizé, Béatrice
2017-01-01
Résumé L’euthanasie de convenance des animaux de compagnie représente un dilemme auquel sont confrontés les vétérinaires travaillant dans le domaine des animaux de compagnie au Québec. De par leur formation comme professionnels de la santé, les vétérinaires sont formés pour soigner les animaux qui leur sont présentés. Il est donc facile d’envisager que le fait d’euthanasier des animaux sains provoque un dilemme moral au sein de la profession. Les balises réglementaires entourant cette pratique se concentrent sur la méthode employée, mais ne sont pas impératives sur la légitimité des circonstances qui devraient entourer les demandes d’euthanasie. À ce jour peu d’écrits sur le sujet au sein de la littérature sont disponibles et la voix des vétérinaires y est peu décrite. Cet article présente les résultats obtenus suite à une étude menée auprès des vétérinaires québécois. Pour ce faire, un sondage en ligne a été effectué et portait sur la vision des vétérinaires concernant l’euthanasie de convenance, sur les conséquences découlant de cet acte et sur les pistes de solutions envisageables par la profession pour améliorer la situation de l’euthanasie de convenance. Les données recueillies ont permis de mettre de l’avant la dualité d’allégeance à laquelle les vétérinaires doivent faire face dans ce dilemme. D’une part, les vétérinaires reconnaissent que l’euthanasie de convenance va à l’encontre du bien-être animal et d’autre part ils reconnaissent qu’ils doivent respecter le droit décisionnel du propriétaire de se départir de son animal en demandant son euthanasie. PMID:28878419
Isotopic micro generators 1 volt; Les microgenerateurs radioisotopiques 1 volt (in French)
DOE Office of Scientific and Technical Information (OSTI.GOV)
Bomal, R.; Devin, B.; Delaquaize, P.
1969-07-01
Various configurations for electrical isotopic generators in the milliwatt range are investigated; these generators are not of the classical thermoelectric type. The four following energy conversion method are examined : thermionic, thermo-photovoltaic, radio-voltaic, wired thermoelectric. The calculus has been conducted having in view not the best energy conversion efficiency, but the need to attain directly 1 volt output voltage. High temperature {sup 238}Pu sources (T above 1000 ) are isolated by multi layer thermal insulation material of the Moly/Alumina type. Optimised application is given for number 1 and 2 here above. Thermionic is interesting by its compactness and Wired-thermoelectric ismore » cheap, simple and rugged. Both method do not allow to extend output voltage range far above 1 volt. TPV and RV, can be designed for multi volt application. Radio-voltaic is 1 per cent efficient but irradiation defects in the semiconductor induced by high energy radiations can strongly limit the lifetime of the generator. Isotope sources technology is the determining factor for these micro generators. (author) [French] Cette etude examine les types de generateurs electriques realisables a partir de sources isotopiques en dehors du procede thermoelectrique classique. Les quatre procedes suivants sont examines: thermoionique, thermophoto-voltaique, radiovoltaique, thermoelectrique a fils. Les calculs sont conduits sans souci exagere du rendement de conversion pour aboutir a une puissance electrique delivree de 0,2 a 1 mW sous une tension au moins egale a 1 volt. Le probleme des sources thermiques de {sup 238}Pu a haute temperature (T > 1000 C) est resolu avec une isolation a structure multi-couche moly-alumine. L'optimalisation est calculee en vue d'une utilisation dans les procedes 1 et 2. Le procede 1 est interessant par sa compacite et le procede 4 par sa simplicite, sa robustesse et son prix de revient; mais avec ces deux generateurs on ne peut obtenir plus d'un volt en charge. Les procedes 2 et 3 peuvent delivrer des tensions de plusieurs volts. Le radiovoltaique donne des rendements de 1 pour cent, mais la creation de defauts dans le reseau cristallin du semiconducteur avec les particules de grande energie peut limiter son utilisation. Les performances de ces differents modes de conversion sont conditionnees avant tout par les technologies des sources isotopiques. (auteur)« less
Ouédraogo, Solange Odile Yugbaré; Yougbaré, Nestor; Kouéta, Fla; Dao; Ouédraogo, Moussa; Lougué, Claudine; Ludovic, Kam; Traoré, Ramata Ouédraogo; Yé, Diarra
2015-01-01
Introduction Il s'agit d'analyser la prise en charge du nouveau-né dans le cadre de la stratégie na-tionale de subvention des accouchements et des soins obstétricaux et néonatals d'urgence mis en place par le gouvernement du Burkina Faso en 2006. Méthodes Nous avons menée une étude à visée descriptive et analytique comportant un volet ré-trospectif du 01 janvier 2006 au 31 décembre 2010 portant sur les paramètres épidémiologiques, cliniques des nouveau-nés hospitalisés et un volet prospectif du 3 octobre 2011 au 29 février 2012 par une entrevue des accompagnateurs des nouveau-nés et des prestataires des services de santé. Résultats Les hospitalisations ont augmenté de 43,65% entre 2006 à 2010 Le taux de mortalité néo-natale hospitalière qui était de 11,04% a connu une réduction moyenne annuelle de 3,95%. L'entrevue a porté sur 110 accompagnateurs et 76 prestataires. La majorité des prestataires (97,44%) et des ac-compagnateurs (88,18%) étaient informés de la stratégie mais n'avait pas une connaissance exacte de sa définition. Les prestataires (94,74%) ont signalé des ruptures de médicaments, consommables médicaux et des pannes d’ appareils de laboratoire et d'imagerie. Parmi les accompagnateurs (89%) disaient être satisfaits des services offerts et (72,89%) trouvaient les coûts abordables mais évoquaient les difficultés du transport. Conclusion: La subvention a amélioré la prise en charge du nou-veau-né mais son optimisation nécessiterait une meilleur information et implication de tous les acteurs. Conclusion La subvention a amélioré la prise en charge du nouveau-né mais son optimisation nécessiterait une meilleur information et implication de tous les acteurs. PMID:26161166
Le premier examen gynécologique idéal imaginé par les jeunes filles
Freyens, Anne; Dejeanne, Mélanie; Fabre, Elise; Rouge-Bugat, Marie-Eve; Oustric, Stéphane
2017-01-01
Résumé Objectif Explorer les représentations sur l’examen gynécologique (EG) et identifier les critères nécessaires à son bon déroulement chez des adolescentes n’ayant pas encore vécu cet examen. Type d’étude Enquête qualitative par entrevues semi-dirigées. Contexte Midi-Pyrénées (France) et Auvergne (France). Participants Jeunes filles de 15 à 19 ans qui n’ayant pas vécu l’EG. Méthodes Le mode de recrutement de l’échantillon a été double : sélection des jeunes filles par la technique boule-de-neige et sélection par la technique d’échantillonnage ciblé jusqu’à l’obtention de la saturation des données tout en cherchant la variation maximale dans les profils des sujets. Les questions ouvertes portaient sur les sources d’informations, les connaissances, les critères de bon déroulement et l’imaginaire autour de l’EG. Le verbatim a fait l’objet d’une analyse longitudinale immédiate rassemblant le contexte (notes des chercheurs) et les idées principales de l’entretien. Une analyse transversale thématique a été réalisée. Principales constatations Une méconnaissance générale des jeunes filles sur l’EG entretenait l’imaginaire autour de cet examen perçu comme obligatoire. L’EG idéal, selon les jeunes filles interrogées, aurait lieu chez une jeune fille qui se sentirait prête, informée préalablement, pouvant être accompagnée selon son souhait. Cet examen se déroulerait dans un environnement chaleureux et confortable afin de diminuer le sentiment de vulnérabilité. La qualité du lien avec le médecin conditionnerait l’acceptation de cet examen par les jeunes filles. Conclusion Une consultation dédiée à l’information, préalable à la consultation où a lieu l’EG, permettrait de diminuer les appréhensions, d’améliorer les connaissances des jeunes filles et de favoriser le bon déroulement du futur premier EG tant pour le médecin que pour la patiente. PMID:28807971
Somé, J.F.; Desclaux, A.; Ky-Zerbo, O.; Lougué, M.; Kéré, S.; Obermeyer, C.; Simaga, F.
2014-01-01
Objectifs l’augmentation du taux de personnes qui connaissent leur statut VIH est un impératif, notamment en Afrique subsaharienne, ce qui impose d’évaluer les stratégies utilisées pour accroître la fréquentation des services de dépistage. Cet article vise à faire le bilan de la pertinence, de la faisabilité et de l’efficacité des campagnes nationales de dépistagemenées entre 2006 et 2010 au Burkina Faso. Méthodologie une analyse de toutes les données de fréquentation du conseil dépistage sur cette période a été faite, couplée à des entretiens avec les principaux acteurs intervenant dans le dépistage. Résultats les résultats montrent que les huit campagnes de dépistage organisées sur la période ont permis à 487 727 personnes de faire leur test VIH. Ce nombre représente 50 % du nombre total de personnes ayant fait leur test et contribue à hauteur de 24,6 % au dépistage des personnes séropositives identifiées au cours de cette période. Les campagnes ont touché des populations difficiles à atteindre (en particulier les jeunes), à un coût moindre. Conclusions cette stratégie est donc pertinente pour identifier les personnes VIH+. Son intérêt pour la prévention, important selon les soignants et au vu des populations jeunes qui y participent, devrait être mesuré par des études complémentaires. Les campagnes sont efficaces et coût-efficaces même dans un pays de niveau de prévalence faible. Ces résultats soulignent l’intérêt de la synergie entre les associations et les services de santé dans l’offre de services de conseil et dépistage. PMID:24681563
Connell, Raewyn
2017-08-01
This reflection on the relevance of sociology starts with the different forms of social knowledge, and some autobiographical reflection on my engagement with the discipline. A research-based social science is made urgent by the prevalence of distortion and pseudoscience in the public realm. However, the research-based knowledge formation is embedded in a global economy of knowledge that centers on a privileged group of institutions and produces major imbalances on a world scale. Sociological data collection has important uses in policy and public discussion. But data need to be embedded in a larger project of understanding the world; this is what gives excitement to the work. Sociology has a potential future of marginality or triviality in the neoliberal economy and its university system. There are better trajectories into the future-but they have to be fought for. Cette réflexion sur l'utilité de la sociologie commence avec les différentes formes de savoir social, ainsi que quelques réflexions biographiques sur mon engagement avec la discipline. Le besoin d'une science sociale orientée vers la recherche est devenue nécessaire suite à la prédominance de la distorsion et de la pseudoscience dans la sphère publique. Par contre, ce savoir centré sur la recherche est lié à une économie globale de la connaissance qui est proche d'un groupe privilégié d'institutions et produit des déséquilibres majeurs au niveau mondial. La collecte de données sociologiques a une grande utilité en politique et dans les discussions publiques. Mais ces données doivent être liées à un projet plus large de compréhension du monde ; c'est ce qui rend ce travail excitant. La sociologie risque la marginalisation ou la trivialité dans une économie néo-libérale et son système universitaire. Il existe de meilleures trajectoires pour l'avenir - mais elles doivent être défendues. © 2017 Canadian Sociological Association/La Société canadienne de sociologie.
Kangulu, Ignace Bwana; Umba, Elie Kilolo Ngoy; Nzaji, Michel Kabamba; Kayamba, Prosper Kalenga Mwenze
2014-01-01
Introduction Le faible poids de naissance constitue un problème majeur de santé publique, aussi bien dans les pays développés que dans les pays en développement, de par son ampleur et sa forte association avec la morbidité et la mortalité infantiles. Méthodes Il s’agit d’une étude cas-témoins rétrospective menée sur les différents facteurs de risque de faible poids de naissance(FPN) en milieu semi-rural de Kamina chez les accouchées et leurs nouveau-nés respectifs enregistrés de la période allant de janvier 2009 à décembre 2010. Résultats Cette étude a répertorié 69 cas des nouveau-nés de FPN sur 483 accouchements enregistrés (14,3%). Les facteurs associés au FPN déterminés dans ce travail sont l’âge maternel inférieur à 18 ans (OR=7,62, IC=3.46-16.8) et supérieur à 35 ans (OR=2,04;IC=0.91-4.46), la primiparité(OR=2,48;IC=1.18-5.21) et le non suivi des consultations prénatales (OR=5,50;IC=2.00-15.03), la prématurité avec grossesse âgée de moins de 37 semaines d’aménorrhée, la grossesse multiple (OR=30,94) et le sexe féminin du nouveau-né. Conclusion Cette étude a démontré que l’âge maternel inférieur à 18 ans et supérieur à 35 ans, le non suivi des consultations prénatales, la primiparité et la prématurité, la grossesse multiple et le sexe féminin du nouveau-né sont les facteurs associés au faible poids de naissance. PMID:25237417
Approche à la lymphogranulomatose vénérienne
O’Byrne, Patrick; MacPherson, Paul; DeLaplante, Stephane; Metz, Gila; Bourgault, Andree
2016-01-01
Résumé Objectif Revoir la littérature sur la lymphogranulomatose vénérienne (LGV) donner un aperçu des lignes directrices de pratique clinique et en discuter. Sources d’information Les mots-clés Chlamydia trachomatis et lymphogranuloma venereum (en anglais) ont séparément fait l’objet d’une recherche dans PubMed. Des études empiriques, revues pratiques et lignes directrices de pratique clinique ont été incluses. Toutes les listes de références ont été examinées pour relever d’autres articles. Message principal Depuis 2003, la LGV refait surface dans de nombreux pays occidentaux, y compris au Canada parmi les hommes ayant des relations sexuelles avec des hommes. Bien que la LGV soit un sérotype de Chlamydia trachomatis (sérotype L), elle peut envahir les ganglions lymphatiques régionaux, et donc se manifester par des symptômes qui diffèrent de ceux des autres sous-types de chlamydia (sérotypes A à K). En particulier, la LGV consiste en 3 phases : papule ou ulcère non douloureux au point d’inoculation; envahissement des ganglions lymphatiques régionaux, pouvant se manifester par un syndrome inguinal or rectal; et destruction irréversible du tissu lymphatique. Les sérotypes A à K de chlamydia, quant à eux, produisent exclusivement des infections superficielles de la muqueuse. La lymphogranulomatose vénérienne nécessite aussi un schéma thérapeutique différent de celui pour les autres sérotypes de chlamydia. Conclusion À la lumière de la résurgence actuelle de la LGV, de ses symptômes et de son évolution clinique uniques, et de la nécessité d’un traitement qui diffère de celui des autres sérotypes de chlamydia, il importe que les fournisseurs de soins de première ligne reconnaissent quand il faut inclure la LGV dans le diagnostic différentiel.
Rethinking the Default Construction of Multimodel Climate Ensembles
Rauser, Florian; Gleckler, Peter; Marotzke, Jochem
2015-07-21
Here, we discuss the current code of practice in the climate sciences to routinely create climate model ensembles as ensembles of opportunity from the newest phase of the Coupled Model Intercomparison Project (CMIP). We give a two-step argument to rethink this process. First, the differences between generations of ensembles corresponding to different CMIP phases in key climate quantities are not large enough to warrant an automatic separation into generational ensembles for CMIP3 and CMIP5. Second, we suggest that climate model ensembles cannot continue to be mere ensembles of opportunity but should always be based on a transparent scientific decision process.more » If ensembles can be constrained by observation, then they should be constructed as target ensembles that are specifically tailored to a physical question. If model ensembles cannot be constrained by observation, then they should be constructed as cross-generational ensembles, including all available model data to enhance structural model diversity and to better sample the underlying uncertainties. To facilitate this, CMIP should guide the necessarily ongoing process of updating experimental protocols for the evaluation and documentation of coupled models. Finally, with an emphasis on easy access to model data and facilitating the filtering of climate model data across all CMIP generations and experiments, our community could return to the underlying idea of using model data ensembles to improve uncertainty quantification, evaluation, and cross-institutional exchange.« less
Aw, Brian; Boraston, Suni; Botten, David; Cherniwchan, Darin; Fazal, Hyder; Kelton, Timothy; Libman, Michael; Saldanha, Colin; Scappatura, Philip; Stowe, Brian
2014-01-01
Résumé Objectif Définir la pratique de la médecine des voyages, présenter les éléments fondamentaux d’une consultation complète préalable aux voyages à des voyageurs internationaux et aider à identifier les patients qu’il vaudrait mieux envoyer en consultation auprès de professionnels de la médecine des voyages. Sources des données Les lignes directrices et les recommandations sur la médecine des voyages et les maladies liées aux voyages publiées par les autorités sanitaires nationales et internationales ont fait l’objet d’un examen. Une recension des ouvrages connexes dans MEDLINE et EMBASE a aussi été effectuée. Message principal La médecine des voyages est une spécialité très dynamique qui se concentre sur les soins préventifs avant un voyage. Une évaluation exhaustive du risque pour chaque voyageur est essentielle pour mesurer avec exactitude les risques particuliers au voyageur, à son itinéraire et à sa destination et pour offrir des conseils sur les interventions les plus appropriées en gestion du risque afin de promouvoir la santé et prévenir les problèmes médicaux indésirables durant le voyage. Des vaccins peuvent aussi être nécessaires et doivent être personnalisés en fonction des antécédents d’immunisation du voyageur, de son itinéraire et du temps qu’il reste avant son départ. Conclusion La santé et la sécurité d’un voyageur dépendent du degré d’expertise du médecin qui offre le counseling préalable à son voyage et les vaccins, au besoin. On recommande à ceux qui donnent des conseils aux voyageurs d’être conscients de l’ampleur de cette responsabilité et de demander si possible une consultation auprès de professionnels de la médecine des voyages pour tous les voyageurs à risque élevé.
NASA Technical Reports Server (NTRS)
Abeles, F. J.
1980-01-01
The design of the prototype protective ensemble was finalized. Prototype ensembles were fabricated and then subjected to a series of qualification tests which were based upon the protective ensemble performance standards PEPS requirements. Engineering drawings and purchase specifications were prepared for the new protective ensemble.
Verifying and Postprocesing the Ensemble Spread-Error Relationship
NASA Astrophysics Data System (ADS)
Hopson, Tom; Knievel, Jason; Liu, Yubao; Roux, Gregory; Wu, Wanli
2013-04-01
With the increased utilization of ensemble forecasts in weather and hydrologic applications, there is a need to verify their benefit over less expensive deterministic forecasts. One such potential benefit of ensemble systems is their capacity to forecast their own forecast error through the ensemble spread-error relationship. The paper begins by revisiting the limitations of the Pearson correlation alone in assessing this relationship. Next, we introduce two new metrics to consider in assessing the utility an ensemble's varying dispersion. We argue there are two aspects of an ensemble's dispersion that should be assessed. First, and perhaps more fundamentally: is there enough variability in the ensembles dispersion to justify the maintenance of an expensive ensemble prediction system (EPS), irrespective of whether the EPS is well-calibrated or not? To diagnose this, the factor that controls the theoretical upper limit of the spread-error correlation can be useful. Secondly, does the variable dispersion of an ensemble relate to variable expectation of forecast error? Representing the spread-error correlation in relation to its theoretical limit can provide a simple diagnostic of this attribute. A context for these concepts is provided by assessing two operational ensembles: 30-member Western US temperature forecasts for the U.S. Army Test and Evaluation Command and 51-member Brahmaputra River flow forecasts of the Climate Forecast and Applications Project for Bangladesh. Both of these systems utilize a postprocessing technique based on quantile regression (QR) under a step-wise forward selection framework leading to ensemble forecasts with both good reliability and sharpness. In addition, the methodology utilizes the ensemble's ability to self-diagnose forecast instability to produce calibrated forecasts with informative skill-spread relationships. We will describe both ensemble systems briefly, review the steps used to calibrate the ensemble forecast, and present verification statistics using error-spread metrics, along with figures from operational ensemble forecasts before and after calibration.
Imprinting and recalling cortical ensembles.
Carrillo-Reid, Luis; Yang, Weijian; Bando, Yuki; Peterka, Darcy S; Yuste, Rafael
2016-08-12
Neuronal ensembles are coactive groups of neurons that may represent building blocks of cortical circuits. These ensembles could be formed by Hebbian plasticity, whereby synapses between coactive neurons are strengthened. Here we report that repetitive activation with two-photon optogenetics of neuronal populations from ensembles in the visual cortex of awake mice builds neuronal ensembles that recur spontaneously after being imprinted and do not disrupt preexisting ones. Moreover, imprinted ensembles can be recalled by single- cell stimulation and remain coactive on consecutive days. Our results demonstrate the persistent reconfiguration of cortical circuits by two-photon optogenetics into neuronal ensembles that can perform pattern completion. Copyright © 2016, American Association for the Advancement of Science.
Katsu, Kenjiro; Tokumori, Daisuke; Tatsumi, Norifumi; Suzuki, Atsushi; Yokouchi, Yuji
2012-03-01
During left-right (L-R) axis formation, Nodal is expressed in the node and has a central role in the transfer of L-R information in the vertebrate embryo. Bone morphogenetic protein (BMP) signaling also has an important role for maintenance of gene expression around the node. Several members of the Cerberus/Dan family act on L-R patterning by regulating activity of the transforming growth factor-β (TGF-β) family. We demonstrate here that chicken Dan plays a critical role in L-R axis formation. Chicken Dan is expressed in the left side of the node shortly after left-handed Shh expression and before the appearance of asymmetrically expressed genes in the lateral plate mesoderm (LPM). In vitro experiments revealed that DAN inhibited BMP signaling but not NODAL signaling. SHH had a positive regulatory effect on Dan expression while BMP4 had a negative effect. Using overexpression and RNA interference-mediated knockdown strategies, we demonstrate that Dan is indispensable for Nodal expression in the LPM and for Lefty-1 expression in the notochord. In the perinodal region, expression of Dan and Nodal was independent of each other. Nodal up-regulation by DAN required NODAL signaling, suggesting that DAN might act synergistically with NODAL. Our data indicate that Dan plays an essential role in the establishment of the L-R axis by inhibiting BMP signaling around the node. Copyright © 2012. Published by Elsevier Inc.
Dislocation structures and anomalous flow in L12 compounds
NASA Astrophysics Data System (ADS)
Dimiduk, D. M.
1991-06-01
The theory of the anomalous flow behavior of LI2 compounds has developed over the last 30 years. This theory has a foundation in the early estimates of the crystallographic anisotropy of antiphase boundary (APB) energy in these compounds. In spite of this critical aspect of the theory, it is only in the last five years that electron microscopy has been employed to quantify the APB energies and to determine the detailed nature of dislocation structures at each stage of deformation. The recent studies of several research groups have provided essentially consistent new details about the nature of dislocations in Ni3AI and a few other LI2 compounds which exhibit anomalous flow behavior. These studies have introduced several new concepts for the controlling dislocation mechanisms. Additionally, these studies have shown that in Ni3AI, the APB energies have only small variations in magnitude with change of the APB plane (they are nearly isotropic), are relatively insensitive to changes in solute content, and the anisotropy ratio does not correlate with alloy strength. The present manuscript provides a critical review of the new transmission electron microscopy (TEM) results along with the new concepts for the mechanism of anomalous flow. Inconsistencies and deficiencies within these new concepts are identified and discussed. The collective set of electron-microscopy results is discussed within the context of both the mechanical behavior of LI2 compounds and the Greenberg and Paidar, Pope and Vitek (PPV) models for anomalous flow. Conceptual consistency with these models can only be constructed if the Kear-Wilsdorf (K-W) configurations are treated as an irreversible work hardening or relaxation artifact and, specific details of these two models cannot be shown by electron microscopy. Alternatively, the structural features recently revealed by electron microscopy have not been assembled into a self-consistent model for yielding which fully addresses the mechanical behavior phenomenology. La théorie permettant de rendre compte de l'anomalie d'écoulement plastique dans les composés de structure LI2 a été développée depuis trente ans. Celle-ci est fondée sur les premières estimations de l'anisotropie de l'énergie de paroi d'antiphase en fonction du plan cristallographique de défaut. Cependant, malgré cet aspect essentiel de la théorie, c'est seulement durant ces cinq dernières années que les techniques de microscopie électronique ont été employées pour déterminer l'énergie de paroi d'antiphase, les configurations de dislocations et leur structure de coeur pour chaque condition de déformation. Les études récentes de plusieurs équipes ont apporté des résultats reproductibles ou complémentaires sur la nature des dislocations dans Ni3AI et quelques autres composés de structure LI2 qui possèdent également une anomalie de limite élastique. Ces études ont permis de concevoir plusieurs mécanismes régissant les mouvements des dislocations et pouvant être responsables de l'anomalie de limite élastique. En outre, elles ont montré que, dans Ni3AI, l'énergie de paroi varie très peu avec le plan de l'antiphase (elle est pratiquement isotrope), qu'elle est très peu sensible à la quantité de solutés et que le rapport d'anisotropie n'est pas en relation avec la résistance de l'alliage. Une revue critique de ces nouveaux résultats de microscopie électronique et des concepts qui en ont été déduits est présentée dans ce manuscrit. Les incohérences et les déficiences des nouveaux modèles sont identifiés et discutés. L'ensemble des résultats de microscopie électronique est comparé aux deux modèles de Greenberg et de Paidar, Pope et Vitek. Une bonne corrélation entre les observations expérimentales et ces modèles ne peut seulement être construite que si l'on considère que les configurations de Kear-Wilsdorf (K-W) sont des effets de durcissement ou des artefacts de relaxation. Les détails spécifiques à ces modèles seraient alors expérimentalement inaccessibles par les techniques de microscopie électronique. D'un autre côté, les objets récemment identifiés en microscopie électronique n'ont pas reçu de description dans un modèle de déformation qui explique de façon satisfaisante l'ensemble du comportement mécanique.
Kaboré, Souleymane; Méda, Clément Ziemlé; Sombié, Issiaka; Savadogo, Léon Blaise; Karama, Robert; Bakouan, Koabié; Ouédraogo, Djénéba Sanon; Coulibaly, Norbert; Kargougou, Robert Lucien; Lankoandé, Emanuel; Sawadogo, Ramatou windsouri; Gosch, Karen
2017-01-01
Introduction Pour combler la pénurie en sages-femmes (SF) dans le district sanitaire de Tougan au Burkina Faso, il a été conçu une stratégie de décentralisation de l'offre des soins obstétricaux d'urgence basée sur des interventions ponctuelles de prise en charge des complications obstétricales au niveau des centres de santé (CS) en milieu rural par des SF. La présente étude a eu pour objectif de décrire cette expérience et d'analyser ses résultats. Méthodes Il s'agit d'une étude intervention de type transversal analytique basée sur une revue des données routinières de l'ensemble des parturientes prises en charge de 2013 à 2015. La collecte des données s'est déroulée du 5 au 20 janvier 2016. Un test Chi2, des rapports de cotes (OR) et leurs intervalles de confiance à 95% ont été calculés. Résultats Au total 416 parturientes présentant des complications obstétricales ont été prises en charge par les SF de zone. L'âge moyen des parturientes était de 26.4 ans. La distance médiane parcourue pour prendre en charge les parturientes était de quinze km pour un délai moyen d'intervention de 21.1 minutes (déviation standard = 7.13 minutes). Les dystocies représentaient la moitié (50.7%, IC95% = 45.8-55.6) des complications prises en charge suivies des hémorragies (26.4%, IC95% = 22.3%-31.0%). Plus de 77% des interventions avaient abouti à la résolution locale des complications obstétricales. Enfin, le résultat de l'intervention était fonction de la pathologie prise en charge (OR = 5.88; p < 0.001). Conclusion Cette stratégie a permis d'apporter une réplique à l'absence de SF dans les CS périphériques du district sanitaire de Tougan. Dans ce contexte particulier, cette intervention pourrait apporter une solution alternative au manque de ressources humaines en santé en milieu rural. PMID:28979638
Conservation of Mass and Preservation of Positivity with Ensemble-Type Kalman Filter Algorithms
NASA Technical Reports Server (NTRS)
Janjic, Tijana; Mclaughlin, Dennis; Cohn, Stephen E.; Verlaan, Martin
2014-01-01
This paper considers the incorporation of constraints to enforce physically based conservation laws in the ensemble Kalman filter. In particular, constraints are used to ensure that the ensemble members and the ensemble mean conserve mass and remain nonnegative through measurement updates. In certain situations filtering algorithms such as the ensemble Kalman filter (EnKF) and ensemble transform Kalman filter (ETKF) yield updated ensembles that conserve mass but are negative, even though the actual states must be nonnegative. In such situations if negative values are set to zero, or a log transform is introduced, the total mass will not be conserved. In this study, mass and positivity are both preserved by formulating the filter update as a set of quadratic programming problems that incorporate non-negativity constraints. Simple numerical experiments indicate that this approach can have a significant positive impact on the posterior ensemble distribution, giving results that are more physically plausible both for individual ensemble members and for the ensemble mean. In two examples, an update that includes a non-negativity constraint is able to properly describe the transport of a sharp feature (e.g., a triangle or cone). A number of implementation questions still need to be addressed, particularly the need to develop a computationally efficient quadratic programming update for large ensemble.
Microbial degradation of chloroethenes in groundwater systems
NASA Astrophysics Data System (ADS)
Bradley, Paul M.
The chloroethenes, tetrachloroethene (PCE) and trichloroethene (TCE) are among the most common contaminants detected in groundwater systems. As recently as 1980, the consensus was that chloroethene compounds were not significantly biodegradable in groundwater. Consequently, efforts to remediate chloroethene-contaminated groundwater were limited to largely unsuccessful pump-and-treat attempts. Subsequent investigation revealed that under reducing conditions, aquifer microorganisms can reductively dechlorinate PCE and TCE to the less chlorinated daughter products dichloroethene (DCE) and vinyl chloride (VC). Although recent laboratory studies conducted with halorespiring microorganisms suggest that complete reduction to ethene is possible, in the majority of groundwater systems reductive dechlorination apparently stops at DCE or VC. However, recent investigations conducted with aquifer and stream-bed sediments have demonstrated that microbial oxidation of these reduced daughter products can be significant under anaerobic redox conditions. The combination of reductive dechlorination of PCE and TCE under anaerobic conditions followed by anaerobic microbial oxidation of DCE and VC provides a possible microbial pathway for complete degradation of chloroethene contaminants in groundwater systems. Résumé Les chloroéthanes, tétrachloroéthane (PCE) et trichloroéthane (TCE) sont parmi les polluants les plus communs trouvés dans les aquifères. Depuis les années 1980, on considère que les chloroéthanes ne sont pas significativement biodégradables dans les aquifères. Par conséquent, les efforts pour dépolluer les nappes contaminées par des chloroéthanes se sont limités à des tentatives de pompage-traitement globalement sans succès. Des travaux ultérieurs ont montré que dans des conditions réductrices, des micro-organismes présents dans les aquifères peuvent, par réduction, dégrader les PCE et TCE en composés moins chlorés, comme le dichloréthane (DCE) et le chlorure de vinyl (VC). Bien que des études de laboratoire réalisées avec des micro-organismes adaptés aux composés halogénés montrent que la réduction complète en éthane est possible, dans la plupart des nappes la réaction de déchloration par réduction s'arrête apparemment au DCE et au VC. Cependant, des recherches récentes menées sur des sédiments d'un aquifère et d'alluvions ont démontré que l'oxydation microbienne de ces descendants réduits peut se produire de manière significative dans des conditions de redox anérobies. La déchloration par réduction de PCE et de TCE dans des conditions anérobies suivie par une oxydation microbienne anérobie des DCE et VC fournit une piste microbienne possible pour obtenir une dégradation complète des chloroéthanes polluants dans les aquifères. Resumen Los cloroetanos (tetracloroetano PCE y tricloroetano TCE) son contaminantes muy habituales en los acuíferos. Hasta 1980 se consideraba que los cloroetanos no eran biodegradables y, por tanto, los métodos de rehabilitación en acuíferos contaminados con cloroetanos se limitaban al pump-and-treat, generalmente con poco éxito. Posteriormente se vio que, en condiciones reductoras, algunos microorganismos pueden reducir PCE y TCE a unos subproductos menos clorados, como el dicloroetano (DCE) y el cloruro de vinilo (VC). Aunque estudios de laboratorio recientes sugieren que la reducción completa a etano es posible, en la mayoría de los sistemas acuíferos la decloración suele detenerse en los DCE o VC. Sin embargo, investigaciones más recientes en acuíferos y sedimentos fluviales demuestran que la oxidación microbiana de estos subproductos puede ser importante bajo condiciones redox anaerobias. La combinación de la reducción de PCE y TCE en condiciones anaerobias seguida de la oxidación microbiana anaerobia de DCE y VC proporciona un método potencial para la degradación total de los cloroetanos en los sistemas acuíferos.
Viney, N.R.; Bormann, H.; Breuer, L.; Bronstert, A.; Croke, B.F.W.; Frede, H.; Graff, T.; Hubrechts, L.; Huisman, J.A.; Jakeman, A.J.; Kite, G.W.; Lanini, J.; Leavesley, G.; Lettenmaier, D.P.; Lindstrom, G.; Seibert, J.; Sivapalan, M.; Willems, P.
2009-01-01
This paper reports on a project to compare predictions from a range of catchment models applied to a mesoscale river basin in central Germany and to assess various ensemble predictions of catchment streamflow. The models encompass a large range in inherent complexity and input requirements. In approximate order of decreasing complexity, they are DHSVM, MIKE-SHE, TOPLATS, WASIM-ETH, SWAT, PRMS, SLURP, HBV, LASCAM and IHACRES. The models are calibrated twice using different sets of input data. The two predictions from each model are then combined by simple averaging to produce a single-model ensemble. The 10 resulting single-model ensembles are combined in various ways to produce multi-model ensemble predictions. Both the single-model ensembles and the multi-model ensembles are shown to give predictions that are generally superior to those of their respective constituent models, both during a 7-year calibration period and a 9-year validation period. This occurs despite a considerable disparity in performance of the individual models. Even the weakest of models is shown to contribute useful information to the ensembles they are part of. The best model combination methods are a trimmed mean (constructed using the central four or six predictions each day) and a weighted mean ensemble (with weights calculated from calibration performance) that places relatively large weights on the better performing models. Conditional ensembles, in which separate model weights are used in different system states (e.g. summer and winter, high and low flows) generally yield little improvement over the weighted mean ensemble. However a conditional ensemble that discriminates between rising and receding flows shows moderate improvement. An analysis of ensemble predictions shows that the best ensembles are not necessarily those containing the best individual models. Conversely, it appears that some models that predict well individually do not necessarily combine well with other models in multi-model ensembles. The reasons behind these observations may relate to the effects of the weighting schemes, non-stationarity of the climate series and possible cross-correlations between models. Crown Copyright ?? 2008.
Heng, Xian-Pei; Chen, Ke-Ji; Hong, Zhen-Feng; He, Wei-Dong; Chu, Ke-Dan; Chen, Wen-Lie; Zheng, Hai-Xia; Yang, Liu-Qing; Chen, Ling; Guo, Fang
2011-02-01
To study the effect of anticolchicine cytotoxicity of Dan Gua-Fang, a Chinesea Chinese), a Chinese herbal compound prescription on endothelial cells of vein (ECV304) cultivated in mediums of different glucose concentrations as well as the proliferation of those cells in the same conditions, in order to reveal the value of Dan Gua-Fang in preventing and treating endothelial damage caused by hyperglycemia in diabetes mellitus. The research was designed as three stages. The growing state and morphological changes were observed when ECV304 were cultivated in the culture mediums, which have different glucose concentrations with or without Dan Gua-Fang and at the same time with or without colchicine. (1) Dan Gua-Fang at all concentrations reduced the floating cell population of ECV304 cultivated in hyperglycemia mediums. (2) Dan Gua-Fang at all concentrations and hyperglycemia both had a function of promoting "pseudopod-like" structure formation in cultivated ECV304, but the function was not superimposed in mediums containing both hyperglycemia and Dan Gua-Fang. (3) Colchicine reduced and even vanished the "pseudopod-like" structure of the endotheliocyte apparently cultivated in mediums of hyperglycemia or with Dan Gua-Fang. The "pseudopod-like" structure of the endotheliocyte emerged quickly in Dan Gua-Fang groups after colchicine was removed, but it was not the case in hyperglycemia only without Dan Gua-Fang groups. (4) Dan Gua-Fang reduced the mortality of cells cultivated in mediums containing colchicine. The cell revived to its normal state fast after colchicine was removed. Dan Gua-Fang has the functions of promoting the formation of cytoskeleton and fighting against colchicine cytotoxicity.
Ocean Predictability and Uncertainty Forecasts Using Local Ensemble Transfer Kalman Filter (LETKF)
NASA Astrophysics Data System (ADS)
Wei, M.; Hogan, P. J.; Rowley, C. D.; Smedstad, O. M.; Wallcraft, A. J.; Penny, S. G.
2017-12-01
Ocean predictability and uncertainty are studied with an ensemble system that has been developed based on the US Navy's operational HYCOM using the Local Ensemble Transfer Kalman Filter (LETKF) technology. One of the advantages of this method is that the best possible initial analysis states for the HYCOM forecasts are provided by the LETKF which assimilates operational observations using ensemble method. The background covariance during this assimilation process is implicitly supplied with the ensemble avoiding the difficult task of developing tangent linear and adjoint models out of HYCOM with the complicated hybrid isopycnal vertical coordinate for 4D-VAR. The flow-dependent background covariance from the ensemble will be an indispensable part in the next generation hybrid 4D-Var/ensemble data assimilation system. The predictability and uncertainty for the ocean forecasts are studied initially for the Gulf of Mexico. The results are compared with another ensemble system using Ensemble Transfer (ET) method which has been used in the Navy's operational center. The advantages and disadvantages are discussed.
La plastie en rail dans le traitement des brides rétractiles du creux poplite
Achbouk, A.; Khales, A.; Bourra, K.; Tourabi, K.; Ababou, K.; Ihrai, H.
2011-01-01
Summary Les Auteurs décrivent le cas d’un patient âgé de 45 ans atteint de brûlures thermiques par flammes suite à la déflagration d’une bonbonne de gaz. Les lésions initiales intéressaient les quatre membres (en particulier, le genou) et le tronc. La prise en charge initiale a consisté en une excision-greffe précoce des membres. L’évolution a été marquée par la survenue de cicatrices hypertrophiques au niveau des zones non greffées et à la bordure de la greffe ainsi que la survenue de brides rétractiles. Devant l’handicap fonctionnel engendré par la bride à cause de la limitation importante de l’extension, le patient a été admis pour cure chirurgicale. Grâce à la technique en rail décrite, le patient a pu récupérer une fonction normale du genou. Les suites ont été simples avec une durée d’hospitalisation d’un mois. Le résultat esthétique est relativement satisfaisant. La technique en rail est un moyen parmi l’arsenal thérapeutique qui permet de traiter la bride du creux poplité. Sa simplicité, sa facilité technique et son résultat satisfaisant ainsi que ses suites simples permettent de la rendre une technique très prisée dans le traitement de ce type de bride. PMID:21991240
Differents aspects du fer dans l'organisme
Bessis, Marcel; Breton-Gorius, Janine
1959-01-01
On voit des molécules de ferritine apparaitre dans le cytoplasme des cellules réticulaires au cours de la digestion des érythrocytes, autour des stromas phagocytés. Cette ferritine s'accumule en amas dans lesquels entrent d'autres substances, en particulier des lipides, provenant aussi des stromas globulaires et qui apparaissent sous forme myélinique. Souvent la ferritine se dispose d'une manière cristalline. Parfois la ferritine et l'apoferritine alternent dans ces cristaux. Parfois l'hémosidérine contient des cristaux qui semblent bien être de l'apoferritine pure. L'injection de sels de fer donne lieu à l'apparition de ferritine dans les cellules réticulaires. Dans les conditions de nos expériences, la plus grande partie du fer injecté était sous forme de ferritine dans un délai de 3 jours. Un aspect intermédiaire entre celui du fer injecté et celui de la ferritine a été trouvé. Dans le cas des injections de saccharate de fer ce sont de fines aiguilles; dans le cas des injections de lactate de fer, il s'agit de masses fibreuses. PMID:13800106
Joys of Community Ensemble Playing: The Case of the Happy Roll Elastic Ensemble in Taiwan
ERIC Educational Resources Information Center
Hsieh, Yuan-Mei; Kao, Kai-Chi
2012-01-01
The Happy Roll Elastic Ensemble (HREE) is a community music ensemble supported by Tainan Culture Centre in Taiwan. With enjoyment and friendship as its primary goals, it aims to facilitate the joys of ensemble playing and the spirit of social networking. This article highlights the key aspects of HREE's development in its first two years…
Ensemble coding of face identity is not independent of the coding of individual identity.
Neumann, Markus F; Ng, Ryan; Rhodes, Gillian; Palermo, Romina
2018-06-01
Information about a group of similar objects can be summarized into a compressed code, known as ensemble coding. Ensemble coding of simple stimuli (e.g., groups of circles) can occur in the absence of detailed exemplar coding, suggesting dissociable processes. Here, we investigate whether a dissociation would still be apparent when coding facial identity, where individual exemplar information is much more important. We examined whether ensemble coding can occur when exemplar coding is difficult, as a result of large sets or short viewing times, or whether the two types of coding are positively associated. We found a positive association, whereby both ensemble and exemplar coding were reduced for larger groups and shorter viewing times. There was no evidence for ensemble coding in the absence of exemplar coding. At longer presentation times, there was an unexpected dissociation, where exemplar coding increased yet ensemble coding decreased, suggesting that robust information about face identity might suppress ensemble coding. Thus, for face identity, we did not find the classic dissociation-of access to ensemble information in the absence of detailed exemplar information-that has been used to support claims of distinct mechanisms for ensemble and exemplar coding.
Ocean state and uncertainty forecasts using HYCOM with Local Ensemble Transfer Kalman Filter (LETKF)
NASA Astrophysics Data System (ADS)
Wei, Mozheng; Hogan, Pat; Rowley, Clark; Smedstad, Ole-Martin; Wallcraft, Alan; Penny, Steve
2017-04-01
An ensemble forecast system based on the US Navy's operational HYCOM using Local Ensemble Transfer Kalman Filter (LETKF) technology has been developed for ocean state and uncertainty forecasts. One of the advantages is that the best possible initial analysis states for the HYCOM forecasts are provided by the LETKF which assimilates the operational observations using ensemble method. The background covariance during this assimilation process is supplied with the ensemble, thus it avoids the difficulty of developing tangent linear and adjoint models for 4D-VAR from the complicated hybrid isopycnal vertical coordinate in HYCOM. Another advantage is that the ensemble system provides the valuable uncertainty estimate corresponding to every state forecast from HYCOM. Uncertainty forecasts have been proven to be critical for the downstream users and managers to make more scientifically sound decisions in numerical prediction community. In addition, ensemble mean is generally more accurate and skilful than the single traditional deterministic forecast with the same resolution. We will introduce the ensemble system design and setup, present some results from 30-member ensemble experiment, and discuss scientific, technical and computational issues and challenges, such as covariance localization, inflation, model related uncertainties and sensitivity to the ensemble size.
Exploring diversity in ensemble classification: Applications in large area land cover mapping
NASA Astrophysics Data System (ADS)
Mellor, Andrew; Boukir, Samia
2017-07-01
Ensemble classifiers, such as random forests, are now commonly applied in the field of remote sensing, and have been shown to perform better than single classifier systems, resulting in reduced generalisation error. Diversity across the members of ensemble classifiers is known to have a strong influence on classification performance - whereby classifier errors are uncorrelated and more uniformly distributed across ensemble members. The relationship between ensemble diversity and classification performance has not yet been fully explored in the fields of information science and machine learning and has never been examined in the field of remote sensing. This study is a novel exploration of ensemble diversity and its link to classification performance, applied to a multi-class canopy cover classification problem using random forests and multisource remote sensing and ancillary GIS data, across seven million hectares of diverse dry-sclerophyll dominated public forests in Victoria Australia. A particular emphasis is placed on analysing the relationship between ensemble diversity and ensemble margin - two key concepts in ensemble learning. The main novelty of our work is on boosting diversity by emphasizing the contribution of lower margin instances used in the learning process. Exploring the influence of tree pruning on diversity is also a new empirical analysis that contributes to a better understanding of ensemble performance. Results reveal insights into the trade-off between ensemble classification accuracy and diversity, and through the ensemble margin, demonstrate how inducing diversity by targeting lower margin training samples is a means of achieving better classifier performance for more difficult or rarer classes and reducing information redundancy in classification problems. Our findings inform strategies for collecting training data and designing and parameterising ensemble classifiers, such as random forests. This is particularly important in large area remote sensing applications, for which training data is costly and resource intensive to collect.
Pauci ex tanto numero: reducing redundancy in multi-model ensembles
NASA Astrophysics Data System (ADS)
Solazzo, E.; Riccio, A.; Kioutsioukis, I.; Galmarini, S.
2013-02-01
We explicitly address the fundamental issue of member diversity in multi-model ensembles. To date no attempts in this direction are documented within the air quality (AQ) community, although the extensive use of ensembles in this field. Common biases and redundancy are the two issues directly deriving from lack of independence, undermining the significance of a multi-model ensemble, and are the subject of this study. Shared biases among models will determine a biased ensemble, making therefore essential the errors of the ensemble members to be independent so that bias can cancel out. Redundancy derives from having too large a portion of common variance among the members of the ensemble, producing overconfidence in the predictions and underestimation of the uncertainty. The two issues of common biases and redundancy are analysed in detail using the AQMEII ensemble of AQ model results for four air pollutants in two European regions. We show that models share large portions of bias and variance, extending well beyond those induced by common inputs. We make use of several techniques to further show that subsets of models can explain the same amount of variance as the full ensemble with the advantage of being poorly correlated. Selecting the members for generating skilful, non-redundant ensembles from such subsets proved, however, non-trivial. We propose and discuss various methods of member selection and rate the ensemble performance they produce. In most cases, the full ensemble is outscored by the reduced ones. We conclude that, although independence of outputs may not always guarantee enhancement of scores (but this depends upon the skill being investigated) we discourage selecting the members of the ensemble simply on the basis of scores, that is, independence and skills need to be considered disjointly.
Mausner-Fainberg, Karin; Kolb, Hadar; Penn, Moran; Regev, Keren; Vaknin-Dembinsky, Adi; Gadoth, Avi; Kestenbaum, Meir; Karni, Arnon
2016-03-15
Bone morphogenic proteins (BMPs) signaling blockade induce neurogenesis and oligodendrogenesis. Differential screening-selected gene aberrative in neuroblastoma (DAN) is a glycoprotein that antagonizes BMPs. We found that DAN levels were higher in CSF compared to serum in all participants. CSF-DAN levels were elevated in RR-and progresssive MS patients compared to controls. Moreover, serum-DAN levels were reduced in those patients, but elevated in IFN-β1a treated patients. The main source of DAN is apparently CNS- resident cells. The enhanced levels of CSF-DAN in MS patients suggest a tendency to induce neurogenesis/oligodendrogenesis in the patients CNS. Our results suggest an unreported mode of action of IFN-β1a. Copyright © 2016 Elsevier B.V. All rights reserved.
NASA Astrophysics Data System (ADS)
Liu, Li; Xu, Yue-Ping
2017-04-01
Ensemble flood forecasting driven by numerical weather prediction products is becoming more commonly used in operational flood forecasting applications.In this study, a hydrological ensemble flood forecasting system based on Variable Infiltration Capacity (VIC) model and quantitative precipitation forecasts from TIGGE dataset is constructed for Lanjiang Basin, Southeast China. The impacts of calibration strategies and ensemble methods on the performance of the system are then evaluated.The hydrological model is optimized by parallel programmed ɛ-NSGAII multi-objective algorithm and two respectively parameterized models are determined to simulate daily flows and peak flows coupled with a modular approach.The results indicatethat the ɛ-NSGAII algorithm permits more efficient optimization and rational determination on parameter setting.It is demonstrated that the multimodel ensemble streamflow mean have better skills than the best singlemodel ensemble mean (ECMWF) and the multimodel ensembles weighted on members and skill scores outperform other multimodel ensembles. For typical flood event, it is proved that the flood can be predicted 3-4 days in advance, but the flows in rising limb can be captured with only 1-2 days ahead due to the flash feature. With respect to peak flows selected by Peaks Over Threshold approach, the ensemble means from either singlemodel or multimodels are generally underestimated as the extreme values are smoothed out by ensemble process.
Lessons from Climate Modeling on the Design and Use of Ensembles for Crop Modeling
NASA Technical Reports Server (NTRS)
Wallach, Daniel; Mearns, Linda O.; Ruane, Alexander C.; Roetter, Reimund P.; Asseng, Senthold
2016-01-01
Working with ensembles of crop models is a recent but important development in crop modeling which promises to lead to better uncertainty estimates for model projections and predictions, better predictions using the ensemble mean or median, and closer collaboration within the modeling community. There are numerous open questions about the best way to create and analyze such ensembles. Much can be learned from the field of climate modeling, given its much longer experience with ensembles. We draw on that experience to identify questions and make propositions that should help make ensemble modeling with crop models more rigorous and informative. The propositions include defining criteria for acceptance of models in a crop MME, exploring criteria for evaluating the degree of relatedness of models in a MME, studying the effect of number of models in the ensemble, development of a statistical model of model sampling, creation of a repository for MME results, studies of possible differential weighting of models in an ensemble, creation of single model ensembles based on sampling from the uncertainty distribution of parameter values or inputs specifically oriented toward uncertainty estimation, the creation of super ensembles that sample more than one source of uncertainty, the analysis of super ensemble results to obtain information on total uncertainty and the separate contributions of different sources of uncertainty and finally further investigation of the use of the multi-model mean or median as a predictor.
Decadal climate prediction in the large ensemble limit
NASA Astrophysics Data System (ADS)
Yeager, S. G.; Rosenbloom, N. A.; Strand, G.; Lindsay, K. T.; Danabasoglu, G.; Karspeck, A. R.; Bates, S. C.; Meehl, G. A.
2017-12-01
In order to quantify the benefits of initialization for climate prediction on decadal timescales, two parallel sets of historical simulations are required: one "initialized" ensemble that incorporates observations of past climate states and one "uninitialized" ensemble whose internal climate variations evolve freely and without synchronicity. In the large ensemble limit, ensemble averaging isolates potentially predictable forced and internal variance components in the "initialized" set, but only the forced variance remains after averaging the "uninitialized" set. The ensemble size needed to achieve this variance decomposition, and to robustly distinguish initialized from uninitialized decadal predictions, remains poorly constrained. We examine a large ensemble (LE) of initialized decadal prediction (DP) experiments carried out using the Community Earth System Model (CESM). This 40-member CESM-DP-LE set of experiments represents the "initialized" complement to the CESM large ensemble of 20th century runs (CESM-LE) documented in Kay et al. (2015). Both simulation sets share the same model configuration, historical radiative forcings, and large ensemble sizes. The twin experiments afford an unprecedented opportunity to explore the sensitivity of DP skill assessment, and in particular the skill enhancement associated with initialization, to ensemble size. This talk will highlight the benefits of a large ensemble size for initialized predictions of seasonal climate over land in the Atlantic sector as well as predictions of shifts in the likelihood of climate extremes that have large societal impact.
Summary statistics in the attentional blink.
McNair, Nicolas A; Goodbourn, Patrick T; Shone, Lauren T; Harris, Irina M
2017-01-01
We used the attentional blink (AB) paradigm to investigate the processing stage at which extraction of summary statistics from visual stimuli ("ensemble coding") occurs. Experiment 1 examined whether ensemble coding requires attentional engagement with the items in the ensemble. Participants performed two sequential tasks on each trial: gender discrimination of a single face (T1) and estimating the average emotional expression of an ensemble of four faces (or of a single face, as a control condition) as T2. Ensemble coding was affected by the AB when the tasks were separated by a short temporal lag. In Experiment 2, the order of the tasks was reversed to test whether ensemble coding requires more working-memory resources, and therefore induces a larger AB, than estimating the expression of a single face. Each condition produced a similar magnitude AB in the subsequent gender-discrimination T2 task. Experiment 3 additionally investigated whether the previous results were due to participants adopting a subsampling strategy during the ensemble-coding task. Contrary to this explanation, we found different patterns of performance in the ensemble-coding condition and a condition in which participants were instructed to focus on only a single face within an ensemble. Taken together, these findings suggest that ensemble coding emerges automatically as a result of the deployment of attentional resources across the ensemble of stimuli, prior to information being consolidated in working memory.
2008073000 2008072900 2008072800 Background information bias reduction = ( | domain-averaged ensemble mean bias | - | domain-averaged bias-corrected ensemble mean bias | / | domain-averaged bias-corrected ensemble mean bias | NAEFS Products | NAEFS | EMC Ensemble Products EMC | NCEP | National Weather Service
Statistical Ensemble of Large Eddy Simulations
NASA Technical Reports Server (NTRS)
Carati, Daniele; Rogers, Michael M.; Wray, Alan A.; Mansour, Nagi N. (Technical Monitor)
2001-01-01
A statistical ensemble of large eddy simulations (LES) is run simultaneously for the same flow. The information provided by the different large scale velocity fields is used to propose an ensemble averaged version of the dynamic model. This produces local model parameters that only depend on the statistical properties of the flow. An important property of the ensemble averaged dynamic procedure is that it does not require any spatial averaging and can thus be used in fully inhomogeneous flows. Also, the ensemble of LES's provides statistics of the large scale velocity that can be used for building new models for the subgrid-scale stress tensor. The ensemble averaged dynamic procedure has been implemented with various models for three flows: decaying isotropic turbulence, forced isotropic turbulence, and the time developing plane wake. It is found that the results are almost independent of the number of LES's in the statistical ensemble provided that the ensemble contains at least 16 realizations.
Invariant measures in brain dynamics
NASA Astrophysics Data System (ADS)
Boyarsky, Abraham; Góra, Paweł
2006-10-01
This note concerns brain activity at the level of neural ensembles and uses ideas from ergodic dynamical systems to model and characterize chaotic patterns among these ensembles during conscious mental activity. Central to our model is the definition of a space of neural ensembles and the assumption of discrete time ensemble dynamics. We argue that continuous invariant measures draw the attention of deeper brain processes, engendering emergent properties such as consciousness. Invariant measures supported on a finite set of ensembles reflect periodic behavior, whereas the existence of continuous invariant measures reflect the dynamics of nonrepeating ensemble patterns that elicit the interest of deeper mental processes. We shall consider two different ways to achieve continuous invariant measures on the space of neural ensembles: (1) via quantum jitters, and (2) via sensory input accompanied by inner thought processes which engender a “folding” property on the space of ensembles.
Distinct cognitive mechanisms involved in the processing of single objects and object ensembles
Cant, Jonathan S.; Sun, Sol Z.; Xu, Yaoda
2015-01-01
Behavioral research has demonstrated that the shape and texture of single objects can be processed independently. Similarly, neuroimaging results have shown that an object's shape and texture are processed in distinct brain regions with shape in the lateral occipital area and texture in parahippocampal cortex. Meanwhile, objects are not always seen in isolation and are often grouped together as an ensemble. We recently showed that the processing of ensembles also involves parahippocampal cortex and that the shape and texture of ensemble elements are processed together within this region. These neural data suggest that the independence seen between shape and texture in single-object perception would not be observed in object-ensemble perception. Here we tested this prediction by examining whether observers could attend to the shape of ensemble elements while ignoring changes in an unattended texture feature and vice versa. Across six behavioral experiments, we replicated previous findings of independence between shape and texture in single-object perception. In contrast, we observed that changes in an unattended ensemble feature negatively impacted the processing of an attended ensemble feature only when ensemble features were attended globally. When they were attended locally, thereby making ensemble processing similar to single-object processing, interference was abolished. Overall, these findings confirm previous neuroimaging results and suggest that distinct cognitive mechanisms may be involved in single-object and object-ensemble perception. Additionally, they show that the scope of visual attention plays a critical role in determining which type of object processing (ensemble or single object) is engaged by the visual system. PMID:26360156
Effects of ensemble and summary displays on interpretations of geospatial uncertainty data.
Padilla, Lace M; Ruginski, Ian T; Creem-Regehr, Sarah H
2017-01-01
Ensemble and summary displays are two widely used methods to represent visual-spatial uncertainty; however, there is disagreement about which is the most effective technique to communicate uncertainty to the general public. Visualization scientists create ensemble displays by plotting multiple data points on the same Cartesian coordinate plane. Despite their use in scientific practice, it is more common in public presentations to use visualizations of summary displays, which scientists create by plotting statistical parameters of the ensemble members. While prior work has demonstrated that viewers make different decisions when viewing summary and ensemble displays, it is unclear what components of the displays lead to diverging judgments. This study aims to compare the salience of visual features - or visual elements that attract bottom-up attention - as one possible source of diverging judgments made with ensemble and summary displays in the context of hurricane track forecasts. We report that salient visual features of both ensemble and summary displays influence participant judgment. Specifically, we find that salient features of summary displays of geospatial uncertainty can be misunderstood as displaying size information. Further, salient features of ensemble displays evoke judgments that are indicative of accurate interpretations of the underlying probability distribution of the ensemble data. However, when participants use ensemble displays to make point-based judgments, they may overweight individual ensemble members in their decision-making process. We propose that ensemble displays are a promising alternative to summary displays in a geospatial context but that decisions about visualization methods should be informed by the viewer's task.
NASA Astrophysics Data System (ADS)
Marques, J. M.; Santos, Monteiro; Graça, R. C.; Castro, R.; Aires-Barros, L.; Mendes Victor, L. A.
2001-11-01
The Vilarelho da Raia-Chaves region, located in northern Portugal adjacent to the Spanish border, is characterized by both hot and cold CO2-rich mineral waters issuing from springs and drilled wells. The present paper updates the conceptual circulation model of the Vilarelho da Raia cold CO2-rich mineral waters. Vilarelho da Raia mineral waters, dominated by Na and HCO3 ions, have formed mainly by interaction with CO2 of deep-seated mantle origin. The δ18O, δ2H and 3H values indicate that these waters are the result of meteoric waters infiltrating into Larouco Mountain, NW of Vilarelho da Raia, circulating at shallow depths in granitic rocks and moving into Vilarelho da Raia area. The conceptual geochemical and geophysical circulation model indicates that the hot and cold CO2-rich mineral waters of Chaves (76 °C) and Vilarelho da Raia (17 °C) should be considered manifestations of similar but not the same geohydrological systems. Résumé. La région de Vilarelho da Raia - Chaves, située au Portugal près de la frontière Espagnole, est caractérisée par des eaux carbogazeuses, chaudes et froides, émergeant à des sources et dans des puits. Ce travail constitue une mise au point du modèle conceptuel de circulation des eaux minérales carbogazeuses froides de Vilarelho da Raia. Les eaux minérales de Vilarelho da Raia, dans lesquelles les ions Na and HCO3 sont dominants, résultent principalement d'interactions avec du CO2 d'origine mantellique. Les δ18O, les δ2H, et les teneurs en 3H indiquent que ces eaux proviennent de l'infiltration d'eaux météoriques dans le Mont Larouco au NW de Vilarelho da Raia, circulant à faible profondeur dans les granites en direction de la région de Vilarelho da Raia. Le modèle de circulation géochimique et géophysique conduit à penser que les eaux minérales carbogazeuses chaudes et froides de Chaves (76 °C) et de Vilarelho da Raia (17 °C) doivent être considérées comme des manifestations de systèmes hydrogéologiques similaires, mais non identiques. Resumen. La región de Vilarelho-Chaves está situada en el Norte de Portugal, junto a la frontera con España. Se caracteriza por la existencia de aguas minerales calientes y frías enriquecidas en CO2, que descargan mediante manantiales y pozos. El artículo tiene como objetivo la actualización del modelo conceptual de flujo de las aguas frías de Vilarelho de Raia, que son ricas en CO2. Dichas aguas se han formado fundamentalmente por la interacción con el CO2 procedente del manto profundo, y son del tipo bicarbonatado sódico. Los valores de δ18O, δ2H y 3H indican que proceden de la infiltración de agua meteórica en la Montaña Larouco -al Noroeste de Vilarelho de Raia-, que circulan a poca profundidad en un medio formado por de rocas graníticas y se mueven hacia el área de Vilarelho de Raia. El modelo conceptual de flujo, basado en datos geoquímicos y geofísicos, indica que las aguas minerales calientes de Chaves (76 °C) y las frías de Vilarelho de Raia (17 °C), ambas enriquecidas en CO2, no deben ser consideradas como manifestaciones de un único sistema hidrogeológico, sino de dos similares.
Measuring social interaction in music ensembles
D'Ausilio, Alessandro; Badino, Leonardo; Camurri, Antonio; Fadiga, Luciano
2016-01-01
Music ensembles are an ideal test-bed for quantitative analysis of social interaction. Music is an inherently social activity, and music ensembles offer a broad variety of scenarios which are particularly suitable for investigation. Small ensembles, such as string quartets, are deemed a significant example of self-managed teams, where all musicians contribute equally to a task. In bigger ensembles, such as orchestras, the relationship between a leader (the conductor) and a group of followers (the musicians) clearly emerges. This paper presents an overview of recent research on social interaction in music ensembles with a particular focus on (i) studies from cognitive neuroscience; and (ii) studies adopting a computational approach for carrying out automatic quantitative analysis of ensemble music performances. PMID:27069054
Measuring social interaction in music ensembles.
Volpe, Gualtiero; D'Ausilio, Alessandro; Badino, Leonardo; Camurri, Antonio; Fadiga, Luciano
2016-05-05
Music ensembles are an ideal test-bed for quantitative analysis of social interaction. Music is an inherently social activity, and music ensembles offer a broad variety of scenarios which are particularly suitable for investigation. Small ensembles, such as string quartets, are deemed a significant example of self-managed teams, where all musicians contribute equally to a task. In bigger ensembles, such as orchestras, the relationship between a leader (the conductor) and a group of followers (the musicians) clearly emerges. This paper presents an overview of recent research on social interaction in music ensembles with a particular focus on (i) studies from cognitive neuroscience; and (ii) studies adopting a computational approach for carrying out automatic quantitative analysis of ensemble music performances. © 2016 The Author(s).
Method and apparatus for quantum information processing using entangled neutral-atom qubits
Jau, Yuan Yu; Biedermann, Grant; Deutsch, Ivan
2018-04-03
A method for preparing an entangled quantum state of an atomic ensemble is provided. The method includes loading each atom of the atomic ensemble into a respective optical trap; placing each atom of the atomic ensemble into a same first atomic quantum state by impingement of pump radiation; approaching the atoms of the atomic ensemble to within a dipole-dipole interaction length of each other; Rydberg-dressing the atomic ensemble; during the Rydberg-dressing operation, exciting the atomic ensemble with a Raman pulse tuned to stimulate a ground-state hyperfine transition from the first atomic quantum state to a second atomic quantum state; and separating the atoms of the atomic ensemble by more than a dipole-dipole interaction length.
Kim, Jung-Hyun; Powell, Jeffery B; Roberge, Raymond J; Shepherd, Angie; Coca, Aitor
2014-01-01
The purpose of this study was to evaluate the predictive capability of fabric Total Heat Loss (THL) values on thermal stress that Personal Protective Equipment (PPE) ensemble wearers may encounter while performing work. A series of three tests, consisting of the Sweating Hot Plate (SHP) test on two sample fabrics and the Sweating Thermal Manikin (STM) and human performance tests on two single-layer encapsulating ensembles (fabric/ensemble A = low THL and B = high THL), was conducted to compare THL values between SHP and STM methods along with human thermophysiological responses to wearing the ensembles. In human testing, ten male subjects performed a treadmill exercise at 4.8 km and 3% incline for 60 min in two environmental conditions (mild = 22°C, 50% relative humidity (RH) and hot/humid = 35°C, 65% RH). The thermal and evaporative resistances were significantly higher on a fabric level as measured in the SHP test than on the ensemble level as measured in the STM test. Consequently the THL values were also significantly different for both fabric types (SHP vs. STM: 191.3 vs. 81.5 W/m(2) in fabric/ensemble A, and 909.3 vs. 149.9 W/m(2) in fabric/ensemble B (p < 0.001). Body temperature and heart rate response between ensembles A and B were consistently different in both environmental conditions (p < 0.001), which is attributed to significantly higher sweat evaporation in ensemble B than in A (p < 0.05), despite a greater sweat production in ensemble A (p < 0.001) in both environmental conditions. Further, elevation of microclimate temperature (p < 0.001) and humidity (p < 0.01) was significantly greater in ensemble A than in B. It was concluded that: (1) SHP test determined THL values are significantly different from the actual THL potential of the PPE ensemble tested on STM, (2) physiological benefits from wearing a more breathable PPE ensemble may not be feasible with incremental THL values (SHP test) less than approximately 150-200 W·m(2), and (3) the effects of thermal environments on a level of heat stress in PPE ensemble wearers are greater than ensemble thermal characteristics.
Minimalist ensemble algorithms for genome-wide protein localization prediction.
Lin, Jhih-Rong; Mondal, Ananda Mohan; Liu, Rong; Hu, Jianjun
2012-07-03
Computational prediction of protein subcellular localization can greatly help to elucidate its functions. Despite the existence of dozens of protein localization prediction algorithms, the prediction accuracy and coverage are still low. Several ensemble algorithms have been proposed to improve the prediction performance, which usually include as many as 10 or more individual localization algorithms. However, their performance is still limited by the running complexity and redundancy among individual prediction algorithms. This paper proposed a novel method for rational design of minimalist ensemble algorithms for practical genome-wide protein subcellular localization prediction. The algorithm is based on combining a feature selection based filter and a logistic regression classifier. Using a novel concept of contribution scores, we analyzed issues of algorithm redundancy, consensus mistakes, and algorithm complementarity in designing ensemble algorithms. We applied the proposed minimalist logistic regression (LR) ensemble algorithm to two genome-wide datasets of Yeast and Human and compared its performance with current ensemble algorithms. Experimental results showed that the minimalist ensemble algorithm can achieve high prediction accuracy with only 1/3 to 1/2 of individual predictors of current ensemble algorithms, which greatly reduces computational complexity and running time. It was found that the high performance ensemble algorithms are usually composed of the predictors that together cover most of available features. Compared to the best individual predictor, our ensemble algorithm improved the prediction accuracy from AUC score of 0.558 to 0.707 for the Yeast dataset and from 0.628 to 0.646 for the Human dataset. Compared with popular weighted voting based ensemble algorithms, our classifier-based ensemble algorithms achieved much better performance without suffering from inclusion of too many individual predictors. We proposed a method for rational design of minimalist ensemble algorithms using feature selection and classifiers. The proposed minimalist ensemble algorithm based on logistic regression can achieve equal or better prediction performance while using only half or one-third of individual predictors compared to other ensemble algorithms. The results also suggested that meta-predictors that take advantage of a variety of features by combining individual predictors tend to achieve the best performance. The LR ensemble server and related benchmark datasets are available at http://mleg.cse.sc.edu/LRensemble/cgi-bin/predict.cgi.
Minimalist ensemble algorithms for genome-wide protein localization prediction
2012-01-01
Background Computational prediction of protein subcellular localization can greatly help to elucidate its functions. Despite the existence of dozens of protein localization prediction algorithms, the prediction accuracy and coverage are still low. Several ensemble algorithms have been proposed to improve the prediction performance, which usually include as many as 10 or more individual localization algorithms. However, their performance is still limited by the running complexity and redundancy among individual prediction algorithms. Results This paper proposed a novel method for rational design of minimalist ensemble algorithms for practical genome-wide protein subcellular localization prediction. The algorithm is based on combining a feature selection based filter and a logistic regression classifier. Using a novel concept of contribution scores, we analyzed issues of algorithm redundancy, consensus mistakes, and algorithm complementarity in designing ensemble algorithms. We applied the proposed minimalist logistic regression (LR) ensemble algorithm to two genome-wide datasets of Yeast and Human and compared its performance with current ensemble algorithms. Experimental results showed that the minimalist ensemble algorithm can achieve high prediction accuracy with only 1/3 to 1/2 of individual predictors of current ensemble algorithms, which greatly reduces computational complexity and running time. It was found that the high performance ensemble algorithms are usually composed of the predictors that together cover most of available features. Compared to the best individual predictor, our ensemble algorithm improved the prediction accuracy from AUC score of 0.558 to 0.707 for the Yeast dataset and from 0.628 to 0.646 for the Human dataset. Compared with popular weighted voting based ensemble algorithms, our classifier-based ensemble algorithms achieved much better performance without suffering from inclusion of too many individual predictors. Conclusions We proposed a method for rational design of minimalist ensemble algorithms using feature selection and classifiers. The proposed minimalist ensemble algorithm based on logistic regression can achieve equal or better prediction performance while using only half or one-third of individual predictors compared to other ensemble algorithms. The results also suggested that meta-predictors that take advantage of a variety of features by combining individual predictors tend to achieve the best performance. The LR ensemble server and related benchmark datasets are available at http://mleg.cse.sc.edu/LRensemble/cgi-bin/predict.cgi. PMID:22759391
Lim, Ci Ji; Lee, Sin Yi; Teramoto, Jun; Ishihama, Akira; Yan, Jie
2013-01-01
Dan is a transcription factor that regulates the ttd operon encoding tartrate dehydratase. During anaerobic conditions, its copy number increases by 100-fold, making Dan an abundant nucleoid-associated protein. However, little is known about the mode of Dan-DNA interaction. To understand its cellular functions, we used single-molecule manipulation and imaging techniques to show that Dan binds cooperatively along DNA, resulting in formation of a rigid periodic nucleoprotein filament that strongly restricts accessibility to DNA. Furthermore, in the presence of physiologic levels of magnesium, these filaments interact with each other to cause global DNA condensation. Overall, these results shed light on the architectural role of Dan in the compaction of Escherichia coli chromosomal DNA under anaerobic conditions. Formation of the nucleoprotein filament provides a basis in understanding how Dan may play roles in both chromosomal DNA protection and gene regulation.
Architectures for Device Aware Network
2005-03-01
68 b. PDA in DAN Mode ............................................................. 69 c. Cell Phone in DAN Mode...68 Figure 15. PDA in DAN Mode - Reduced Resolution Image ..................................... 69 Figure 16. Cell Phone in DAN Mode -No Image...computer, notebook computer, cell phone and a host of networked embedded systems) may have extremely differing capabilities and resources to retrieve and
Federal Register 2010, 2011, 2012, 2013, 2014
2010-06-25
... addressed to: Dan Breedlove, Assistant Regional Counsel, Office of Regional Counsel, 901 N. 5th Street, Kansas City, Kansas 66101. FOR FURTHER INFORMATION CONTACT: Dan Breedlove, at telephone: (913) 551-7172; fax number: (913) 551-7925/Attn: Dan Breedlove; E-mail address: http: //www.breedlove.dan@epa.gov...
DAN (NBL1) promotes collective neural crest migration by restraining uncontrolled invasion.
McLennan, Rebecca; Bailey, Caleb M; Schumacher, Linus J; Teddy, Jessica M; Morrison, Jason A; Kasemeier-Kulesa, Jennifer C; Wolfe, Lauren A; Gogol, Madeline M; Baker, Ruth E; Maini, Philip K; Kulesa, Paul M
2017-10-02
Neural crest cells are both highly migratory and significant to vertebrate organogenesis. However, the signals that regulate neural crest cell migration remain unclear. In this study, we test the function of differential screening-selected gene aberrant in neuroblastoma (DAN), a bone morphogenetic protein (BMP) antagonist we detected by analysis of the chick cranial mesoderm. Our analysis shows that, before neural crest cell exit from the hindbrain, DAN is expressed in the mesoderm, and then it becomes absent along cell migratory pathways. Cranial neural crest and metastatic melanoma cells avoid DAN protein stripes in vitro. Addition of DAN reduces the speed of migrating cells in vivo and in vitro, respectively. In vivo loss of function of DAN results in enhanced neural crest cell migration by increasing speed and directionality. Computer model simulations support the hypothesis that DAN restrains cell migration by regulating cell speed. Collectively, our results identify DAN as a novel factor that inhibits uncontrolled neural crest and metastatic melanoma invasion and promotes collective migration in a manner consistent with the inhibition of BMP signaling. © 2017 McLennan et al.
DAN (NBL1) promotes collective neural crest migration by restraining uncontrolled invasion
McLennan, Rebecca; Bailey, Caleb M.; Schumacher, Linus J.; Teddy, Jessica M.; Morrison, Jason A.; Kasemeier-Kulesa, Jennifer C.; Wolfe, Lauren A.; Gogol, Madeline M.; Baker, Ruth E.; Maini, Philip K.
2017-01-01
Neural crest cells are both highly migratory and significant to vertebrate organogenesis. However, the signals that regulate neural crest cell migration remain unclear. In this study, we test the function of differential screening-selected gene aberrant in neuroblastoma (DAN), a bone morphogenetic protein (BMP) antagonist we detected by analysis of the chick cranial mesoderm. Our analysis shows that, before neural crest cell exit from the hindbrain, DAN is expressed in the mesoderm, and then it becomes absent along cell migratory pathways. Cranial neural crest and metastatic melanoma cells avoid DAN protein stripes in vitro. Addition of DAN reduces the speed of migrating cells in vivo and in vitro, respectively. In vivo loss of function of DAN results in enhanced neural crest cell migration by increasing speed and directionality. Computer model simulations support the hypothesis that DAN restrains cell migration by regulating cell speed. Collectively, our results identify DAN as a novel factor that inhibits uncontrolled neural crest and metastatic melanoma invasion and promotes collective migration in a manner consistent with the inhibition of BMP signaling. PMID:28811280
Bayesian ensemble refinement by replica simulations and reweighting.
Hummer, Gerhard; Köfinger, Jürgen
2015-12-28
We describe different Bayesian ensemble refinement methods, examine their interrelation, and discuss their practical application. With ensemble refinement, the properties of dynamic and partially disordered (bio)molecular structures can be characterized by integrating a wide range of experimental data, including measurements of ensemble-averaged observables. We start from a Bayesian formulation in which the posterior is a functional that ranks different configuration space distributions. By maximizing this posterior, we derive an optimal Bayesian ensemble distribution. For discrete configurations, this optimal distribution is identical to that obtained by the maximum entropy "ensemble refinement of SAXS" (EROS) formulation. Bayesian replica ensemble refinement enhances the sampling of relevant configurations by imposing restraints on averages of observables in coupled replica molecular dynamics simulations. We show that the strength of the restraints should scale linearly with the number of replicas to ensure convergence to the optimal Bayesian result in the limit of infinitely many replicas. In the "Bayesian inference of ensembles" method, we combine the replica and EROS approaches to accelerate the convergence. An adaptive algorithm can be used to sample directly from the optimal ensemble, without replicas. We discuss the incorporation of single-molecule measurements and dynamic observables such as relaxation parameters. The theoretical analysis of different Bayesian ensemble refinement approaches provides a basis for practical applications and a starting point for further investigations.
Bayesian ensemble refinement by replica simulations and reweighting
NASA Astrophysics Data System (ADS)
Hummer, Gerhard; Köfinger, Jürgen
2015-12-01
We describe different Bayesian ensemble refinement methods, examine their interrelation, and discuss their practical application. With ensemble refinement, the properties of dynamic and partially disordered (bio)molecular structures can be characterized by integrating a wide range of experimental data, including measurements of ensemble-averaged observables. We start from a Bayesian formulation in which the posterior is a functional that ranks different configuration space distributions. By maximizing this posterior, we derive an optimal Bayesian ensemble distribution. For discrete configurations, this optimal distribution is identical to that obtained by the maximum entropy "ensemble refinement of SAXS" (EROS) formulation. Bayesian replica ensemble refinement enhances the sampling of relevant configurations by imposing restraints on averages of observables in coupled replica molecular dynamics simulations. We show that the strength of the restraints should scale linearly with the number of replicas to ensure convergence to the optimal Bayesian result in the limit of infinitely many replicas. In the "Bayesian inference of ensembles" method, we combine the replica and EROS approaches to accelerate the convergence. An adaptive algorithm can be used to sample directly from the optimal ensemble, without replicas. We discuss the incorporation of single-molecule measurements and dynamic observables such as relaxation parameters. The theoretical analysis of different Bayesian ensemble refinement approaches provides a basis for practical applications and a starting point for further investigations.
Gravel, Anne Renée; Riel, Jessica; Messing, Karen
2017-11-01
Women's workplaces should guarantee healthy pregnancies while supporting pregnant women as workers. In Québec (Canada), a pregnant worker exposed to a "danger" for herself or her fetus may ask her employer to be reassigned to other work appropriate to her skills. This approach differs from other regulatory contexts in North America in that protection of fetal and maternal health is embedded in the health and safety legislation. The advantage is that the pregnant worker is guaranteed access to her full salary, but some may question whether specific provisions for pregnant women single out such women and produce risks for their careers or, conversely, pregnancy should receive even more special consideration. These questions are discussed using the results of a qualitative analysis of interviews with pregnant nurses, their supervisors, and their union representatives in ten hospitals in Québec. We think that the management of pregnancy under this legislation generally protects health, but that, in the absence of true employer commitment to the health of all workers, undue burdens may be placed upon other members of the work team. Résumé Les lieux de travail des femmes devraient garantir des grossesses saines tout en soutenant les femmes enceintes en tant que travailleurs. Au Québec (Canada), une travailleuse enceinte exposée à un danger pour elle-même ou son ftus peut demander à son employeur d'être réaffectée à d'autres tãches sans danger et adaptéches à ses compétences. Cette approche diffère des autres contextes réglementaires en Amérique du Nord en ce sens que la protection de la santé foetale et maternelle est intégrée dans la législation sur la santé et la sécurité. Certains peuvent se demander si des dispositions spécifiques pour les femmes enceintes singularisent ces travailleuses et contribuent à la précarisation de leur emploi. Ou, à l'inverse, si la grossesse devrait recevoir une considération encore plus spéciale. Ces questions sont discutées à la lumière du récit d infirmières enceintes, de gestionnaires et de représentants syndicaux responsables des dossiers de conciliation travail-grossesse dans dix hôpitaux du Québec. Nous constatons que la gestion de la grossesse en vertu de cette législation est généralement protectrice de la santé, mais qu'en l'absence d'un véritable engagement de l'employeur envers la santé de tous les travailleurs, des charges excessives peuvent être imposées aux autres membres de l'équipe de travail.
2013-01-01
Background Peripheral neuroblastic tumors (pNTs), including neuroblastoma (NB), ganglioneuroblastoma (GNB) and ganglioneuroma (GN), are extremely heterogeneous pediatric tumors responsible for 15 % of childhood cancer death. The aim of the study was to evaluate the expression of CD44s (‘s’: standard form) cell adhesion molecule by comparison with other specific prognostic markers. Methods An immunohistochemical profile of 32 formalin-fixed paraffin-embedded pNTs tissues, diagnosed between January 2007 and December 2010, was carried out. Results Our results have demonstrated the association of CD44s negative pNTs cells to lack of differentiation and tumour progression. A significant association between absence of CD44s expression and metastasis in human pNTs has been reported. We also found that expression of CD44s defines subgroups of patients without MYCN amplification as evidenced by its association with low INSS stages, absence of metastasis and favorable Shimada histology. Discussion These findings support the thesis of the role of CD44s glycoprotein in the invasive growth potential of neoplastic cells and suggest that its expression could be taken into consideration in the therapeutic approaches targeting metastases. Virtual Slides The virtual slide(s) for this article can be found here: http://www.diagnosticpathology.diagnomx.eu/vs/1034403150888863 Résumé Introduction les tumeurs neuroblastiques périphériques (TNPs), comprenant le neuroblastome (NB), le ganglioneuroblastome (GNB) et le ganglioneurome (GN), sont des tumeurs pédiatriques extrêmement hétérogènes responsables de 15% des décès par cancer chez les enfants. Le but de cette étude était d’évaluer l’expression de la molécule d’adhésion cellulaire CD44s (‘s’: pour standard) par rapport à d’autres facteurs pronostiques spécifiques. Méthodes Un profil immunohistochimique de 32 TNPs fixées au formol et incluses en paraffine, diagnostiquées entre Janvier 2007 et Décembre 2010, a été réalisé. Résultats Nos résultats ont mis en évidence l’association des TNPs n’exprimant pas le CD44s avec une perte de différenciation et une progression tumorale et nous avons rapporté une association significative entre l’absence d’expression du CD44s et la présence de métastases. Nous avons également constaté que l’expression du CD44s définit des sous-groupes de patients dans les tumeurs n’amplifiant pas le MYCN, comme en témoigne son association avec les stades INSS bas, l’absence de métastases et l’histologie favorable de Shimada. Discussion Ces résultats appuient l’hypothèse du rôle de la glycoprotéine CD44s dans le potentiel de croissance invasive des cellules néoplasiques et suggèrent que son expression pourrait être prise en considération dans des voies thérapeutiques ciblant les métastases. PMID:23445749
Lésions bulleuses et purpuriques unilatérales: pathomimie cutanée
Zinoun, Mouna; Chiheb, Soumia; Marnissi, Farida; Kadiri, Nadia; Benchikhi, Hakima
2015-01-01
La pathomimie cutanée est une forme particulière de troubles factices relativement rare, et constitue l'un des problèmes les plus complexes pour le dermatologue. Nous rapportons un cas de pathomimie révélée par des lésions cutanées unilatérales, mimant une brûlure. Une jeune femme de 27 ans, était suivie depuis 4 ans pour une dépression. Elle a présenté 15j avant sa 1ère hospitalisation un placard inflammatoire du sein gauche compliqué de lésions bulleuses et d’érosions superficielles. La biopsie cutanée avait montré une dermite non spécifique. Une cicatrisation rapide sous traitement local a été notée. Elle a présenté 10 jours plus tard de nouvelles lésions similaires étagées au membre inférieur gauche, évoluant vers le décollement bulleux spontané. La biopsie cutanée avait montré un décollement bulleux jonctionnel et des foyers de nécrose ischémique. L'IFD était négative. Devant les données anamnestiques, cliniques, la négativité du bilan paraclinique, et la guérison des lésions sous pansements occlusifs seuls, le diagnostic de pathomimie a été évoqué et retenu. La patiente a été adressée en psychiatrie où une thérapie cognitivo-comportementale a été préconisée. Notre observation correspond à un tableau de pathomimie de présentation clinique particulière par sa localisation unilatérale et son caractère bulleux. Chez notre patiente qui est droitière, la localisation unilatérale gauche sur des zones accessibles, l'absence de lésions spécifiques à l'examen histologique, la cicatrisation rapide des lésions sous traitement local occlusif seul et leur récurrence malgré des soins adaptés étaient en faveur d'une pathologie factice. Néanmoins, la localisation au niveau des seins peut être très déroutante. Le caractère bulleux des lésions dans le cadre d'une pathomimie a été rarement rapporté. Dans notre cas, la pathomimie s'associe à des troubles anxieux et dépressifs très importants. Leur prise en charge demande un investissement pluridisciplinaire le plus précoce possible. La prise en charge des pathomimies est complexe. Le traitement médical associé à une prise en charge psychologique de type thérapie cognitivo-comportementale, qui est une première expérience, peut aider cette patiente à contrôler son comportement et éviter les récidives qui sont fréquentes dans ce type de pathologie. PMID:26161224
Elidrissi, Amal Moustarhfir; Zaghba, Nahid; Benjelloun, Hanane; Yassine, Najiba
2016-01-01
Le puisatier a pour profession le creusement et l'entretien des puits pour fournir de l'eau. Il est au contact de divers minerais, particulièrement la silice, particule qui présente un risque certain de développement des maladies pulmonaires connues sous le nom de silicose. Le but de notre travail est de préciser le profil épidémiologique, clinique, radiologique et évolutif des patients puisatiers silicotiques. C'est une étude rétrospective concernant 54 cas de puisatiers ayant une silicose, colligés au service des maladies respiratoires du CHU Ibn Rochd de Casablanca, de Mars 1997 à Janvier 2016. Tous les malades étaient des puisatiers, de sexe masculin, avec une moyenne d'âge de 50 ans. Le tabagisme était retrouvé dans 36 cas et un antécédent de tuberculose était noté dans huit cas. La radiographie thoracique retrouvait des grandes opacités dans 39 cas, des petites opacités dans 15 cas, et un épaississement des septats dans 11 cas. Ce tableau de silicose s'était compliqué d'une surinfection bactérienne dans 37% des cas, d' un pneumothorax dans 4% des cas et d'une tuberculose dans 20% des cas. La prise en charge thérapeutique était celle des complications. La déclaration de la maladie professionnelle et de l'indemnisation était faite. L'évolution était bonne dans 12 cas, stationnaire dans 17 cas et mauvaise dans 16 cas. La silicose est une pneumoconiose fréquente chez les puisatiers. Elle retentit sur la fonction respiratoire. Nous soulignons l'association fréquente de tuberculose et nous insistons sur la prévention qui reste le meilleur traitement. PMID:28292119
Dixon, Matthew L; Andrews-Hanna, Jessica R; Spreng, R Nathan; Irving, Zachary C; Mills, Caitlin; Girn, Manesh; Christoff, Kalina
2017-02-15
Anticorrelation between the default network (DN) and dorsal attention network (DAN) is thought to be an intrinsic aspect of functional brain organization reflecting competing functions. However, the effect size of functional connectivity (FC) between the DN and DAN has yet to be established. Furthermore, the stability of anticorrelations across distinct DN subsystems, different contexts, and time, remains unexplored. In study 1 we summarize effect sizes of DN-DAN FC from 20 studies, and in study 2 we probe the variability of DN-DAN interactions across six different cognitive states in a new data set. We show that: (i) the DN and DAN have an independent rather than anticorrelated relationship when global signal regression is not used (median effect size across studies: r=-.06; 95% CI: -.15 to .08); (ii) the DAN exhibits weak negative FC with the DN Core subsystem but is uncorrelated with the dorsomedial prefrontal and medial temporal lobe subsystems; (iii) DN-DAN interactions vary significantly across different cognitive states; (iv) DN-DAN FC fluctuates across time between periods of anticorrelation and periods of positive correlation; and (v) changes across time in the strength of DN-DAN coupling are coordinated with interactions involving the frontoparietal control network (FPCN). Overall, the observed weak effect sizes related to DN-DAN anticorrelation suggest the need to re-conceptualize the nature of interactions between these networks. Furthermore, our findings demonstrate that DN-DAN interactions are not stable, but rather, exhibit substantial variability across time and context, and are coordinated with broader network dynamics involving the FPCN. Copyright © 2017 The Authors. Published by Elsevier Inc. All rights reserved.
A Statistical Description of Neural Ensemble Dynamics
Long, John D.; Carmena, Jose M.
2011-01-01
The growing use of multi-channel neural recording techniques in behaving animals has produced rich datasets that hold immense potential for advancing our understanding of how the brain mediates behavior. One limitation of these techniques is they do not provide important information about the underlying anatomical connections among the recorded neurons within an ensemble. Inferring these connections is often intractable because the set of possible interactions grows exponentially with ensemble size. This is a fundamental challenge one confronts when interpreting these data. Unfortunately, the combination of expert knowledge and ensemble data is often insufficient for selecting a unique model of these interactions. Our approach shifts away from modeling the network diagram of the ensemble toward analyzing changes in the dynamics of the ensemble as they relate to behavior. Our contribution consists of adapting techniques from signal processing and Bayesian statistics to track the dynamics of ensemble data on time-scales comparable with behavior. We employ a Bayesian estimator to weigh prior information against the available ensemble data, and use an adaptive quantization technique to aggregate poorly estimated regions of the ensemble data space. Importantly, our method is capable of detecting changes in both the magnitude and structure of correlations among neurons missed by firing rate metrics. We show that this method is scalable across a wide range of time-scales and ensemble sizes. Lastly, the performance of this method on both simulated and real ensemble data is used to demonstrate its utility. PMID:22319486
Ensembl genomes 2016: more genomes, more complexity
USDA-ARS?s Scientific Manuscript database
Ensembl Genomes (http://www.ensemblgenomes.org) is an integrating resource for genome-scale data from non-vertebrate species, complementing the resources for vertebrate genomics developed in the context of the Ensembl project (http://www.ensembl.org). Together, the two resources provide a consistent...
L'etude de l'InP et du GaP suite a l'implantation ionique de Mn et a un recuit thermique
NASA Astrophysics Data System (ADS)
Bucsa, Ioan Gigel
Cette these est dediee a l'etude des materiaux InMnP et GaMnP fabriques par implantation ionique et recuit thermique. Plus precisement nous avons investigue la possibilite de former par implantation ionique des materiaux homogenes (alliages) de InMnP et GaMnP contenant de 1 a 5 % atomiques de Mn qui seraient en etat ferromagnetique, pour des possibles applications dans la spintronique. Dans un premier chapitre introductif nous donnons les motivations de cette recherche et faisons une revue de la litterature sur ce sujet. Le deuxieme chapitre decrit les principes de l'implantation ionique, qui est la technique utilisee pour la fabrication des echantillons. Les effets de l'energie, fluence et direction du faisceau ionique sur le profil d'implantation et la formation des dommages seront mis en evidence. Aussi dans ce chapitre nous allons trouver des informations sur les substrats utilises pour l'implantation. Les techniques experimentales utilisees pour la caracterisation structurale, chimique et magnetique des echantillons, ainsi que leurs limitations sont presentees dans le troisieme chapitre. Quelques principes theoriques du magnetisme necessaires pour la comprehension des mesures magnetiques se retrouvent dans le chapitre 4. Le cinquieme chapitre est dedie a l'etude de la morphologie et des proprietes magnetiques des substrats utilises pour implantation et le sixieme chapitre, a l'etude des echantillons implantes au Mn sans avoir subi un recuit thermique. Notamment nous allons voir dans ce chapitre que l'implantation de Mn a plus que 1016 ions/cm 2 amorphise la partie implantee du materiau et le Mn implante se dispose en profondeur sur un profil gaussien. De point de vue magnetique les atomes implantes se trouvent dans un etat paramagnetique entre 5 et 300 K ayant le spin 5/2. Dans le chapitre 7 nous presentons les proprietes des echantillons recuits a basses temperatures. Nous allons voir que dans ces echantillons la couche implantee est polycristalline et les atomes de Mn sont toujours dans un etat paramagnetique. Dans les chapitres 8 et 9, qui sont les plus volumineux, nous presentons les resultats des mesures sur les echantillons recuits a hautes temperatures: il s'agit d'InP et du GaP implantes au Mn, dans le chapitre 8 et d'InP co-implante au Mn et au P, dans le chapitre 9. D'abord, dans le chapitre 8 nous allons voir que le recuit a hautes temperatures mene a une recristallisation epitaxiale du InMnP et du GaMnP; aussi la majorite des atomes de Mn se deplacent vers la surface a cause d'un effet de segregation. Dans les regions de la surface, concentres en Mn, les mesures XRD et TEM identifient la formation de MnP et d'In cristallin. Les mesures magnetiques identifient aussi la presence de MnP ferromagnetique. De plus dans ces mesures on trouve qu'environ 60 % du Mn implante est en etat paramagnetique avec la valeur du spin reduite par rapport a celle trouvee dans les echantillons non-recuits. Dans les echantillons InP co-implantes au Mn et au P la recristallisation est seulement partielle mais l'effet de segregation du Mn a la surface est beaucoup reduit. Dans ce cas plus que 50 % du Mn forme des particules MnP et le restant est en etat paramagnetique au spin 5/2, dilue dans la matrice de l'InP. Finalement dans le dernier chapitre, 10, nous presentons les conclusions principales auxquels nous sommes arrives et discutons les resultats et leurs implications. Mots cles: implantation ionique, InP, GaP, amorphisation, MnP, segregation, co-implantation, couche polycristalline, paramagnetisme, ferromagnetisme.
NASA Astrophysics Data System (ADS)
Bukh, Andrei; Rybalova, Elena; Semenova, Nadezhda; Strelkova, Galina; Anishchenko, Vadim
2017-11-01
We study numerically the dynamics of a network made of two coupled one-dimensional ensembles of discrete-time systems. The first ensemble is represented by a ring of nonlocally coupled Henon maps and the second one by a ring of nonlocally coupled Lozi maps. We find that the network of coupled ensembles can realize all the spatio-temporal structures which are observed both in the Henon map ensemble and in the Lozi map ensemble while uncoupled. Moreover, we reveal a new type of spatiotemporal structure, a solitary state chimera, in the considered network. We also establish and describe the effect of mutual synchronization of various complex spatiotemporal patterns in the system of two coupled ensembles of Henon and Lozi maps.
Obituary: Daniel E. Harris (1934 - 2015)
NASA Astrophysics Data System (ADS)
Madrid, Juan P.; Massaro, Francesco; Cheung, Teddy
Our friend and colleague, Daniel E. Harris, died on December 6th 2015. Dan was a passionate astronomer and world traveller. He led a rich and scientifically productive life until the end. Dan was the first person to receive a PhD in radio astronomy at Caltech where he was a student of John Bolton, one of the fathers of Radio Astronomy and the founder of the Owens Valley Radio Observatory that Dan used for his thesis and first publications. One of Dan's first projects was with Jim Roberts to measure improved positions and flux densities for radio sources in the newly released 3C catalog. During this study, Dan discovered the first flat spectrum radio sources, which he named CTA 21, CTA 26, and CTA 102 and which were later identified as quasars. His PhD thesis resulted in the then definitive study of the evolution of supernova remnants. Later Dan worked on radio galaxies and active galactic nuclei (AGN) first at radio and then at X-ray wavelengths with the Einstein, ROSAT, and Chandra Observatories where he pioneered the new field of relativistic X-ray jets and how they relate to radio galaxies and AGN. After graduating from Caltech in 1961, Dan wanted to see the world. Beginning in 1962, Dan lived in Bologna, Italy, where he worked with Professor Marcello Ceccarelli and the radio astronomy group and was active in the construction of the Northern Cross Radio Observatory ("la Croce"), the first Italian radio telescope. He left Bologna in the Spring of 1964 as his friends remember him to "divenir del mondo esperto e de li vizi umani e del valore"1, as he joined V. Radhakrishnan (Rad) and Dave Morris to sail in a 36-ft trimaran from England to Puerto Rico where he took a position at the Arecibo Observatory working with Marshall Cohen on interplanetary scintillations. After five years at the Arecibo Observatory, Dan went on to work at the Argentinian Institute of Radio Astronomy, Harvard University, the Dwingeloo Radio Observatory in the Netherlands, and at the Dominion Radio Observatory in Penticton, Canada. He finally returned to the U.S. in 1980 and spent the next 35 years at the Smithsonian Astrophysical Observatory (SAO) in Cambridge, Massachusetts. One of Dan's most memorable attributes was his cheerful enjoyment of life. Dan was the life of the party; he was joyful, open and friendly. Dan enjoyed good food, drinks, and conversations with friends and strangers alike. Dan belonged to a time prior to big egos when scientific discoveries seemed to be made by the curious, adventurous, and non-conformists. Dan's free spirit manifested itself in his publications. Dan was a rigorous scientist who was not afraid of writing his papers with a hint of good humour. When presenting new radio measurements Dan went for "descriptive names" to describe radio maps2 such as the "original," the "goldfish," the "double," the "beaver," the "bean." At a recent IAU symposium held in the Galápagos Islands, where many of his colleagues and friends gathered to celebrate his 80th birthday, Dan's talk was entitled: "Slugs and Snails and Puppy Dog Tails: jets from an unconventional angle." As Dan worked with observatories outside the university system he was not officially a faculty member, but he mentored and collaborated with many younger researchers. This younger crowd that with sadness write these lines, always looked up to Dan as a role model in life as well as science, and will most of all miss his steadfast support. He was always ready to share his experience, expertise, and data. Even after leaving his full-time position with Chandra, Dan never retired. He kept working part-time at the SAO where he continued his research and was awarded competitive grants, telescope time, published, and led collaborations. Dan also worked for peace causes throughout his life. Dan joined the tax resistance movement during the Vietnam war, a movement of hundreds of thousands of Americans who refused to pay a portion of their income tax to the government in order to defund the war. He was also an active member of the organization that published the Astronomers and the Arms Race Newsletter. As a concerned scientist, Dan advocated against the star wars agenda and the militarization of space during the eighties. Dan was an active member of the AAS and frequent participant at meetings. The last meeting he attended was the 2015 Seattle one where he presented a talk and chaired a session. His presence at the 2015 meeting is a testament of his unwavering energy. Dan is survived by his wife Barbara, three children: Justine, Seth, and Leila, and four grandchildren.
Ling, Qing-Hua; Song, Yu-Qing; Han, Fei; Yang, Dan; Huang, De-Shuang
2016-01-01
For ensemble learning, how to select and combine the candidate classifiers are two key issues which influence the performance of the ensemble system dramatically. Random vector functional link networks (RVFL) without direct input-to-output links is one of suitable base-classifiers for ensemble systems because of its fast learning speed, simple structure and good generalization performance. In this paper, to obtain a more compact ensemble system with improved convergence performance, an improved ensemble of RVFL based on attractive and repulsive particle swarm optimization (ARPSO) with double optimization strategy is proposed. In the proposed method, ARPSO is applied to select and combine the candidate RVFL. As for using ARPSO to select the optimal base RVFL, ARPSO considers both the convergence accuracy on the validation data and the diversity of the candidate ensemble system to build the RVFL ensembles. In the process of combining RVFL, the ensemble weights corresponding to the base RVFL are initialized by the minimum norm least-square method and then further optimized by ARPSO. Finally, a few redundant RVFL is pruned, and thus the more compact ensemble of RVFL is obtained. Moreover, in this paper, theoretical analysis and justification on how to prune the base classifiers on classification problem is presented, and a simple and practically feasible strategy for pruning redundant base classifiers on both classification and regression problems is proposed. Since the double optimization is performed on the basis of the single optimization, the ensemble of RVFL built by the proposed method outperforms that built by some single optimization methods. Experiment results on function approximation and classification problems verify that the proposed method could improve its convergence accuracy as well as reduce the complexity of the ensemble system. PMID:27835638
Ling, Qing-Hua; Song, Yu-Qing; Han, Fei; Yang, Dan; Huang, De-Shuang
2016-01-01
For ensemble learning, how to select and combine the candidate classifiers are two key issues which influence the performance of the ensemble system dramatically. Random vector functional link networks (RVFL) without direct input-to-output links is one of suitable base-classifiers for ensemble systems because of its fast learning speed, simple structure and good generalization performance. In this paper, to obtain a more compact ensemble system with improved convergence performance, an improved ensemble of RVFL based on attractive and repulsive particle swarm optimization (ARPSO) with double optimization strategy is proposed. In the proposed method, ARPSO is applied to select and combine the candidate RVFL. As for using ARPSO to select the optimal base RVFL, ARPSO considers both the convergence accuracy on the validation data and the diversity of the candidate ensemble system to build the RVFL ensembles. In the process of combining RVFL, the ensemble weights corresponding to the base RVFL are initialized by the minimum norm least-square method and then further optimized by ARPSO. Finally, a few redundant RVFL is pruned, and thus the more compact ensemble of RVFL is obtained. Moreover, in this paper, theoretical analysis and justification on how to prune the base classifiers on classification problem is presented, and a simple and practically feasible strategy for pruning redundant base classifiers on both classification and regression problems is proposed. Since the double optimization is performed on the basis of the single optimization, the ensemble of RVFL built by the proposed method outperforms that built by some single optimization methods. Experiment results on function approximation and classification problems verify that the proposed method could improve its convergence accuracy as well as reduce the complexity of the ensemble system.
NASA Astrophysics Data System (ADS)
Shen, Feifei; Xu, Dongmei; Xue, Ming; Min, Jinzhong
2017-07-01
This study examines the impacts of assimilating radar radial velocity (Vr) data for the simulation of hurricane Ike (2008) with two different ensemble generation techniques in the framework of the hybrid ensemble-variational (EnVar) data assimilation system of Weather Research and Forecasting model. For the generation of ensemble perturbations we apply two techniques, the ensemble transform Kalman filter (ETKF) and the ensemble of data assimilation (EDA). For the ETKF-EnVar, the forecast ensemble perturbations are updated by the ETKF, while for the EDA-EnVar, the hybrid is employed to update each ensemble member with perturbed observations. The ensemble mean is analyzed by the hybrid method with flow-dependent ensemble covariance for both EnVar. The sensitivity of analyses and forecasts to the two applied ensemble generation techniques is investigated in our current study. It is found that the EnVar system is rather stable with different ensemble update techniques in terms of its skill on improving the analyses and forecasts. The EDA-EnVar-based ensemble perturbations are likely to include slightly less organized spatial structures than those in ETKF-EnVar, and the perturbations of the latter are constructed more dynamically. Detailed diagnostics reveal that both of the EnVar schemes not only produce positive temperature increments around the hurricane center but also systematically adjust the hurricane location with the hurricane-specific error covariance. On average, the analysis and forecast from the ETKF-EnVar have slightly smaller errors than that from the EDA-EnVar in terms of track, intensity, and precipitation forecast. Moreover, ETKF-EnVar yields better forecasts when verified against conventional observations.
Pauci ex tanto numero: reduce redundancy in multi-model ensembles
NASA Astrophysics Data System (ADS)
Solazzo, E.; Riccio, A.; Kioutsioukis, I.; Galmarini, S.
2013-08-01
We explicitly address the fundamental issue of member diversity in multi-model ensembles. To date, no attempts in this direction have been documented within the air quality (AQ) community despite the extensive use of ensembles in this field. Common biases and redundancy are the two issues directly deriving from lack of independence, undermining the significance of a multi-model ensemble, and are the subject of this study. Shared, dependant biases among models do not cancel out but will instead determine a biased ensemble. Redundancy derives from having too large a portion of common variance among the members of the ensemble, producing overconfidence in the predictions and underestimation of the uncertainty. The two issues of common biases and redundancy are analysed in detail using the AQMEII ensemble of AQ model results for four air pollutants in two European regions. We show that models share large portions of bias and variance, extending well beyond those induced by common inputs. We make use of several techniques to further show that subsets of models can explain the same amount of variance as the full ensemble with the advantage of being poorly correlated. Selecting the members for generating skilful, non-redundant ensembles from such subsets proved, however, non-trivial. We propose and discuss various methods of member selection and rate the ensemble performance they produce. In most cases, the full ensemble is outscored by the reduced ones. We conclude that, although independence of outputs may not always guarantee enhancement of scores (but this depends upon the skill being investigated), we discourage selecting the members of the ensemble simply on the basis of scores; that is, independence and skills need to be considered disjointly.
NASA Astrophysics Data System (ADS)
Re, Matteo; Valentini, Giorgio
2012-03-01
Ensemble methods are statistical and computational learning procedures reminiscent of the human social learning behavior of seeking several opinions before making any crucial decision. The idea of combining the opinions of different "experts" to obtain an overall “ensemble” decision is rooted in our culture at least from the classical age of ancient Greece, and it has been formalized during the Enlightenment with the Condorcet Jury Theorem[45]), which proved that the judgment of a committee is superior to those of individuals, provided the individuals have reasonable competence. Ensembles are sets of learning machines that combine in some way their decisions, or their learning algorithms, or different views of data, or other specific characteristics to obtain more reliable and more accurate predictions in supervised and unsupervised learning problems [48,116]. A simple example is represented by the majority vote ensemble, by which the decisions of different learning machines are combined, and the class that receives the majority of “votes” (i.e., the class predicted by the majority of the learning machines) is the class predicted by the overall ensemble [158]. In the literature, a plethora of terms other than ensembles has been used, such as fusion, combination, aggregation, and committee, to indicate sets of learning machines that work together to solve a machine learning problem [19,40,56,66,99,108,123], but in this chapter we maintain the term ensemble in its widest meaning, in order to include the whole range of combination methods. Nowadays, ensemble methods represent one of the main current research lines in machine learning [48,116], and the interest of the research community on ensemble methods is witnessed by conferences and workshops specifically devoted to ensembles, first of all the multiple classifier systems (MCS) conference organized by Roli, Kittler, Windeatt, and other researchers of this area [14,62,85,149,173]. Several theories have been proposed to explain the characteristics and the successful application of ensembles to different application domains. For instance, Allwein, Schapire, and Singer interpreted the improved generalization capabilities of ensembles of learning machines in the framework of large margin classifiers [4,177], Kleinberg in the context of stochastic discrimination theory [112], and Breiman and Friedman in the light of the bias-variance analysis borrowed from classical statistics [21,70]. Empirical studies showed that both in classification and regression problems, ensembles improve on single learning machines, and moreover large experimental studies compared the effectiveness of different ensemble methods on benchmark data sets [10,11,49,188]. The interest in this research area is motivated also by the availability of very fast computers and networks of workstations at a relatively low cost that allow the implementation and the experimentation of complex ensemble methods using off-the-shelf computer platforms. However, as explained in Section 26.2 there are deeper reasons to use ensembles of learning machines, motivated by the intrinsic characteristics of the ensemble methods. The main aim of this chapter is to introduce ensemble methods and to provide an overview and a bibliography of the main areas of research, without pretending to be exhaustive or to explain the detailed characteristics of each ensemble method. The paper is organized as follows. In the next section, the main theoretical and practical reasons for combining multiple learners are introduced. Section 26.3 depicts the main taxonomies on ensemble methods proposed in the literature. In Section 26.4 and 26.5, we present an overview of the main supervised ensemble methods reported in the literature, adopting a simple taxonomy, originally proposed in Ref. [201]. Applications of ensemble methods are only marginally considered, but a specific section on some relevant applications of ensemble methods in astronomy and astrophysics has been added (Section 26.6). The conclusion (Section 26.7) ends this paper and lists some issues not covered in this work.
75 FR 80562 - Council on Underserved Communities, Establishment of and Request for Nominations
Federal Register 2010, 2011, 2012, 2013, 2014
2010-12-22
... Underserved Communities may be directed to Dan Jones, telephone (202) 205-7583, fax (202) 481-6536, e-mail dan... made. Nominees may be asked to submit additional information. Nominations must be sent to Dan Jones at [email protected] . Dated: December 16, 2010. Dan Jones, SBA Committee Management Officer. [FR Doc. 2010...
Federal Register 2010, 2011, 2012, 2013, 2014
2012-12-21
..., Ltd., Dan River, Inc., and City of Danville, VA; Notice of Application for Partial Transfer of License... Bankruptcy Trustee for Dan River, Inc. and STS Hydropower, Ltd (co-licensees) transferors and the City of... Schoolfield Hydroelectric Project, FERC No. 2411, located on the Dan River in Pittsylvania County, Virginia...
Building to be Named for Former Rep. Dan Schaefer
Building to be Named for Former Rep. Dan Schaefer For more information contact: e:mail: Public Renewable Energy Laboratory will be renamed to honor retired U.S. Rep. Dan Schaefer on Monday, Jan. 11. In ceremonies beginning at 11 a.m., the center formally will become the Dan Schaefer Federal Building. Congress
Kingsley, Laura J.; Lill, Markus A.
2014-01-01
Computational prediction of ligand entry and egress paths in proteins has become an emerging topic in computational biology and has proven useful in fields such as protein engineering and drug design. Geometric tunnel prediction programs, such as Caver3.0 and MolAxis, are computationally efficient methods to identify potential ligand entry and egress routes in proteins. Although many geometric tunnel programs are designed to accommodate a single input structure, the increasingly recognized importance of protein flexibility in tunnel formation and behavior has led to the more widespread use of protein ensembles in tunnel prediction. However, there has not yet been an attempt to directly investigate the influence of ensemble size and composition on geometric tunnel prediction. In this study, we compared tunnels found in a single crystal structure to ensembles of various sizes generated using different methods on both the apo and holo forms of cytochrome P450 enzymes CYP119, CYP2C9, and CYP3A4. Several protein structure clustering methods were tested in an attempt to generate smaller ensembles that were capable of reproducing the data from larger ensembles. Ultimately, we found that by including members from both the apo and holo data sets, we could produce ensembles containing less than 15 members that were comparable to apo or holo ensembles containing over 100 members. Furthermore, we found that, in the absence of either apo or holo crystal structure data, pseudo-apo or –holo ensembles (e.g. adding ligand to apo protein throughout MD simulations) could be used to resemble the structural ensembles of the corresponding apo and holo ensembles, respectively. Our findings not only further highlight the importance of including protein flexibility in geometric tunnel prediction, but also suggest that smaller ensembles can be as capable as larger ensembles at capturing many of the protein motions important for tunnel prediction at a lower computational cost. PMID:24956479
Huisman, J.A.; Breuer, L.; Bormann, H.; Bronstert, A.; Croke, B.F.W.; Frede, H.-G.; Graff, T.; Hubrechts, L.; Jakeman, A.J.; Kite, G.; Lanini, J.; Leavesley, G.; Lettenmaier, D.P.; Lindstrom, G.; Seibert, J.; Sivapalan, M.; Viney, N.R.; Willems, P.
2009-01-01
An ensemble of 10 hydrological models was applied to the same set of land use change scenarios. There was general agreement about the direction of changes in the mean annual discharge and 90% discharge percentile predicted by the ensemble members, although a considerable range in the magnitude of predictions for the scenarios and catchments under consideration was obvious. Differences in the magnitude of the increase were attributed to the different mean annual actual evapotranspiration rates for each land use type. The ensemble of model runs was further analyzed with deterministic and probabilistic ensemble methods. The deterministic ensemble method based on a trimmed mean resulted in a single somewhat more reliable scenario prediction. The probabilistic reliability ensemble averaging (REA) method allowed a quantification of the model structure uncertainty in the scenario predictions. It was concluded that the use of a model ensemble has greatly increased our confidence in the reliability of the model predictions. ?? 2008 Elsevier Ltd.
NASA Astrophysics Data System (ADS)
Schreiber, M. E.; Simo, J. A.; Freiberg, P. G.
High arsenic concentrations (up to 12,000μg/L) have been measured in groundwater from a confined sandstone aquifer in eastern Wisconsin. The main arsenic source is a sulfide-bearing secondary cement horizon (SCH) that has variable thickness, morphology, and arsenic concentrations. Arsenic occurs in pyrite and marcasite as well as in iron oxyhydroxides but not as a separate arsenopyrite phase. Nearly identical sulfur isotopic signatures in pyrite and dissolved sulfate and the correlation between dissolved sulfate, iron, and arsenic concentrations suggest that sulfide oxidation is the dominant process controlling arsenic release to groundwater. However, arsenic-bearing oxyhydroxides can potentially provide another arsenic source if reducing conditions develop or if they are transported as colloids in the aquifer. Analysis of well data indicates that the intersection of the SCH with static water levels measured in residential wells is strongly correlated with high concentrations of arsenic in groundwater. Field and laboratory data suggest that the most severe arsenic contamination is caused by localized borehole interactions of air, water, and sulfides. Although arsenic contamination is caused by oxidation of naturally occurring sulfides, it is influenced by water-level fluctuations caused by municipal well pumping or climate changes, which can shift geographic areas in which contamination occurs. Résumé De fortes concentrations en arsenic, jusqu'à 12000μg/L, ont été mesurées dans l'eau souterraine d'un aquifère gréseux captif, dans l'est du Wisconsin. La principale source d'arsenic est un horizon à cimentation secondaire (SCH) comportant des sulfures, dont l'épaisseur, la morphologie et les concentrations en arsenic sont variables. L'arsenic est présent dans la pyrite et dans la marcassite, de même que dans des oxy-hydroxydes de fer, mais non pas dans une phase séparée d'arsénopyrite. Les signatures isotopiques du soufre presque identiques dans la pyrite et dans les sulfates dissous et la corrélation entre les concentrations en sulfates, en fer et en arsenic dissous laissent penser que l'oxydation des sulfures est le processus dominant contrôlant la libération de l'arsenic dans les eaux souterraines. Cependant, les oxy-hydroxydes contenant de l'arsenic sont susceptibles d'être une autre source d'arsenic si des conditions réductrices apparaissent ou s'ils sont transportés dans l'aquifère sous forme de colloïdes. L'analyse des données provenant de puits montre que l'intersection entre le SCH et les niveaux statiques des puits domestiques est fortement corrélée à de fortes concentrations en arsenic dans les eaux souterraines. Des données de terrain et de laboratoire conduisent à penser que la contamination en arsenic la plus forte est causée par l'interaction localisée aux forages entre l'air, l'eau et les sulfures. Bien que la contamination en arsenic soit causée par l'oxydation de sulfures présents naturellement, elle est influencée par les fluctuations du niveau piézométrique causées par les pompages du captage municipal ou par les variations climatiques, ce qui peut conduire au déplacement des zones géographiques où se produisent les contaminations. Resumen Se han medido concentraciones de arsénico muy altas (de hasta 12000μg/L) en las aguas subterráneas de un acuífero confinado, en areniscas, localizado en la parte oriental de Wisconsin (EEUU). La fuente principal de arsénico es un horizonte de cementación secundaria (SCH) con un alto contenido en sulfuros, y con una gran variabilidad en espesor, morfología y concentraciones de As. El arsénico aparece en piritas y marcasitas, además de en oxihidróxidos de hierro, pero no como una fase independiente de arsenopiritas. El hecho que la marca isotópica de piritas y sulfatos disueltos sea muy similar, y que exista una gran correlación entre las concentraciones de sulfato disuelto, hierro y arsénico sugiere que la oxidación de sulfuros es el proceso que controla la aportación de arsénico al agua subterránea. Sin embargo, los oxihidróxidos con alto contenido en arsénico podrían suponer otra fuente de arsénico si se llegaran a desarrollar condiciones reductoras o si se transportaran como coloides por el acuífero. De los datos procedentes de pozos, se ve una fuerte correlación entre la presencia de altas concentraciones de As en el agua y que el nivel freático intersecte el SCH. Los datos de campo y de laboratorio indican que los puntos con mayor contaminación de arsénico son debidos a interacciones de carácter local y en los propios pozos entre aire, agua y sulfuros. Aunque la contaminación por As está causada por la oxidación de sulfuros presentes de manera natural, también está muy influenciada por las fluctuaciones en los niveles freáticos causadas por bombeos o cambios climáticos.
Type 2 diabetes mellitus in Danish children and adolescents in 2014.
Oester, Ida Margrethe Bach; Kloppenborg, Julie Tonsgaard; Olsen, Birthe Susanne; Johannesen, Jesper
2016-08-01
The global increase in childhood obesity has in some countries been followed by an increase in type 2 diabetes mellitus (T2DM); however, the prevalence of T2DM among Danish children and adolescents is currently unknown. The aims of this cross-sectional study were to determine the prevalence of T2DM in children and adolescents in Denmark together with status on treatment, metabolic control, and late diabetic complications. Individuals were identified in the Danish Registry for Diabetes in Children and Adolescents (DanDiabKids), and clinical information regarding these was obtained from the respective pediatric departments. In total, seven young individuals (three boys) with T2DM were identified, according to the American Diabetes Association (ADA)/International Society of Pediatric and Adolecent Diabetes (ISPAD) guidelines, leading to a prevalence of T2DM at 0.6/100 000 inhabitants in Denmark. Only three of the patients had hyperglycemic symptoms at diagnosis. One boy was overweight and six were obese (two boys). Currently, no patients fulfill the treatment target of glycosylated hemoglobin (HbA1c) <7.0% (53 mmol/mol) according to the guidelines for treatment of diabetes. In 2014, there is no increasing prevalence of T2DM in children and adolescents in Denmark. Nevertheless, the current treatment regimen is not satisfying, as none of the patients truly fulfill the treatment target. © 2015 John Wiley & Sons A/S. Published by John Wiley & Sons Ltd.
Random matrix ensembles for many-body quantum systems
NASA Astrophysics Data System (ADS)
Vyas, Manan; Seligman, Thomas H.
2018-04-01
Classical random matrix ensembles were originally introduced in physics to approximate quantum many-particle nuclear interactions. However, there exists a plethora of quantum systems whose dynamics is explained in terms of few-particle (predom-inantly two-particle) interactions. The random matrix models incorporating the few-particle nature of interactions are known as embedded random matrix ensembles. In the present paper, we provide a brief overview of these two ensembles and illustrate how the embedded ensembles can be successfully used to study decoherence of a qubit interacting with an environment, both for fermionic and bosonic embedded ensembles. Numerical calculations show the dependence of decoherence on the nature of the environment.
On the structure and phase transitions of power-law Poissonian ensembles
NASA Astrophysics Data System (ADS)
Eliazar, Iddo; Oshanin, Gleb
2012-10-01
Power-law Poissonian ensembles are Poisson processes that are defined on the positive half-line, and that are governed by power-law intensities. Power-law Poissonian ensembles are stochastic objects of fundamental significance; they uniquely display an array of fractal features and they uniquely generate a span of important applications. In this paper we apply three different methods—oligarchic analysis, Lorenzian analysis and heterogeneity analysis—to explore power-law Poissonian ensembles. The amalgamation of these analyses, combined with the topology of power-law Poissonian ensembles, establishes a detailed and multi-faceted picture of the statistical structure and the statistical phase transitions of these elemental ensembles.
Cerruela García, G; García-Pedrajas, N; Luque Ruiz, I; Gómez-Nieto, M Á
2018-03-01
This paper proposes a method for molecular activity prediction in QSAR studies using ensembles of classifiers constructed by means of two supervised subspace projection methods, namely nonparametric discriminant analysis (NDA) and hybrid discriminant analysis (HDA). We studied the performance of the proposed ensembles compared to classical ensemble methods using four molecular datasets and eight different models for the representation of the molecular structure. Using several measures and statistical tests for classifier comparison, we observe that our proposal improves the classification results with respect to classical ensemble methods. Therefore, we show that ensembles constructed using supervised subspace projections offer an effective way of creating classifiers in cheminformatics.
NASA Astrophysics Data System (ADS)
Bianconi, Ginestra
2009-03-01
In this paper we generalize the concept of random networks to describe network ensembles with nontrivial features by a statistical mechanics approach. This framework is able to describe undirected and directed network ensembles as well as weighted network ensembles. These networks might have nontrivial community structure or, in the case of networks embedded in a given space, they might have a link probability with a nontrivial dependence on the distance between the nodes. These ensembles are characterized by their entropy, which evaluates the cardinality of networks in the ensemble. In particular, in this paper we define and evaluate the structural entropy, i.e., the entropy of the ensembles of undirected uncorrelated simple networks with given degree sequence. We stress the apparent paradox that scale-free degree distributions are characterized by having small structural entropy while they are so widely encountered in natural, social, and technological complex systems. We propose a solution to the paradox by proving that scale-free degree distributions are the most likely degree distribution with the corresponding value of the structural entropy. Finally, the general framework we present in this paper is able to describe microcanonical ensembles of networks as well as canonical or hidden-variable network ensembles with significant implications for the formulation of network-constructing algorithms.
Constructing better classifier ensemble based on weighted accuracy and diversity measure.
Zeng, Xiaodong; Wong, Derek F; Chao, Lidia S
2014-01-01
A weighted accuracy and diversity (WAD) method is presented, a novel measure used to evaluate the quality of the classifier ensemble, assisting in the ensemble selection task. The proposed measure is motivated by a commonly accepted hypothesis; that is, a robust classifier ensemble should not only be accurate but also different from every other member. In fact, accuracy and diversity are mutual restraint factors; that is, an ensemble with high accuracy may have low diversity, and an overly diverse ensemble may negatively affect accuracy. This study proposes a method to find the balance between accuracy and diversity that enhances the predictive ability of an ensemble for unknown data. The quality assessment for an ensemble is performed such that the final score is achieved by computing the harmonic mean of accuracy and diversity, where two weight parameters are used to balance them. The measure is compared to two representative measures, Kappa-Error and GenDiv, and two threshold measures that consider only accuracy or diversity, with two heuristic search algorithms, genetic algorithm, and forward hill-climbing algorithm, in ensemble selection tasks performed on 15 UCI benchmark datasets. The empirical results demonstrate that the WAD measure is superior to others in most cases.
Abuassba, Adnan O M; Zhang, Dezheng; Luo, Xiong; Shaheryar, Ahmad; Ali, Hazrat
2017-01-01
Extreme Learning Machine (ELM) is a fast-learning algorithm for a single-hidden layer feedforward neural network (SLFN). It often has good generalization performance. However, there are chances that it might overfit the training data due to having more hidden nodes than needed. To address the generalization performance, we use a heterogeneous ensemble approach. We propose an Advanced ELM Ensemble (AELME) for classification, which includes Regularized-ELM, L 2 -norm-optimized ELM (ELML2), and Kernel-ELM. The ensemble is constructed by training a randomly chosen ELM classifier on a subset of training data selected through random resampling. The proposed AELM-Ensemble is evolved by employing an objective function of increasing diversity and accuracy among the final ensemble. Finally, the class label of unseen data is predicted using majority vote approach. Splitting the training data into subsets and incorporation of heterogeneous ELM classifiers result in higher prediction accuracy, better generalization, and a lower number of base classifiers, as compared to other models (Adaboost, Bagging, Dynamic ELM ensemble, data splitting ELM ensemble, and ELM ensemble). The validity of AELME is confirmed through classification on several real-world benchmark datasets.
Abuassba, Adnan O. M.; Ali, Hazrat
2017-01-01
Extreme Learning Machine (ELM) is a fast-learning algorithm for a single-hidden layer feedforward neural network (SLFN). It often has good generalization performance. However, there are chances that it might overfit the training data due to having more hidden nodes than needed. To address the generalization performance, we use a heterogeneous ensemble approach. We propose an Advanced ELM Ensemble (AELME) for classification, which includes Regularized-ELM, L2-norm-optimized ELM (ELML2), and Kernel-ELM. The ensemble is constructed by training a randomly chosen ELM classifier on a subset of training data selected through random resampling. The proposed AELM-Ensemble is evolved by employing an objective function of increasing diversity and accuracy among the final ensemble. Finally, the class label of unseen data is predicted using majority vote approach. Splitting the training data into subsets and incorporation of heterogeneous ELM classifiers result in higher prediction accuracy, better generalization, and a lower number of base classifiers, as compared to other models (Adaboost, Bagging, Dynamic ELM ensemble, data splitting ELM ensemble, and ELM ensemble). The validity of AELME is confirmed through classification on several real-world benchmark datasets. PMID:28546808
The development of ensemble theory. A new glimpse at the history of statistical mechanics
NASA Astrophysics Data System (ADS)
Inaba, Hajime
2015-12-01
This paper investigates the history of statistical mechanics from the viewpoint of the development of the ensemble theory from 1871 to 1902. In 1871, Ludwig Boltzmann introduced a prototype model of an ensemble that represents a polyatomic gas. In 1879, James Clerk Maxwell defined an ensemble as copies of systems of the same energy. Inspired by H.W. Watson, he called his approach "statistical". Boltzmann and Maxwell regarded the ensemble theory as a much more general approach than the kinetic theory. In the 1880s, influenced by Hermann von Helmholtz, Boltzmann made use of ensembles to establish thermodynamic relations. In Elementary Principles in Statistical Mechanics of 1902, Josiah Willard Gibbs tried to get his ensemble theory to mirror thermodynamics, including thermodynamic operations in its scope. Thermodynamics played the role of a "blind guide". His theory of ensembles can be characterized as more mathematically oriented than Einstein's theory proposed in the same year. Mechanical, empirical, and statistical approaches to foundations of statistical mechanics are presented. Although it was formulated in classical terms, the ensemble theory provided an infrastructure still valuable in quantum statistics because of its generality.
Constructing Better Classifier Ensemble Based on Weighted Accuracy and Diversity Measure
Chao, Lidia S.
2014-01-01
A weighted accuracy and diversity (WAD) method is presented, a novel measure used to evaluate the quality of the classifier ensemble, assisting in the ensemble selection task. The proposed measure is motivated by a commonly accepted hypothesis; that is, a robust classifier ensemble should not only be accurate but also different from every other member. In fact, accuracy and diversity are mutual restraint factors; that is, an ensemble with high accuracy may have low diversity, and an overly diverse ensemble may negatively affect accuracy. This study proposes a method to find the balance between accuracy and diversity that enhances the predictive ability of an ensemble for unknown data. The quality assessment for an ensemble is performed such that the final score is achieved by computing the harmonic mean of accuracy and diversity, where two weight parameters are used to balance them. The measure is compared to two representative measures, Kappa-Error and GenDiv, and two threshold measures that consider only accuracy or diversity, with two heuristic search algorithms, genetic algorithm, and forward hill-climbing algorithm, in ensemble selection tasks performed on 15 UCI benchmark datasets. The empirical results demonstrate that the WAD measure is superior to others in most cases. PMID:24672402
Improving land resource evaluation using fuzzy neural network ensembles
Xue, Yue-Ju; HU, Y.-M.; Liu, S.-G.; YANG, J.-F.; CHEN, Q.-C.; BAO, S.-T.
2007-01-01
Land evaluation factors often contain continuous-, discrete- and nominal-valued attributes. In traditional land evaluation, these different attributes are usually graded into categorical indexes by land resource experts, and the evaluation results rely heavily on experts' experiences. In order to overcome the shortcoming, we presented a fuzzy neural network ensemble method that did not require grading the evaluation factors into categorical indexes and could evaluate land resources by using the three kinds of attribute values directly. A fuzzy back propagation neural network (BPNN), a fuzzy radial basis function neural network (RBFNN), a fuzzy BPNN ensemble, and a fuzzy RBFNN ensemble were used to evaluate the land resources in Guangdong Province. The evaluation results by using the fuzzy BPNN ensemble and the fuzzy RBFNN ensemble were much better than those by using the single fuzzy BPNN and the single fuzzy RBFNN, and the error rate of the single fuzzy RBFNN or fuzzy RBFNN ensemble was lower than that of the single fuzzy BPNN or fuzzy BPNN ensemble, respectively. By using the fuzzy neural network ensembles, the validity of land resource evaluation was improved and reliance on land evaluators' experiences was considerably reduced. ?? 2007 Soil Science Society of China.
Ensemble Eclipse: A Process for Prefab Development Environment for the Ensemble Project
NASA Technical Reports Server (NTRS)
Wallick, Michael N.; Mittman, David S.; Shams, Khawaja, S.; Bachmann, Andrew G.; Ludowise, Melissa
2013-01-01
This software simplifies the process of having to set up an Eclipse IDE programming environment for the members of the cross-NASA center project, Ensemble. It achieves this by assembling all the necessary add-ons and custom tools/preferences. This software is unique in that it allows developers in the Ensemble Project (approximately 20 to 40 at any time) across multiple NASA centers to set up a development environment almost instantly and work on Ensemble software. The software automatically has the source code repositories and other vital information and settings included. The Eclipse IDE is an open-source development framework. The NASA (Ensemble-specific) version of the software includes Ensemble-specific plug-ins as well as settings for the Ensemble project. This software saves developers the time and hassle of setting up a programming environment, making sure that everything is set up in the correct manner for Ensemble development. Existing software (i.e., standard Eclipse) requires an intensive setup process that is both time-consuming and error prone. This software is built once by a single user and tested, allowing other developers to simply download and use the software
Ensemble data assimilation in the Red Sea: sensitivity to ensemble selection and atmospheric forcing
NASA Astrophysics Data System (ADS)
Toye, Habib; Zhan, Peng; Gopalakrishnan, Ganesh; Kartadikaria, Aditya R.; Huang, Huang; Knio, Omar; Hoteit, Ibrahim
2017-07-01
We present our efforts to build an ensemble data assimilation and forecasting system for the Red Sea. The system consists of the high-resolution Massachusetts Institute of Technology general circulation model (MITgcm) to simulate ocean circulation and of the Data Research Testbed (DART) for ensemble data assimilation. DART has been configured to integrate all members of an ensemble adjustment Kalman filter (EAKF) in parallel, based on which we adapted the ensemble operations in DART to use an invariant ensemble, i.e., an ensemble Optimal Interpolation (EnOI) algorithm. This approach requires only single forward model integration in the forecast step and therefore saves substantial computational cost. To deal with the strong seasonal variability of the Red Sea, the EnOI ensemble is then seasonally selected from a climatology of long-term model outputs. Observations of remote sensing sea surface height (SSH) and sea surface temperature (SST) are assimilated every 3 days. Real-time atmospheric fields from the National Center for Environmental Prediction (NCEP) and the European Center for Medium-Range Weather Forecasts (ECMWF) are used as forcing in different assimilation experiments. We investigate the behaviors of the EAKF and (seasonal-) EnOI and compare their performances for assimilating and forecasting the circulation of the Red Sea. We further assess the sensitivity of the assimilation system to various filtering parameters (ensemble size, inflation) and atmospheric forcing.
Simulation's Ensemble is Better Than Ensemble Simulation
NASA Astrophysics Data System (ADS)
Yan, X.
2017-12-01
Simulation's ensemble is better than ensemble simulation Yan Xiaodong State Key Laboratory of Earth Surface Processes and Resource Ecology (ESPRE) Beijing Normal University,19 Xinjiekouwai Street, Haidian District, Beijing 100875, China Email: yxd@bnu.edu.cnDynamical system is simulated from initial state. However initial state data is of great uncertainty, which leads to uncertainty of simulation. Therefore, multiple possible initial states based simulation has been used widely in atmospheric science, which has indeed been proved to be able to lower the uncertainty, that was named simulation's ensemble because multiple simulation results would be fused . In ecological field, individual based model simulation (forest gap models for example) can be regarded as simulation's ensemble compared with community based simulation (most ecosystem models). In this talk, we will address the advantage of individual based simulation and even their ensembles.
Visualization and classification of physiological failure modes in ensemble hemorrhage simulation
NASA Astrophysics Data System (ADS)
Zhang, Song; Pruett, William Andrew; Hester, Robert
2015-01-01
In an emergency situation such as hemorrhage, doctors need to predict which patients need immediate treatment and care. This task is difficult because of the diverse response to hemorrhage in human population. Ensemble physiological simulations provide a means to sample a diverse range of subjects and may have a better chance of containing the correct solution. However, to reveal the patterns and trends from the ensemble simulation is a challenging task. We have developed a visualization framework for ensemble physiological simulations. The visualization helps users identify trends among ensemble members, classify ensemble member into subpopulations for analysis, and provide prediction to future events by matching a new patient's data to existing ensembles. We demonstrated the effectiveness of the visualization on simulated physiological data. The lessons learned here can be applied to clinically-collected physiological data in the future.
NASA Astrophysics Data System (ADS)
Auban-Senzier, P.; Bourbonnais, C.; Jérome, D.; Lenoir, C.; Batail, P.; Canadell, E.; Buisson, J. P.; Lefrant, S.
1993-03-01
We have performed the simultaneous investigation of the isotope effect on the superconducting transition and on the Raman spectra in the organic superconductor β_H-(BEDT-TTF)2I3 (T_c = 8 K). For this purpose, we substitute ^{13}C for ^{12}C on the carbon sites of the central double bond of BEDT-TTF molecule. The isotope shifts measured by Raman experiments can be fairly well explained by standard molecular dynamics. However, the critical temperature is lowered by 0.2 K in the ^{13}C enriched material. We analyse the possible sources of this remarkable downward shift which leads to an isotope coefficient higher than the BCS value. The extended-Hückel calculations of the density of states for the two HOMO bands of β_H-(BEDT-TTF)2I3 do show that, within the framework of a weak coupling theory, its sizeable variation on the scale of ω_D cannot account for the observed isotope effect. On the other hand, we discuss how inelastic electronic scattering observed in resistivity measurements just above T_c can lead through a pair breaking mechanism to a sizeable increase of the isotope coefficient. Nous présentons une étude simultanée d'effet isotopique sur la transition supraconductrice et les spectres Raman dans le supraconducteur organique β_H-(BEDT-TTF)2I3 (T_c = 8 K). Pour cela, nous avons synthétisé le composé dans lequel les atomes de carbone de la double liaison centrale de la molécule BEDT-TTF sont substitués par l'isotope ^{13}C. Les déplacements isotopiques mesurés par spectroscopie Raman sont bien expliqués par la dynamique moléculaire standard. Cependant, la température critique est abaissée de 0.2 K dans le matériau enrichi en ^{13}C. Nous étudions les origines possibles de cet effet qui permet d'obtenir un coefficient isotopique supérieur à la valeur BCS. Des calculs de la densité d'états effectués par la méthode de Hückel étendue pour les deux bandes HOMO du composé montrent que, dans le cadre d'une théorie de couplage faible, son importante variation à l'échelle de ω_D ne peut expliquer l'effet observé. D'autre part, nous expliquons comment la diffusion électronique inélastique observée en résistivité juste au-dessus de T_c peut conduire via un mécanisme de brisure de paires, à une augmentation significative du coefficient isotopique.
NASA Astrophysics Data System (ADS)
Hamieh, Tayssir
2005-05-01
Né simultanément à Mulhouse et à Beyrouth en 1996 dans le cadre d'une collaboraiion franco-libanaise sur une initiative personnelle de Monsieur Tayssir HAMIEH. le Colloque Franco-Libanais sur la Science des Matériaux (CSM), qui s'inscrit dans le cadre des relations étroites entre la France et le Liban, est très vite devenu une occasion très importante de rencontre entre scientifiques de haut niveau, non seulement, du contour méditerranéen mais également des pays européens, américains et arabes. La quatrieme édition CSM4 est une véritable réussite grâce à la participation des chercheurs confirmés dans tous les domaines des sciences de matériaux et venant de plusieurs pays tels que la France, I'Algérie, Le Liban, la Syrie, le Maroc, la Tunisie, l'Italie, l'Espagne, le Portugal, le Royaume Uni, les États-Unis, la Russie, l'Allemagne, le Japon et I'Inde ; pour présenter plus de 350 communications orales et par affiche et couvrant presque toutes les disciplines des systèmes des matériaux. Le choix des diffèrents thèmes du colloque sur la science des matériaux a été dicté par l'importance capitale de cette discipline dans notre civilisation moderne. En fait, les matériaux utilisés pour la fabrication artisanale ou industrielle d'objets, de produits et de systèmes ainsi que pour la réalisation de constructions et d'équipements ont de tout temps défini le niveau de notre civilisation technique. La réalisation des objectifs communs de notre monde en plein développement, pour ne pas dire en pleine mutation, est en grande partie tributaire de la mise au point de nouveaux matériaux et de procédés de transformation et d'assemblages nouveaux, présentant des performances et des qualités améliorées. Le colloque a illustré et traduit, de manière remarquables, l'excellente collaboration entre chercheurs libanais et français. Le partenariat est exemplaire par la qualité des laboratoires impliqués et par le niveau scientifique des résultats. Nous souhaitons que ce colloque franco-libanais sur la science des matériaux continue son succès implacable et incontournable et oeuvre pour une collaboration fructueuse entre les chercheurs des deux pays et les autres chercheurs des pays arabes et francophones. Coordinateur et Éditeur du Colloque Tayssir HAMIEH
NASA Astrophysics Data System (ADS)
Ferenc, Kovats
1986-07-01
Desuis mon enfance je suis un type soidisant visuel. Cette deviation etait toujours profitable pour moi, pour le clinicien , ainsi que pour le rechercheur scientifique.I1 y a trente ans, que dans l'Atlas Radioanatomique du Thorax nous avons deja utilis6 la conception de trois dimensions. Dans les derni6res edition de cet ouvrage nous avons travaille mke avec la guatrieme, le temps facteur. DePuis cette 6poque-la je me suis ori-en-be vers les quatre dimensions, vers les mouvements dans l'espace et le temps. -:tudiant les mouvements,les mouvements ventilatoires mesure par photogrammetrie le tronc humain.En projetant sur la surface du tronc un reseau quadratique, on pent compter de 3oo-400 points d'information, si un carre est 2 This 2 cm. Simultanement on pent ainsi contraler les deplacement relatifs des differents points. Travaillant avec seriophotographie et ces dernieres annees avec Video, nous avons des documents cDntinuellement en trois dimensions sun la position actuelle en espace de notre modele.On pent mesurer, reproduire la position momentan6e du sujet d'une frequence et dans la quantite desiree. Par exemple on peut les reproduire, une a une, comme une sculpture, en domontrant les changements d'un tronc humain pendant les mouvements respiratoires, comme nous avions fait en 1969 avec le sculpteur Istvan Bencsik en realisant nos differents modeles en inspiration et expiration.flais thooriquement on pent construire tant de sculptures qu'on vent entre les deux positions extremes.La methode est tres utilisable pour l'observation des mouvements sportifs on artistiques, comme le ballet par exemple. / Figure 1./ En etudiant en plusieures series la morphometrie des mouvements respiratoires on pent acquerir une certain experience, qui concerne la phase de respiration, on se trouve un corps humain sculpte, dessine on peint. Come le mimique d'un visage explkue toujours l'6tat affectif d'un individu, le corps humain peut expliquer tart des chases entre les mains d'un artiste doue. Liais nous retournerons encore a cet argument. Avec un objet d'art l'artiste registe un seul moment dune serie de mouvements de son sujet, spit en deux dimensions, s'il est peintre on graveur , dessinateur etc., spit en trois dimensions s'il est sculpteur.i:algre cela , il y a beaucoup d'oeuvresd'art dyna-miques, qui donnent l'impression de mouvement.On pent produire cet effetavec la ROMDOSi-tion des mouvements non simultanees , comme par exemple sur les tableaux de XIX 'si8cle representant des concours hyppiques, on les extremit-ees des chevaux sort distandue an maximum en avant et en arriere; c'est un mode de galop inexistant, mais malgr6, qu'il est faux, it suggere la vitesse.
NASA Astrophysics Data System (ADS)
Taniguchi, Kenji
2018-04-01
To investigate future variations in high-impact weather events, numerous samples are required. For the detailed assessment in a specific region, a high spatial resolution is also required. A simple ensemble simulation technique is proposed in this paper. In the proposed technique, new ensemble members were generated from one basic state vector and two perturbation vectors, which were obtained by lagged average forecasting simulations. Sensitivity experiments with different numbers of ensemble members, different simulation lengths, and different perturbation magnitudes were performed. Experimental application to a global warming study was also implemented for a typhoon event. Ensemble-mean results and ensemble spreads of total precipitation, atmospheric conditions showed similar characteristics across the sensitivity experiments. The frequencies of the maximum total and hourly precipitation also showed similar distributions. These results indicate the robustness of the proposed technique. On the other hand, considerable ensemble spread was found in each ensemble experiment. In addition, the results of the application to a global warming study showed possible variations in the future. These results indicate that the proposed technique is useful for investigating various meteorological phenomena and the impacts of global warming. The results of the ensemble simulations also enable the stochastic evaluation of differences in high-impact weather events. In addition, the impacts of a spectral nudging technique were also examined. The tracks of a typhoon were quite different between cases with and without spectral nudging; however, the ranges of the tracks among ensemble members were comparable. It indicates that spectral nudging does not necessarily suppress ensemble spread.
NASA Astrophysics Data System (ADS)
Kobayashi, Kenichiro; Otsuka, Shigenori; Apip; Saito, Kazuo
2016-08-01
This paper presents a study on short-term ensemble flood forecasting specifically for small dam catchments in Japan. Numerical ensemble simulations of rainfall from the Japan Meteorological Agency nonhydrostatic model (JMA-NHM) are used as the input data to a rainfall-runoff model for predicting river discharge into a dam. The ensemble weather simulations use a conventional 10 km and a high-resolution 2 km spatial resolutions. A distributed rainfall-runoff model is constructed for the Kasahori dam catchment (approx. 70 km2) and applied with the ensemble rainfalls. The results show that the hourly maximum and cumulative catchment-average rainfalls of the 2 km resolution JMA-NHM ensemble simulation are more appropriate than the 10 km resolution rainfalls. All the simulated inflows based on the 2 and 10 km rainfalls become larger than the flood discharge of 140 m3 s-1, a threshold value for flood control. The inflows with the 10 km resolution ensemble rainfall are all considerably smaller than the observations, while at least one simulated discharge out of 11 ensemble members with the 2 km resolution rainfalls reproduces the first peak of the inflow at the Kasahori dam with similar amplitude to observations, although there are spatiotemporal lags between simulation and observation. To take positional lags into account of the ensemble discharge simulation, the rainfall distribution in each ensemble member is shifted so that the catchment-averaged cumulative rainfall of the Kasahori dam maximizes. The runoff simulation with the position-shifted rainfalls shows much better results than the original ensemble discharge simulations.
van Diedenhoven, Bastiaan; Ackerman, Andrew S.; Fridlind, Ann M.; Cairns, Brian
2017-01-01
The use of ensemble-average values of aspect ratio and distortion parameter of hexagonal ice prisms for the estimation of ensemble-average scattering asymmetry parameters is evaluated. Using crystal aspect ratios greater than unity generally leads to ensemble-average values of aspect ratio that are inconsistent with the ensemble-average asymmetry parameters. When a definition of aspect ratio is used that limits the aspect ratio to below unity (α≤1) for both hexagonal plates and columns, the effective asymmetry parameters calculated using ensemble-average aspect ratios are generally consistent with ensemble-average asymmetry parameters, especially if aspect ratios are geometrically averaged. Ensemble-average distortion parameters generally also yield effective asymmetry parameters that are largely consistent with ensemble-average asymmetry parameters. In the case of mixtures of plates and columns, it is recommended to geometrically average the α≤1 aspect ratios and to subsequently calculate the effective asymmetry parameter using a column or plate geometry when the contribution by columns to a given mixture’s total projected area is greater or lower than 50%, respectively. In addition, we show that ensemble-average aspect ratios, distortion parameters and asymmetry parameters can generally be retrieved accurately from simulated multi-directional polarization measurements based on mixtures of varying columns and plates. However, such retrievals tend to be somewhat biased toward yielding column-like aspect ratios. Furthermore, generally large retrieval errors can occur for mixtures with approximately equal contributions of columns and plates and for ensembles with strong contributions of thin plates. PMID:28983127
Federal Register 2010, 2011, 2012, 2013, 2014
2013-03-18
... DEPARTMENT OF COMMERCE Bureau of Industry and Security In the Matter of: Dan Tran Dang, 1010 W.... District Court, Central District of California, Dan Tran Dang (``Dang'') was convicted of violating Section... interest at the time of his conviction. Accordingly, it is hereby ordered: I. Until April 17, 2022, Dan...
ERIC Educational Resources Information Center
Ferguson, Jenanne
2010-01-01
This paper investigates how the processes of language transmission among speakers of Southern Tutchone ("dan k'e"), an indigenous Athapaskan language of the southern Yukon Territory, Canada, bear out an emerging theoretical interest in how bottom-up communicative practices shape language policy. An examination of "dan k'e"…
Critical Listening in the Ensemble Rehearsal: A Community of Learners
ERIC Educational Resources Information Center
Bell, Cindy L.
2018-01-01
This article explores a strategy for engaging ensemble members in critical listening analysis of performances and presents opportunities for improving ensemble sound through rigorous dialogue, reflection, and attentive rehearsing. Critical listening asks ensemble members to draw on individual playing experience and knowledge to describe what they…
World Music Ensemble: Kulintang
ERIC Educational Resources Information Center
Beegle, Amy C.
2012-01-01
As instrumental world music ensembles such as steel pan, mariachi, gamelan and West African drums are becoming more the norm than the exception in North American school music programs, there are other world music ensembles just starting to gain popularity in particular parts of the United States. The kulintang ensemble, a drum and gong ensemble…
Analyzing the impact of changing size and composition of a crop model ensemble
NASA Astrophysics Data System (ADS)
Rodríguez, Alfredo
2017-04-01
The use of an ensemble of crop growth simulation models is a practice recently adopted in order to quantify aspects of uncertainties in model simulations. Yet, while the climate modelling community has extensively investigated the properties of model ensembles and their implications, this has hardly been investigated for crop model ensembles (Wallach et al., 2016). In their ensemble of 27 wheat models, Martre et al. (2015) found that the accuracy of the multi-model ensemble-average only increases up to an ensemble size of ca. 10, but does not improve when including more models in the analysis. However, even when this number of members is reached, questions about the impact of the addition or removal of a member to/from the ensemble arise. When selecting ensemble members, identifying members with poor performance or giving implausible results can make a large difference on the outcome. The objective of this study is to set up a methodology that defines indicators to show the effects of changing the ensemble composition and size on simulation results, when a selection procedure of ensemble members is applied. Ensemble mean or median, and variance are measures used to depict ensemble results among other indicators. We are utilizing simulations from an ensemble of wheat models that have been used to construct impact response surfaces (Pirttioja et al., 2015) (IRSs). These show the response of an impact variable (e.g., crop yield) to systematic changes in two explanatory variables (e.g., precipitation and temperature). Using these, we compare different sub-ensembles in terms of the mean, median and spread, and also by comparing IRSs. The methodology developed here allows comparing an ensemble before and after applying any procedure that changes the ensemble composition and size by measuring the impact of this decision on the ensemble central tendency measures. The methodology could also be further developed to compare the effect of changing ensemble composition and size on IRS features. References Martre, P., Wallach, D., Asseng, S., Ewert, F., Jones, J.W., Rötter, R.P., Boote, K.J., Ruane, A.C., Thorburn, P.J., Cammarano, D., Hatfield, J.L., Rosenzweig, C., Aggarwal, P.K., Angulo, C., Basso, B., Bertuzzi, P., Biernath, C., Brisson, N., Challinor, A.J., Doltra, J., Gayler, S., Goldberg, R., Grant, R.F., Heng, L., Hooker, J., Hunt, L.A., Ingwersen, J., Izaurralde, R.C., Kersebaum, K.C., Muller, C., Kumar, S.N., Nendel, C., O'Leary, G., Olesen, J.E., Osborne, T.M., Palosuo, T., Priesack, E., Ripoche, D., Semenov, M.A., Shcherbak, I., Steduto, P., Stockle, C.O., Stratonovitch, P., Streck, T., Supit, I., Tao, F.L., Travasso, M., Waha, K., White, J.W., Wolf, J., 2015. Multimodel ensembles of wheat growth: many models are better than one. Glob. Change Biol. 21, 911-925. Pirttioja N., Carter T., Fronzek S., Bindi M., Hoffmann H., Palosuo T., Ruiz-Ramos, M., Tao F., Trnka M., Acutis M., Asseng S., Baranowski P., Basso B., Bodin P., Buis S., Cammarano D., Deligios P., Destain M.-F., Doro L., Dumont B., Ewert F., Ferrise R., Francois L., Gaiser T., Hlavinka P., Jacquemin I., Kersebaum K.-C., Kollas C., Krzyszczak J., Lorite I. J., Minet J., Minguez M. I., Montesion M., Moriondo M., Müller C., Nendel C., Öztürk I., Perego A., Rodriguez, A., Ruane A.C., Ruget F., Sanna M., Semenov M., Slawinski C., Stratonovitch P., Supit I., Waha K., Wang E., Wu L., Zhao Z., Rötter R.P, 2015. A crop model ensemble analysis of temperature and precipitation effects on wheat yield across a European transect using impact response surfaces. Clim. Res., 65:87-105, doi:10.3354/cr01322 Wallach, D., Mearns, L.O. Ruane, A.C., Rötter, R.P., Asseng, S. (2016). Lessons from climate modeling on the design and use of ensembles for crop modeling. Climate Change (in press) doi:10.1007/s10584-016-1803-1.
Multi-Model Ensemble Wake Vortex Prediction
NASA Technical Reports Server (NTRS)
Koerner, Stephan; Holzaepfel, Frank; Ahmad, Nash'at N.
2015-01-01
Several multi-model ensemble methods are investigated for predicting wake vortex transport and decay. This study is a joint effort between National Aeronautics and Space Administration and Deutsches Zentrum fuer Luft- und Raumfahrt to develop a multi-model ensemble capability using their wake models. An overview of different multi-model ensemble methods and their feasibility for wake applications is presented. The methods include Reliability Ensemble Averaging, Bayesian Model Averaging, and Monte Carlo Simulations. The methodologies are evaluated using data from wake vortex field experiments.
New Software for Ensemble Creation in the Spitzer-Space-Telescope Operations Database
NASA Technical Reports Server (NTRS)
Laher, Russ; Rector, John
2004-01-01
Some of the computer pipelines used to process digital astronomical images from NASA's Spitzer Space Telescope require multiple input images, in order to generate high-level science and calibration products. The images are grouped into ensembles according to well documented ensemble-creation rules by making explicit associations in the operations Informix database at the Spitzer Science Center (SSC). The advantage of this approach is that a simple database query can retrieve the required ensemble of pipeline input images. New and improved software for ensemble creation has been developed. The new software is much faster than the existing software because it uses pre-compiled database stored-procedures written in Informix SPL (SQL programming language). The new software is also more flexible because the ensemble creation rules are now stored in and read from newly defined database tables. This table-driven approach was implemented so that ensemble rules can be inserted, updated, or deleted without modifying software.
Regge trajectories and Hagedorn behavior: Hadronic realizations of dynamical dark matter
NASA Astrophysics Data System (ADS)
Dienes, Keith R.; Huang, Fei; Su, Shufang; Thomas, Brooks
2017-11-01
Dynamical Dark Matter (DDM) is an alternative framework for dark-matter physics in which the dark sector comprises a vast ensemble of particle species whose Standard-Model decay widths are balanced against their cosmological abundances. In this talk, we study the properties of a hitherto-unexplored class of DDM ensembles in which the ensemble constituents are the "hadronic" resonances associated with the confining phase of a strongly-coupled dark sector. Such ensembles exhibit masses lying along Regge trajectories and Hagedorn-like densities of states that grow exponentially with mass. We investigate the applicable constraints on such dark-"hadronic" DDM ensembles and find that these constraints permit a broad range of mass and confinement scales for these ensembles. We also find that the distribution of the total present-day abundance across the ensemble is highly correlated with the values of these scales. This talk reports on research originally presented in Ref. [1].
NASA Astrophysics Data System (ADS)
Wei, Jiangfeng; Dirmeyer, Paul A.; Yang, Zong-Liang; Chen, Haishan
2017-10-01
Through a series of model simulations with an atmospheric general circulation model coupled to three different land surface models, this study investigates the impacts of land model ensembles and coupled model ensemble on precipitation simulation. It is found that coupling an ensemble of land models to an atmospheric model has a very minor impact on the improvement of precipitation climatology and variability, but a simple ensemble average of the precipitation from three individually coupled land-atmosphere models produces better results, especially for precipitation variability. The generally weak impact of land processes on precipitation should be the main reason that the land model ensembles do not improve precipitation simulation. However, if there are big biases in the land surface model or land surface data set, correcting them could improve the simulated climate, especially for well-constrained regional climate simulations.
Argumentation Based Joint Learning: A Novel Ensemble Learning Approach
Xu, Junyi; Yao, Li; Li, Le
2015-01-01
Recently, ensemble learning methods have been widely used to improve classification performance in machine learning. In this paper, we present a novel ensemble learning method: argumentation based multi-agent joint learning (AMAJL), which integrates ideas from multi-agent argumentation, ensemble learning, and association rule mining. In AMAJL, argumentation technology is introduced as an ensemble strategy to integrate multiple base classifiers and generate a high performance ensemble classifier. We design an argumentation framework named Arena as a communication platform for knowledge integration. Through argumentation based joint learning, high quality individual knowledge can be extracted, and thus a refined global knowledge base can be generated and used independently for classification. We perform numerous experiments on multiple public datasets using AMAJL and other benchmark methods. The results demonstrate that our method can effectively extract high quality knowledge for ensemble classifier and improve the performance of classification. PMID:25966359
Unmanned Tactical Autonomous Control and Collaboration Coactive Design
2016-06-01
AUTONOMOUS CONTROL AND COLLABORATION COACTIVE DESIGN by Matthew S. Zach June 2016 Thesis Advisor: Dan Boger Second Reader: Scot Miller...POSTGRADUATE SCHOOL June 2016 Approved by: Dan Boger, Ph.D. Thesis Advisor Scot Miller Second Reader Dan Boger, Ph.D...assistance, and mentoring, I remain most grateful. I begin by thanking Dr. Dan Boger and Scot Miller for taking me on as a thesis student. You
N'goran, Yves N'da Kouakou; Traore, Fatou; Tano, Micesse; Kramoh, Kouadio Euloge; Kakou, Jean-Baptiste Anzouan; Konin, Christophe; Kakou, Maurice Guikahue
2015-01-01
Introduction L'objectif de notre étude était de décrire les caractéristiques sociodémographiques et les Facteurs de Risque cardio-Vasculaires (FRV) des patients admis pour accidents vasculaires cérébraux (AVC) dans un service autre que celui de la neurologie. Méthodes Étude transversale rétrospective sur une période de 2 ans (janv. 2010 et déc. 2011), réalisée aux urgences de l'institut de cardiologie d'Abidjan. Résultats Il s'agissait de 176 adultes avec un âge moyen de 60 ans, une prédominance féminine. Les facteurs de risque majeurs retrouvés étaient l'hypertension artérielle dans 86,4% des cas, le diabète dans 11,4% des cas, le tabagisme dans 2,2% des cas. Les motifs de consultation étaient la perte de connaissance dans 36,4% des cas, l'hémiplégie dans 31,8% des cas, les céphalées dans 17,4% des cas, les vertiges dans 10,9% et les palpitations dans 2,2% des cas. La tension artérielle systolique moyenne était à 174 mmHg, la tension artérielle diastolique moyenne était à 105 mmHg et la pression pulsée moyenne était à 70 mmHg. Les AVC étaient associés à une arythmie complète par fibrillation auriculaire dans 11,4% des cas. Les AVC ischémiques représentaient 84,1%. L’évolution aux urgences a été marquée par un décès dans 17% (30) des cas. Conclusion Les AVC constituent un problème majeur de santé publique. Malgré sa prédominance féminine, ils (AVC) touchaient 44% des hommes dans notre étude lorsqu'on sait qu'en Afrique l'activité sociale repose sur les hommes. Ils restent une pathologie grave par la forte létalité. PMID:26327997
Seka, Zena; Mols, Pierre; Gobin, Eric; Ngatchou, William
2014-01-01
Le syndrome du QT long congénital est une maladie rythmique liée à une mutation génétique et caractérisée par un espace QT allongé sur l’électrocardiogramme, des arythmies malignes type torsade de pointe et fibrillation ventriculaire entraînant une mort subite. Les gènes impliqués dans ces mutations codent pour des sous unités des canaux ioniques responsables de l'activité électrique cardiaque. Le diagnostic est basé sur l’électrocardiogramme, une enquête familiale et l’étude génétique. Le traitement repose sur les bêtabloquants, la sympathectomie et le stimulateur cardiaque. Nous rapportons le cas d'un nourrisson de 2 ans retrouvé en état de mort apparente. Nous discutons de sa prise en charge initiale, de l'enquête familiale et de son suivi ultérieur. PMID:25667708
Determination of the conformational ensemble of the TAR RNA by X-ray scattering interferometry
Walker, Peter
2017-01-01
Abstract The conformational ensembles of structured RNA's are crucial for biological function, but they remain difficult to elucidate experimentally. We demonstrate with HIV-1 TAR RNA that X-ray scattering interferometry (XSI) can be used to determine RNA conformational ensembles. X-ray scattering interferometry (XSI) is based on site-specifically labeling RNA with pairs of heavy atom probes, and precisely measuring the distribution of inter-probe distances that arise from a heterogeneous mixture of RNA solution structures. We show that the XSI-based model of the TAR RNA ensemble closely resembles an independent model derived from NMR-RDC data. Further, we show how the TAR RNA ensemble changes shape at different salt concentrations. Finally, we demonstrate that a single hybrid model of the TAR RNA ensemble simultaneously fits both the XSI and NMR-RDC data set and show that XSI can be combined with NMR-RDC to further improve the quality of the determined ensemble. The results suggest that XSI-RNA will be a powerful approach for characterizing the solution conformational ensembles of RNAs and RNA-protein complexes under diverse solution conditions. PMID:28108663
Zerbino, Daniel R.; Johnson, Nathan; Juetteman, Thomas; Sheppard, Dan; Wilder, Steven P.; Lavidas, Ilias; Nuhn, Michael; Perry, Emily; Raffaillac-Desfosses, Quentin; Sobral, Daniel; Keefe, Damian; Gräf, Stefan; Ahmed, Ikhlak; Kinsella, Rhoda; Pritchard, Bethan; Brent, Simon; Amode, Ridwan; Parker, Anne; Trevanion, Steven; Birney, Ewan; Dunham, Ian; Flicek, Paul
2016-01-01
New experimental techniques in epigenomics allow researchers to assay a diversity of highly dynamic features such as histone marks, DNA modifications or chromatin structure. The study of their fluctuations should provide insights into gene expression regulation, cell differentiation and disease. The Ensembl project collects and maintains the Ensembl regulation data resources on epigenetic marks, transcription factor binding and DNA methylation for human and mouse, as well as microarray probe mappings and annotations for a variety of chordate genomes. From this data, we produce a functional annotation of the regulatory elements along the human and mouse genomes with plans to expand to other species as data becomes available. Starting from well-studied cell lines, we will progressively expand our library of measurements to a greater variety of samples. Ensembl’s regulation resources provide a central and easy-to-query repository for reference epigenomes. As with all Ensembl data, it is freely available at http://www.ensembl.org, from the Perl and REST APIs and from the public Ensembl MySQL database server at ensembldb.ensembl.org. Database URL: http://www.ensembl.org PMID:26888907
Ensemble Methods for Classification of Physical Activities from Wrist Accelerometry.
Chowdhury, Alok Kumar; Tjondronegoro, Dian; Chandran, Vinod; Trost, Stewart G
2017-09-01
To investigate whether the use of ensemble learning algorithms improve physical activity recognition accuracy compared to the single classifier algorithms, and to compare the classification accuracy achieved by three conventional ensemble machine learning methods (bagging, boosting, random forest) and a custom ensemble model comprising four algorithms commonly used for activity recognition (binary decision tree, k nearest neighbor, support vector machine, and neural network). The study used three independent data sets that included wrist-worn accelerometer data. For each data set, a four-step classification framework consisting of data preprocessing, feature extraction, normalization and feature selection, and classifier training and testing was implemented. For the custom ensemble, decisions from the single classifiers were aggregated using three decision fusion methods: weighted majority vote, naïve Bayes combination, and behavior knowledge space combination. Classifiers were cross-validated using leave-one subject out cross-validation and compared on the basis of average F1 scores. In all three data sets, ensemble learning methods consistently outperformed the individual classifiers. Among the conventional ensemble methods, random forest models provided consistently high activity recognition; however, the custom ensemble model using weighted majority voting demonstrated the highest classification accuracy in two of the three data sets. Combining multiple individual classifiers using conventional or custom ensemble learning methods can improve activity recognition accuracy from wrist-worn accelerometer data.
Monte Carlo replica-exchange based ensemble docking of protein conformations.
Zhang, Zhe; Ehmann, Uwe; Zacharias, Martin
2017-05-01
A replica-exchange Monte Carlo (REMC) ensemble docking approach has been developed that allows efficient exploration of protein-protein docking geometries. In addition to Monte Carlo steps in translation and orientation of binding partners, possible conformational changes upon binding are included based on Monte Carlo selection of protein conformations stored as ordered pregenerated conformational ensembles. The conformational ensembles of each binding partner protein were generated by three different approaches starting from the unbound partner protein structure with a range spanning a root mean square deviation of 1-2.5 Å with respect to the unbound structure. Because MC sampling is performed to select appropriate partner conformations on the fly the approach is not limited by the number of conformations in the ensemble compared to ensemble docking of each conformer pair in ensemble cross docking. Although only a fraction of generated conformers was in closer agreement with the bound structure the REMC ensemble docking approach achieved improved docking results compared to REMC docking with only the unbound partner structures or using docking energy minimization methods. The approach has significant potential for further improvement in combination with more realistic structural ensembles and better docking scoring functions. Proteins 2017; 85:924-937. © 2016 Wiley Periodicals, Inc. © 2017 Wiley Periodicals, Inc.
Cant, Jonathan S.; Xu, Yaoda
2015-01-01
Behavioral research has demonstrated that observers can extract summary statistics from ensembles of multiple objects. We recently showed that a region of anterior-medial ventral visual cortex, overlapping largely with the scene-sensitive parahippocampal place area (PPA), participates in object-ensemble representation. Here we investigated the encoding of ensemble density in this brain region using fMRI-adaptation. In Experiment 1, we varied density by changing the spacing between objects and found no sensitivity in PPA to such density changes. Thus, density may not be encoded in PPA, possibly because object spacing is not perceived as an intrinsic ensemble property. In Experiment 2, we varied relative density by changing the ratio of 2 types of objects comprising an ensemble, and observed significant sensitivity in PPA to such ratio change. Although colorful ensembles were shown in Experiment 2, Experiment 3 demonstrated that sensitivity to object ratio change was not driven mainly by a change in the ratio of colors. Thus, while anterior-medial ventral visual cortex is insensitive to density (object spacing) changes, it does code relative density (object ratio) within an ensemble. Object-ensemble processing in this region may thus depend on high-level visual information, such as object ratio, rather than low-level information, such as spacing/spatial frequency. PMID:24964917
Modality-Driven Classification and Visualization of Ensemble Variance
DOE Office of Scientific and Technical Information (OSTI.GOV)
Bensema, Kevin; Gosink, Luke; Obermaier, Harald
Advances in computational power now enable domain scientists to address conceptual and parametric uncertainty by running simulations multiple times in order to sufficiently sample the uncertain input space. While this approach helps address conceptual and parametric uncertainties, the ensemble datasets produced by this technique present a special challenge to visualization researchers as the ensemble dataset records a distribution of possible values for each location in the domain. Contemporary visualization approaches that rely solely on summary statistics (e.g., mean and variance) cannot convey the detailed information encoded in ensemble distributions that are paramount to ensemble analysis; summary statistics provide no informationmore » about modality classification and modality persistence. To address this problem, we propose a novel technique that classifies high-variance locations based on the modality of the distribution of ensemble predictions. Additionally, we develop a set of confidence metrics to inform the end-user of the quality of fit between the distribution at a given location and its assigned class. We apply a similar method to time-varying ensembles to illustrate the relationship between peak variance and bimodal or multimodal behavior. These classification schemes enable a deeper understanding of the behavior of the ensemble members by distinguishing between distributions that can be described by a single tendency and distributions which reflect divergent trends in the ensemble.« less
Skill of Global Raw and Postprocessed Ensemble Predictions of Rainfall over Northern Tropical Africa
NASA Astrophysics Data System (ADS)
Vogel, Peter; Knippertz, Peter; Fink, Andreas H.; Schlueter, Andreas; Gneiting, Tilmann
2018-04-01
Accumulated precipitation forecasts are of high socioeconomic importance for agriculturally dominated societies in northern tropical Africa. In this study, we analyze the performance of nine operational global ensemble prediction systems (EPSs) relative to climatology-based forecasts for 1 to 5-day accumulated precipitation based on the monsoon seasons 2007-2014 for three regions within northern tropical Africa. To assess the full potential of raw ensemble forecasts across spatial scales, we apply state-of-the-art statistical postprocessing methods in form of Bayesian Model Averaging (BMA) and Ensemble Model Output Statistics (EMOS), and verify against station and spatially aggregated, satellite-based gridded observations. Raw ensemble forecasts are uncalibrated, unreliable, and underperform relative to climatology, independently of region, accumulation time, monsoon season, and ensemble. Differences between raw ensemble and climatological forecasts are large, and partly stem from poor prediction for low precipitation amounts. BMA and EMOS postprocessed forecasts are calibrated, reliable, and strongly improve on the raw ensembles, but - somewhat disappointingly - typically do not outperform climatology. Most EPSs exhibit slight improvements over the period 2007-2014, but overall have little added value compared to climatology. We suspect that the parametrization of convection is a potential cause for the sobering lack of ensemble forecast skill in a region dominated by mesoscale convective systems.
On the Likely Utility of Hybrid Weights Optimized for Variances in Hybrid Error Covariance Models
NASA Astrophysics Data System (ADS)
Satterfield, E.; Hodyss, D.; Kuhl, D.; Bishop, C. H.
2017-12-01
Because of imperfections in ensemble data assimilation schemes, one cannot assume that the ensemble covariance is equal to the true error covariance of a forecast. Previous work demonstrated how information about the distribution of true error variances given an ensemble sample variance can be revealed from an archive of (observation-minus-forecast, ensemble-variance) data pairs. Here, we derive a simple and intuitively compelling formula to obtain the mean of this distribution of true error variances given an ensemble sample variance from (observation-minus-forecast, ensemble-variance) data pairs produced by a single run of a data assimilation system. This formula takes the form of a Hybrid weighted average of the climatological forecast error variance and the ensemble sample variance. Here, we test the extent to which these readily obtainable weights can be used to rapidly optimize the covariance weights used in Hybrid data assimilation systems that employ weighted averages of static covariance models and flow-dependent ensemble based covariance models. Univariate data assimilation and multi-variate cycling ensemble data assimilation are considered. In both cases, it is found that our computationally efficient formula gives Hybrid weights that closely approximate the optimal weights found through the simple but computationally expensive process of testing every plausible combination of weights.
ENSO Prediction in the NASA GMAO GEOS-5 Seasonal Forecasting System
NASA Astrophysics Data System (ADS)
Kovach, R. M.; Borovikov, A.; Marshak, J.; Pawson, S.; Vernieres, G.
2016-12-01
Seasonal-to-Interannual coupled forecasts are conducted in near-real time with the Goddard Earth Observing System (GEOS) Atmosphere-Ocean General Circulation Model (AOGCM). A 30-year suite of 9-month hindcasts is available, initialized with the MERRA-Ocean, MERRA-Land, and MERRA atmospheric fields. These forecasts are used to predict the timing and magnitude of ENSO and other short-term climate variability. The 2015 El Niño peaked in November 2015 and was considered a "very strong" event with the Equatorial Pacific Ocean sea-surface-temperature (SST) anomalies higher than 2.0 °C. These very strong temperature anomalies began in Sep/Oct/Nov (SON) of 2015 and persisted through Dec/Jan/Feb (DJF) of 2016. The other two very strong El Niño events recently recorded occurred in 1981/82 and 1997/98. The GEOS-5 system began predicting a very strong El Niño for SON starting with the March 2015 forecast. At this time, the GMAO forecast was an outlier in both the NMME and IRI multi-model ensemble prediction plumes. The GMAO May 2015 forecast for the November 2015 peak in temperature anomaly in the Niño3.4 region was in excellent agreement with the real event, but in May this forecast was still one of the outliers in the multi-model forecasts. The GEOS-5 May 2015 forecast also correctly predicted the weakening of the Eastern Pacific (Niño1+2) anomalies for SON. We will present a summary of the NASA GMAO GEOS-5 Seasonal Forecast System skills based on historic hindcasts. Initial conditions, prediction of ocean surface and subsurface evolution for the 2015/16 El Niño will be compared to the 1998/97 event. GEOS-5 capability to predict the precipitation, i.e. to model the teleconnection patterns associated with El Niño will also be shown. To conclude, we will highlight some new developments in the GEOS forecasting system.
EPA’s Dan Nelson is the Director of the Human Research Protocol Office at the National Health and Environmental Effect Research Laboratory, Dan works to protect the rights and welfare of EPA’s research participants.
Patterns in groundwater chemistry resulting from groundwater flow
NASA Astrophysics Data System (ADS)
Stuyfzand, Pieter J.
Groundwater flow influences hydrochemical patterns because flow reduces mixing by diffusion, carries the chemical imprints of biological and anthropogenic changes in the recharge area, and leaches the aquifer system. Global patterns are mainly dictated by differences in the flux of meteoric water passing through the subsoil. Within individual hydrosomes (water bodies with a specific origin), the following prograde evolution lines (facies sequence) normally develop in the direction of groundwater flow: from strong to no fluctuations in water quality, from polluted to unpolluted, from acidic to basic, from oxic to anoxic-methanogenic, from no to significant base exchange, and from fresh to brackish. This is demonstrated for fresh coastal-dune groundwater in the Netherlands. In this hydrosome, the leaching of calcium carbonate as much as 15m and of adsorbed marine cations (Na+, K+, and Mg2+) as much as 2500m in the flow direction is shown to correspond with about 5000yr of flushing since the beach barrier with dunes developed. Recharge focus areas in the dunes are evidenced by groundwater displaying a lower prograde quality evolution than the surrounding dune groundwater. Artificially recharged Rhine River water in the dunes provides distinct hydrochemical patterns, which display groundwater flow, mixing, and groundwater ages. Résumé Les écoulements souterrains influencent les différents types hydrochimiques, parce que l'écoulement réduit le mélange par diffusion, porte les marques chimiques de changements biologiques et anthropiques dans la zone d'alimentation et lessive le système aquifère. Ces types dans leur ensemble sont surtout déterminés par des différences dans le flux d'eau météorique traversant le sous-sol. Dans les "hydrosomes" (masses d'eau d'origine déterminée), les lignes marquant une évolution prograde (séquence de faciès) se développent normalement dans la direction de l'écoulement souterrain : depuis des fluctuations fortes de la qualité de l'eau vers une absence de fluctuations, de polluées vers non polluées, d'acides vers basiques, d'oxygénées vers anoxiques et méthanogènes, depuis des échanges de base inexistants vers des échanges significatifs, de l'eau douce vers l'eau saumâtre. Ceci est montré pour une nappe d'eau douce dans une dune côtière des Pays-Bas. Dans "l'hydrosome", on montre que la disparition du carbonate de calcium par lessivage à plus de 15m et celle de cations adsorbés d'origine marine (Na+, K+ et Mg2+) à plus de 2500m vers l'aval-gradient correspond à environ 5000 ans d'écoulement, depuis que la barrière de la plage avec les dunes s'est mise en place. Les zones d'alimentation ponctuelle dans les dunes sont mises en évidence par l'eau souterraine montrant une plus faible évolution prograde de sa qualité que l'eau souterraine de la dune alentour. L'eau du Rhin utilisée pour la réalimentation artificielle dans les dunes a fourni des types hydrochimiques distincts, qui marquent l'écoulement, le mélange et les âges de l'eau souterraine. Resumen El flujo subterráneo tiene una gran importancia sobre la hidroquímica de un sistema ya que reduce la mezcla por difusión, transporta las huellas químicas y biológicas de las acciones antrópicas en la zona de recarga y drena el sistema acuífero. Las tendencias globales vienen regidas por las diferencias en el flujo de agua meteórica que atraviesa el subsuelo. En un hidrosoma individual (cuerpo de agua de un origen específico), se suele desarrollar la siguiente línea de evolución (secuencia de facies) en la dirección del flujo: de gran a nula fluctuación en la calidad del agua, de agua contaminada a no contaminada, de ácida a básica, de óxica a anóxica-metanogénica, de nulo a importante cambio de base y de agua dulce a salobre. Esto puede verse, por ejemplo, en las aguas dulces presentes en las dunas costeras de Holanda. En este hidrosoma, el lixiviado de carbonato cálcico, hasta 15m, y de cationes de adsorción marina (Na+, K+ and Mg2+), hasta 2500m en la dirección del flujo corresponde a unos 5000 años de lavado desde que se desarrolló la barrera de dunas. Áreas de recarga concentrada en las dunas se evidencian porque el agua subterránea muestra un bajo estado de evolución dentro de la línea de evolución antes presentada, si se compara con el agua circundante. La recarga artificial en las dunas con agua del Río Rin proporciona características hidroquímicas diferenciadas, lo que permite caracterizar el flujo subterráneo, la mezcla y las edades de las aguas.
NASA Astrophysics Data System (ADS)
Fernández, J.; Frías, M. D.; Cabos, W. D.; Cofiño, A. S.; Domínguez, M.; Fita, L.; Gaertner, M. A.; García-Díez, M.; Gutiérrez, J. M.; Jiménez-Guerrero, P.; Liguori, G.; Montávez, J. P.; Romera, R.; Sánchez, E.
2018-03-01
We present an unprecedented ensemble of 196 future climate projections arising from different global and regional model intercomparison projects (MIPs): CMIP3, CMIP5, ENSEMBLES, ESCENA, EURO- and Med-CORDEX. This multi-MIP ensemble includes all regional climate model (RCM) projections publicly available to date, along with their driving global climate models (GCMs). We illustrate consistent and conflicting messages using continental Spain and the Balearic Islands as target region. The study considers near future (2021-2050) changes and their dependence on several uncertainty sources sampled in the multi-MIP ensemble: GCM, future scenario, internal variability, RCM, and spatial resolution. This initial work focuses on mean seasonal precipitation and temperature changes. The results show that the potential GCM-RCM combinations have been explored very unevenly, with favoured GCMs and large ensembles of a few RCMs that do not respond to any ensemble design. Therefore, the grand-ensemble is weighted towards a few models. The selection of a balanced, credible sub-ensemble is challenged in this study by illustrating several conflicting responses between the RCM and its driving GCM and among different RCMs. Sub-ensembles from different initiatives are dominated by different uncertainty sources, being the driving GCM the main contributor to uncertainty in the grand-ensemble. For this analysis of the near future changes, the emission scenario does not lead to a strong uncertainty. Despite the extra computational effort, for mean seasonal changes, the increase in resolution does not lead to important changes.
Encoding of Spatial Attention by Primate Prefrontal Cortex Neuronal Ensembles
Treue, Stefan
2018-01-01
Abstract Single neurons in the primate lateral prefrontal cortex (LPFC) encode information about the allocation of visual attention and the features of visual stimuli. However, how this compares to the performance of neuronal ensembles at encoding the same information is poorly understood. Here, we recorded the responses of neuronal ensembles in the LPFC of two macaque monkeys while they performed a task that required attending to one of two moving random dot patterns positioned in different hemifields and ignoring the other pattern. We found single units selective for the location of the attended stimulus as well as for its motion direction. To determine the coding of both variables in the population of recorded units, we used a linear classifier and progressively built neuronal ensembles by iteratively adding units according to their individual performance (best single units), or by iteratively adding units based on their contribution to the ensemble performance (best ensemble). For both methods, ensembles of relatively small sizes (n < 60) yielded substantially higher decoding performance relative to individual single units. However, the decoder reached similar performance using fewer neurons with the best ensemble building method compared with the best single units method. Our results indicate that neuronal ensembles within the LPFC encode more information about the attended spatial and nonspatial features of visual stimuli than individual neurons. They further suggest that efficient coding of attention can be achieved by relatively small neuronal ensembles characterized by a certain relationship between signal and noise correlation structures. PMID:29568798
Locally Weighted Ensemble Clustering.
Huang, Dong; Wang, Chang-Dong; Lai, Jian-Huang
2018-05-01
Due to its ability to combine multiple base clusterings into a probably better and more robust clustering, the ensemble clustering technique has been attracting increasing attention in recent years. Despite the significant success, one limitation to most of the existing ensemble clustering methods is that they generally treat all base clusterings equally regardless of their reliability, which makes them vulnerable to low-quality base clusterings. Although some efforts have been made to (globally) evaluate and weight the base clusterings, yet these methods tend to view each base clustering as an individual and neglect the local diversity of clusters inside the same base clustering. It remains an open problem how to evaluate the reliability of clusters and exploit the local diversity in the ensemble to enhance the consensus performance, especially, in the case when there is no access to data features or specific assumptions on data distribution. To address this, in this paper, we propose a novel ensemble clustering approach based on ensemble-driven cluster uncertainty estimation and local weighting strategy. In particular, the uncertainty of each cluster is estimated by considering the cluster labels in the entire ensemble via an entropic criterion. A novel ensemble-driven cluster validity measure is introduced, and a locally weighted co-association matrix is presented to serve as a summary for the ensemble of diverse clusters. With the local diversity in ensembles exploited, two novel consensus functions are further proposed. Extensive experiments on a variety of real-world datasets demonstrate the superiority of the proposed approach over the state-of-the-art.
NASA Astrophysics Data System (ADS)
Yan, Y.; Barth, A.; Beckers, J. M.; Candille, G.; Brankart, J. M.; Brasseur, P.
2015-07-01
Sea surface height, sea surface temperature, and temperature profiles at depth collected between January and December 2005 are assimilated into a realistic eddy permitting primitive equation model of the North Atlantic Ocean using the Ensemble Kalman Filter. Sixty ensemble members are generated by adding realistic noise to the forcing parameters related to the temperature. The ensemble is diagnosed and validated by comparison between the ensemble spread and the model/observation difference, as well as by rank histogram before the assimilation experiments. An incremental analysis update scheme is applied in order to reduce spurious oscillations due to the model state correction. The results of the assimilation are assessed according to both deterministic and probabilistic metrics with independent/semiindependent observations. For deterministic validation, the ensemble means, together with the ensemble spreads are compared to the observations, in order to diagnose the ensemble distribution properties in a deterministic way. For probabilistic validation, the continuous ranked probability score (CRPS) is used to evaluate the ensemble forecast system according to reliability and resolution. The reliability is further decomposed into bias and dispersion by the reduced centered random variable (RCRV) score in order to investigate the reliability properties of the ensemble forecast system. The improvement of the assimilation is demonstrated using these validation metrics. Finally, the deterministic validation and the probabilistic validation are analyzed jointly. The consistency and complementarity between both validations are highlighted.
A New Method for Determining Structure Ensemble: Application to a RNA Binding Di-Domain Protein.
Liu, Wei; Zhang, Jingfeng; Fan, Jing-Song; Tria, Giancarlo; Grüber, Gerhard; Yang, Daiwen
2016-05-10
Structure ensemble determination is the basis of understanding the structure-function relationship of a multidomain protein with weak domain-domain interactions. Paramagnetic relaxation enhancement has been proven a powerful tool in the study of structure ensembles, but there exist a number of challenges such as spin-label flexibility, domain dynamics, and overfitting. Here we propose a new (to our knowledge) method to describe structure ensembles using a minimal number of conformers. In this method, individual domains are considered rigid; the position of each spin-label conformer and the structure of each protein conformer are defined by three and six orthogonal parameters, respectively. First, the spin-label ensemble is determined by optimizing the positions and populations of spin-label conformers against intradomain paramagnetic relaxation enhancements with a genetic algorithm. Subsequently, the protein structure ensemble is optimized using a more efficient genetic algorithm-based approach and an overfitting indicator, both of which were established in this work. The method was validated using a reference ensemble with a set of conformers whose populations and structures are known. This method was also applied to study the structure ensemble of the tandem di-domain of a poly (U) binding protein. The determined ensemble was supported by small-angle x-ray scattering and nuclear magnetic resonance relaxation data. The ensemble obtained suggests an induced fit mechanism for recognition of target RNA by the protein. Copyright © 2016 Biophysical Society. Published by Elsevier Inc. All rights reserved.
NASA Astrophysics Data System (ADS)
Brekke, L. D.; Prairie, J.; Pruitt, T.; Rajagopalan, B.; Woodhouse, C.
2008-12-01
Water resources adaptation planning under climate change involves making assumptions about probabilistic water supply conditions, which are linked to a given climate context (e.g., instrument records, paleoclimate indicators, projected climate data, or blend of these). Methods have been demonstrated to associate water supply assumptions with any of these climate information types. Additionally, demonstrations have been offered that represent these information types in a scenario-rich (ensemble) planning framework, either via ensembles (e.g., survey of many climate projections) or stochastic modeling (e.g., based on instrument records or paleoclimate indicators). If the planning goal involves using a hydrologic ensemble that jointly reflects paleoclimate (e.g., lower- frequency variations) and projected climate information (e.g., monthly to annual trends), methods are required to guide how these information types might be translated into water supply assumptions. However, even if such a method exists, there is lack of understanding on how such a hydrologic ensemble might differ from ensembles developed relative to paleoclimate or projected climate information alone. This research explores two questions: (1) how might paleoclimate and projected climate information be blended into an planning hydrologic ensemble, and (2) how does a planning hydrologic ensemble differ when associated with the individual climate information types (i.e. instrumental records, paleoclimate, projected climate, or blend of the latter two). Case study basins include the Gunnison River Basin in Colorado and the Missouri River Basin above Toston in Montana. Presentation will highlight ensemble development methods by information type, and comparison of ensemble results.
Shafizadeh-Moghadam, Hossein; Valavi, Roozbeh; Shahabi, Himan; Chapi, Kamran; Shirzadi, Ataollah
2018-07-01
In this research, eight individual machine learning and statistical models are implemented and compared, and based on their results, seven ensemble models for flood susceptibility assessment are introduced. The individual models included artificial neural networks, classification and regression trees, flexible discriminant analysis, generalized linear model, generalized additive model, boosted regression trees, multivariate adaptive regression splines, and maximum entropy, and the ensemble models were Ensemble Model committee averaging (EMca), Ensemble Model confidence interval Inferior (EMciInf), Ensemble Model confidence interval Superior (EMciSup), Ensemble Model to estimate the coefficient of variation (EMcv), Ensemble Model to estimate the mean (EMmean), Ensemble Model to estimate the median (EMmedian), and Ensemble Model based on weighted mean (EMwmean). The data set covered 201 flood events in the Haraz watershed (Mazandaran province in Iran) and 10,000 randomly selected non-occurrence points. Among the individual models, the Area Under the Receiver Operating Characteristic (AUROC), which showed the highest value, belonged to boosted regression trees (0.975) and the lowest value was recorded for generalized linear model (0.642). On the other hand, the proposed EMmedian resulted in the highest accuracy (0.976) among all models. In spite of the outstanding performance of some models, nevertheless, variability among the prediction of individual models was considerable. Therefore, to reduce uncertainty, creating more generalizable, more stable, and less sensitive models, ensemble forecasting approaches and in particular the EMmedian is recommended for flood susceptibility assessment. Copyright © 2018 Elsevier Ltd. All rights reserved.
An information-theoretical perspective on weighted ensemble forecasts
NASA Astrophysics Data System (ADS)
Weijs, Steven V.; van de Giesen, Nick
2013-08-01
This paper presents an information-theoretical method for weighting ensemble forecasts with new information. Weighted ensemble forecasts can be used to adjust the distribution that an existing ensemble of time series represents, without modifying the values in the ensemble itself. The weighting can, for example, add new seasonal forecast information in an existing ensemble of historically measured time series that represents climatic uncertainty. A recent article in this journal compared several methods to determine the weights for the ensemble members and introduced the pdf-ratio method. In this article, a new method, the minimum relative entropy update (MRE-update), is presented. Based on the principle of minimum discrimination information, an extension of the principle of maximum entropy (POME), the method ensures that no more information is added to the ensemble than is present in the forecast. This is achieved by minimizing relative entropy, with the forecast information imposed as constraints. From this same perspective, an information-theoretical view on the various weighting methods is presented. The MRE-update is compared with the existing methods and the parallels with the pdf-ratio method are analysed. The paper provides a new, information-theoretical justification for one version of the pdf-ratio method that turns out to be equivalent to the MRE-update. All other methods result in sets of ensemble weights that, seen from the information-theoretical perspective, add either too little or too much (i.e. fictitious) information to the ensemble.
Ikemoto, Takaaki; Hosoya, Takamitsu; Aoyama, Hiroshi; Kihara, Yasutaka; Suzuki, Masaaki; Endo, Makoto
2001-01-01
We analysed the effect of dantrolene (Dan) and five newly synthesized derivatives (GIFs) on Ca2+ release from the sarcoplasmic reticulum (SR) of mouse skeletal muscle.In intact muscles, GIF-0185 reduced the size of twitch contraction induced by electrical stimulation to the same extent as Dan. GIF-0082, an azido-functionalized Dan derivative, also inhibited twitch contraction, although the extent of inhibition was less than that of Dan and of GIF-0185.In skinned fibres, Dan inhibited Ca2+-induced Ca2+ release (CICR) under Mg2+-free conditions at room temperature. In contrast, GIF-0082 and GIF-0185 showed no inhibitory effect on CICR under the same conditions.Dan-induced inhibition of CICR was not affected by the presence of GIF-0082, whereas it was diminished in the presence of GIF-0185.GIF-0082 and GIF-0185 significantly inhibited clofibric acid (Clof)-induced Ca2+ release, as did Dan.Several Dan derivatives other than GIF-0082 and GIF-0185 showed an inhibitory effect on twitch tension but not on the CICR mechanism. All of these derivatives inhibited Clof-induced Ca2+ release.The magnitudes of inhibition of Clof-induced Ca2+ release by all Dan derivatives were well correlated with those of twitch inhibition. This supports the notion that the mode of Clof-induced opening of the RyR-Ca2+ release channel may be similar to that of physiological Ca2+ release (PCR).These results indicate that the difference in opening modes of the RyR-Ca2+ release channel is recognized by certain Dan derivatives. PMID:11606312
NASA Astrophysics Data System (ADS)
Tito Arandia Martinez, Fabian
2014-05-01
Adequate uncertainty assessment is an important issue in hydrological modelling. An important issue for hydropower producers is to obtain ensemble forecasts which truly grasp the uncertainty linked to upcoming streamflows. If properly assessed, this uncertainty can lead to optimal reservoir management and energy production (ex. [1]). The meteorological inputs to the hydrological model accounts for an important part of the total uncertainty in streamflow forecasting. Since the creation of the THORPEX initiative and the TIGGE database, access to meteorological ensemble forecasts from nine agencies throughout the world have been made available. This allows for hydrological ensemble forecasts based on multiple meteorological ensemble forecasts. Consequently, both the uncertainty linked to the architecture of the meteorological model and the uncertainty linked to the initial condition of the atmosphere can be accounted for. The main objective of this work is to show that a weighted combination of meteorological ensemble forecasts based on different atmospheric models can lead to improved hydrological ensemble forecasts, for horizons from one to ten days. This experiment is performed for the Baskatong watershed, a head subcatchment of the Gatineau watershed in the province of Quebec, in Canada. Baskatong watershed is of great importance for hydro-power production, as it comprises the main reservoir for the Gatineau watershed, on which there are six hydropower plants managed by Hydro-Québec. Since the 70's, they have been using pseudo ensemble forecast based on deterministic meteorological forecasts to which variability derived from past forecasting errors is added. We use a combination of meteorological ensemble forecasts from different models (precipitation and temperature) as the main inputs for hydrological model HSAMI ([2]). The meteorological ensembles from eight of the nine agencies available through TIGGE are weighted according to their individual performance and combined to form a grand ensemble. Results show that the hydrological forecasts derived from the grand ensemble perform better than the pseudo ensemble forecasts actually used operationally at Hydro-Québec. References: [1] M. Verbunt, A. Walser, J. Gurtz et al., "Probabilistic flood forecasting with a limited-area ensemble prediction system: Selected case studies," Journal of Hydrometeorology, vol. 8, no. 4, pp. 897-909, Aug, 2007. [2] N. Evora, Valorisation des prévisions météorologiques d'ensemble, Institu de recherceh d'Hydro-Québec 2005. [3] V. Fortin, Le modèle météo-apport HSAMI: historique, théorie et application, Institut de recherche d'Hydro-Québec, 2000.
Rôle des forêts plantées dans l’économie forestière mondiale
Joseph Buongiorno; Shushuai Zhu
2013-01-01
Les forets plantees, constituees par pl antati on ou ensemencemen t, jouen t un role de plus en plus important dans l'economie foresti ere mondia le, dans I a conservation des ressources, et dans Ia lu tte contre le changement cli matique. Au nivea u mondial , elles occupent 258 million d'ha, soit 6% de Ia co u verture forestiere...
Microbial communities in the deep subsurface
NASA Astrophysics Data System (ADS)
Krumholz, Lee R.
The diversity of microbial populations and microbial communities within the earth's subsurface is summarized in this review. Scientists are currently exploring the subsurface and addressing questions of microbial diversity, the interactions among microorganisms, and mechanisms for maintenance of subsurface microbial communities. Heterotrophic anaerobic microbial communities exist in relatively permeable sandstone or sandy sediments, located adjacent to organic-rich deposits. These microorganisms appear to be maintained by the consumption of organic compounds derived from adjacent deposits. Sources of organic material serving as electron donors include lignite-rich Eocene sediments beneath the Texas coastal plain, organic-rich Cretaceous shales from the southwestern US, as well as Cretaceous clays containing organic materials and fermentative bacteria from the Atlantic Coastal Plain. Additionally, highly diverse microbial communities occur in regions where a source of organic matter is not apparent but where igneous rock is present. Examples include the basalt-rich subsurface of the Columbia River valley and the granitic subsurface regions of Sweden and Canada. These subsurface microbial communities appear to be maintained by the action of lithotrophic bacteria growing on H2 that is chemically generated within the subsurface. Other deep-dwelling microbial communities exist within the deep sediments of oceans. These systems often rely on anaerobic metabolism and sulfate reduction. Microbial colonization extends to the depths below which high temperatures limit the ability of microbes to survive. Energy sources for the organisms living in the oceanic subsurface may originate as oceanic sedimentary deposits. In this review, each of these microbial communities is discussed in detail with specific reference to their energy sources, their observed growth patterns, and their diverse composition. This information is critical to develop further understanding of subsurface geochemical processes and to develop new approaches to subsurface remediation. Résumé La diversité des populations et des communautés microbiennes dans le sol et le sous-sol est présentée dans cet article. Les chercheurs s'interrogent fréquemment sur la diversité microbienne du sous-sol, sur les interactions entre organismes et sur les mécanismes qui permettent le maintien des communautés microbiennes souterraines. Il existe des communautés microbiennes anérobies hétérotrophes dans des grès ou dans des sédiments sableux relativement perméables, à proximité de dépôts riches en matières organiques. Ces micro-organismes semblent se maintenir grâce à la consommation de composés organiques provenant des dépôts organiques voisins. Les sources de matériel organique jouant le rôle de donneur d'électrons sont constituées par des sédiments éocènes riches en lignite situés sous la plaine littorale du Texas, les schistes riches en matières organiques du Crétacé du sud-ouest des États-Unis, ainsi que les argiles contenant des matériaux organiques et des bactéries de fermentation de la plaine littorale atlantique. En outre, il existe des communautés fortement diversifiées dans des régions où aucune source de matière organique n'existe, mais où sont présentes des roches ignées. Le sous-sol riche en basalte de la vallée de la Columbia au Canada et les régions granitiques de Suède en sont des exemples. Ces communautés microbiennes souterraines semblent se maintenir par l'action de bactéries lithotrophes se développant grâce à l'hydrogène qui est produit par réactions chimiques dans le sous-sol. Il existe d'autres communautés microbiennes de profondeur dans les sédiments profonds des océans. Ces systèmes sont souvent associés à un métabolisme anérobie et à une réduction des sulfates. La colonisation microbienne s'étend jusqu'à des profondeurs où les températures élevées limitent leur capacité de survie. Les sources d'énergie pour ces organismes vivant dans les fonds des océans peuvent être les dépôts sédimentaires océaniques. Dans cette revue, chacune des communautés microbiennes est discutée en détail en se référant spécifiquement à leurs sources d'énergie, au schéma observé de leur développement et à leur composition diversifiée. Cette information est donnée de façon critique dans le but d'améliorer la compréhension des processus géochimiques intervenant dans le sous-sol et de développer de nouvelles approches pour la dépollution souterraine. Resumen En este artículo se resume la diversidad de las poblaciones y comunidades microbianas en el subsuelo. A partir de exploraciones realizadas en el subsuelo, los científicos se están cuestionando en la actualidad aspectos relativos a la diversidad microbiana, las interacciones entre los distintos microorganismos y los mecanismos para el mantenimiento de las comunidades de microbios. Se ha comprobado la presencia de comunidades microbianas anaerobias y heterótrofas en areniscas relativamente permeables y en sedimentos arenosos ubicados cerca de depósitos ricos en materia orgánica, de la cual se alimentan. Algunas fuentes de material orgánico, que actúan como donantes de electrones, son: sedimentos del Eoceno ricos en lignito, bajo la planicie costera de Texas; pizarras del Cretácico ricas en materia orgánica, al sudoeste del país y arcillas cretácicas con materia orgánica y bacterias fermentativas, en la llanura Atlántica. También existen comunidades microbianas de gran diversidad en rocas ígneas, aunque la fuente de materia orgánica no es tan evidente. Algunos ejemplos son la subsuperficie del valle del Río Columbia, rico en basaltos, y las regiones graníticas de Suecia y Canadá. Estas comunidades microbianas subsuperficiales se mantienen por la acción de bacterias litotrópicas, que crecen en ambiente de H2, generado en la subsuperficie. También existen comunidades microbianas a gran profundidad, como por ejemplo en los sedimentos oceánicos. Estos sistemas subsisten con un metabolismo anaerobio en un ambiente sulfato-reductor. La colonización microbiana se extiende hasta profundidades tales que las altas temperaturas limitan su supervivencia. Las fuentes de energía para estos organismos pueden ser los depósitos sedimentarios oceánicos. En este artículo se discute cada una de estas comunidades en detalle, en particular sus fuentes de energía, su esquema de crecimiento y la diversidad de su composición. Esta información es de gran interés para permitir un mayor entendimiento de los procesos geoquímicos en profundidad y para desarrollar nuevos métodos de rehabilitación.
2017-06-01
11 Table 1 Notation for fabric and ensemble resistances . .......................................... 13 Thermal manikin...Table 1 Notation for fabric and ensemble resistances .................................................. 13 Table 2 Weight reduction of CB garment...samples were tested on a Sweating Guarded Hot Plate (SGHP) to measure fabric thermal and evaporative resistance , respectively. The ensembles were tested
Exploring and Listening to Chinese Classical Ensembles in General Music
ERIC Educational Resources Information Center
Zhang, Wenzhuo
2017-01-01
Music diversity is valued in theory, but the extent to which it is efficiently presented in music class remains limited. Within this article, I aim to bridge this gap by introducing four genres of Chinese classical ensembles--Qin and Xiao duets, Jiang Nan bamboo and silk ensembles, Cantonese ensembles, and contemporary Chinese orchestras--into the…
Making Music or Gaining Grades? Assessment Practices in Tertiary Music Ensembles
ERIC Educational Resources Information Center
Harrison, Scott D.; Lebler, Don; Carey, Gemma; Hitchcock, Matt; O'Bryan, Jessica
2013-01-01
Participation in an ensemble is a significant aspect of tertiary music experience. Learning and assessment practices within ensembles have rarely been investigated in Australia and the perceptions of staff and students as to how they learn and are assessed within ensembles remain largely unexplored. This paper reports on part of a larger project…
ERIC Educational Resources Information Center
Morford, James B.
2007-01-01
Music teachers are often influenced by pedagogical practices in the collegiate ensembles in which they performed. Opportunities to participate in collegiate world music ensembles have increased in recent decades; West African ensembles and steel bands represent the second and third most common of these in the United States. The absence of…
NASA Technical Reports Server (NTRS)
MIittman, David S
2011-01-01
Ensemble is an open architecture for the development, integration, and deployment of mission operations software. Fundamentally, it is an adaptation of the Eclipse Rich Client Platform (RCP), a widespread, stable, and supported framework for component-based application development. By capitalizing on the maturity and availability of the Eclipse RCP, Ensemble offers a low-risk, politically neutral path towards a tighter integration of operations tools. The Ensemble project is a highly successful, ongoing collaboration among NASA Centers. Since 2004, the Ensemble project has supported the development of mission operations software for NASA's Exploration Systems, Science, and Space Operations Directorates.
Project FIRES. Volume 1: Program Overview and Summary, Phase 1B
NASA Technical Reports Server (NTRS)
Abeles, F. J.
1980-01-01
Overall performance requirements and evaluation methods for firefighters protective equipment were established and published as the Protective Ensemble Performance Standards (PEPS). Current firefighters protective equipment was tested and evaluated against the PEPS requirements, and the preliminary design of a prototype protective ensemble was performed. In phase 1B, the design of the prototype ensemble was finalized. Prototype ensembles were fabricated and then subjected to a series of qualification tests which were based upon the PEPS requirements. Engineering drawings and purchase specifications were prepared for the new protective ensemble.
Ensemble-based docking: From hit discovery to metabolism and toxicity predictions
Evangelista, Wilfredo; Weir, Rebecca; Ellingson, Sally; ...
2016-07-29
The use of ensemble-based docking for the exploration of biochemical pathways and toxicity prediction of drug candidates is described. We describe the computational engineering work necessary to enable large ensemble docking campaigns on supercomputers. We show examples where ensemble-based docking has significantly increased the number and the diversity of validated drug candidates. Finally, we illustrate how ensemble-based docking can be extended beyond hit discovery and toward providing a structural basis for the prediction of metabolism and off-target binding relevant to pre-clinical and clinical trials.
NDI and DAN DNA: nucleic acid-directed assembly of NDI and DAN.
Ikkanda, Brian A; Samuel, Stevan A; Iverson, Brent L
2014-03-07
Two novel DNA base surrogate phosphoramidites 1 and 2, based upon relatively electron-rich 1,5-dialkoxynaphthalene (DAN) and relatively electron-deficient 1,4,5,8-naphthalenetetracarboxylic diimide (NDI), respectively, were designed, synthesized, and incorporated into DNA oligonucleotide strands. The DAN and NDI artificial DNA bases were inserted within a three-base-pair region within the interior of a 12-mer oligonucleotide duplex in various sequential arrangements and investigated with CD spectroscopy and UV melting curve analysis. The CD spectra of the modified duplexes indicated B-form DNA topology. Melting curve analyses revealed trends in DNA duplex stability that correlate with the known association of DAN and NDI moieties in aqueous solution as well as the known favorable interactions between NDI and natural DNA base pairs. This demonstrates that DNA duplex stability and specificity can be driven by the electrostatic complementarity between DAN and NDI. In the most favorable case, an NDI-DAN-NDI arrangement in the middle of the DNA duplex was found to be approximately as stabilizing as three A-T base pairs.
Lan, Tao-Hua; Zhang, Lu-Lu; Wang, Yong-Hua; Wu, Huan-Lin; Xu, Dan-Ping
2018-01-01
Cardiovascular diseases (CVDs) have been recognized as first killer of human health. The underlying mechanisms of CVDs are extremely complicated and not fully revealed, leading to a challenge for CVDs treatment in modern medicine. Traditional Chinese medicine (TCM) characterized by multiple compounds and targets has shown its marked effects on CVDs therapy. However, system-level understanding of the molecular mechanisms is still ambiguous. In this study, a system pharmacology approach was developed to reveal the underlying molecular mechanisms of a clinically effective herb formula (Wen-Dan Decoction) in treating CVDs. 127 potential active compounds and their corresponding 283 direct targets were identified in Wen-Dan Decoction. The networks among active compounds, targets, and diseases were built to reveal the pharmacological mechanisms of Wen-Dan Decoction. A "CVDs pathway" consisted of several regulatory modules participating in therapeutic effects of Wen-Dan Decoction in CVDs. All the data demonstrates that Wen-Dan Decoction has multiscale beneficial activity in CVDs treatment, which provides a new way for uncovering the molecular mechanisms and new evidence for clinical application of Wen-Dan Decoction in cardiovascular disease.
2008112500 2008112400 Background information bias reduction = ( | domain-averaged ensemble mean bias | - | domain-averaged bias-corrected ensemble mean bias | / | domain-averaged bias-corrected ensemble mean bias
Scala, Angela; Rescifina, Antonio; Micale, Nicola; Piperno, Anna; Schirmeister, Tanja; Maes, Louis; Grassi, Giovanni
2018-02-01
In an effort to identify novel molecular warheads able to inhibit Leishmania mexicana cysteine protease CPB2.8ΔCTE, fused benzo[b]thiophenes and β,β'-triketones emerged as covalent inhibitors binding the active site cysteine residue. Enzymatic screening showed a moderate-to-excellent activity (12%-90% inhibition of the target enzyme at 20 μm). The most promising compounds were selected for further profiling including in vitro cell-based assays and docking studies. Computational data suggest that benzo[b]thiophenes act immediately as non-covalent inhibitors and then as irreversible covalent inhibitors, whereas a reversible covalent mechanism emerged for the 1,3,3'-triketones with a Y-topology. Based on the predicted physicochemical and ADME-Tox properties, compound 2b has been identified as a new drug-like, non-mutagen, non-carcinogen, and non-neurotoxic lead candidate. © 2017 John Wiley & Sons A/S.
NASA Astrophysics Data System (ADS)
Desrosiers, Marc
La Gaspésie, région péninsulaire à l'extrême est du Québec, possède un héritage archéologique préhistorique riche qui s'étend de 9 000 ans jusqu'à 450 ans avant aujourd'hui. L'archéologie a livré de nombreux sites préhistoriques dans la région, surtout dans le nord de la péninsule, un constat en partie attribuable à la présence de sources de matières premières lithiques, d'axes de circulation potentielles, mais aussi à la répartition spatiale inégale des efforts de recherche. L'étude du potentiel archéologique préhistorique gaspésien, c'est la première étape de la démarche archéologique, est donc nécessaire pour orienter les travaux futurs dans cette région. Trois secteurs représentatifs de la Gaspésie ont été étudiés pour développer une nouvelle approche d'étude de potentiel : Sainte-Anne-des-Monts, le lac Sainte-Anne et New Richmond. Ensemble, ces secteurs s'étirent au travers de la péninsule sur un axe nord-sud et correspondent à un possible axe de circulation préhistorique. L'évaluation du potentiel archéologique de ces aires d'étude dépend notamment de contexte géographique gaspésien. Celui-ci est complexe, particulièrement depuis la déglaciation qui a engendré une succession de transformations du paysage. Les variations du niveau marin relatif, le passage de la toundra à un milieu forestier et d'autres changements environnementaux ont conditionné la façon dont les populations préhistoriques se sont adaptées au territoire. L'étude de potentiel dépend également des connaissances archéologiques existantes pour la région, car elles conditionnent la sélection de variables environnementales représentatives des sites connus. À partir de la confrontation des données géographiques et archéologiques, nous avons proposé des schèmes d'établissement pour les périodes chronoculturelles de la préhistoire gaspésienne. Ces patrons informationnels permettent d'illustrer la façon dont les populations préhistoriques occupaient le territoire gaspésien. C'est en appliquant ces schèmes d'établissement dans un SIG (Système d'Information Géographique) qu'il est alors possible de modéliser l'occupation potentielle du territoire au cours des périodes de la préhistoire gaspésienne. Les résultats de la modélisation sont prometteurs car les sites archéologiques connus dans le secteur de Sainte-Anne-des-Monts correspondent aux secteurs à potentiel élevé proposés par la modélisation, bien qu'une validation géomorphologique de la modélisation soit nécessaire à une étape ultérieure. Les deux autres secteurs ne présentaient pas de sites archéologiques datés qui permettaient de valider la modélisation à ces endroits. L'outil proposé est d'autant plus intéressant qu'il permet d'étudier rapidement de vastes territoires au potentiel archéologique mal évalué, comme c'est le cas de la Gaspésie.
NASA Technical Reports Server (NTRS)
Fox-Rabinovitz, Michael S.; Takacs, Lawrence L.; Govindaraju, Ravi C.
2002-01-01
The variable-resolution stretched-grid (SG) GEOS (Goddard Earth Observing System) GCM has been used for limited ensemble integrations with a relatively coarse, 60 to 100 km, regional resolution over the U.S. The experiments have been run for the 12-year period, 1987-1998, that includes the recent ENSO cycles. Initial conditions 1-2 days apart are used for ensemble members. The goal of the experiments is analyzing the long-term SG-GCM ensemble integrations in terms of their potential in reducing the uncertainties of regional climate simulation while producing realistic mesoscales. The ensemble integration results are analyzed for both prognostic and diagnostic fields. A special attention is devoted to analyzing the variability of precipitation over the U.S. The internal variability of the SG-GCM has been assessed. The ensemble means appear to be closer to the verifying analyses than the individual ensemble members. The ensemble means capture realistic mesoscale patterns, especially those of induced by orography. Two ENSO cycles have been analyzed in terms their impact on the U.S. climate, especially on precipitation. The ability of the SG-GCM simulations to produce regional climate anomalies has been confirmed. However, the optimal size of the ensembles depending on fine regional resolution used, is still to be determined. The SG-GCM ensemble simulations are performed as a preparation or a preliminary stage for the international SGMIP (Stretched-Grid Model Intercomparison Project) that is under way with participation of the major centers and groups employing the SG-approach for regional climate modeling.
Verification of forecast ensembles in complex terrain including observation uncertainty
NASA Astrophysics Data System (ADS)
Dorninger, Manfred; Kloiber, Simon
2017-04-01
Traditionally, verification means to verify a forecast (ensemble) with the truth represented by observations. The observation errors are quite often neglected arguing that they are small when compared to the forecast error. In this study as part of the MesoVICT (Mesoscale Verification Inter-comparison over Complex Terrain) project it will be shown, that observation errors have to be taken into account for verification purposes. The observation uncertainty is estimated from the VERA (Vienna Enhanced Resolution Analysis) and represented via two analysis ensembles which are compared to the forecast ensemble. For the whole study results from COSMO-LEPS provided by Arpae-SIMC Emilia-Romagna are used as forecast ensemble. The time period covers the MesoVICT core case from 20-22 June 2007. In a first step, all ensembles are investigated concerning their distribution. Several tests have been executed (Kolmogorov-Smirnov-Test, Finkelstein-Schafer Test, Chi-Square Test etc.) showing no exact mathematical distribution. So the main focus is on non-parametric statistics (e.g. Kernel density estimation, Boxplots etc.) and also the deviation between "forced" normal distributed data and the kernel density estimations. In a next step the observational deviations due to the analysis ensembles are analysed. In a first approach scores are multiple times calculated with every single ensemble member from the analysis ensemble regarded as "true" observation. The results are presented as boxplots for the different scores and parameters. Additionally, the bootstrapping method is also applied to the ensembles. These possible approaches to incorporating observational uncertainty into the computation of statistics will be discussed in the talk.
Davey, James A; Chica, Roberto A
2014-05-01
Multistate computational protein design (MSD) with backbone ensembles approximating conformational flexibility can predict higher quality sequences than single-state design with a single fixed backbone. However, it is currently unclear what characteristics of backbone ensembles are required for the accurate prediction of protein sequence stability. In this study, we aimed to improve the accuracy of protein stability predictions made with MSD by using a variety of backbone ensembles to recapitulate the experimentally measured stability of 85 Streptococcal protein G domain β1 sequences. Ensembles tested here include an NMR ensemble as well as those generated by molecular dynamics (MD) simulations, by Backrub motions, and by PertMin, a new method that we developed involving the perturbation of atomic coordinates followed by energy minimization. MSD with the PertMin ensembles resulted in the most accurate predictions by providing the highest number of stable sequences in the top 25, and by correctly binning sequences as stable or unstable with the highest success rate (≈90%) and the lowest number of false positives. The performance of PertMin ensembles is due to the fact that their members closely resemble the input crystal structure and have low potential energy. Conversely, the NMR ensemble as well as those generated by MD simulations at 500 or 1000 K reduced prediction accuracy due to their low structural similarity to the crystal structure. The ensembles tested herein thus represent on- or off-target models of the native protein fold and could be used in future studies to design for desired properties other than stability. Copyright © 2013 Wiley Periodicals, Inc.
Amozegar, M; Khorasani, K
2016-04-01
In this paper, a new approach for Fault Detection and Isolation (FDI) of gas turbine engines is proposed by developing an ensemble of dynamic neural network identifiers. For health monitoring of the gas turbine engine, its dynamics is first identified by constructing three separate or individual dynamic neural network architectures. Specifically, a dynamic multi-layer perceptron (MLP), a dynamic radial-basis function (RBF) neural network, and a dynamic support vector machine (SVM) are trained to individually identify and represent the gas turbine engine dynamics. Next, three ensemble-based techniques are developed to represent the gas turbine engine dynamics, namely, two heterogeneous ensemble models and one homogeneous ensemble model. It is first shown that all ensemble approaches do significantly improve the overall performance and accuracy of the developed system identification scheme when compared to each of the stand-alone solutions. The best selected stand-alone model (i.e., the dynamic RBF network) and the best selected ensemble architecture (i.e., the heterogeneous ensemble) in terms of their performances in achieving an accurate system identification are then selected for solving the FDI task. The required residual signals are generated by using both a single model-based solution and an ensemble-based solution under various gas turbine engine health conditions. Our extensive simulation studies demonstrate that the fault detection and isolation task achieved by using the residuals that are obtained from the dynamic ensemble scheme results in a significantly more accurate and reliable performance as illustrated through detailed quantitative confusion matrix analysis and comparative studies. Copyright © 2016 Elsevier Ltd. All rights reserved.
NASA Astrophysics Data System (ADS)
Wang, Yuanbing; Min, Jinzhong; Chen, Yaodeng; Huang, Xiang-Yu; Zeng, Mingjian; Li, Xin
2017-01-01
This study evaluates the performance of three-dimensional variational (3DVar) and a hybrid data assimilation system using time-lagged ensembles in a heavy rainfall event. The time-lagged ensembles are constructed by sampling from a moving time window of 3 h along a model trajectory, which is economical and easy to implement. The proposed hybrid data assimilation system introduces flow-dependent error covariance derived from time-lagged ensemble into variational cost function without significantly increasing computational cost. Single observation tests are performed to document characteristic of the hybrid system. The sensitivity of precipitation forecasts to ensemble covariance weight and localization scale is investigated. Additionally, the TLEn-Var is evaluated and compared to the ETKF(ensemble transformed Kalman filter)-based hybrid assimilation within a continuously cycling framework, through which new hybrid analyses are produced every 3 h over 10 days. The 24 h accumulated precipitation, moisture, wind are analyzed between 3DVar and the hybrid assimilation using time-lagged ensembles. Results show that model states and precipitation forecast skill are improved by the hybrid assimilation using time-lagged ensembles compared with 3DVar. Simulation of the precipitable water and structure of the wind are also improved. Cyclonic wind increments are generated near the rainfall center, leading to an improved precipitation forecast. This study indicates that the hybrid data assimilation using time-lagged ensembles seems like a viable alternative or supplement in the complex models for some weather service agencies that have limited computing resources to conduct large size of ensembles.
Benefits of an ultra large and multiresolution ensemble for estimating available wind power
NASA Astrophysics Data System (ADS)
Berndt, Jonas; Hoppe, Charlotte; Elbern, Hendrik
2016-04-01
In this study we investigate the benefits of an ultra large ensemble with up to 1000 members including multiple nesting with a target horizontal resolution of 1 km. The ensemble shall be used as a basis to detect events of extreme errors in wind power forecasting. Forecast value is the wind vector at wind turbine hub height (~ 100 m) in the short range (1 to 24 hour). Current wind power forecast systems rest already on NWP ensemble models. However, only calibrated ensembles from meteorological institutions serve as input so far, with limited spatial resolution (˜10 - 80 km) and member number (˜ 50). Perturbations related to the specific merits of wind power production are yet missing. Thus, single extreme error events which are not detected by such ensemble power forecasts occur infrequently. The numerical forecast model used in this study is the Weather Research and Forecasting Model (WRF). Model uncertainties are represented by stochastic parametrization of sub-grid processes via stochastically perturbed parametrization tendencies and in conjunction via the complementary stochastic kinetic-energy backscatter scheme already provided by WRF. We perform continuous ensemble updates by comparing each ensemble member with available observations using a sequential importance resampling filter to improve the model accuracy while maintaining ensemble spread. Additionally, we use different ensemble systems from global models (ECMWF and GFS) as input and boundary conditions to capture different synoptic conditions. Critical weather situations which are connected to extreme error events are located and corresponding perturbation techniques are applied. The demanding computational effort is overcome by utilising the supercomputer JUQUEEN at the Forschungszentrum Juelich.
NASA Astrophysics Data System (ADS)
Abaza, Mabrouk; Anctil, François; Fortin, Vincent; Perreault, Luc
2017-12-01
Meteorological and hydrological ensemble prediction systems are imperfect. Their outputs could often be improved through the use of a statistical processor, opening up the question of the necessity of using both processors (meteorological and hydrological), only one of them, or none. This experiment compares the predictive distributions from four hydrological ensemble prediction systems (H-EPS) utilising the Ensemble Kalman filter (EnKF) probabilistic sequential data assimilation scheme. They differ in the inclusion or not of the Distribution Based Scaling (DBS) method for post-processing meteorological forecasts and the ensemble Bayesian Model Averaging (ensemble BMA) method for hydrological forecast post-processing. The experiment is implemented on three large watersheds and relies on the combination of two meteorological reforecast products: the 4-member Canadian reforecasts from the Canadian Centre for Meteorological and Environmental Prediction (CCMEP) and the 10-member American reforecasts from the National Oceanic and Atmospheric Administration (NOAA), leading to 14 members at each time step. Results show that all four tested H-EPS lead to resolution and sharpness values that are quite similar, with an advantage to DBS + EnKF. The ensemble BMA is unable to compensate for any bias left in the precipitation ensemble forecasts. On the other hand, it succeeds in calibrating ensemble members that are otherwise under-dispersed. If reliability is preferred over resolution and sharpness, DBS + EnKF + ensemble BMA performs best, making use of both processors in the H-EPS system. Conversely, for enhanced resolution and sharpness, DBS is the preferred method.
Selecting a climate model subset to optimise key ensemble properties
NASA Astrophysics Data System (ADS)
Herger, Nadja; Abramowitz, Gab; Knutti, Reto; Angélil, Oliver; Lehmann, Karsten; Sanderson, Benjamin M.
2018-02-01
End users studying impacts and risks caused by human-induced climate change are often presented with large multi-model ensembles of climate projections whose composition and size are arbitrarily determined. An efficient and versatile method that finds a subset which maintains certain key properties from the full ensemble is needed, but very little work has been done in this area. Therefore, users typically make their own somewhat subjective subset choices and commonly use the equally weighted model mean as a best estimate. However, different climate model simulations cannot necessarily be regarded as independent estimates due to the presence of duplicated code and shared development history. Here, we present an efficient and flexible tool that makes better use of the ensemble as a whole by finding a subset with improved mean performance compared to the multi-model mean while at the same time maintaining the spread and addressing the problem of model interdependence. Out-of-sample skill and reliability are demonstrated using model-as-truth experiments. This approach is illustrated with one set of optimisation criteria but we also highlight the flexibility of cost functions, depending on the focus of different users. The technique is useful for a range of applications that, for example, minimise present-day bias to obtain an accurate ensemble mean, reduce dependence in ensemble spread, maximise future spread, ensure good performance of individual models in an ensemble, reduce the ensemble size while maintaining important ensemble characteristics, or optimise several of these at the same time. As in any calibration exercise, the final ensemble is sensitive to the metric, observational product, and pre-processing steps used.
Advanced Non-Intrusive Instrumentation for Propulsion Engines
1998-05-01
pratique courante dans le secteur du developpement comme dans l’industrie. L’accent a ete mis sur le souhait de maintenir cette situation, et les...differentes installations de l’Alliance et autres, en vue de leur amelioration avant de proposer des applications plus larges dans les secteurs de...dans ’ une cellule statique oil les parametres P et T sont facilement mesurables, des mesures des trois parametres ont ete realisees sur un jet
MALDI-MS analysis and imaging of small molecule metabolites with 1,5-diaminonaphthalene (DAN).
Korte, Andrew R; Lee, Young Jin
2014-08-01
1,5-Diaminonaphthalene (DAN) has previously been reported as an effective matrix for matrix-assisted laser desorption ionization-mass spectrometry of phospholipids. In the current work, we investigate the use of DAN as a matrix for small metabolite analysis in negative ion mode. DAN was found to provide superior ionization to the compared matrices for MW < ~400 Da; however, 9-aminoacridine (9-AA) was found to be superior for a uridine diphosphate standard (MW 566 Da). DAN was also found to provide a more representative profile of a natural phospholipid mixture than 9-AA. Finally, DAN and 9-AA were applied for imaging of metabolites directly from corn leaf sections. Published 2014. This article is a U.S. Government work and is in the public domain in the USA. Published 2014. This article is a U.S. Government work and is in the public domain in the USA.
Effects of Wen Dan Tang on insomnia-related anxiety and levels of the brain-gut peptide Ghrelin.
Wang, Liye; Song, Yuehan; Li, Feng; Liu, Yan; Ma, Jie; Mao, Meng; Wu, Fengzhi; Wu, Ying; Li, Sinai; Guan, Binghe; Liu, Xiaolan
2014-01-15
Ghrelin, a brain-gut peptide that induces anxiety and other abnormal emotions, contributes to the effects of insomnia on emotional behavior. In contrast, the traditional Chinese Medicine remedy Wen Dan Tang reduces insomnia-related anxiety, which may perhaps correspond to changes in the brain-gut axis. This suggests a possible relationship between Wen Dan Tang's pharmacological mechanism and the brain-gut axis. Based on this hypothesis, a sleep-deprived rat model was induced and Wen Dan Tang was administered using oral gavage during model establishment. Wen Dan Tang significantly reduced insomnia-related anxiety and prevented Ghrelin level decreases following sleep deprivation, especially in the hypothalamus. Increased expression of Ghrelin receptor mRNA in the hypothalamus was also observed, suggesting that reduced anxiety may be a result of Wen Dan Tang's regulation of Ghrelin-Ghrelin receptors.
Application of an Ensemble Smoother to Precipitation Assimilation
NASA Technical Reports Server (NTRS)
Zhang, Sara; Zupanski, Dusanka; Hou, Arthur; Zupanski, Milija
2008-01-01
Assimilation of precipitation in a global modeling system poses a special challenge in that the observation operators for precipitation processes are highly nonlinear. In the variational approach, substantial development work and model simplifications are required to include precipitation-related physical processes in the tangent linear model and its adjoint. An ensemble based data assimilation algorithm "Maximum Likelihood Ensemble Smoother (MLES)" has been developed to explore the ensemble representation of the precipitation observation operator with nonlinear convection and large-scale moist physics. An ensemble assimilation system based on the NASA GEOS-5 GCM has been constructed to assimilate satellite precipitation data within the MLES framework. The configuration of the smoother takes the time dimension into account for the relationship between state variables and observable rainfall. The full nonlinear forward model ensembles are used to represent components involving the observation operator and its transpose. Several assimilation experiments using satellite precipitation observations have been carried out to investigate the effectiveness of the ensemble representation of the nonlinear observation operator and the data impact of assimilating rain retrievals from the TMI and SSM/I sensors. Preliminary results show that this ensemble assimilation approach is capable of extracting information from nonlinear observations to improve the analysis and forecast if ensemble size is adequate, and a suitable localization scheme is applied. In addition to a dynamically consistent precipitation analysis, the assimilation system produces a statistical estimate of the analysis uncertainty.
Layered Ensemble Architecture for Time Series Forecasting.
Rahman, Md Mustafizur; Islam, Md Monirul; Murase, Kazuyuki; Yao, Xin
2016-01-01
Time series forecasting (TSF) has been widely used in many application areas such as science, engineering, and finance. The phenomena generating time series are usually unknown and information available for forecasting is only limited to the past values of the series. It is, therefore, necessary to use an appropriate number of past values, termed lag, for forecasting. This paper proposes a layered ensemble architecture (LEA) for TSF problems. Our LEA consists of two layers, each of which uses an ensemble of multilayer perceptron (MLP) networks. While the first ensemble layer tries to find an appropriate lag, the second ensemble layer employs the obtained lag for forecasting. Unlike most previous work on TSF, the proposed architecture considers both accuracy and diversity of the individual networks in constructing an ensemble. LEA trains different networks in the ensemble by using different training sets with an aim of maintaining diversity among the networks. However, it uses the appropriate lag and combines the best trained networks to construct the ensemble. This indicates LEAs emphasis on accuracy of the networks. The proposed architecture has been tested extensively on time series data of neural network (NN)3 and NN5 competitions. It has also been tested on several standard benchmark time series data. In terms of forecasting accuracy, our experimental results have revealed clearly that LEA is better than other ensemble and nonensemble methods.
NASA Astrophysics Data System (ADS)
Srinivasa Rao, Y.; Reddy, T. V. K.; Nayudu, P. T.
2000-09-01
In hard-rock terrain, due to the lack of primary porosity in the bedrock, joints, fault zones, and weathered zones are the sources for groundwater occurrence and movement. To study the groundwater potential in the hard-rock terrain and drought-prone area in the Niva River basin, southern Andhra Pradesh state, India, Landsat 5 photographic data were used to prepare an integrated hydrogeomorphology map. Larsson's integrated deformation model was applied to identify the various fracture systems, to pinpoint those younger tensile fracture sets that are the main groundwater reservoirs, and to understand the importance of fracture density in groundwater prospecting. N35°-55°E fractures were identified as tensile and N35°-55°W fractures as both tensile and shear in the study area. Apparently, these fractures are the youngest open fractures. Wherever N35°-55°E and N35°-55°W fracture densities are high, weathered-zone thickness is greater, water-table fluctuations are small, and well yields are high. Groundwater-potential zones were delineated and classified as very good, good to very good, moderate to good, and poor. Résumé. Dans les roches de socle, l'absence de porosité primaire dans la roche fait que les fractures, les zones de faille et les zones d'altération sont les sites où l'eau souterraine est présente et s'écoule. Pour étudier le potentiel en eau souterraine dans la région de socle sujette à la sécheresse du bassin de la rivière Niva (sud de l'État d'Andhra Pradesh, Inde), des données photographiques de Landsat 5 ont été utilisées pour préparer une carte hydro-géomorphologique. Le modèle intégré de déformation de Larssons a été mis en œuvre pour identifier les différents systèmes de fractures, pour mettre l'accent sur les ensembles de fractures en extension les plus jeunes qui constituent les principaux réservoirs d'eau souterraine, et pour comprendre l'importance de la densité de fractures pour la prospection de l'eau souterraine. Dans la région étudiée, les fractures N35°-55°E ont été identifiées comme étant en extension, et les fractures N35°-55°W comme étant à la fois en extension et en cisaillement. Ces fractures sont apparemment les fractures ouvertes les plus jeunes. Partout où la densité des fractures N35°-55°E et N35°-55°W est élevée, la zone altérée est plus épaisse, les fluctuations de la nappe sont faibles et les rendements des puits sont forts. Des zones à potentiel en eau souterraine ont ainsi été délimitées et classées en excellent, bon à très bon, assez bon et médiocre. Resumen. Las zonas de fracturación y de meteorización son las que condicionan el flujo de agua subterránea en rocas duras, debido a la falta de porosidad primaria en la matriz rocosa. Se utilizaron cinco conjuntos de datos fotográficos del satélite Landsat con el fin de preparar un mapa integrado hidrogeomorfológico de la cuenca del río Niva, al sur del estado Andhra Pradesh (India). El objetivo era estudiar el potencial de aguas subterráneas en esta región, que es propensa a períodos de sequía, en la que predominan las rocas duras. Se aplicó el modelo de deformación integrado de Larsson a la identificación de los sistemas de fracturación. El propósito era, por un lado, identificar los conjuntos de fracturas de tracción más jóvenes, que desempeñan un papel principal como reservorios de aguas subterráneas. Por otro lado, se quería comprender la importancia de la densidad de fracturación en el desarrollo de las aguas subterráneas. Se identificó una familia de fracturas de tracción con orientación N35°-55°E y otra familia N35°-55°W que contenía tanto bandas de cizalla como fracturas de tracción. Aparentemente, se trataba de las fracturas abiertas más recientes. El espesor de la zona de meteorización es grande cuando la densidad de fracturas de estas dos familias es elevada, hecho que está asociado a fluctuaciones pequeñas del nivel freático y a caudales elevados. Se estableció una clasificación de las aguas subterráneas como zona muy buena, buena-muy buena, moderadamente buena, y regular.
Golden, Christopher D.; Rasolofoniaina, B. J. Rodolph; Anjaranirina, E. J. Gasta; Nicolas, Lilien; Ravaoliny, Laurent; Kremen, Claire
2012-01-01
Botanical diversity provides value to humans through carbon sequestration, air and water purification, and the provisioning of wild foods and ethnomedicines. Here we calculate the value of botanical ethnomedicines in a rainforest region of Madagascar, the Makira Protected Area, using a substitution method that combines replacement costs and choice modeling. The Makira watershed may comprise approximately 0.8% of global botanical diversity and possesses enormous value both in its ability to provision botanical ethnomedicines to local people and as a source of potentially novel pharmaceutical drugs for society as a whole. Approximately 241 locally-recognized species are used as ethnomedicines, including 113 agricultural or weed species. We equated each ethnomedicinal treatment to the monetary value of a comparable pharmaceutical treatment adjusted by personal preferences in perceived efficacy (rather than from known or assumed medicinal equivalency). The benefit value of these botanical ethnomedicines per individual is $5.40–7.90 per year when using the value of highly subsidized Malagasy pharmaceuticals and $100.60–287.40 when using the value of American pharmaceuticals. Using local pharmaceuticals as substitutes, the value per household is $30.24–44.30 per year, equivalent to 43–63% of median annual household income, demonstrating their local importance. Using the value of American pharmaceuticals, the amount is equivalent to 22–63% of the median annual health care expenditures for American adults under 45 in 2006. The potential for developing novel biomedicines from the Makira watershed’s unique flora ranges in untapped benefit value from $0.3–5.7 billion for American pharmaceutical companies, non-inclusive of the importance of providing novel medicines and improved healthcare to society. This study provides evidence of the tremendous current local and prospective global value of botanical ethnomedicines and furthers arguments for the conservation of tropical forests for sustainable use. Botanique de la diversité apporte de la valeur à l’homme par la séquestration du carbone, de l’air et de purification de l’eau, et le provisionnement des aliments sauvages et ethnomedicines. Ici, nous calculons la valeur de ethnomedicines botaniques dans une région de forêt de Madagascar, la zone protégée de Makira, en utilisant une méthode de substitution qui combine les coûts de remplacement et la modélisation des choix. Le bassin versant de Makira peut comprendre environ 0,8% de la diversité botanique mondiale et possède une valeur énorme à la fois dans sa capacité à fournir ethnomedicines botaniques à la population locale et en tant que source de nouveaux médicaments potentiellement pharmaceutiques pour la société dans son ensemble. Environ 241 espèces localement reconnus sont utilisés comme ethnomedicines, y compris 113 espèces d’agricoles ou de mauvaises herbes. Nous assimilé chaque traitement ethnomédicales à la valeur monétaire d’un traitement comparable pharmaceutique ajusté en fonction des préférences personnelles en matière d’efficacité perçue (plutôt que de l’équivalence médicament connu ou supposé). La valeur de l’avantage de ces ethnomedicines botaniques par individu est de $5,40 à 7.90 par année lors de l’utilisation de la valeur des produits pharmaceutiques malgaches fortement subventionnés et de $100,60 à 287,40 lors de l’utilisation de la valeur des produits pharmaceutiques américains. Utilisation de produits pharmaceutiques locales comme des substituts, la valeur par ménage est de $30.24 à 44.30 par an, équivalent à 43–63% du revenu médian des ménages annuelle, ce qui démontre leur importance locale. Utilisation de la valeur des produits pharmaceutiques américaines, le montant est équivalent à 22–63% de la médiane des dépenses annuelles de soins de santé pour les adultes américains de moins de 45 en 2006. Le potentiel de développement de nouveaux biomédicaments des fourneaux dans le bassin versant de la flore Makira unqiue de la valeur des avantages inexploité de $0,3 à 5,7 milliards pour les sociétés pharmaceutiques américaines, non compris l’importance de fournir de nouveaux médicaments et de soins de santé amélioré à la société. Cette étude fournit une preuve de l’énorme valeur actuelle globale locale et prospective de ethnomedicines botaniques et des arguments fait avancer pour la conservation des forêts tropicales pour l’utilisation durable. PMID:22848447
NASA Astrophysics Data System (ADS)
Lovley, Derek R.; Anderson, Robert T.
Dissimilatory Fe(III)-reducing microorganisms have the ability to destroy organic contaminants under anaerobic conditions by oxidizing them to carbon dioxide. Some Fe(III)-reducing microorganisms can also reductively dechlorinate chlorinated contaminants. Fe(III)-reducing microorganisms can reduce a variety of contaminant metals and convert them from soluble forms to forms that are likely to be immobilized in the subsurface. Studies in petroleum-contaminated aquifers have demonstrated that Fe(III)-reducing microorganisms can be effective agents in removing aromatic hydrocarbons from groundwater under anaerobic conditions. Laboratory studies have demonstrated the potential for Fe(III)-reducing microorganisms to remove uranium from contaminated groundwaters. The activity of Fe(III)-reducing microorganisms can be stimulated in several ways to enhance organic contaminant oxidation and metal reduction. Molecular analyses in both field and laboratory studies have demonstrated that microorganisms of the genus Geobacter become dominant members of the microbial community when Fe(III)-reducing conditions develop as the result of organic contamination, or when Fe(III) reduction is artificially stimulated. These results suggest that further understanding of the ecophysiology of Geobacter species would aid in better prediction of the natural attenuation of organic contaminants under anaerobic conditions and in the design of strategies for the bioremediation of subsurface metal contamination. Des micro-organismes simulant la réduction du fer ont la capacité de détruire des polluants organiques dans des conditions anérobies en les oxydant en dioxyde de carbone. Certains micro-organismes réducteurs de fer peuvent aussi dé-chlorer par réduction des polluants chlorés. Des micro-organismes réducteurs de fer peuvent réduire tout un ensemble de métaux polluants et les faire passer de formes solubles à des formes qui sont susceptibles d'être immobilisées dans le milieu souterrain. Des études d'aquifères pollués par du pétrole ont montré que des micro-organismes réducteurs de fer peuvent être des agents efficaces pour éliminer les hydrocarbures aromatiques des eaux souterraines dans des conditions anérobies. Des études en laboratoire ont montré que des micro-organismes réducteurs de fer avaient la capacité d'éliminer l'uranium d'eaux souterraines polluées. L'activité de micro-organismes réducteurs de fer peut être stimulée de différentes manières pour augmenter l'oxydation de polluants organiques et la réduction de métaux. Des analyses moléculaires concernant des études de terrain et de laboratoire ont montré que des micro-organismes du genre Geobacter deviennent les membres dominants de la communauté microbienne quand les conditions de réduction en Fe(III) sont réalisées à la suite d'une pollution organique, ou lorsque la réduction en Fe(III) est stimulée artificiellement. Ces résultats laissent penser que des connaissances supplémentaires sur l'écophysiologie des espèces Geobacter devraient aider à une meilleure prédiction de la diminution naturelle des teneurs en polluants organiques dans des conditions anérobies, ainsi qu'à la définition de stratégies de dépollution biologique de pollutions souterraines par les métaux. Algunos microorganismos Fe(III)-reductores son capaces de destruir selectivamente determinados contaminantes orgánicos en condiciones anaerobias, oxidándolos a dióxido de carbono. Otros de estos microorganismos Fe(III)-reductores pueden reducir, bien compuestos clorados, bien una gran variedad de metales, que dejan de ser solubles y se inmovilizan en el subsuelo. Estudios realizados en acuéferos contaminados por petróleo muestran que los microorganismos Fe(III)-reductores pueden ser unos agentes muy eficientes para eliminar los hidrocarburos aromáticos de las aguas subterráneas en condiciones anaerobias, mientras que estudios de laboratorio muestran el potencial de estos microorganismos para eliminar uranio. La actividad de los microorganismos Fe(III)-reductores se puede estimular para conseguir una mayor eficiencia en la oxidación de contaminantes orgánicos y en la reducción de metales. Diversos análisis moleculares en estudios de campo y de laboratorio muestran que los microorganismos del género Geobacter se convierten en los miembros dominantes de la comunidad microbiana cuando se desarrollan condiciones Fe(III)-reductoras, bien como resultado de la contaminación orgánica, bien por estimulación artificial. En consecuencia, se hace necesario un mayor entendimiento de la ecofisiologéa de los microorganismos del género Geobacter para mejorar las predicciones sobre atenuación natural de los contaminantes orgánicos bajo condiciones anaerobias y para el diseño de estrategias de biorremediación del subsuelo en los casos de contaminación por metales.
ERIC Educational Resources Information Center
Kramer, John R.
2012-01-01
Classical guitar ensembles are increasing in the United States as popular alternatives to band, choir, and orchestra. Classical guitar ensembles are offered at many middle and high schools as fine arts electives as one of the only options for classical guitarists to participate in ensembles. The purpose of this study was to explore the development…
ERIC Educational Resources Information Center
Jones, Sara K.
2018-01-01
The purpose of this comparative case study was to examine the motivation for participation in traditional and non-traditional vocal ensembles by students who are not pursuing a career in music and the perceived benefits of this participation. Participants were selected from a traditional mixed choral ensemble and a student-run a cappella ensemble.…
An efficient ensemble learning method for gene microarray classification.
Osareh, Alireza; Shadgar, Bita
2013-01-01
The gene microarray analysis and classification have demonstrated an effective way for the effective diagnosis of diseases and cancers. However, it has been also revealed that the basic classification techniques have intrinsic drawbacks in achieving accurate gene classification and cancer diagnosis. On the other hand, classifier ensembles have received increasing attention in various applications. Here, we address the gene classification issue using RotBoost ensemble methodology. This method is a combination of Rotation Forest and AdaBoost techniques which in turn preserve both desirable features of an ensemble architecture, that is, accuracy and diversity. To select a concise subset of informative genes, 5 different feature selection algorithms are considered. To assess the efficiency of the RotBoost, other nonensemble/ensemble techniques including Decision Trees, Support Vector Machines, Rotation Forest, AdaBoost, and Bagging are also deployed. Experimental results have revealed that the combination of the fast correlation-based feature selection method with ICA-based RotBoost ensemble is highly effective for gene classification. In fact, the proposed method can create ensemble classifiers which outperform not only the classifiers produced by the conventional machine learning but also the classifiers generated by two widely used conventional ensemble learning methods, that is, Bagging and AdaBoost.
NASA Technical Reports Server (NTRS)
Tapiador, Francisco; Tao, Wei-Kuo; Angelis, Carlos F.; Martinez, Miguel A.; Cecilia Marcos; Antonio Rodriguez; Hou, Arthur; Jong Shi, Jain
2012-01-01
Ensembles of numerical model forecasts are of interest to operational early warning forecasters as the spread of the ensemble provides an indication of the uncertainty of the alerts, and the mean value is deemed to outperform the forecasts of the individual models. This paper explores two ensembles on a severe weather episode in Spain, aiming to ascertain the relative usefulness of each one. One ensemble uses sensible choices of physical parameterizations (precipitation microphysics, land surface physics, and cumulus physics) while the other follows a perturbed initial conditions approach. The results show that, depending on the parameterizations, large differences can be expected in terms of storm location, spatial structure of the precipitation field, and rain intensity. It is also found that the spread of the perturbed initial conditions ensemble is smaller than the dispersion due to physical parameterizations. This confirms that in severe weather situations operational forecasts should address moist physics deficiencies to realize the full benefits of the ensemble approach, in addition to optimizing initial conditions. The results also provide insights into differences in simulations arising from ensembles of weather models using several combinations of different physical parameterizations.
Determination of the conformational ensemble of the TAR RNA by X-ray scattering interferometry.
Shi, Xuesong; Walker, Peter; Harbury, Pehr B; Herschlag, Daniel
2017-05-05
The conformational ensembles of structured RNA's are crucial for biological function, but they remain difficult to elucidate experimentally. We demonstrate with HIV-1 TAR RNA that X-ray scattering interferometry (XSI) can be used to determine RNA conformational ensembles. X-ray scattering interferometry (XSI) is based on site-specifically labeling RNA with pairs of heavy atom probes, and precisely measuring the distribution of inter-probe distances that arise from a heterogeneous mixture of RNA solution structures. We show that the XSI-based model of the TAR RNA ensemble closely resembles an independent model derived from NMR-RDC data. Further, we show how the TAR RNA ensemble changes shape at different salt concentrations. Finally, we demonstrate that a single hybrid model of the TAR RNA ensemble simultaneously fits both the XSI and NMR-RDC data set and show that XSI can be combined with NMR-RDC to further improve the quality of the determined ensemble. The results suggest that XSI-RNA will be a powerful approach for characterizing the solution conformational ensembles of RNAs and RNA-protein complexes under diverse solution conditions. © The Author(s) 2017. Published by Oxford University Press on behalf of Nucleic Acids Research.
NASA Astrophysics Data System (ADS)
Hut, Rolf; Amisigo, Barnabas A.; Steele-Dunne, Susan; van de Giesen, Nick
2015-12-01
Reduction of Used Memory Ensemble Kalman Filtering (RumEnKF) is introduced as a variant on the Ensemble Kalman Filter (EnKF). RumEnKF differs from EnKF in that it does not store the entire ensemble, but rather only saves the first two moments of the ensemble distribution. In this way, the number of ensemble members that can be calculated is less dependent on available memory, and mainly on available computing power (CPU). RumEnKF is developed to make optimal use of current generation super computer architecture, where the number of available floating point operations (flops) increases more rapidly than the available memory and where inter-node communication can quickly become a bottleneck. RumEnKF reduces the used memory compared to the EnKF when the number of ensemble members is greater than half the number of state variables. In this paper, three simple models are used (auto-regressive, low dimensional Lorenz and high dimensional Lorenz) to show that RumEnKF performs similarly to the EnKF. Furthermore, it is also shown that increasing the ensemble size has a similar impact on the estimation error from the three algorithms.
Progressive freezing of interacting spins in isolated finite magnetic ensembles
NASA Astrophysics Data System (ADS)
Bhattacharya, Kakoli; Dupuis, Veronique; Le-Roy, Damien; Deb, Pritam
2017-02-01
Self-organization of magnetic nanoparticles into secondary nanostructures provides an innovative way for designing functional nanomaterials with novel properties, different from the constituent primary nanoparticles as well as their bulk counterparts. Collective magnetic properties of such complex closed packing of magnetic nanoparticles makes them more appealing than the individual magnetic nanoparticles in many technological applications. This work reports the collective magnetic behaviour of magnetic ensembles comprising of single domain Fe3O4 nanoparticles. The present work reveals that the ensemble formation is based on the re-orientation and attachment of the nanoparticles in an iso-oriented fashion at the mesoscale regime. Comprehensive dc magnetic measurements show the prevalence of strong interparticle interactions in the ensembles. Due to the close range organization of primary Fe3O4 nanoparticles in the ensemble, the spins of the individual nanoparticles interact through dipolar interactions as realized from remnant magnetization measurements. Signature of super spin glass like behaviour in the ensembles is observed in the memory studies carried out in field cooled conditions. Progressive freezing of spins in the ensembles is corroborated from the Vogel-Fulcher fit of the susceptibility data. Dynamic scaling of relaxation reasserted slow spin dynamics substantiating cluster spin glass like behaviour in the ensembles.
NASA Astrophysics Data System (ADS)
Walcott, Sam
2013-03-01
Interactions between the proteins actin and myosin drive muscle contraction. Properties of a single myosin interacting with an actin filament are largely known, but a trillion myosins work together in muscle. We are interested in how single-molecule properties relate to ensemble function. Myosin's reaction rates depend on force, so ensemble models keep track of both molecular state and force on each molecule. These models make subtle predictions, e.g. that myosin, when part of an ensemble, moves actin faster than when isolated. This acceleration arises because forces between molecules speed reaction kinetics. Experiments support this prediction and allow parameter estimates. A model based on this analysis describes experiments from single molecule to ensemble. In vivo, actin is regulated by proteins that, when present, cause the binding of one myosin to speed the binding of its neighbors; binding becomes cooperative. Although such interactions preclude the mean field approximation, a set of linear ODEs describes these ensembles under simplified experimental conditions. In these experiments cooperativity is strong, with the binding of one molecule affecting ten neighbors on either side. We progress toward a description of myosin ensembles under physiological conditions.
Effects of Ensemble Configuration on Estimates of Regional Climate Uncertainties
DOE Office of Scientific and Technical Information (OSTI.GOV)
Goldenson, N.; Mauger, G.; Leung, L. R.
Internal variability in the climate system can contribute substantial uncertainty in climate projections, particularly at regional scales. Internal variability can be quantified using large ensembles of simulations that are identical but for perturbed initial conditions. Here we compare methods for quantifying internal variability. Our study region spans the west coast of North America, which is strongly influenced by El Niño and other large-scale dynamics through their contribution to large-scale internal variability. Using a statistical framework to simultaneously account for multiple sources of uncertainty, we find that internal variability can be quantified consistently using a large ensemble or an ensemble ofmore » opportunity that includes small ensembles from multiple models and climate scenarios. The latter also produce estimates of uncertainty due to model differences. We conclude that projection uncertainties are best assessed using small single-model ensembles from as many model-scenario pairings as computationally feasible, which has implications for ensemble design in large modeling efforts.« less
Genetic programming based ensemble system for microarray data classification.
Liu, Kun-Hong; Tong, Muchenxuan; Xie, Shu-Tong; Yee Ng, Vincent To
2015-01-01
Recently, more and more machine learning techniques have been applied to microarray data analysis. The aim of this study is to propose a genetic programming (GP) based new ensemble system (named GPES), which can be used to effectively classify different types of cancers. Decision trees are deployed as base classifiers in this ensemble framework with three operators: Min, Max, and Average. Each individual of the GP is an ensemble system, and they become more and more accurate in the evolutionary process. The feature selection technique and balanced subsampling technique are applied to increase the diversity in each ensemble system. The final ensemble committee is selected by a forward search algorithm, which is shown to be capable of fitting data automatically. The performance of GPES is evaluated using five binary class and six multiclass microarray datasets, and results show that the algorithm can achieve better results in most cases compared with some other ensemble systems. By using elaborate base classifiers or applying other sampling techniques, the performance of GPES may be further improved.
Genetic Programming Based Ensemble System for Microarray Data Classification
Liu, Kun-Hong; Tong, Muchenxuan; Xie, Shu-Tong; Yee Ng, Vincent To
2015-01-01
Recently, more and more machine learning techniques have been applied to microarray data analysis. The aim of this study is to propose a genetic programming (GP) based new ensemble system (named GPES), which can be used to effectively classify different types of cancers. Decision trees are deployed as base classifiers in this ensemble framework with three operators: Min, Max, and Average. Each individual of the GP is an ensemble system, and they become more and more accurate in the evolutionary process. The feature selection technique and balanced subsampling technique are applied to increase the diversity in each ensemble system. The final ensemble committee is selected by a forward search algorithm, which is shown to be capable of fitting data automatically. The performance of GPES is evaluated using five binary class and six multiclass microarray datasets, and results show that the algorithm can achieve better results in most cases compared with some other ensemble systems. By using elaborate base classifiers or applying other sampling techniques, the performance of GPES may be further improved. PMID:25810748
Bioactive focus in conformational ensembles: a pluralistic approach
NASA Astrophysics Data System (ADS)
Habgood, Matthew
2017-12-01
Computational generation of conformational ensembles is key to contemporary drug design. Selecting the members of the ensemble that will approximate the conformation most likely to bind to a desired target (the bioactive conformation) is difficult, given that the potential energy usually used to generate and rank the ensemble is a notoriously poor discriminator between bioactive and non-bioactive conformations. In this study an approach to generating a focused ensemble is proposed in which each conformation is assigned multiple rankings based not just on potential energy but also on solvation energy, hydrophobic or hydrophilic interaction energy, radius of gyration, and on a statistical potential derived from Cambridge Structural Database data. The best ranked structures derived from each system are then assembled into a new ensemble that is shown to be better focused on bioactive conformations. This pluralistic approach is tested on ensembles generated by the Molecular Operating Environment's Low Mode Molecular Dynamics module, and by the Cambridge Crystallographic Data Centre's conformation generator software.
EnsembleGraph: Interactive Visual Analysis of Spatial-Temporal Behavior for Ensemble Simulation Data
DOE Office of Scientific and Technical Information (OSTI.GOV)
Shu, Qingya; Guo, Hanqi; Che, Limei
We present a novel visualization framework—EnsembleGraph— for analyzing ensemble simulation data, in order to help scientists understand behavior similarities between ensemble members over space and time. A graph-based representation is used to visualize individual spatiotemporal regions with similar behaviors, which are extracted by hierarchical clustering algorithms. A user interface with multiple-linked views is provided, which enables users to explore, locate, and compare regions that have similar behaviors between and then users can investigate and analyze the selected regions in detail. The driving application of this paper is the studies on regional emission influences over tropospheric ozone, which is based onmore » ensemble simulations conducted with different anthropogenic emission absences using the MOZART-4 (model of ozone and related tracers, version 4) model. We demonstrate the effectiveness of our method by visualizing the MOZART-4 ensemble simulation data and evaluating the relative regional emission influences on tropospheric ozone concentrations. Positive feedbacks from domain experts and two case studies prove efficiency of our method.« less
L'observance thérapeutique dans les dermatoses chroniques: à propos de 200 cas
Amraoui, Nissrine; Gallouj, Salim; Berraho, Mohamed Amine; Najjari, Chakib; Mernissi, Fatima zohra
2015-01-01
Introduction L'observance thérapeutique est la capacité à prendre correctement son traitement, tel qu'il est prescrit par le médecin. Elle est peu étudiée en dermatologie. Méthodes Le but de notre étude est d’évaluer l'observance chez les patients suivis au service de dermatologie du Centre Hospitalier Universitaire Hassan II de Fès pour une dermatose chronique et de rechercher les facteurs liés à une mauvaise observance à travers une étude incluant 200 patients suivis depuis au moins 6 mois. L’évaluation de l'observance s'est faite essentiellement à l'aide d'un entretien et les facteurs liés à l'observance ont été recherchés par un questionnaire. Résultats 68% de nos patients étaient observant, la mauvaise observance était associée à un niveau socio économique et d’étude bas, à une vie solitaire, à une durée de suivi longue, aux effets secondaires et au coût élevé des traitements, à l'absence d'efficacité, à une faible visibilité des lésions, à une ordonnance complexe, à une explication faible de la maladie, et à des difficultés d'accès à la consultation. Le taux d'observance retrouvé dans notre étude est un taux satisfaisant selon les données de la littérature, notre étude a confirmée certaines facteurs connues et a mis le point sur d'autres facteurs peu étudiés tel un traitement traditionnel associé, la part de chaque forme de traitement dans le respect de l'ordonnance, les dermatoses les plus touchées par les difficulté d'observance a savoir les dermatoses bulleuses et le psoriasis, et l'intérêt du pharmacien. Conclusion Cette analyse de la fréquence de ce phénomène et des facteurs essentiels qui l'influencent permet de cibler la prise en charge à travers une personnalisation de l'entretien médical, une adaptation du suivi au contexte de nos patients et à la nature de notre institution de santé. PMID:26848363
Apport des moyens endoscopiques dans la dilatation des sténoses caustiques de l’œsophage
Seydou, Togo; Abdoulaye, Ouattara Moussa; xing, Li; Zi, Sanogo Zimogo; sekou, Koumaré; Wen, Yang Shang; Ibrahim, Sankare; Sekou, Toure Cheik Ahmed; Boubacar, Maiga Ibrahim; Saye, Jacque; Jerome, Dakouo Dodino; Dantoumé, Toure Ousmane; Sadio, Yena
2016-01-01
Introduction Toutes les sténoses symptomatiques de l’œsophage peuvent être dilatées par voie endoscopique. Nous évaluons l'apport des moyens endoscopiques dans la prise en charge de la dilatation œsophagienne pour sténose caustique de l’œsophage (SCO) au Mali. Méthodes IL s'agissait d'une étude descriptive et prospective réalisée dans le service de chirurgie thoracique à l'hôpital du Mali. Au total 46 dossiers cliniques de patients on été enregistrés et subdivisés en 4 groupes en fonction de la topographie des lésions cicatricielles. Le nombre de cas d'assistance endoscopique réalisé a été déterminé afin de comprendre l'apport des moyens endoscopiques dans le succès de la dilatation des SCO. Pour les 2 différentes méthodes de dilatation utilisées, le résultat du traitement et le coût ont comparés. Résultats La FOGD a été utilisée dans 19 cas (41.30%) de dilatation avec la bougie de Savary Guillard et dans 47.82% des cas dans la dilatation de Lerut. La vidéo-laryngoscopie a été utilisé 58.69% des cas de dilatation à la bougie de Lerut. Le passage de guide métallique et / ou de fil-guide a été réalisée dans 39.13% avec la vidéo laryngoscopie et dans 58.68% avec la FOGD. Dans la comparaison des deux méthodes, il existe une différence significative dans la survenue des complications (p=0.04075), l'anesthésie générale (p=0.02287), l'accessibilité à la méthode (p=0.04805) et la mortalité (p=0.00402). Conclusion La SCO est une pathologie grave et sous évaluée au Mali. Les moyens endoscopiques contribuent considérablement au succès de la dilatation œsophagienne pour sténose caustique dans les différentes méthodes utilisées. PMID:27200129
NASA Astrophysics Data System (ADS)
Frikach, Kamal
2001-09-01
Dans ce travail je presente une etude de l'impedance de surface, ainsi que de l'attenuation et la variation de la vitesse ultrasonores dans les etats normal et supraconducteur sur les composes organiques k-(ET)2X (X = Cu(SCN) 2, Cu[N(CN)2]Br). A partir des mesures d'impedance de surface, les deux composantes sigma 1 et sigma2 de la conductivite complexe sont extraites en utilisant le modele de Drude. Ces mesures montrent que la symetrie du parametre d'ordre dans ces composes est differente de celle du cas BCS. Afin de comprendre le profil de sigma1 (T) nous avons etudie les fluctuations supraconductrices a partir de la paraconductivite sigma'( T). Cette etude est rendue possible grace a la structure quasi-2D des composes k-(ET)2X dans lesquelles les fluctuations supraconductrices sont fortes. Ces dernieres sont observees sur deux decades de temperatures dans le Cu(SCN)2. L'application du modele de Aslamazov-Larkin 2D et 3D montre la possibilite du passage du regime 2D a haute temperature au regime 3D au voisinage de Tc. En se basant sur ce resultat, nous avons calcule la paraconductivite en utilisant une approche a l'ordre d'une boucle a partir du modele de Lawrence-Doniach. En tenant compte de la correction par la self energie dans la limite dynamique (17 GHz), l'ajustement de la paraconductivite calculee est en bon accord avec les donnees experimentales. Le couplage interplan obtenu est compatible avec le caractere quasi-2D des composes organiques. Le temps de relaxation des quasi-particules dans l'etat supraconducteur est ensuite extrait pour la premiere fois dans ces composes dont le comportement en fonction de la temperature est compatible avec la presence des noeuds dans le gap. Dans l'etat normal, la variation de la vitesse ultrasonore presente un comportement anormal caracterise par un fort ramollissement a T = 38 K et 50 K dans k-(ET) 2Cu(SCN)2 et k-(ET)2Cu[N(CN) 2]Br respectivement dont l'amplitude est independante du champ magnetique jusqu'a H = Hc 2. Cette anomalie semble exister seulement dans les modes qui sondent le couplage interplan. Ce comportement est attribue au couplage entre les fluctuations antiferromagnetiques et les phonons acoustiques.
Imprinting and Recalling Cortical Ensembles
Carrillo-Reid, Luis; Yang, Weijian; Bando, Yuki; Peterka, Darcy S.; Yuste, Rafael
2017-01-01
Neuronal ensembles are coactive groups of neurons that may represent emergent building blocks of neural circuits. They could be formed by Hebbian plasticity, whereby synapses between coactive neurons are strengthened. Here we report that repetitive activation with two-photon optogenetics of neuronal populations in visual cortex of awake mice generates artificially induced ensembles which recur spontaneously after being imprinted and do not disrupt preexistent ones. Moreover, imprinted ensembles can be recalled by single cell stimulation and remain coactive on consecutive days. Our results demonstrate the persistent reconfiguration of cortical circuits by two-photon optogenetics into neuronal ensembles that can perform pattern completion. PMID:27516599
Shallow cumuli ensemble statistics for development of a stochastic parameterization
NASA Astrophysics Data System (ADS)
Sakradzija, Mirjana; Seifert, Axel; Heus, Thijs
2014-05-01
According to a conventional deterministic approach to the parameterization of moist convection in numerical atmospheric models, a given large scale forcing produces an unique response from the unresolved convective processes. This representation leaves out the small-scale variability of convection, as it is known from the empirical studies of deep and shallow convective cloud ensembles, there is a whole distribution of sub-grid states corresponding to the given large scale forcing. Moreover, this distribution gets broader with the increasing model resolution. This behavior is also consistent with our theoretical understanding of a coarse-grained nonlinear system. We propose an approach to represent the variability of the unresolved shallow-convective states, including the dependence of the sub-grid states distribution spread and shape on the model horizontal resolution. Starting from the Gibbs canonical ensemble theory, Craig and Cohen (2006) developed a theory for the fluctuations in a deep convective ensemble. The micro-states of a deep convective cloud ensemble are characterized by the cloud-base mass flux, which, according to the theory, is exponentially distributed (Boltzmann distribution). Following their work, we study the shallow cumulus ensemble statistics and the distribution of the cloud-base mass flux. We employ a Large-Eddy Simulation model (LES) and a cloud tracking algorithm, followed by a conditional sampling of clouds at the cloud base level, to retrieve the information about the individual cloud life cycles and the cloud ensemble as a whole. In the case of shallow cumulus cloud ensemble, the distribution of micro-states is a generalized exponential distribution. Based on the empirical and theoretical findings, a stochastic model has been developed to simulate the shallow convective cloud ensemble and to test the convective ensemble theory. Stochastic model simulates a compound random process, with the number of convective elements drawn from a Poisson distribution, and cloud properties sub-sampled from a generalized ensemble distribution. We study the role of the different cloud subtypes in a shallow convective ensemble and how the diverse cloud properties and cloud lifetimes affect the system macro-state. To what extent does the cloud-base mass flux distribution deviate from the simple Boltzmann distribution and how does it affect the results from the stochastic model? Is the memory, provided by the finite lifetime of individual clouds, of importance for the ensemble statistics? We also test for the minimal information given as an input to the stochastic model, able to reproduce the ensemble mean statistics and the variability in a convective ensemble. An important property of the resulting distribution of the sub-grid convective states is its scale-adaptivity - the smaller the grid-size, the broader the compound distribution of the sub-grid states.
NASA Astrophysics Data System (ADS)
Kulkarni, Himanshu; Vijay Shankar, P. S.; Deolankar, S. B.; Shah, Mihir
Watershed development programmes provide an opportunity for sustainable management strategies, although currently, they remain largely `supply-side' mechanisms of water resources development. Hydrogeological conditions, community participation and status of groundwater usage are important in evolving strategies on `demand-side' groundwater management. Neemkheda aquifer is a typical low-storage, low-hydraulic conductivity aquifer from a watershed in the dryland regions of Madhya Pradesh State of central India. A shallow unconfined aquifer, it consists of an upper coarse, calcareous sandstone unit underlain by a fine-grained sandstone unit. A `well commune' of seven wells is poised to test the concept of joint groundwater management, wherein wells are mechanisms of tapping a common water source, the Neemkheda aquifer. The strategy for systematic groundwater management in the Neemkheda well commune is based upon the relationship between Transmissivity (T) and Storage coefficient (S), i.e. aquifer diffusivity, and its variation within the aquifer. Wells within a high diffusivity domain tend to dewater more quickly than wells within a low diffusivity domain. A well-use schedule during the dry season, based upon aquifer diffusivity forms the basis of the groundwater management concept. The distribution of local aquifer diffusivities governs the relationship between local and regional aquifer depletion times and forms the basis of the groundwater management exercise being proposed for the Neemkheda aquifer. Los programas de desarrollo de una cuenca hídrica son una oportunidad para el uso de estrategias de gestión sostenible, aunque hoy en día estas siguen siendo principalmente mecanismos para el desarrollo de recursos hídricos con énfasis en la ``oferta''. Las condiciones hidrogeológicas, la participación comunitaria y la condición de utilización del agua subterránea, son importantes en el desarrollo de estrategias para la gestión del agua subterránea, desde el punto de vista de la ``demanda''. El acuífero de Neemkheda es un acuífero típico de almacenamiento bajo y conductividad hidráulica baja, perteneciente a una cuenca hídrica ubicada en las regiones secas del Estado de Madhya Pradesh, en la parte central de India. Un acuífero de tipo libre, somero, formado por una unidad superior de arenisca calcárea de grano grueso, subyacida por una unidad de arenisca de grano fino. Un campo de pozos comunitario compuesto por siete pozos, pone a prueba el concepto de gestión conjunta del agua subterránea, dentro del cual los pozos son mecanismos para usar una fuente de agua común: El acuífero de Neemkheda. La estrategia usada para la gestión sistemática del agua subterránea, en el campo de pozos comunitario de Neemkheda, se basa en la relación existente entre Transmisividad (T) y Coeficiente de Almacenamiento (S), es decir en la Difusividad del Acuífero y en su variación observada dentro del mismo acuífero. Los pozos cuya difusividad esta dentro de un rango alto, tienden a experimentar un descenso en su nivel mas rápidamente que aquellos pozos con una difusividad baja. El concepto de gestión de agua subterránea se basa en un programa especial de operación para cada pozo durante la estación seca, el cual a su vez se basa en la difusividad del acuífero. La distribución de difusividades locales del acuífero rige las relaciones entre las épocas de descensos de nivel en el acuífero a escala regional y local, y además constituyen la base del ejercicio de la gestión del agua subterránea que se esta proponiendo para el acuífero de Neemkheda. Les programmes de développement des bassins versants offrent une occasion de développer des stratégies pour une gestion durable, bien qu' à présent elles restent en grande mesure `le terme source' dans le mécanisme de développement de la ressource en eau. Les conditions hydrogéologiques, la participation de la communauté et l'usage des eaux souterraines sont importants pour le `terme demande' dans les stratégies de gestion des eaux souterraines. L'aquifère de Neemkheda presents des caractéristiques typiques pour un bassin versant dans les régions arides de l'état Madhya Pradesh de l'Inde centrale en ce qui concerne les faible valeurs de la conductivité hydraulique et du coéfficient d'emmagasinement. Il s'agit d'un aquifère phrèatique dont la partie supérieure est constitué par des grès calcaire qui restent sur des grés plus fins. Afin d'essayer le concept de gestion integrée, on a réalisé dans l'aquifère de Neemkheda un captage ayant sept forages qui forment la ressource en eau communale. La stratégie de la gestion systématique du captage est basée sur la relation entre la transmissivité (T), le coéfficient d'emmagasinement (S), donc la diffusivité hydraulique ainsi que sa variation spatiale. Les puits forés dans les zones à grande diffusivité tendent à s'assècher plus vite que ceux creusés dans des zones à faible diffusivité. Le concept de la gestion des eaux souterraines est donc basé sur la distribution spatiale des diffusivités. À partir de ce concept on a développé un programme d'exploitation des forages pendant les saisons sèches. La relation entre les temps d' épuissment locaux et régionaux est determiné par la distribution spatiale de la diffusivitée et forme la base de l'exercice sur la gestion des eaux proposée pour l'aquifère de Neemkheda.
How do various maize crop models vary in their responses to climate change factors?
Bassu, Simona; Brisson, Nadine; Durand, Jean-Louis; Boote, Kenneth; Lizaso, Jon; Jones, James W; Rosenzweig, Cynthia; Ruane, Alex C; Adam, Myriam; Baron, Christian; Basso, Bruno; Biernath, Christian; Boogaard, Hendrik; Conijn, Sjaak; Corbeels, Marc; Deryng, Delphine; De Sanctis, Giacomo; Gayler, Sebastian; Grassini, Patricio; Hatfield, Jerry; Hoek, Steven; Izaurralde, Cesar; Jongschaap, Raymond; Kemanian, Armen R; Kersebaum, K Christian; Kim, Soo-Hyung; Kumar, Naresh S; Makowski, David; Müller, Christoph; Nendel, Claas; Priesack, Eckart; Pravia, Maria Virginia; Sau, Federico; Shcherbak, Iurii; Tao, Fulu; Teixeira, Edmar; Timlin, Dennis; Waha, Katharina
2014-07-01
Potential consequences of climate change on crop production can be studied using mechanistic crop simulation models. While a broad variety of maize simulation models exist, it is not known whether different models diverge on grain yield responses to changes in climatic factors, or whether they agree in their general trends related to phenology, growth, and yield. With the goal of analyzing the sensitivity of simulated yields to changes in temperature and atmospheric carbon dioxide concentrations [CO2 ], we present the largest maize crop model intercomparison to date, including 23 different models. These models were evaluated for four locations representing a wide range of maize production conditions in the world: Lusignan (France), Ames (USA), Rio Verde (Brazil) and Morogoro (Tanzania). While individual models differed considerably in absolute yield simulation at the four sites, an ensemble of a minimum number of models was able to simulate absolute yields accurately at the four sites even with low data for calibration, thus suggesting that using an ensemble of models has merit. Temperature increase had strong negative influence on modeled yield response of roughly -0.5 Mg ha(-1) per °C. Doubling [CO2 ] from 360 to 720 μmol mol(-1) increased grain yield by 7.5% on average across models and the sites. That would therefore make temperature the main factor altering maize yields at the end of this century. Furthermore, there was a large uncertainty in the yield response to [CO2 ] among models. Model responses to temperature and [CO2 ] did not differ whether models were simulated with low calibration information or, simulated with high level of calibration information. © 2014 John Wiley & Sons Ltd.
Caracterisation experimentale de la transmission acoustique de structures aeronautiques
NASA Astrophysics Data System (ADS)
Pointel, Vincent
Le confort des passagers à l'intérieur des avions pendant le vol est un axe en voie d'amélioration constante. L'augmentation de la proportion des matériaux composites dans la fabrication des structures aéronautiques amène de nouvelles problématiques à résoudre. Le faible amortissement de ces structures, en contre partie de leur poids/raideur faible, est non favorable sur le plan acoustique, ce qui oblige les concepteurs à devoir trouver des moyens d'amélioration. De plus, les mécanismes de transmission du son au travers d'un système double paroi de type aéronautique ne sont pas complètement compris, c'est la raison qui motive cette étude. L'objectif principal de ce projet est de constituer une base de données pour le partenaire industriel de ce projet : Bombardier Aéronautique. En effet, les données expérimentales de performance d'isolation acoustique, de systèmes complets représentatifs d'un fuselage d'avion sont très rares dans la littérature scientifique. C'est pourquoi une méthodologie expérimentale est utilisée dans ce projet. Deux conceptions différentes de fuselage sont comparées. La première possède une peau (partie extérieure du fuselage) métallique raidie, alors que la deuxième est constituée d'un panneau sandwich composite. Dans les deux cas, un panneau de finition de fabrication sandwich est utilisé. Un traitement acoustique en laine de verre est placé à l'intérieur de chacun des fuselages. Des isolateurs vibratoires sont utilisés pour connecter les deux panneaux du fuselage. La simulation en laboratoire de la couche limite turbulente, qui est la source d'excitation prépondérante pendant la phase de vol, n'est pas encore possible hormis en soufflerie. C'est pourquoi deux cas d'excitation sont considérés pour essayer d'approcher cette sollicitation : une excitation mécanique (pot vibrant) et une acoustique (champ diffus). La validation et l'analyse des résultats sont effectuées par le biais des logiciels NOVA et VAONE, utilisés par le partenaire industriel de ce projet. Un des objectifs secondaires est de valider le modèle double paroi implémenté dans NOVA. L'investigation de l'effet de compression local du traitement acoustique, sur la perte par transmission d'une simple paroi, montre que cette action n'a aucun effet bénéfique notable. D'autre part, il apparaît que la raideur des isolateurs vibratoires a un lien direct avec les performances d'isolation du système double paroi. Le système double paroi avec peau composite semble moins sensible à ce paramètre. Le modèle double paroi de NOVA donne de bons résultats concernant le système double paroi avec une peau métallique. Des écarts plus importants sont observés en moyennes et hautes fréquences dans le cas du système avec une peau composite. Cependant, la bonne tendance de la prédiction au vu de la complexité de la structure est plutôt prometteuse.
DOE Office of Scientific and Technical Information (OSTI.GOV)
Olsen, Seth, E-mail: seth.olsen@uq.edu.au
2015-01-28
This paper reviews basic results from a theory of the a priori classical probabilities (weights) in state-averaged complete active space self-consistent field (SA-CASSCF) models. It addresses how the classical probabilities limit the invariance of the self-consistency condition to transformations of the complete active space configuration interaction (CAS-CI) problem. Such transformations are of interest for choosing representations of the SA-CASSCF solution that are diabatic with respect to some interaction. I achieve the known result that a SA-CASSCF can be self-consistently transformed only within degenerate subspaces of the CAS-CI ensemble density matrix. For uniformly distributed (“microcanonical”) SA-CASSCF ensembles, self-consistency is invariant tomore » any unitary CAS-CI transformation that acts locally on the ensemble support. Most SA-CASSCF applications in current literature are microcanonical. A problem with microcanonical SA-CASSCF models for problems with “more diabatic than adiabatic” states is described. The problem is that not all diabatic energies and couplings are self-consistently resolvable. A canonical-ensemble SA-CASSCF strategy is proposed to solve the problem. For canonical-ensemble SA-CASSCF, the equilibrated ensemble is a Boltzmann density matrix parametrized by its own CAS-CI Hamiltonian and a Lagrange multiplier acting as an inverse “temperature,” unrelated to the physical temperature. Like the convergence criterion for microcanonical-ensemble SA-CASSCF, the equilibration condition for canonical-ensemble SA-CASSCF is invariant to transformations that act locally on the ensemble CAS-CI density matrix. The advantage of a canonical-ensemble description is that more adiabatic states can be included in the support of the ensemble without running into convergence problems. The constraint on the dimensionality of the problem is relieved by the introduction of an energy constraint. The method is illustrated with a complete active space valence-bond (CASVB) analysis of the charge/bond resonance electronic structure of a monomethine cyanine: Michler’s hydrol blue. The diabatic CASVB representation is shown to vary weakly for “temperatures” corresponding to visible photon energies. Canonical-ensemble SA-CASSCF enables the resolution of energies and couplings for all covalent and ionic CASVB structures contributing to the SA-CASSCF ensemble. The CASVB solution describes resonance of charge- and bond-localized electronic structures interacting via bridge resonance superexchange. The resonance couplings can be separated into channels associated with either covalent charge delocalization or chemical bonding interactions, with the latter significantly stronger than the former.« less
Olsen, Seth
2015-01-28
This paper reviews basic results from a theory of the a priori classical probabilities (weights) in state-averaged complete active space self-consistent field (SA-CASSCF) models. It addresses how the classical probabilities limit the invariance of the self-consistency condition to transformations of the complete active space configuration interaction (CAS-CI) problem. Such transformations are of interest for choosing representations of the SA-CASSCF solution that are diabatic with respect to some interaction. I achieve the known result that a SA-CASSCF can be self-consistently transformed only within degenerate subspaces of the CAS-CI ensemble density matrix. For uniformly distributed ("microcanonical") SA-CASSCF ensembles, self-consistency is invariant to any unitary CAS-CI transformation that acts locally on the ensemble support. Most SA-CASSCF applications in current literature are microcanonical. A problem with microcanonical SA-CASSCF models for problems with "more diabatic than adiabatic" states is described. The problem is that not all diabatic energies and couplings are self-consistently resolvable. A canonical-ensemble SA-CASSCF strategy is proposed to solve the problem. For canonical-ensemble SA-CASSCF, the equilibrated ensemble is a Boltzmann density matrix parametrized by its own CAS-CI Hamiltonian and a Lagrange multiplier acting as an inverse "temperature," unrelated to the physical temperature. Like the convergence criterion for microcanonical-ensemble SA-CASSCF, the equilibration condition for canonical-ensemble SA-CASSCF is invariant to transformations that act locally on the ensemble CAS-CI density matrix. The advantage of a canonical-ensemble description is that more adiabatic states can be included in the support of the ensemble without running into convergence problems. The constraint on the dimensionality of the problem is relieved by the introduction of an energy constraint. The method is illustrated with a complete active space valence-bond (CASVB) analysis of the charge/bond resonance electronic structure of a monomethine cyanine: Michler's hydrol blue. The diabatic CASVB representation is shown to vary weakly for "temperatures" corresponding to visible photon energies. Canonical-ensemble SA-CASSCF enables the resolution of energies and couplings for all covalent and ionic CASVB structures contributing to the SA-CASSCF ensemble. The CASVB solution describes resonance of charge- and bond-localized electronic structures interacting via bridge resonance superexchange. The resonance couplings can be separated into channels associated with either covalent charge delocalization or chemical bonding interactions, with the latter significantly stronger than the former.
Decadal climate predictions improved by ocean ensemble dispersion filtering
NASA Astrophysics Data System (ADS)
Kadow, C.; Illing, S.; Kröner, I.; Ulbrich, U.; Cubasch, U.
2017-06-01
Decadal predictions by Earth system models aim to capture the state and phase of the climate several years in advance. Atmosphere-ocean interaction plays an important role for such climate forecasts. While short-term weather forecasts represent an initial value problem and long-term climate projections represent a boundary condition problem, the decadal climate prediction falls in-between these two time scales. In recent years, more precise initialization techniques of coupled Earth system models and increased ensemble sizes have improved decadal predictions. However, climate models in general start losing the initialized signal and its predictive skill from one forecast year to the next. Here we show that the climate prediction skill of an Earth system model can be improved by a shift of the ocean state toward the ensemble mean of its individual members at seasonal intervals. We found that this procedure, called ensemble dispersion filter, results in more accurate results than the standard decadal prediction. Global mean and regional temperature, precipitation, and winter cyclone predictions show an increased skill up to 5 years ahead. Furthermore, the novel technique outperforms predictions with larger ensembles and higher resolution. Our results demonstrate how decadal climate predictions benefit from ocean ensemble dispersion filtering toward the ensemble mean.
Le conflit fémoro-acétabulaire et la coxarthrose
Zhang, Charlie; Li, Linda; Forster, Bruce B.; Kopec, Jacek A.; Ratzlaff, Charles; Halai, Lalji; Cibere, Jolanda; Esdaile, John M.
2015-01-01
Objectif Expliquer la présentation clinique, les observations à l’examen physique, les critères diagnostiques et les options de prise en charge du conflit fémoroacétabulaire (CFA). Sources des données Une recherche documentaire a été effectuée dans PubMed pour trouver des articles pertinents sur la pathogenèse, le diagnostic, le traitement et le pronostic du CFA. Message principal Depuis les dernières années, on reconnaît de plus en plus que le CFA est un précurseur potentiel et une étiologie importante des douleurs à la hanche dans la population adulte et de la coxarthrose idiopathique plus tard dans la vie. Le conflit fémoro-acétabulaire désigne un ensemble d’anomalies morphologiques osseuses de l’articulation de la hanche qui se traduit par un contact anormal durant le mouvement. Le CFA par effet came concerne une proéminence osseuse non sphérique du col fémoral proximal ou de la jonction tête-col. Le CFM par effet tenaille désigne une couverture acétabulaire excessive par-dessus la tête du fémur, qui peut se produire en raison de diverses variantes morphologiques. Les patients qui ont un CFA présentent une douleur inguinale antérieure chronique, profonde ou lancinante, le plus souvent en position assise, durant ou après une activité. Les patients peuvent aussi ressentir des douleurs occasionnelles aiguës durant l’activité. Il faut procéder à une anamnèse approfondie portant notamment sur l’incidence de traumatismes ou la fréquence de l’exercice. Il faut aussi faire un examen physique complet des hanches, de la région lombaire et de l’abdomen pour évaluer d’autres causes de douleurs inguinales antérieures. Le diagnostic de CFA est confirmé par radiographie. Le conflit fémoro-acétabulaire peut être pris en charge selon une approche conservatrice comportant du repos, la modification des activités, des médicaments et de la physiothérapie ou encore être traité par intervention chirurgicale. Conclusion Le conflit fémoro-acétabulaire est une cause importante de douleurs antérieures à l’aine. Une détection précoce et une intervention rapide par un médecin de soins primaires sont essentielles pour atténuer la morbidité et éviter la progression du CFA.
NASA Astrophysics Data System (ADS)
Mazière, D.
2002-04-01
Faisant suite aux deux précédents colloques "Matériaux pour les machines thermiques" et "Matériaux pour le nucléaire" , le colloque 2001 de l'INSTN intitulé "Matériaux pour les énergies propres" s'est focalisé sur les problèmes de matériaux encore à résoudre dans ce secteur industriel. Le colloque de métallurgie est traditionnellement organisé par des ense ignants du DEA Métallurgie et Matériaux et un comité scientifique choisi chaq ue année en liaison avec le thème traité. Les étudiants de ce DEA, qui est hab ilité entre Paris XI, Paris VI, l'Ecole des Mines de Paris, l'Ecole Centrale de Pari s et l'INSTN, sont invités à participer à ce colloque et aux débats scientifiques qui s'y déroulent. Des conférences invitées à caractère péda gogique permettent d'introduire les différents thèmes abordés qui sont ensuite développés dans des présentations plus novatrices. Cette manifestation a pour ambition de favoriser la rencontre de scientifiques d'horizons divers venant de milieux académiques ou industriels entre eux et avec les étudiants et thésards. Cette 44e édition, dont les comptes rendus sont publiés ici, a fait le point sur les problèmes de matériaux rencontrés lors de la production, du stockage et de la conversion des énergies dites propres en englobant lesprogrès constants des industriels de l'automobile. Ce colloque a réuni, du 26 au 28 juin 2001, 63 participants provenant d'universités ou grandes écoles (18), du CEA (17), du CNRS (10) et de l'industrie ou de centres de recherche associés. L'ensemble des problèmes de matériaux de ce secteur ont été examinés au cours des six sessions ci-dessous : dépollution des gaz d'échappement ; combustion catalytique en production thermique ; nouvelles batteries ; piles à combustibles ; production et stockage d'hydrogène ; production et stockage d'énergie solaire. Vingt huit communications dont vingt deux orales ont illustré les dével oppements en cours. Dix-sept d'entre elles sont développées dans cet ouvrage. On pourra consulter avec profit le numéro 44 des Clefs CEA "Nouvelles Technologies de l'énergie" en complément du présent ouvrage.
Members of the DAN family are BMP antagonists that form highly stable noncovalent dimers.
Kattamuri, Chandramohan; Luedeke, David M; Nolan, Kristof; Rankin, Scott A; Greis, Kenneth D; Zorn, Aaron M; Thompson, Thomas B
2012-12-14
Signaling of bone morphogenetic protein (BMP) ligands is antagonized by a number of extracellular proteins, including noggin, follistatin and members of the DAN (differential screening selected gene abberative in neuroblastoma) family. Structural studies on the DAN family member sclerostin (a weak BMP antagonist) have previously revealed that the protein is monomeric and consists of an eight-membered cystine knot motif with a fold similar to transforming growth factor-β ligands. In contrast to sclerostin, certain DAN family antagonists, including protein related to DAN and cerberus (PRDC), have an unpaired cysteine that is thought to function in covalent dimer assembly (analogous to transforming growth factor-β ligands). Through a combination of biophysical and biochemical studies, we determined that PRDC forms biologically active dimers that potently inhibit BMP ligands. Furthermore, we showed that PRDC dimers, surprisingly, are not covalently linked, as mutation of the unpaired cysteine does not inhibit dimer formation or biological activity. We further demonstrated that the noncovalent PRDC dimers are highly stable under both denaturing and reducing conditions. This study was extended to the founding family member DAN, which also forms noncovalent dimers that are highly stable. These results demonstrate that certain DAN family members can form both monomers and noncovalent dimers, implying that biological activity of DAN family members might be linked to their oligomeric state. Published by Elsevier Ltd.
The Oral Tradition in the Sankofa Drum and Dance Ensemble: Student Perceptions
ERIC Educational Resources Information Center
Hess, Juliet
2009-01-01
The Sankofa Drum and Dance Ensemble is a Ghanaian drum and dance ensemble that focusses on music in the Ewe tradition. It is based in an elementary school in the Greater Toronto Area and consists of students in Grade 4 through Grade 8. Students in the ensemble study Ghanaian traditional Ewe drumming and dancing in the oral tradition. Nine students…
ERIC Educational Resources Information Center
Berndt, William; Berndt, Arnold
This catalogue lists over 350 phonograph records which feature solo and ensemble music by wind and percussion instruments. Instruments heard on the records include oboe/English horn, flute, clarinet, bassoon, trumpet/cornet, French horn, trombone, baritone, tuba, saxophone, percussion, woodwind ensembles, and brass ensembles. The catalogue is…
2012-01-01
Background Biomarker panels derived separately from genomic and proteomic data and with a variety of computational methods have demonstrated promising classification performance in various diseases. An open question is how to create effective proteo-genomic panels. The framework of ensemble classifiers has been applied successfully in various analytical domains to combine classifiers so that the performance of the ensemble exceeds the performance of individual classifiers. Using blood-based diagnosis of acute renal allograft rejection as a case study, we address the following question in this paper: Can acute rejection classification performance be improved by combining individual genomic and proteomic classifiers in an ensemble? Results The first part of the paper presents a computational biomarker development pipeline for genomic and proteomic data. The pipeline begins with data acquisition (e.g., from bio-samples to microarray data), quality control, statistical analysis and mining of the data, and finally various forms of validation. The pipeline ensures that the various classifiers to be combined later in an ensemble are diverse and adequate for clinical use. Five mRNA genomic and five proteomic classifiers were developed independently using single time-point blood samples from 11 acute-rejection and 22 non-rejection renal transplant patients. The second part of the paper examines five ensembles ranging in size from two to 10 individual classifiers. Performance of ensembles is characterized by area under the curve (AUC), sensitivity, and specificity, as derived from the probability of acute rejection for individual classifiers in the ensemble in combination with one of two aggregation methods: (1) Average Probability or (2) Vote Threshold. One ensemble demonstrated superior performance and was able to improve sensitivity and AUC beyond the best values observed for any of the individual classifiers in the ensemble, while staying within the range of observed specificity. The Vote Threshold aggregation method achieved improved sensitivity for all 5 ensembles, but typically at the cost of decreased specificity. Conclusion Proteo-genomic biomarker ensemble classifiers show promise in the diagnosis of acute renal allograft rejection and can improve classification performance beyond that of individual genomic or proteomic classifiers alone. Validation of our results in an international multicenter study is currently underway. PMID:23216969
Günther, Oliver P; Chen, Virginia; Freue, Gabriela Cohen; Balshaw, Robert F; Tebbutt, Scott J; Hollander, Zsuzsanna; Takhar, Mandeep; McMaster, W Robert; McManus, Bruce M; Keown, Paul A; Ng, Raymond T
2012-12-08
Biomarker panels derived separately from genomic and proteomic data and with a variety of computational methods have demonstrated promising classification performance in various diseases. An open question is how to create effective proteo-genomic panels. The framework of ensemble classifiers has been applied successfully in various analytical domains to combine classifiers so that the performance of the ensemble exceeds the performance of individual classifiers. Using blood-based diagnosis of acute renal allograft rejection as a case study, we address the following question in this paper: Can acute rejection classification performance be improved by combining individual genomic and proteomic classifiers in an ensemble? The first part of the paper presents a computational biomarker development pipeline for genomic and proteomic data. The pipeline begins with data acquisition (e.g., from bio-samples to microarray data), quality control, statistical analysis and mining of the data, and finally various forms of validation. The pipeline ensures that the various classifiers to be combined later in an ensemble are diverse and adequate for clinical use. Five mRNA genomic and five proteomic classifiers were developed independently using single time-point blood samples from 11 acute-rejection and 22 non-rejection renal transplant patients. The second part of the paper examines five ensembles ranging in size from two to 10 individual classifiers. Performance of ensembles is characterized by area under the curve (AUC), sensitivity, and specificity, as derived from the probability of acute rejection for individual classifiers in the ensemble in combination with one of two aggregation methods: (1) Average Probability or (2) Vote Threshold. One ensemble demonstrated superior performance and was able to improve sensitivity and AUC beyond the best values observed for any of the individual classifiers in the ensemble, while staying within the range of observed specificity. The Vote Threshold aggregation method achieved improved sensitivity for all 5 ensembles, but typically at the cost of decreased specificity. Proteo-genomic biomarker ensemble classifiers show promise in the diagnosis of acute renal allograft rejection and can improve classification performance beyond that of individual genomic or proteomic classifiers alone. Validation of our results in an international multicenter study is currently underway.
Multi-model analysis in hydrological prediction
NASA Astrophysics Data System (ADS)
Lanthier, M.; Arsenault, R.; Brissette, F.
2017-12-01
Hydrologic modelling, by nature, is a simplification of the real-world hydrologic system. Therefore ensemble hydrological predictions thus obtained do not present the full range of possible streamflow outcomes, thereby producing ensembles which demonstrate errors in variance such as under-dispersion. Past studies show that lumped models used in prediction mode can return satisfactory results, especially when there is not enough information available on the watershed to run a distributed model. But all lumped models greatly simplify the complex processes of the hydrologic cycle. To generate more spread in the hydrologic ensemble predictions, multi-model ensembles have been considered. In this study, the aim is to propose and analyse a method that gives an ensemble streamflow prediction that properly represents the forecast probabilities and reduced ensemble bias. To achieve this, three simple lumped models are used to generate an ensemble. These will also be combined using multi-model averaging techniques, which generally generate a more accurate hydrogram than the best of the individual models in simulation mode. This new predictive combined hydrogram is added to the ensemble, thus creating a large ensemble which may improve the variability while also improving the ensemble mean bias. The quality of the predictions is then assessed on different periods: 2 weeks, 1 month, 3 months and 6 months using a PIT Histogram of the percentiles of the real observation volumes with respect to the volumes of the ensemble members. Initially, the models were run using historical weather data to generate synthetic flows. This worked for individual models, but not for the multi-model and for the large ensemble. Consequently, by performing data assimilation at each prediction period and thus adjusting the initial states of the models, the PIT Histogram could be constructed using the observed flows while allowing the use of the multi-model predictions. The under-dispersion has been largely corrected on short-term predictions. For the longer term, the addition of the multi-model member has been beneficial to the quality of the predictions, although it is too early to determine whether the gain is related to the addition of a member or if multi-model member has plus-value itself.
Avoiding the ensemble decorrelation problem using member-by-member post-processing
NASA Astrophysics Data System (ADS)
Van Schaeybroeck, Bert; Vannitsem, Stéphane
2014-05-01
Forecast calibration or post-processing has become a standard tool in atmospheric and climatological science due to the presence of systematic initial condition and model errors. For ensemble forecasts the most competitive methods derive from the assumption of a fixed ensemble distribution. However, when independently applying such 'statistical' methods at different locations, lead times or for multiple variables the correlation structure for individual ensemble members is destroyed. Instead of reastablishing the correlation structure as in Schefzik et al. (2013) we instead propose a calibration method that avoids such problem by correcting each ensemble member individually. Moreover, we analyse the fundamental mechanisms by which the probabilistic ensemble skill can be enhanced. In terms of continuous ranked probability score, our member-by-member approach amounts to skill gain that extends for lead times far beyond the error doubling time and which is as good as the one of the most competitive statistical approach, non-homogeneous Gaussian regression (Gneiting et al. 2005). Besides the conservation of correlation structure, additional benefits arise including the fact that higher-order ensemble moments like kurtosis and skewness are inherited from the uncorrected forecasts. Our detailed analysis is performed in the context of the Kuramoto-Sivashinsky equation and different simple models but the results extent succesfully to the ensemble forecast of the European Centre for Medium-Range Weather Forecasts (Van Schaeybroeck and Vannitsem, 2013, 2014) . References [1] Gneiting, T., Raftery, A. E., Westveld, A., Goldman, T., 2005: Calibrated probabilistic forecasting using ensemble model output statistics and minimum CRPS estimation. Mon. Weather Rev. 133, 1098-1118. [2] Schefzik, R., T.L. Thorarinsdottir, and T. Gneiting, 2013: Uncertainty Quantification in Complex Simulation Models Using Ensemble Copula Coupling. To appear in Statistical Science 28. [3] Van Schaeybroeck, B., and S. Vannitsem, 2013: Reliable probabilities through statistical post-processing of ensemble forecasts. Proceedings of the European Conference on Complex Systems 2012, Springer proceedings on complexity, XVI, p. 347-352. [4] Van Schaeybroeck, B., and S. Vannitsem, 2014: Ensemble post-processing using member-by-member approaches: theoretical aspects, under review.
Warren, Brandon L.; Mendoza, Michael P.; Cruz, Fabio C.; Leao, Rodrigo M.; Caprioli, Daniele; Rubio, F. Javier; Whitaker, Leslie R.; McPherson, Kylie B.; Bossert, Jennifer M.; Shaham, Yavin
2016-01-01
In operant learning, initial reward-associated memories are thought to be distinct from subsequent extinction-associated memories. Memories formed during operant learning are thought to be stored in “neuronal ensembles.” Thus, we hypothesize that different neuronal ensembles encode reward- and extinction-associated memories. Here, we examined prefrontal cortex neuronal ensembles involved in the recall of reward and extinction memories of food self-administration. We first trained rats to lever press for palatable food pellets for 7 d (1 h/d) and then exposed them to 0, 2, or 7 daily extinction sessions in which lever presses were not reinforced. Twenty-four hours after the last training or extinction session, we exposed the rats to either a short 15 min extinction test session or left them in their homecage (a control condition). We found maximal Fos (a neuronal activity marker) immunoreactivity in the ventral medial prefrontal cortex of rats that previously received 2 extinction sessions, suggesting that neuronal ensembles in this area encode extinction memories. We then used the Daun02 inactivation procedure to selectively disrupt ventral medial prefrontal cortex neuronal ensembles that were activated during the 15 min extinction session following 0 (no extinction) or 2 prior extinction sessions to determine the effects of inactivating the putative food reward and extinction ensembles, respectively, on subsequent nonreinforced food seeking 2 d later. Inactivation of the food reward ensembles decreased food seeking, whereas inactivation of the extinction ensembles increased food seeking. Our results indicate that distinct neuronal ensembles encoding operant reward and extinction memories intermingle within the same cortical area. SIGNIFICANCE STATEMENT A current popular hypothesis is that neuronal ensembles in different prefrontal cortex areas control reward-associated versus extinction-associated memories: the dorsal medial prefrontal cortex (mPFC) promotes reward seeking, whereas the ventral mPFC inhibits reward seeking. In this paper, we use the Daun02 chemogenetic inactivation procedure to demonstrate that Fos-expressing neuronal ensembles mediating both food reward and extinction memories intermingle within the same ventral mPFC area. PMID:27335401
Chaos-induced modulation of reliability boosts output firing rate in downstream cortical areas.
Tiesinga, P H E
2004-03-01
The reproducibility of neural spike train responses to an identical stimulus across different presentations (trials) has been studied extensively. Reliability, the degree of reproducibility of spike trains, was found to depend in part on the amplitude and frequency content of the stimulus [J. Hunter and J. Milton, J. Neurophysiol. 90, 387 (2003)]. The responses across different trials can sometimes be interpreted as the response of an ensemble of similar neurons to a single stimulus presentation. How does the reliability of the activity of neural ensembles affect information transmission between different cortical areas? We studied a model neural system consisting of two ensembles of neurons with Hodgkin-Huxley-type channels. The first ensemble was driven by an injected sinusoidal current that oscillated in the gamma-frequency range (40 Hz) and its output spike trains in turn drove the second ensemble by fast excitatory synaptic potentials with short term depression. We determined the relationship between the reliability of the first ensemble and the response of the second ensemble. In our paradigm the neurons in the first ensemble were initially in a chaotic state with unreliable and imprecise spike trains. The neurons became entrained to the oscillation and responded reliably when the stimulus power was increased by less than 10%. The firing rate of the first ensemble increased by 30%, whereas that of the second ensemble could increase by an order of magnitude. We also determined the response of the second ensemble when its input spike trains, which had non-Poisson statistics, were replaced by an equivalent ensemble of Poisson spike trains. The resulting output spike trains were significantly different from the original response, as assessed by the metric introduced by Victor and Purpura [J. Neurophysiol. 76, 1310 (1996)]. These results are a proof of principle that weak temporal modulations in the power of gamma-frequency oscillations in a given cortical area can strongly affect firing rate responses downstream by way of reliability in spite of rather modest changes in firing rate in the originating area.
Warren, Brandon L; Mendoza, Michael P; Cruz, Fabio C; Leao, Rodrigo M; Caprioli, Daniele; Rubio, F Javier; Whitaker, Leslie R; McPherson, Kylie B; Bossert, Jennifer M; Shaham, Yavin; Hope, Bruce T
2016-06-22
In operant learning, initial reward-associated memories are thought to be distinct from subsequent extinction-associated memories. Memories formed during operant learning are thought to be stored in "neuronal ensembles." Thus, we hypothesize that different neuronal ensembles encode reward- and extinction-associated memories. Here, we examined prefrontal cortex neuronal ensembles involved in the recall of reward and extinction memories of food self-administration. We first trained rats to lever press for palatable food pellets for 7 d (1 h/d) and then exposed them to 0, 2, or 7 daily extinction sessions in which lever presses were not reinforced. Twenty-four hours after the last training or extinction session, we exposed the rats to either a short 15 min extinction test session or left them in their homecage (a control condition). We found maximal Fos (a neuronal activity marker) immunoreactivity in the ventral medial prefrontal cortex of rats that previously received 2 extinction sessions, suggesting that neuronal ensembles in this area encode extinction memories. We then used the Daun02 inactivation procedure to selectively disrupt ventral medial prefrontal cortex neuronal ensembles that were activated during the 15 min extinction session following 0 (no extinction) or 2 prior extinction sessions to determine the effects of inactivating the putative food reward and extinction ensembles, respectively, on subsequent nonreinforced food seeking 2 d later. Inactivation of the food reward ensembles decreased food seeking, whereas inactivation of the extinction ensembles increased food seeking. Our results indicate that distinct neuronal ensembles encoding operant reward and extinction memories intermingle within the same cortical area. A current popular hypothesis is that neuronal ensembles in different prefrontal cortex areas control reward-associated versus extinction-associated memories: the dorsal medial prefrontal cortex (mPFC) promotes reward seeking, whereas the ventral mPFC inhibits reward seeking. In this paper, we use the Daun02 chemogenetic inactivation procedure to demonstrate that Fos-expressing neuronal ensembles mediating both food reward and extinction memories intermingle within the same ventral mPFC area. Copyright © 2016 the authors 0270-6474/16/366691-13$15.00/0.
Real-Time Ensemble Forecasting of Coronal Mass Ejections Using the Wsa-Enlil+Cone Model
NASA Astrophysics Data System (ADS)
Mays, M. L.; Taktakishvili, A.; Pulkkinen, A. A.; Odstrcil, D.; MacNeice, P. J.; Rastaetter, L.; LaSota, J. A.
2014-12-01
Ensemble forecasting of coronal mass ejections (CMEs) provides significant information in that it provides an estimation of the spread or uncertainty in CME arrival time predictions. Real-time ensemble modeling of CME propagation is performed by forecasters at the Space Weather Research Center (SWRC) using the WSA-ENLIL+cone model available at the Community Coordinated Modeling Center (CCMC). To estimate the effect of uncertainties in determining CME input parameters on arrival time predictions, a distribution of n (routinely n=48) CME input parameter sets are generated using the CCMC Stereo CME Analysis Tool (StereoCAT) which employs geometrical triangulation techniques. These input parameters are used to perform n different simulations yielding an ensemble of solar wind parameters at various locations of interest, including a probability distribution of CME arrival times (for hits), and geomagnetic storm strength (for Earth-directed hits). We present the results of ensemble simulations for a total of 38 CME events in 2013-2014. For 28 of the ensemble runs containing hits, the observed CME arrival was within the range of ensemble arrival time predictions for 14 runs (half). The average arrival time prediction was computed for each of the 28 ensembles predicting hits and using the actual arrival time, an average absolute error of 10.0 hours (RMSE=11.4 hours) was found for all 28 ensembles, which is comparable to current forecasting errors. Some considerations for the accuracy of ensemble CME arrival time predictions include the importance of the initial distribution of CME input parameters, particularly the mean and spread. When the observed arrivals are not within the predicted range, this still allows the ruling out of prediction errors caused by tested CME input parameters. Prediction errors can also arise from ambient model parameters such as the accuracy of the solar wind background, and other limitations. Additionally the ensemble modeling sysem was used to complete a parametric event case study of the sensitivity of the CME arrival time prediction to free parameters for ambient solar wind model and CME. The parameter sensitivity study suggests future directions for the system, such as running ensembles using various magnetogram inputs to the WSA model.
NASA Astrophysics Data System (ADS)
Karro, Enn; Marandi, Andres; Vaikmäe, Rein
Monitoring of the confined Cambrian-Vendian aquifer system utilised for industrial water supply at Kopli Peninsula in Tallinn over 24 years reveals remarkable changes in chemical composition of groundwater. A relatively fast 1.5 to 3.0-fold increase in TDS and in concentrations of major ions in ed groundwater is the consequence of heavy pumping. The main sources of dissolved load in Cambrian-Vendian groundwater are the leaching of host rock and the other geochemical processes that occur in the saturated zone. Underlying crystalline basement, which comprises saline groundwater in its upper weathered and fissured portion, and which is hydraulically connected with the overlying Cambrian-Vendian aquifer system, is the second important source of ions. The fractured basement and its clayey weathering crust host the Ca-Cl type groundwater, which is characterised by high TDS values (2-20 g/L). Intensive water ion accelerates the exchange of groundwaters and increases the area of influence of pumping. Chemical and isotopic studies of groundwater indicate an increasing contribution of old brackish water from the crystalline basement and rule out the potential implication of an intrusion of seawater into aquifer. L'origine de la salinité croissante dans le système aquifère du Cambrien-Vendien dans la péninsule de Kopli, nord de l'Estonie Le suivi à long terme du système aquifère captif du Cambrien-Vendien utilisé pour l'approvisionnement d'eaux industrielles dans la Péninsule de Kopli, nord de l'Estonie, révèle de remarquables changements dans la composition chimique des eaux souterraines. Une augmentation de facteur 1.5 à 3 de la TDS et des concentrations en ions majeurs dans l'eau souterraine est la conséquence de pompages intensifs. Les sources principales des charges dissoutes dans les eaux de l'aquifère du Cambrien-Vendien sont le lessivage des roches et d'autres phénomènes géochimiques ayant lieu dans la zone saturée. Le soubassement rocheux cristallin, qui renferme des eaux souterraines salines dans sa partie supérieure altérée et fissurée, et est hydrauliquement connecté avec l'aquifère supérieur du Cambrien-Vendien, est la deuxième importante source d'ions. Le soubassement fracturé et le matériel argileux de l'altération, renferme l'eau souterraine de type Ca-Cl, caractérisée par un haut TDS (2-20 g/l). A cause de la mobilisation intensive de l'eau les échanges d'eau souterraine est sont accélérés et la zone d'influence des pompages augmentent. Les études chimiques et isotopiques indiquent une contribution croissante du drainage des eaux du soubassement cristallin. L'intrusion d'eaux salées de la mer dans le système aquifère n'est pas un phénomène évident. El origen del incremento en salinidad en un sistema de acuíferos Cámbrico-Vendiano en la Península Kopli, norte de Estonie Monitoreo a largo plazo de un sistema de acuíferos confinados, de edad Cámbrico-Vendiano, que se utiliza como fuente de abastecimiento industrial en la Península Kopli, al norte de Estonie, revela cambios notables en la composición química del agua subterránea. Un incremento de 1.5 a 3 veces en TDS y en concentraciones de iones mayores en agua subterránea explotada ha sido ocasionado por bombeo fuerte. Las fuentes principales de carga disuelta en el agua subterránea Cámbrico-Vendiano son la lixiviación de la roca encajonante y los procesos geoquímicos que ocurren en la zona saturada. Basamento cristalino subyacente, que aloja agua subterránea salada en la parte superior intemperizada y fisurada, y está conectado hidráulicamente con el sistema acuífero Cámbrico-Vendiano sobreyacente, es la segunda fuente importante de iones. El basamento fracturado y su corteza de intemperismo arcillosa alojan agua subterránea de tipo Ca-Cl la cual se caracteriza por valores altos de TDS (2-20 g/l). Debido a extracción intensiva se ha acelerado el intercambio de agua subterránea y se ha incrementado el área de influencia del bombeo. Los estudios químicos e isotópicos de agua subterránea indican una contribución creciente por filtración derivada del basamento cristalino. Es evidente una intrusión de agua salada hacia el sistema de acuíferos con implicaciones subsecuentes para la calidad del agua.
NASA Astrophysics Data System (ADS)
Liu, Li; Gao, Chao; Xuan, Weidong; Xu, Yue-Ping
2017-11-01
Ensemble flood forecasts by hydrological models using numerical weather prediction products as forcing data are becoming more commonly used in operational flood forecasting applications. In this study, a hydrological ensemble flood forecasting system comprised of an automatically calibrated Variable Infiltration Capacity model and quantitative precipitation forecasts from TIGGE dataset is constructed for Lanjiang Basin, Southeast China. The impacts of calibration strategies and ensemble methods on the performance of the system are then evaluated. The hydrological model is optimized by the parallel programmed ε-NSGA II multi-objective algorithm. According to the solutions by ε-NSGA II, two differently parameterized models are determined to simulate daily flows and peak flows at each of the three hydrological stations. Then a simple yet effective modular approach is proposed to combine these daily and peak flows at the same station into one composite series. Five ensemble methods and various evaluation metrics are adopted. The results show that ε-NSGA II can provide an objective determination on parameter estimation, and the parallel program permits a more efficient simulation. It is also demonstrated that the forecasts from ECMWF have more favorable skill scores than other Ensemble Prediction Systems. The multimodel ensembles have advantages over all the single model ensembles and the multimodel methods weighted on members and skill scores outperform other methods. Furthermore, the overall performance at three stations can be satisfactory up to ten days, however the hydrological errors can degrade the skill score by approximately 2 days, and the influence persists until a lead time of 10 days with a weakening trend. With respect to peak flows selected by the Peaks Over Threshold approach, the ensemble means from single models or multimodels are generally underestimated, indicating that the ensemble mean can bring overall improvement in forecasting of flows. For peak values taking flood forecasts from each individual member into account is more appropriate.
NASA Astrophysics Data System (ADS)
Brown, James; Seo, Dong-Jun
2010-05-01
Operational forecasts of hydrometeorological and hydrologic variables often contain large uncertainties, for which ensemble techniques are increasingly used. However, the utility of ensemble forecasts depends on the unbiasedness of the forecast probabilities. We describe a technique for quantifying and removing biases from ensemble forecasts of hydrometeorological and hydrologic variables, intended for use in operational forecasting. The technique makes no a priori assumptions about the distributional form of the variables, which is often unknown or difficult to model parametrically. The aim is to estimate the conditional cumulative distribution function (ccdf) of the observed variable given a (possibly biased) real-time ensemble forecast from one or several forecasting systems (multi-model ensembles). The technique is based on Bayesian optimal linear estimation of indicator variables, and is analogous to indicator cokriging (ICK) in geostatistics. By developing linear estimators for the conditional expectation of the observed variable at many thresholds, ICK provides a discrete approximation of the full ccdf. Since ICK minimizes the conditional error variance of the indicator expectation at each threshold, it effectively minimizes the Continuous Ranked Probability Score (CRPS) when infinitely many thresholds are employed. However, the ensemble members used as predictors in ICK, and other bias-correction techniques, are often highly cross-correlated, both within and between models. Thus, we propose an orthogonal transform of the predictors used in ICK, which is analogous to using their principal components in the linear system of equations. This leads to a well-posed problem in which a minimum number of predictors are used to provide maximum information content in terms of the total variance explained. The technique is used to bias-correct precipitation ensemble forecasts from the NCEP Global Ensemble Forecast System (GEFS), for which independent validation results are presented. Extension to multimodel ensembles from the NCEP GFS and Short Range Ensemble Forecast (SREF) systems is also proposed.
Ensemble Bayesian forecasting system Part I: Theory and algorithms
NASA Astrophysics Data System (ADS)
Herr, Henry D.; Krzysztofowicz, Roman
2015-05-01
The ensemble Bayesian forecasting system (EBFS), whose theory was published in 2001, is developed for the purpose of quantifying the total uncertainty about a discrete-time, continuous-state, non-stationary stochastic process such as a time series of stages, discharges, or volumes at a river gauge. The EBFS is built of three components: an input ensemble forecaster (IEF), which simulates the uncertainty associated with random inputs; a deterministic hydrologic model (of any complexity), which simulates physical processes within a river basin; and a hydrologic uncertainty processor (HUP), which simulates the hydrologic uncertainty (an aggregate of all uncertainties except input). It works as a Monte Carlo simulator: an ensemble of time series of inputs (e.g., precipitation amounts) generated by the IEF is transformed deterministically through a hydrologic model into an ensemble of time series of outputs, which is next transformed stochastically by the HUP into an ensemble of time series of predictands (e.g., river stages). Previous research indicated that in order to attain an acceptable sampling error, the ensemble size must be on the order of hundreds (for probabilistic river stage forecasts and probabilistic flood forecasts) or even thousands (for probabilistic stage transition forecasts). The computing time needed to run the hydrologic model this many times renders the straightforward simulations operationally infeasible. This motivates the development of the ensemble Bayesian forecasting system with randomization (EBFSR), which takes full advantage of the analytic meta-Gaussian HUP and generates multiple ensemble members after each run of the hydrologic model; this auxiliary randomization reduces the required size of the meteorological input ensemble and makes it operationally feasible to generate a Bayesian ensemble forecast of large size. Such a forecast quantifies the total uncertainty, is well calibrated against the prior (climatic) distribution of predictand, possesses a Bayesian coherence property, constitutes a random sample of the predictand, and has an acceptable sampling error-which makes it suitable for rational decision making under uncertainty.
NASA Astrophysics Data System (ADS)
Clark, E.; Wood, A.; Nijssen, B.; Newman, A. J.; Mendoza, P. A.
2016-12-01
The System for Hydrometeorological Applications, Research and Prediction (SHARP), developed at the National Center for Atmospheric Research (NCAR), University of Washington, U.S. Army Corps of Engineers, and U.S. Bureau of Reclamation, is a fully automated ensemble prediction system for short-term to seasonal applications. It incorporates uncertainty in initial hydrologic conditions (IHCs) and in hydrometeorological predictions. In this implementation, IHC uncertainty is estimated by propagating an ensemble of 100 plausible temperature and precipitation time series through the Sacramento/Snow-17 model. The forcing ensemble explicitly accounts for measurement and interpolation uncertainties in the development of gridded meteorological forcing time series. The resulting ensemble of derived IHCs exhibits a broad range of possible soil moisture and snow water equivalent (SWE) states. To select the IHCs that are most consistent with the observations, we employ a particle filter (PF) that weights IHC ensemble members based on observations of streamflow and SWE. These particles are then used to initialize ensemble precipitation and temperature forecasts downscaled from the Global Ensemble Forecast System (GEFS), generating a streamflow forecast ensemble. We test this method in two basins in the Pacific Northwest that are important for water resources management: 1) the Green River upstream of Howard Hanson Dam, and 2) the South Fork Flathead River upstream of Hungry Horse Dam. The first of these is characterized by mixed snow and rain, while the second is snow-dominated. The PF-based forecasts are compared to forecasts based on a single IHC (corresponding to median streamflow) paired with the full GEFS ensemble, and 2) the full IHC ensemble, without filtering, paired with the full GEFS ensemble. In addition to assessing improvements in the spread of IHCs, we perform a hindcast experiment to evaluate the utility of PF-based data assimilation on streamflow forecasts at 1- to 7-day lead times.
Effets perturbateurs endocriniens des pesticides organochlores.
Charlier, C; Plomteux, G
2002-01-01
Xenoestrogens such organochlorine pesticides are known to induce changes in reproductive development, function or behaviour in wildlife. Because these compounds are able to modify the estrogens metabolism, or to compete with estradiol for binding to the estrogen receptor, it may be possible that these products affect the risk of developing impaired fertility, precocious puberty or some kinds of cancer in man. Le plus ancien récit de lutte contre la pollution remonte à une légende indienne racontant que la divinité Sing-bonga était incommodée par les émanations des fours dans lesquels les Asuras fondaient leurs métaux (1). Evidemment depuis, la problématique n-a cessé de s-accroître et la contamination de la Terre par de nombreux polluants est devenue aujourd-hui un problème majeur de notre Société. La protection de notre environnement est une question capitale qui doit être respectée malgré la pression économique actuelle et qui ne cessera de croître au cours des prochaines années même si l-identification objective et indiscutable de ce qui est essentiel - donc devant être prioritairement garanti sur la planète - est difficile à cerner (2). « Un oiseau en mauvais état ne pond pas de bons oeufs » disait un proverbe grec. Mais ce n-est qu-à partir de la seconde moitié du XXème siècle que les toxicologues ont commencé à identifier les effets qu-avaient entraînés à l-échelle mondiale les pollutions émises aux XIXème siècle sur la faune sauvage et sur le cheptel (3). L-histoire contemporaine des pesticides industriels commence vers 1874 (synthèse des organochlorés) et se poursuit tout au long de ces 2 siècles en passant par la synthèse des organophosphorés (1950), des carbamates (1970) et des pyréthroïdes (1975) (4). Le dichlorodiphényltrichloroéthane (DDT) a été synthétisé pour la première fois par un étudiant en cours de préparation de sa thèse de doctorat : Othmer Zeidler. La production, reprise par les entreprises F.Mayo puis par la Geigy Co. a d-abord intéressé l-armée, puis l-agriculture. Dès la fin de la 2(ème) guerre mondiale, des mises en garde furent lancées à propos des effets nocifs du produit (4). Un déclin des populations de grives, d-aigles chauves, d-orfaies et de mammifères consommateurs de poissons fut constaté à partir des années 50 et dénoncé par Rachel Carson dans son célèbre appel du « Silent Spring » de 1962. Bien qu-il soit interdit en Occident depuis les années 70, ce produit a été tellement utilisé et présente une rémanence si longue qu-une contamination ubiquitaire existe aujourd-hui encore. De plus, ce produit continue à être produit aux USA pour être utilisé à des fins de démoustification dans les pays en voie de développement. Il en va de même de l-Hexachlorobenzène (HCB), un autre organochloré dont l-usage est interdit sous nos latitudes, mais reste fréquent dans d-autres pays. Ces deux exemples indiquent que le problème de la contamination continue à nous concerner, même pour des produits dont l-usage est aujourd-hui strictement réglementé ou interdit. Des effets sur la faune semblent encore actuellement devoir être attribués à ces produits. La diminution de la population des phoques dans la mer de Wadden pourrait être due à la forte contamination en composants organochlorés des poissons dont ces phoques se nourrissent (5). Exposé au DDT et à son métabolite dichlorodiphenyldichloroéthylène (DDE), le Seratherodon mossambicus présente une réduction de la sécrétion de cortisol par une action toxique cytospécifique sur l-axe hypothalamo-hypophysaire (6). Des travaux récents ont montré que le DDT et le DDE se lient chez les oiseaux et les mammifères au moyen de liaisons covalentes aux cellules de la zona fasciculata - homologue du tissu interrénal du poisson - induisant des microhémorragies. Cette « défaillance » cortisolique peut s-accompagner d-une perturbation du métabolisme glucidique et notamment d-un taux élevé de glycogène hépatique (7). Les pesticides organochlorés (DDT, DDE) entraînent également des perturbations d-ordre métabolique chez certaines espèces d-oiseaux, notamment le faucon pèlerin en Grande Bretagne et les oiseaux piscivores des grands lacs nord américains où l-on a constaté au cours des années 1960 que leur reproduction était menacée et qu-une des manifestations les plus évidentes des perturbations observées était le taux élevé de malformations (8). Des mortalités élevées de poissons ou de coquillages ont été rapportées dans des élevages situés à proximité des zones d-épandage de pesticides organophosphorés et de carbamates. En 1991, la dispersion aérienne de fenitrothion dans le but de provoquer la démoustication en Languedoc a été à l-origine de la perte de plusieurs tonnes de crevettes japonaises. L-utilisation de trichlorfon et de dichlorvos comme antiparasitaires dans des fermes d-élevages de saumons a provoqué des épisodes de mortalité importante (9).
NASA Astrophysics Data System (ADS)
Amrani, Salah
La fabrication de l'aluminium est realisee dans une cellule d'electrolyse, et cette operation utilise des anodes en carbone. L'evaluation de la qualite de ces anodes reste indispensable avant leur utilisation. La presence des fissures dans les anodes provoque une perturbation du procede l'electrolyse et une diminution de sa performance. Ce projet a ete entrepris pour determiner l'impact des differents parametres de procedes de fabrication des anodes sur la fissuration des anodes denses. Ces parametres incluent ceux de la fabrication des anodes crues, des proprietes des matieres premieres et de la cuisson. Une recherche bibliographique a ete effectuee sur tous les aspects de la fissuration des anodes en carbone pour compiler les travaux anterieurs. Une methodologie detaillee a ete mise au point pour faciliter le deroulement des travaux et atteindre les objectifs vises. La majorite de ce document est reservee pour la discussion des resultats obtenus au laboratoire de l'UQAC et au niveau industriel. Concernant les etudes realisees a l'UQAC, une partie des travaux experimentaux est reservee a la recherche des differents mecanismes de fissuration dans les anodes denses utilisees dans l'industrie d'aluminium. L'approche etait d'abord basee sur la caracterisation qualitative du mecanisme de la fissuration en surface et en profondeur. Puis, une caracterisation quantitative a ete realisee pour la determination de la distribution de la largeur de la fissure sur toute sa longueur, ainsi que le pourcentage de sa surface par rapport a la surface totale de l'echantillon. Cette etude a ete realisee par le biais de la technique d'analyse d'image utilisee pour caracteriser la fissuration d'un echantillon d'anode cuite. L'analyse surfacique et en profondeur de cet echantillon a permis de voir clairement la formation des fissures sur une grande partie de la surface analysee. L'autre partie des travaux est basee sur la caracterisation des defauts dans des echantillons d'anodes crues fabriquees industriellement. Cette technique a consiste a determiner le profil des differentes proprietes physiques. En effet, la methode basee sur la mesure de la distribution de la resistivite electrique sur la totalite de l'echantillon est la technique qui a ete utilisee pour localiser la fissuration et les macro-pores. La microscopie optique et l'analyse d'image ont, quant a elles, permis de caracteriser les zones fissurees tout en determinant la structure des echantillons analyses a l'echelle microscopique. D'autres tests ont ete menes, et ils ont consiste a etudier des echantillons cylindriques d'anodes de 50 mm de diametre et de 130 mm de longueur. Ces derniers ont ete cuits dans un four a UQAC a differents taux de chauffage dans le but de pouvoir determiner l'influence des parametres de cuisson sur la formation de la fissuration dans ce genre de carottes. La caracterisation des echantillons d'anodes cuites a ete faite a l'aide de la microscopie electronique a balayage et de l'ultrason. La derniere partie des travaux realises a l'UQAC contient une etude sur la caracterisation des anodes fabriquees au laboratoire sous differentes conditions d'operation. L'evolution de la qualite de ces anodes a ete faite par l'utilisation de plusieurs techniques. L'evolution de la temperature de refroidissement des anodes crues de laboratoire a ete mesuree; et un modele mathematique a ete developpe et valide avec les donnees experimentales. Cela a pour objectif d'estimer la vitesse de refroidissement ainsi que le stress thermique. Toutes les anodes fabriquees ont ete caracterisees avant la cuisson par la determination de certaines proprietes physiques (resistivite electrique, densite apparente, densite optique et pourcentage de defauts). La tomographie et la distribution de la resistivite electrique, qui sont des techniques non destructives, ont ete employees pour evaluer les defauts internes des anodes. Pendant la cuisson des anodes de laboratoire, l'evolution de la resistivite electrique a ete suivie et l'etape de devolatilisation a ete identifiee. Certaines anodes ont ete cuites a differents taux de chauffage (bas, moyen, eleve et un autre combine) dans l'objectif de trouver les meilleures conditions de cuisson en vue de minimiser la fissuration. D'autres anodes ont ete cuites a differents niveaux de cuisson, cela dans le but d'identifier a quelle etape de l'operation de cuisson la fissuration commence a se developper. Apres la cuisson, les anodes ont ete recuperees pour, a nouveau, faire leur caracterisation par les memes techniques utilisees precedemment. L'objectif principal de cette partie etait de reveler l'impact de differents parametres sur le probleme de fissuration, qui sont repartis sur toute la chaine de production des anodes. Le pourcentage de megots, la quantite de brai et la distribution des particules sont des facteurs importants a considerer pour etudier l'effet de la matiere premiere sur le probleme de la fissuration. Concernant l'effet des parametres du procede de fabrication sur le meme probleme, le temps de vibration, la pression de compaction et le procede de refroidissement ont ete a la base de cette etude. Finalement, l'influence de la phase de cuisson sur l'apparition de la fissuration a ete prise en consideration par l'intermediaire du taux de chauffage et du niveau de cuisson. Les travaux realises au niveau industriel ont ete faits lors d'une campagne de mesure dans le but d'evaluer la qualite des anodes de carbone en general et l'investigation du probleme de fissuration en particulier. Ensuite, il s'agissait de reveler les effets de differents parametres sur le probleme de la fissuration. Vingt-quatre anodes cuites ont ete utilisees. Elles ont ete fabriquees avec differentes matieres premieres (brai, coke, megots) et sous diverses conditions (pression, temps de vibration). Le parametre de la densite de fissuration a ete calcule en se basant sur l'inspection visuelle de la fissuration des carottes. Cela permet de classifier les differentes fissurations en plusieurs categories en se basant sur certains criteres tels que le type de fissures (horizontale, verticale et inclinee), leurs localisations longitudinales (bas, milieu et haut de l'anode) et transversales (gauche, centrale et droite). Les effets de la matiere premiere, les parametres de fabrication des anodes crues ainsi que les conditions de cuisson sur la fissuration ont ete etudies. La fissuration des anodes denses en carbones cause un serieux probleme pour l'industrie d'aluminium primaire. La realisation de ce projet a permis la revelation de differents mecanismes de fissuration, la classification de fissuration par plusieurs criteres (position, types localisation) et l'evaluation de l'impact de differents parametres sur la fissuration. Les etudes effectuees dans le domaine de cuisson ont donne la possibilite d'ameliorer l'operation et reduire la fissuration des anodes. Le travail consiste aussi a identifier des techniques capables d'evaluer la qualite d'anodes (l'ultrason, la tomographie et la distribution de la resistivite electrique). La fissuration des anodes en carbone est consideree comme un probleme complexe, car son apparition depend de plusieurs parametres repartis sur toute la chaine de production. Dans ce projet, plusieurs nouvelles etudes ont ete realisees, et elles permettent de donner de l'originalite aux travaux de recherches faits dans le domaine de la fissuration des anodes de carbone pour l'industrie de l'aluminium primaire. Les etudes realisees dans ce projet permettent d'ajouter d'un cote, une valeur scientifique pour mieux comprendre le probleme de fissuration des anodes et d'un autre cote, d'essayer de proposer des methodes qui peuvent reduire ce probleme a l'echelle industrielle.
Modeling task-specific neuronal ensembles improves decoding of grasp
NASA Astrophysics Data System (ADS)
Smith, Ryan J.; Soares, Alcimar B.; Rouse, Adam G.; Schieber, Marc H.; Thakor, Nitish V.
2018-06-01
Objective. Dexterous movement involves the activation and coordination of networks of neuronal populations across multiple cortical regions. Attempts to model firing of individual neurons commonly treat the firing rate as directly modulating with motor behavior. However, motor behavior may additionally be associated with modulations in the activity and functional connectivity of neurons in a broader ensemble. Accounting for variations in neural ensemble connectivity may provide additional information about the behavior being performed. Approach. In this study, we examined neural ensemble activity in primary motor cortex (M1) and premotor cortex (PM) of two male rhesus monkeys during performance of a center-out reach, grasp and manipulate task. We constructed point process encoding models of neuronal firing that incorporated task-specific variations in the baseline firing rate as well as variations in functional connectivity with the neural ensemble. Models were evaluated both in terms of their encoding capabilities and their ability to properly classify the grasp being performed. Main results. Task-specific ensemble models correctly predicted the performed grasp with over 95% accuracy and were shown to outperform models of neuronal activity that assume only a variable baseline firing rate. Task-specific ensemble models exhibited superior decoding performance in 82% of units in both monkeys (p < 0.01). Inclusion of ensemble activity also broadly improved the ability of models to describe observed spiking. Encoding performance of task-specific ensemble models, measured by spike timing predictability, improved upon baseline models in 62% of units. Significance. These results suggest that additional discriminative information about motor behavior found in the variations in functional connectivity of neuronal ensembles located in motor-related cortical regions is relevant to decode complex tasks such as grasping objects, and may serve the basis for more reliable and accurate neural prosthesis.
Strecker, Claas; Meyer, Bernd
2018-05-29
Protein flexibility poses a major challenge to docking of potential ligands in that the binding site can adopt different shapes. Docking algorithms usually keep the protein rigid and only allow the ligand to be treated as flexible. However, a wrong assessment of the shape of the binding pocket can prevent a ligand from adapting a correct pose. Ensemble docking is a simple yet promising method to solve this problem: Ligands are docked into multiple structures, and the results are subsequently merged. Selection of protein structures is a significant factor for this approach. In this work we perform a comprehensive and comparative study evaluating the impact of structure selection on ensemble docking. We perform ensemble docking with several crystal structures and with structures derived from molecular dynamics simulations of renin, an attractive target for antihypertensive drugs. Here, 500 ns of MD simulations revealed binding site shapes not found in any available crystal structure. We evaluate the importance of structure selection for ensemble docking by comparing binding pose prediction, ability to rank actives above nonactives (screening utility), and scoring accuracy. As a result, for ensemble definition k-means clustering appears to be better suited than hierarchical clustering with average linkage. The best performing ensemble consists of four crystal structures and is able to reproduce the native ligand poses better than any individual crystal structure. Moreover this ensemble outperforms 88% of all individual crystal structures in terms of screening utility as well as scoring accuracy. Similarly, ensembles of MD-derived structures perform on average better than 75% of any individual crystal structure in terms of scoring accuracy at all inspected ensembles sizes.
NASA Astrophysics Data System (ADS)
Yan, Yajing; Barth, Alexander; Beckers, Jean-Marie; Candille, Guillem; Brankart, Jean-Michel; Brasseur, Pierre
2016-04-01
In this paper, four assimilation schemes, including an intermittent assimilation scheme (INT) and three incremental assimilation schemes (IAU 0, IAU 50 and IAU 100), are compared in the same assimilation experiments with a realistic eddy permitting primitive equation model of the North Atlantic Ocean using the Ensemble Kalman Filter. The three IAU schemes differ from each other in the position of the increment update window that has the same size as the assimilation window. 0, 50 and 100 correspond to the degree of superposition of the increment update window on the current assimilation window. Sea surface height, sea surface temperature, and temperature profiles at depth collected between January and December 2005 are assimilated. Sixty ensemble members are generated by adding realistic noise to the forcing parameters related to the temperature. The ensemble is diagnosed and validated by comparison between the ensemble spread and the model/observation difference, as well as by rank histogram before the assimilation experiments The relevance of each assimilation scheme is evaluated through analyses on thermohaline variables and the current velocities. The results of the assimilation are assessed according to both deterministic and probabilistic metrics with independent/semi-independent observations. For deterministic validation, the ensemble means, together with the ensemble spreads are compared to the observations, in order to diagnose the ensemble distribution properties in a deterministic way. For probabilistic validation, the continuous ranked probability score (CRPS) is used to evaluate the ensemble forecast system according to reliability and resolution. The reliability is further decomposed into bias and dispersion by the reduced centered random variable (RCRV) score in order to investigate the reliability properties of the ensemble forecast system.
NASA Astrophysics Data System (ADS)
Yan, Yajing; Barth, Alexander; Beckers, Jean-Marie; Candille, Guillem; Brankart, Jean-Michel; Brasseur, Pierre
2015-04-01
Sea surface height, sea surface temperature and temperature profiles at depth collected between January and December 2005 are assimilated into a realistic eddy permitting primitive equation model of the North Atlantic Ocean using the Ensemble Kalman Filter. 60 ensemble members are generated by adding realistic noise to the forcing parameters related to the temperature. The ensemble is diagnosed and validated by comparison between the ensemble spread and the model/observation difference, as well as by rank histogram before the assimilation experiments. Incremental analysis update scheme is applied in order to reduce spurious oscillations due to the model state correction. The results of the assimilation are assessed according to both deterministic and probabilistic metrics with observations used in the assimilation experiments and independent observations, which goes further than most previous studies and constitutes one of the original points of this paper. Regarding the deterministic validation, the ensemble means, together with the ensemble spreads are compared to the observations in order to diagnose the ensemble distribution properties in a deterministic way. Regarding the probabilistic validation, the continuous ranked probability score (CRPS) is used to evaluate the ensemble forecast system according to reliability and resolution. The reliability is further decomposed into bias and dispersion by the reduced centred random variable (RCRV) score in order to investigate the reliability properties of the ensemble forecast system. The improvement of the assimilation is demonstrated using these validation metrics. Finally, the deterministic validation and the probabilistic validation are analysed jointly. The consistency and complementarity between both validations are highlighted. High reliable situations, in which the RMS error and the CRPS give the same information, are identified for the first time in this paper.
NASA Astrophysics Data System (ADS)
Yu, Wansik; Nakakita, Eiichi; Kim, Sunmin; Yamaguchi, Kosei
2016-08-01
The use of meteorological ensembles to produce sets of hydrological predictions increased the capability to issue flood warnings. However, space scale of the hydrological domain is still much finer than meteorological model, and NWP models have challenges with displacement. The main objective of this study to enhance the transposition method proposed in Yu et al. (2014) and to suggest the post-processing ensemble flood forecasting method for the real-time updating and the accuracy improvement of flood forecasts that considers the separation of the orographic rainfall and the correction of misplaced rain distributions using additional ensemble information through the transposition of rain distributions. In the first step of the proposed method, ensemble forecast rainfalls from a numerical weather prediction (NWP) model are separated into orographic and non-orographic rainfall fields using atmospheric variables and the extraction of topographic effect. Then the non-orographic rainfall fields are examined by the transposition scheme to produce additional ensemble information and new ensemble NWP rainfall fields are calculated by recombining the transposition results of non-orographic rain fields with separated orographic rainfall fields for a generation of place-corrected ensemble information. Then, the additional ensemble information is applied into a hydrologic model for post-flood forecasting with a 6-h interval. The newly proposed method has a clear advantage to improve the accuracy of mean value of ensemble flood forecasting. Our study is carried out and verified using the largest flood event by typhoon 'Talas' of 2011 over the two catchments, which are Futatsuno (356.1 km2) and Nanairo (182.1 km2) dam catchments of Shingu river basin (2360 km2), which is located in the Kii peninsula, Japan.
Mass Conservation and Positivity Preservation with Ensemble-type Kalman Filter Algorithms
NASA Technical Reports Server (NTRS)
Janjic, Tijana; McLaughlin, Dennis B.; Cohn, Stephen E.; Verlaan, Martin
2013-01-01
Maintaining conservative physical laws numerically has long been recognized as being important in the development of numerical weather prediction (NWP) models. In the broader context of data assimilation, concerted efforts to maintain conservation laws numerically and to understand the significance of doing so have begun only recently. In order to enforce physically based conservation laws of total mass and positivity in the ensemble Kalman filter, we incorporate constraints to ensure that the filter ensemble members and the ensemble mean conserve mass and remain nonnegative through measurement updates. We show that the analysis steps of ensemble transform Kalman filter (ETKF) algorithm and ensemble Kalman filter algorithm (EnKF) can conserve the mass integral, but do not preserve positivity. Further, if localization is applied or if negative values are simply set to zero, then the total mass is not conserved either. In order to ensure mass conservation, a projection matrix that corrects for localization effects is constructed. In order to maintain both mass conservation and positivity preservation through the analysis step, we construct a data assimilation algorithms based on quadratic programming and ensemble Kalman filtering. Mass and positivity are both preserved by formulating the filter update as a set of quadratic programming problems that incorporate constraints. Some simple numerical experiments indicate that this approach can have a significant positive impact on the posterior ensemble distribution, giving results that are more physically plausible both for individual ensemble members and for the ensemble mean. The results show clear improvements in both analyses and forecasts, particularly in the presence of localized features. Behavior of the algorithm is also tested in presence of model error.
NASA Astrophysics Data System (ADS)
Hacker, Joshua; Vandenberghe, Francois; Jung, Byoung-Jo; Snyder, Chris
2017-04-01
Effective assimilation of cloud-affected radiance observations from space-borne imagers, with the aim of improving cloud analysis and forecasting, has proven to be difficult. Large observation biases, nonlinear observation operators, and non-Gaussian innovation statistics present many challenges. Ensemble-variational data assimilation (EnVar) systems offer the benefits of flow-dependent background error statistics from an ensemble, and the ability of variational minimization to handle nonlinearity. The specific benefits of ensemble statistics, relative to static background errors more commonly used in variational systems, have not been quantified for the problem of assimilating cloudy radiances. A simple experiment framework is constructed with a regional NWP model and operational variational data assimilation system, to provide the basis understanding the importance of ensemble statistics in cloudy radiance assimilation. Restricting the observations to those corresponding to clouds in the background forecast leads to innovations that are more Gaussian. The number of large innovations is reduced compared to the more general case of all observations, but not eliminated. The Huber norm is investigated to handle the fat tails of the distributions, and allow more observations to be assimilated without the need for strict background checks that eliminate them. Comparing assimilation using only ensemble background error statistics with assimilation using only static background error statistics elucidates the importance of the ensemble statistics. Although the cost functions in both experiments converge to similar values after sufficient outer-loop iterations, the resulting cloud water, ice, and snow content are greater in the ensemble-based analysis. The subsequent forecasts from the ensemble-based analysis also retain more condensed water species, indicating that the local environment is more supportive of clouds. In this presentation we provide details that explain the apparent benefit from using ensembles for cloudy radiance assimilation in an EnVar context.
A Simple Approach to Account for Climate Model Interdependence in Multi-Model Ensembles
NASA Astrophysics Data System (ADS)
Herger, N.; Abramowitz, G.; Angelil, O. M.; Knutti, R.; Sanderson, B.
2016-12-01
Multi-model ensembles are an indispensable tool for future climate projection and its uncertainty quantification. Ensembles containing multiple climate models generally have increased skill, consistency and reliability. Due to the lack of agreed-on alternatives, most scientists use the equally-weighted multi-model mean as they subscribe to model democracy ("one model, one vote").Different research groups are known to share sections of code, parameterizations in their model, literature, or even whole model components. Therefore, individual model runs do not represent truly independent estimates. Ignoring this dependence structure might lead to a false model consensus, wrong estimation of uncertainty and effective number of independent models.Here, we present a way to partially address this problem by selecting a subset of CMIP5 model runs so that its climatological mean minimizes the RMSE compared to a given observation product. Due to the cancelling out of errors, regional biases in the ensemble mean are reduced significantly.Using a model-as-truth experiment we demonstrate that those regional biases persist into the future and we are not fitting noise, thus providing improved observationally-constrained projections of the 21st century. The optimally selected ensemble shows significantly higher global mean surface temperature projections than the original ensemble, where all the model runs are considered. Moreover, the spread is decreased well beyond that expected from the decreased ensemble size.Several previous studies have recommended an ensemble selection approach based on performance ranking of the model runs. Here, we show that this approach can perform even worse than randomly selecting ensemble members and can thus be harmful. We suggest that accounting for interdependence in the ensemble selection process is a necessary step for robust projections for use in impact assessments, adaptation and mitigation of climate change.
NASA Astrophysics Data System (ADS)
Vervatis, Vassilios; De Mey, Pierre; Ayoub, Nadia; Kailas, Marios; Sofianos, Sarantis
2017-04-01
The project entitled Stochastic Coastal/Regional Uncertainty Modelling (SCRUM) aims at strengthening CMEMS in the areas of ocean uncertainty quantification, ensemble consistency verification and ensemble data assimilation. The project has been initiated by the University of Athens and LEGOS/CNRS research teams, in the framework of CMEMS Service Evolution. The work is based on stochastic modelling of ocean physics and biogeochemistry in the Bay of Biscay, on an identical sub-grid configuration of the IBI-MFC system in its latest CMEMS operational version V2. In a first step, we use a perturbed tendencies scheme to generate ensembles describing uncertainties in open ocean and on the shelf, focusing on upper ocean processes. In a second step, we introduce two methodologies (i.e. rank histograms and array modes) aimed at checking the consistency of the above ensembles with respect to TAC data and arrays. Preliminary results highlight that wind uncertainties dominate all other atmosphere-ocean sources of model errors. The ensemble spread in medium-range ensembles is approximately 0.01 m for SSH and 0.15 °C for SST, though these values vary depending on season and cross shelf regions. Ecosystem model uncertainties emerging from perturbations in physics appear to be moderately larger than those perturbing the concentration of the biogeochemical compartments, resulting in total chlorophyll spread at about 0.01 mg.m-3. First consistency results show that the model ensemble and the pseudo-ensemble of OSTIA (L4) observation SSTs appear to exhibit nonzero joint probabilities with each other since error vicinities overlap. Rank histograms show that the model ensemble is initially under-dispersive, though results improve in the context of seasonal-range ensembles.
NASA Astrophysics Data System (ADS)
Saleh, Firas; Ramaswamy, Venkatsundar; Georgas, Nickitas; Blumberg, Alan F.; Pullen, Julie
2016-07-01
This paper investigates the uncertainties in hourly streamflow ensemble forecasts for an extreme hydrological event using a hydrological model forced with short-range ensemble weather prediction models. A state-of-the art, automated, short-term hydrologic prediction framework was implemented using GIS and a regional scale hydrological model (HEC-HMS). The hydrologic framework was applied to the Hudson River basin ( ˜ 36 000 km2) in the United States using gridded precipitation data from the National Centers for Environmental Prediction (NCEP) North American Regional Reanalysis (NARR) and was validated against streamflow observations from the United States Geologic Survey (USGS). Finally, 21 precipitation ensemble members of the latest Global Ensemble Forecast System (GEFS/R) were forced into HEC-HMS to generate a retrospective streamflow ensemble forecast for an extreme hydrological event, Hurricane Irene. The work shows that ensemble stream discharge forecasts provide improved predictions and useful information about associated uncertainties, thus improving the assessment of risks when compared with deterministic forecasts. The uncertainties in weather inputs may result in false warnings and missed river flooding events, reducing the potential to effectively mitigate flood damage. The findings demonstrate how errors in the ensemble median streamflow forecast and time of peak, as well as the ensemble spread (uncertainty) are reduced 48 h pre-event by utilizing the ensemble framework. The methodology and implications of this work benefit efforts of short-term streamflow forecasts at regional scales, notably regarding the peak timing of an extreme hydrologic event when combined with a flood threshold exceedance diagram. Although the modeling framework was implemented on the Hudson River basin, it is flexible and applicable in other parts of the world where atmospheric reanalysis products and streamflow data are available.
Sacroiliites infectieuses dans le centre tunisien: étude rétrospective de 25 cas
Bellazreg, Foued; Alaya, Zeineb; Hattab, Zouhour; Lasfar, Nadia Ben; Ayeche, Mohamed Laziz Ben; Bouajina, Elyes; Letaief, Amel; Hachfi, Wissem
2016-01-01
Les sacroiliites infectieuses sont rares mais peuvent se compliquer de séquelles fonctionnelles invalidantes. Décrire les caractéristiques cliniques et bactériologiques des sacroiliites infectieuses chez les patients suivis à Sousse, Centre Tunisien. Etude rétrospective, descriptive, des cas de sacroiliites infectieuses chez les patients hospitalisés à Sousse entre 2000 et 2015. Le diagnostic a été retenu devant des signes cliniques, d'imagerie, et microbiologiques évocateurs. Vingt-cinq patients, 10 hommes et 15 femmes, d’âge moyen 41 ans (19-78) ont été inclus. Les sacroiliites étaient dues à des bactéries pyogènes dans 14 cas (56%), brucelliennes dans 6 cas (24%), et tuberculeuses dans 5 cas (20%). La durée moyenne d’évolution était de 61, 45 et 402 jours respectivement. Les signes cliniques les plus fréquents étaient les douleurs fessières (92%) et la fièvre (88%). La radiographie standard était anormale dans 75% des cas. La TDM et l'IRM sacro-iliaques dans tous les cas. Le diagnostic a été confirmé bactériologiquement dans 24 cas (96%). La durée moyenne d'antibiothérapie était de 83 jours dans les sacroiliites à pyogènes, et de 102 jours dans les SI brucelliennes. L’évolution était favorable chez 12 patients (48%), 9 patients (36%) ont gardé une douleur sacro-iliaque séquellaire, et 4 patients (16%) sont décédés. Dans notre étude, la durée d’évolution de la sacroiliite infectieuse ne permettait pas de prédire la bactérie responsable, d'où la nécessité d'obtenir une documentation bactériologique afin de prescrire une antibiothérapie appropriée. PMID:27583067
Gagnat, A; Larré, S; Fromont, G; Pirès, C; Doré, B; Irani, J
2011-05-01
The objective of this study was to assess the prognostic decrease rate of PSA in patients treated with androgen suppression (AS) for prostate cancer (PCa). We identified in our database CaP patients with histologically documented, treated with SA alone and for whom vital status with a minimum follow-up of 6 months (except death beforehand) was established. Patient characteristics and CaP and PSA at baseline, PSA nadir, time of reaching the nadir PSA (DAN) and the ratio of the DAN/nadir value (ratio DAN/Nadir) were analyzed in relation to progression-free survival, specific and overall survival. One hundred ninety eight patients met the inclusion criteria and the median was 61.5 months (range 4.8 to 233). The median PSA at the start of the SA were 37.1 ng/mL and the median nadir PSA was 0.48 ng/mL. The median time to progression was 23.6 months. The median specific and overall survivals were 94 and 78 months, respectively. In univariate analysis, predictors of progression-free survival were PSA before SA, PSA nadir, DAN, DAN ratio/nadir, Gleason score, the percentage of core positive prostate biopsy and the status of bone scintigraphy. Except for PSA before SA which was no longer significant, predictors of specific and overall survival were similar and added the biochemical response (decrease of more than 50% of PSA) to a second hormonal manipulation during the biological progression. In multivariate analysis, the nadir PSA and the ratio DAN/Nadir remained significant predictors. These results have confirmed in one hand the predictive value of survival in patients DAN SA for CaP: achieving faster nadir PSA was associated with shorter survival. They have introduced in the other hand the new concept of DAN/Nadir PSA which provides independent prognostic information. Copyright © 2010 Elsevier Masson SAS. All rights reserved.
Hong, Sung-Shin; Lee, Ji-Young; Lee, Jin-Seok; Lee, Hye-Won; Kim, Hyeong-Geug; Lee, Sam-Keun; Park, Bong-Ki; Son, Chang-Gue
2015-06-20
Gongjin-Dan is a representative traditional Oriental medicine herbal drug that has been used to treat chronic fatigue symptoms for several hundred years. We evaluated the anti-fatigue effects of Gongjin-Dan and the underlying mechanisms in a chronic forced exercise mouse model. Balb/C male mice underwent an extreme treadmill-based running stress (1-h, 5 days/week), and daily oral administration of distilled water, Gongjin-Dan (100, 200, or 400 mg/kg), or ascorbic acid (100 mg/kg) for 28 days. The anti-fatigue effects of Gongjin-Dan were evaluated with behavioral tests (exercise tolerance and swimming tests), and the corresponding mechanisms were investigated based on oxidative stress and inflammatory cytokine and stress hormone levels in skeletal muscle, sera, and brain tissue. Gongjin-Dan significantly increased exercise tolerance and latency times but reduced the number of electric shocks and immobilization time on the treadmill running and swimming tests, compared with the control group. Gongjin-Dan also significantly ameliorated alterations in oxidative stress-related biomarkers (reactive oxygen species and malondialdehyde), inflammatory cytokines (tumor necrosis factor-α, interleukin-1 beta, interleukin-6, and interferon-γ) and glycogen and L-lactate levels in skeletal muscle, compared with those in the control group. Moreover, Gongjin-Dan considerably normalized the forced running stress-induced changes in serum corticosterone and adrenaline levels, as well as brain serotonin level. These antioxidant and anti-stress effects of Gongjin-Dan were supported by the results of Western blotting (4-hydroxynonenal and heme oxygenase-1) and the gene expression levels (serotonin receptor and serotonin transporter). These results support the clinical relevance of Gongjin-Dan regarding anti-chronic fatigue properties. The underlying mechanisms involve attenuation of oxidative and inflammatory reactions in muscle and regulation of the stress response through the hypothalmo-pituitary-adrenal axis. Copyright © 2015 Elsevier Ireland Ltd. All rights reserved.
NASA Astrophysics Data System (ADS)
Behmand, Behnaz
Les mecanismes qui menent a la supraconductivite dans les supraconducteurs a haute temperature critique sont encore aujourd'hui mal compris contrairement a ceux dans les supraconducteurs conventionnels. Dans les hauts-Tc, certaines modulations de la densite d'etats electroniques coexistant avec la phase supraconductrice ont ete observees, ce qui engendre des questionnements sur leur role dans la supraconductivite. En fait, plusieurs types de modulation de la densite d'etats electroniques existent, comme par exemple l'onde de densite de charge et l'onde de densite de paires. Ces deux modulations, d'origines differentes et mesurables avec la technique de spectroscopie par effet tunnel, peuvent etre differenciees avec une etude de leur symetrie. Ce memoire consistera donc a presenter l'etude de la symetrie de l'onde de densite de charge dans le 2H-NbSe2 qui est presente dans la phase supraconductrice a 300 mK. Par contre, certaines difficultes liees au principe de mesure, soit l'effet de normalisation, nuisent a l'identification de cette symetrie. La methode, pour contourner ce probleme sera alors l'element clef de ce travail.
Stress-stress fluctuation formula for elastic constants in the NPT ensemble
NASA Astrophysics Data System (ADS)
Lips, Dominik; Maass, Philipp
2018-05-01
Several fluctuation formulas are available for calculating elastic constants from equilibrium correlation functions in computer simulations, but the ones available for simulations at constant pressure exhibit slow convergence properties and cannot be used for the determination of local elastic constants. To overcome these drawbacks, we derive a stress-stress fluctuation formula in the NPT ensemble based on known expressions in the NVT ensemble. We validate the formula in the NPT ensemble by calculating elastic constants for the simple nearest-neighbor Lennard-Jones crystal and by comparing the results with those obtained in the NVT ensemble. For both local and bulk elastic constants we find an excellent agreement between the simulated data in the two ensembles. To demonstrate the usefulness of the formula, we apply it to determine the elastic constants of a simulated lipid bilayer.
Alves, Pedro; Liu, Shuang; Wang, Daifeng; Gerstein, Mark
2018-01-01
Machine learning is an integral part of computational biology, and has already shown its use in various applications, such as prognostic tests. In the last few years in the non-biological machine learning community, ensembling techniques have shown their power in data mining competitions such as the Netflix challenge; however, such methods have not found wide use in computational biology. In this work, we endeavor to show how ensembling techniques can be applied to practical problems, including problems in the field of bioinformatics, and how they often outperform other machine learning techniques in both predictive power and robustness. Furthermore, we develop a methodology of ensembling, Multi-Swarm Ensemble (MSWE) by using multiple particle swarm optimizations and demonstrate its ability to further enhance the performance of ensembles.
Discrete post-processing of total cloud cover ensemble forecasts
NASA Astrophysics Data System (ADS)
Hemri, Stephan; Haiden, Thomas; Pappenberger, Florian
2017-04-01
This contribution presents an approach to post-process ensemble forecasts for the discrete and bounded weather variable of total cloud cover. Two methods for discrete statistical post-processing of ensemble predictions are tested. The first approach is based on multinomial logistic regression, the second involves a proportional odds logistic regression model. Applying them to total cloud cover raw ensemble forecasts from the European Centre for Medium-Range Weather Forecasts improves forecast skill significantly. Based on station-wise post-processing of raw ensemble total cloud cover forecasts for a global set of 3330 stations over the period from 2007 to early 2014, the more parsimonious proportional odds logistic regression model proved to slightly outperform the multinomial logistic regression model. Reference Hemri, S., Haiden, T., & Pappenberger, F. (2016). Discrete post-processing of total cloud cover ensemble forecasts. Monthly Weather Review 144, 2565-2577.
Ensembles of NLP Tools for Data Element Extraction from Clinical Notes
Kuo, Tsung-Ting; Rao, Pallavi; Maehara, Cleo; Doan, Son; Chaparro, Juan D.; Day, Michele E.; Farcas, Claudiu; Ohno-Machado, Lucila; Hsu, Chun-Nan
2016-01-01
Natural Language Processing (NLP) is essential for concept extraction from narrative text in electronic health records (EHR). To extract numerous and diverse concepts, such as data elements (i.e., important concepts related to a certain medical condition), a plausible solution is to combine various NLP tools into an ensemble to improve extraction performance. However, it is unclear to what extent ensembles of popular NLP tools improve the extraction of numerous and diverse concepts. Therefore, we built an NLP ensemble pipeline to synergize the strength of popular NLP tools using seven ensemble methods, and to quantify the improvement in performance achieved by ensembles in the extraction of data elements for three very different cohorts. Evaluation results show that the pipeline can improve the performance of NLP tools, but there is high variability depending on the cohort. PMID:28269947
Ensembles of NLP Tools for Data Element Extraction from Clinical Notes.
Kuo, Tsung-Ting; Rao, Pallavi; Maehara, Cleo; Doan, Son; Chaparro, Juan D; Day, Michele E; Farcas, Claudiu; Ohno-Machado, Lucila; Hsu, Chun-Nan
2016-01-01
Natural Language Processing (NLP) is essential for concept extraction from narrative text in electronic health records (EHR). To extract numerous and diverse concepts, such as data elements (i.e., important concepts related to a certain medical condition), a plausible solution is to combine various NLP tools into an ensemble to improve extraction performance. However, it is unclear to what extent ensembles of popular NLP tools improve the extraction of numerous and diverse concepts. Therefore, we built an NLP ensemble pipeline to synergize the strength of popular NLP tools using seven ensemble methods, and to quantify the improvement in performance achieved by ensembles in the extraction of data elements for three very different cohorts. Evaluation results show that the pipeline can improve the performance of NLP tools, but there is high variability depending on the cohort.
Ensemble perception of color in autistic adults.
Maule, John; Stanworth, Kirstie; Pellicano, Elizabeth; Franklin, Anna
2017-05-01
Dominant accounts of visual processing in autism posit that autistic individuals have an enhanced access to details of scenes [e.g., weak central coherence] which is reflected in a general bias toward local processing. Furthermore, the attenuated priors account of autism predicts that the updating and use of summary representations is reduced in autism. Ensemble perception describes the extraction of global summary statistics of a visual feature from a heterogeneous set (e.g., of faces, sizes, colors), often in the absence of local item representation. The present study investigated ensemble perception in autistic adults using a rapidly presented (500 msec) ensemble of four, eight, or sixteen elements representing four different colors. We predicted that autistic individuals would be less accurate when averaging the ensembles, but more accurate in recognizing individual ensemble colors. The results were consistent with the predictions. Averaging was impaired in autism, but only when ensembles contained four elements. Ensembles of eight or sixteen elements were averaged equally accurately across groups. The autistic group also showed a corresponding advantage in rejecting colors that were not originally seen in the ensemble. The results demonstrate the local processing bias in autism, but also suggest that the global perceptual averaging mechanism may be compromised under some conditions. The theoretical implications of the findings and future avenues for research on summary statistics in autism are discussed. Autism Res 2017, 10: 839-851. © 2016 International Society for Autism Research, Wiley Periodicals, Inc. © 2016 International Society for Autism Research, Wiley Periodicals, Inc.
Zhang, Li; Ai, Haixin; Chen, Wen; Yin, Zimo; Hu, Huan; Zhu, Junfeng; Zhao, Jian; Zhao, Qi; Liu, Hongsheng
2017-05-18
Carcinogenicity refers to a highly toxic end point of certain chemicals, and has become an important issue in the drug development process. In this study, three novel ensemble classification models, namely Ensemble SVM, Ensemble RF, and Ensemble XGBoost, were developed to predict carcinogenicity of chemicals using seven types of molecular fingerprints and three machine learning methods based on a dataset containing 1003 diverse compounds with rat carcinogenicity. Among these three models, Ensemble XGBoost is found to be the best, giving an average accuracy of 70.1 ± 2.9%, sensitivity of 67.0 ± 5.0%, and specificity of 73.1 ± 4.4% in five-fold cross-validation and an accuracy of 70.0%, sensitivity of 65.2%, and specificity of 76.5% in external validation. In comparison with some recent methods, the ensemble models outperform some machine learning-based approaches and yield equal accuracy and higher specificity but lower sensitivity than rule-based expert systems. It is also found that the ensemble models could be further improved if more data were available. As an application, the ensemble models are employed to discover potential carcinogens in the DrugBank database. The results indicate that the proposed models are helpful in predicting the carcinogenicity of chemicals. A web server called CarcinoPred-EL has been built for these models ( http://ccsipb.lnu.edu.cn/toxicity/CarcinoPred-EL/ ).
Cant, Jonathan S; Xu, Yaoda
2015-11-01
Behavioral research has demonstrated that observers can extract summary statistics from ensembles of multiple objects. We recently showed that a region of anterior-medial ventral visual cortex, overlapping largely with the scene-sensitive parahippocampal place area (PPA), participates in object-ensemble representation. Here we investigated the encoding of ensemble density in this brain region using fMRI-adaptation. In Experiment 1, we varied density by changing the spacing between objects and found no sensitivity in PPA to such density changes. Thus, density may not be encoded in PPA, possibly because object spacing is not perceived as an intrinsic ensemble property. In Experiment 2, we varied relative density by changing the ratio of 2 types of objects comprising an ensemble, and observed significant sensitivity in PPA to such ratio change. Although colorful ensembles were shown in Experiment 2, Experiment 3 demonstrated that sensitivity to object ratio change was not driven mainly by a change in the ratio of colors. Thus, while anterior-medial ventral visual cortex is insensitive to density (object spacing) changes, it does code relative density (object ratio) within an ensemble. Object-ensemble processing in this region may thus depend on high-level visual information, such as object ratio, rather than low-level information, such as spacing/spatial frequency. © The Author 2014. Published by Oxford University Press. All rights reserved. For Permissions, please e-mail: journals.permissions@oup.com.
Mixture models for protein structure ensembles.
Hirsch, Michael; Habeck, Michael
2008-10-01
Protein structure ensembles provide important insight into the dynamics and function of a protein and contain information that is not captured with a single static structure. However, it is not clear a priori to what extent the variability within an ensemble is caused by internal structural changes. Additional variability results from overall translations and rotations of the molecule. And most experimental data do not provide information to relate the structures to a common reference frame. To report meaningful values of intrinsic dynamics, structural precision, conformational entropy, etc., it is therefore important to disentangle local from global conformational heterogeneity. We consider the task of disentangling local from global heterogeneity as an inference problem. We use probabilistic methods to infer from the protein ensemble missing information on reference frames and stable conformational sub-states. To this end, we model a protein ensemble as a mixture of Gaussian probability distributions of either entire conformations or structural segments. We learn these models from a protein ensemble using the expectation-maximization algorithm. Our first model can be used to find multiple conformers in a structure ensemble. The second model partitions the protein chain into locally stable structural segments or core elements and less structured regions typically found in loops. Both models are simple to implement and contain only a single free parameter: the number of conformers or structural segments. Our models can be used to analyse experimental ensembles, molecular dynamics trajectories and conformational change in proteins. The Python source code for protein ensemble analysis is available from the authors upon request.
Crossover ensembles of random matrices and skew-orthogonal polynomials
DOE Office of Scientific and Technical Information (OSTI.GOV)
Kumar, Santosh, E-mail: skumar.physics@gmail.com; Pandey, Akhilesh, E-mail: ap0700@mail.jnu.ac.in
2011-08-15
Highlights: > We study crossover ensembles of Jacobi family of random matrices. > We consider correlations for orthogonal-unitary and symplectic-unitary crossovers. > We use the method of skew-orthogonal polynomials and quaternion determinants. > We prove universality of spectral correlations in crossover ensembles. > We discuss applications to quantum conductance and communication theory problems. - Abstract: In a recent paper (S. Kumar, A. Pandey, Phys. Rev. E, 79, 2009, p. 026211) we considered Jacobi family (including Laguerre and Gaussian cases) of random matrix ensembles and reported exact solutions of crossover problems involving time-reversal symmetry breaking. In the present paper we givemore » details of the work. We start with Dyson's Brownian motion description of random matrix ensembles and obtain universal hierarchic relations among the unfolded correlation functions. For arbitrary dimensions we derive the joint probability density (jpd) of eigenvalues for all transitions leading to unitary ensembles as equilibrium ensembles. We focus on the orthogonal-unitary and symplectic-unitary crossovers and give generic expressions for jpd of eigenvalues, two-point kernels and n-level correlation functions. This involves generalization of the theory of skew-orthogonal polynomials to crossover ensembles. We also consider crossovers in the circular ensembles to show the generality of our method. In the large dimensionality limit, correlations in spectra with arbitrary initial density are shown to be universal when expressed in terms of a rescaled symmetry breaking parameter. Applications of our crossover results to communication theory and quantum conductance problems are also briefly discussed.« less
Short-range solar radiation forecasts over Sweden
NASA Astrophysics Data System (ADS)
Landelius, Tomas; Lindskog, Magnus; Körnich, Heiner; Andersson, Sandra
2018-04-01
In this article the performance for short-range solar radiation forecasts by the global deterministic and ensemble models from the European Centre for Medium-Range Weather Forecasts (ECMWF) is compared with an ensemble of the regional mesoscale model HARMONIE-AROME used by the national meteorological services in Sweden, Norway and Finland. Note however that only the control members and the ensemble means are included in the comparison. The models resolution differs considerably with 18 km for the ECMWF ensemble, 9 km for the ECMWF deterministic model, and 2.5 km for the HARMONIE-AROME ensemble. The models share the same radiation code. It turns out that they all underestimate systematically the Direct Normal Irradiance (DNI) for clear-sky conditions. Except for this shortcoming, the HARMONIE-AROME ensemble model shows the best agreement with the distribution of observed Global Horizontal Irradiance (GHI) and DNI values. During mid-day the HARMONIE-AROME ensemble mean performs best. The control member of the HARMONIE-AROME ensemble also scores better than the global deterministic ECMWF model. This is an interesting result since mesoscale models have so far not shown good results when compared to the ECMWF models. Three days with clear, mixed and cloudy skies are used to illustrate the possible added value of a probabilistic forecast. It is shown that in these cases the mesoscale ensemble could provide decision support to a grid operator in terms of forecasts of both the amount of solar power and its probabilities.
A comparison of resampling schemes for estimating model observer performance with small ensembles
NASA Astrophysics Data System (ADS)
Elshahaby, Fatma E. A.; Jha, Abhinav K.; Ghaly, Michael; Frey, Eric C.
2017-09-01
In objective assessment of image quality, an ensemble of images is used to compute the 1st and 2nd order statistics of the data. Often, only a finite number of images is available, leading to the issue of statistical variability in numerical observer performance. Resampling-based strategies can help overcome this issue. In this paper, we compared different combinations of resampling schemes (the leave-one-out (LOO) and the half-train/half-test (HT/HT)) and model observers (the conventional channelized Hotelling observer (CHO), channelized linear discriminant (CLD) and channelized quadratic discriminant). Observer performance was quantified by the area under the ROC curve (AUC). For a binary classification task and for each observer, the AUC value for an ensemble size of 2000 samples per class served as a gold standard for that observer. Results indicated that each observer yielded a different performance depending on the ensemble size and the resampling scheme. For a small ensemble size, the combination [CHO, HT/HT] had more accurate rankings than the combination [CHO, LOO]. Using the LOO scheme, the CLD and CHO had similar performance for large ensembles. However, the CLD outperformed the CHO and gave more accurate rankings for smaller ensembles. As the ensemble size decreased, the performance of the [CHO, LOO] combination seriously deteriorated as opposed to the [CLD, LOO] combination. Thus, it might be desirable to use the CLD with the LOO scheme when smaller ensemble size is available.
Ensemble perception of color in autistic adults
Stanworth, Kirstie; Pellicano, Elizabeth; Franklin, Anna
2016-01-01
Dominant accounts of visual processing in autism posit that autistic individuals have an enhanced access to details of scenes [e.g., weak central coherence] which is reflected in a general bias toward local processing. Furthermore, the attenuated priors account of autism predicts that the updating and use of summary representations is reduced in autism. Ensemble perception describes the extraction of global summary statistics of a visual feature from a heterogeneous set (e.g., of faces, sizes, colors), often in the absence of local item representation. The present study investigated ensemble perception in autistic adults using a rapidly presented (500 msec) ensemble of four, eight, or sixteen elements representing four different colors. We predicted that autistic individuals would be less accurate when averaging the ensembles, but more accurate in recognizing individual ensemble colors. The results were consistent with the predictions. Averaging was impaired in autism, but only when ensembles contained four elements. Ensembles of eight or sixteen elements were averaged equally accurately across groups. The autistic group also showed a corresponding advantage in rejecting colors that were not originally seen in the ensemble. The results demonstrate the local processing bias in autism, but also suggest that the global perceptual averaging mechanism may be compromised under some conditions. The theoretical implications of the findings and future avenues for research on summary statistics in autism are discussed. Autism Res 2017, 10: 839–851. © 2016 The Authors Autism Research published by Wiley Periodicals, Inc. on behalf of International Society for Autism Research PMID:27874263
Image Change Detection via Ensemble Learning
DOE Office of Scientific and Technical Information (OSTI.GOV)
Martin, Benjamin W; Vatsavai, Raju
2013-01-01
The concept of geographic change detection is relevant in many areas. Changes in geography can reveal much information about a particular location. For example, analysis of changes in geography can identify regions of population growth, change in land use, and potential environmental disturbance. A common way to perform change detection is to use a simple method such as differencing to detect regions of change. Though these techniques are simple, often the application of these techniques is very limited. Recently, use of machine learning methods such as neural networks for change detection has been explored with great success. In this work,more » we explore the use of ensemble learning methodologies for detecting changes in bitemporal synthetic aperture radar (SAR) images. Ensemble learning uses a collection of weak machine learning classifiers to create a stronger classifier which has higher accuracy than the individual classifiers in the ensemble. The strength of the ensemble lies in the fact that the individual classifiers in the ensemble create a mixture of experts in which the final classification made by the ensemble classifier is calculated from the outputs of the individual classifiers. Our methodology leverages this aspect of ensemble learning by training collections of weak decision tree based classifiers to identify regions of change in SAR images collected of a region in the Staten Island, New York area during Hurricane Sandy. Preliminary studies show that the ensemble method has approximately 11.5% higher change detection accuracy than an individual classifier.« less