Adsorption de gaz sur les materiaux microporeux modelisation, thermodynamique et applications
NASA Astrophysics Data System (ADS)
Richard, Marc-Andre
2009-12-01
Nos travaux sur l'adsorption de gaz dans les materiaux microporeux s'inscrivent dans le cadre des recherches visant a augmenter l'efficacite du stockage de l'hydrogene a bord des vehicules. Notre objectif etait d'etudier la possibilite d'utiliser l'adsorption afin d'ameliorer l'efficacite de la liquefaction de l'hydrogene des systemes a petite echelle. Nous avons egalement evalue les performances d'un systeme de stockage cryogenique de l'hydrogene base sur la physisorption. Comme nous avons affaire a des plages de temperatures particulierement etendues et a de hautes pressions dans la region supercritique du gaz, nous avons du commencer par travailler sur la modelisation et la thermodynamique de l'adsorption. La representation de la quantite de gaz adsorbee en fonction de la temperature et de la pression par un modele semi-empirique est un outil utile pour determiner la masse de gaz adsorbee dans un systeme mais egalement pour calculer les effets thermiques lies a l'adsorption. Nous avons adapte le modele Dubinin-Astakhov (D-A) pour modeliser des isothermes d'adsorption d'hydrogene, d'azote et de methane sur du charbon actif a haute pression et sur une grande plage de temperatures supercritiques en considerant un volume d'adsorption invariant. Avec cinq parametres de regression (incluant le volume d'adsorption Va), le modele que nous avons developpe permet de tres bien representer des isothermes experimentales d'adsorption d'hydrogene (de 30 a 293 K, jusqu'a 6 MPa), d'azote (de 93 a 298 K, jusqu'a 6 MPa) et de methane (de 243 a 333 K, jusqu'a 9 MPa) sur le charbon actif. Nous avons calcule l'energie interne de la phase adsorbee a partir du modele en nous servant de la thermodynamique des solutions sans negliger le volume d'adsorption. Par la suite, nous avons presente les equations de conservation de la niasse et de l'energie pour un systeme d'adsorption et valide notre demarche en comparant des simulations et des tests d'adsorption et de desorption. En plus de l'energie interne, nous avons evalue l'entropie, l'energie differentielle d'adsorption et la chaleur isosterique d'adsorption. Nous avons etudie la performance d'un systeme de stockage d'hydrogene par adsorption pour les vehicules. La capacite de stockage d'hydrogene et les performances thermiques d'un reservoir de 150 L contenant du charbon actif Maxsorb MSC-30(TM) (surface specifique ˜ 3000 m2/g) ont ete etudiees sur une plage de temperatures de 60 a 298 K et a des pressions allant jusqu'a 35 MPa. Le systeme a ete considere de facon globale, sans nous attarder a un design particulier. Il est possible de stocker 5 kg d'hydrogene a des pressions de 7.8, 15.2 et 29 MPa pour des temperatures respectivement de 80, 114 et 172 K, lorsqu'on recupere l'hydrogene residuel a 2.5 bars en le chauffant. La simulation des phenomenes thermiques nous a permis d'analyser le refroidissement necessaire lors du remplissage, le chauffage lors de la decharge et le temps de dormance. Nous avons developpe un cycle de liquefaction de l'hydrogene base sur l'adsorption avec compression mecanique (ACM) et avons evalue sa faisabilite. L'objectif etait d'augmenter sensiblement l'efficacite des systemes de liquefaction de l'hydrogene a petite echelle (moins d'une tonne/jour) et ce, sans en augmenter le cout en capital. Nous avons adapte le cycle de refrigeration par ACM afin qu'il puisse par la suite etre ajoute a un cycle de liquefaction de l'hydrogene. Nous avons ensuite simule des cycles idealises de refrigeration par ACM. Meme dans ces conditions ideales, la refrigeration specifique est faible. De plus, l'efficacite theorique maximale de ces cycles de refrigeration est d'environ 20 a 30% de l'ideal. Nous avons realise experimentalement un cycle de refrigeration par ACM avec le couple azote/charbon actif. (Abstract shortened by UMI.)
Modelisation par elements finis du muscle strie
NASA Astrophysics Data System (ADS)
Leonard, Mathieu
Ce present projet de recherche a permis. de creer un modele par elements finis du muscle strie humain dans le but d'etudier les mecanismes engendrant les lesions musculaires traumatiques. Ce modele constitue une plate-forme numerique capable de discerner l'influence des proprietes mecaniques des fascias et de la cellule musculaire sur le comportement dynamique du muscle lors d'une contraction excentrique, notamment le module de Young et le module de cisaillement de la couche de tissu conjonctif, l'orientation des fibres de collagene de cette membrane et le coefficient de poisson du muscle. La caracterisation experimentale in vitro de ces parametres pour des vitesses de deformation elevees a partir de muscles stries humains actifs est essentielle pour l'etude de lesions musculaires traumatiques. Le modele numerique developpe est capable de modeliser la contraction musculaire comme une transition de phase de la cellule musculaire par un changement de raideur et de volume a l'aide des lois de comportement de materiau predefinies dans le logiciel LS-DYNA (v971, Livermore Software Technology Corporation, Livermore, CA, USA). Le present projet de recherche introduit donc un phenomene physiologique qui pourrait expliquer des blessures musculaires courantes (crampes, courbatures, claquages, etc.), mais aussi des maladies ou desordres touchant le tissu conjonctif comme les collagenoses et la dystrophie musculaire. La predominance de blessures musculaires lors de contractions excentriques est egalement exposee. Le modele developpe dans ce projet de recherche met ainsi a l'avant-scene le concept de transition de phase ouvrant la porte au developpement de nouvelles technologies pour l'activation musculaire chez les personnes atteintes de paraplegie ou de muscles artificiels compacts pour l'elaboration de protheses ou d'exosquelettes. Mots-cles Muscle strie, lesion musculaire, fascia, contraction excentrique, modele par elements finis, transition de phase
Miners, masculinity and the "Bataille du Charbon" in France, 1944-1948.
Diamond, Hanna
2011-01-01
In 1944, the French provisional government, backed by the Parti communiste français and the Confédération générale du travail, undertook an aggressive propaganda campaign to persuade miners to embark upon a 'battle for coal' which raised their efforts in extracting coal to that of a national endeavour. At the same time, miners had great hopes that nationalisation of the coal industry, under discussion at this time, would bring significant improvement to their working lives. In identifying the ways in which publicists posited miners as an ideal of working-class manhood, this article will argue that "la bataille du charbon" marks a crucial moment in the celebration of working-class masculinity and that the "statut des mineurs" which was passed in 1946 as a part of nationalisation enshrined many of the existing gender assumptions about mining life. What does an incorporation of gender to an analysis of the treatment of miners in the years 1944-1948 add to our understandings of the various economic, political and social dynamics around "la bataille du charbon"? How do these insights inform our perceptions of French coalfield societies in the mid-twentieth century?
NASA Astrophysics Data System (ADS)
Meghzili, B.; Medjram, M. S.; Achour, S.
2005-05-01
A cause de la sécheresse qui a sévit durant une décennie, la station de traitement de l'eau potable de la ville de Skikda Algérie, en vue de combler le déficit en eau, utilise un mélange des eaux de surface (barrage) et des eaux souterraines (forage). Les résultats des analyses physico-chimiques de ces eaux montrent la présence de micropolluants, notamment le mercure, avec une concentration de 0.035 mg/l pour les eaux de surface et une concentration de 0.02 mg/l pour les eaux souterraines. Ces résultats obtenus, montrent également que la concentration en matières organiques dépasse, pour les deux sources, les normes OMS. Afin de réduire les effets de cette pollution, nous avons calculé les doses nécessaires des différents réactifs utilisés sur la base des essais d'optimisation réalisés en laboratoire. Les résultats obtenus nous ont permis de conclure que les doses de 30 à 60 mg/l de sulfate d'aluminium (S.A) sont nécessaires à une bonne élimination de la turbidité et des matières organiques (M.O) et que l'utilisation du charbon active en poudre (C.A.P) permet la réduction de la teneur en mercure au dessous du seuil admissible. L'utilisation d'un adjuvant (chaux vive) permet d'améliorer les résultats surtout pour la turbidité (4 mg/l). Une préchloration au break point semble intéressante pour améliorer la phase de floculation.
NASA Astrophysics Data System (ADS)
Aurousseau, Emmanuelle
Les modeles sont des outils amplement utilises en sciences et technologies (S&T) afin de representer et d’expliquer un phenomene difficilement accessible, voire abstrait. La demarche de modelisation est presentee de maniere explicite dans le programme de formation de l’ecole quebecoise (PFEQ), notamment au 2eme cycle du secondaire (Quebec. Ministere de l'Education du Loisir et du Sport, 2007a). Elle fait ainsi partie des sept demarches auxquelles eleves et enseignants sont censes recourir. Cependant, de nombreuses recherches mettent en avant la difficulte des enseignants a structurer leurs pratiques d’enseignement autour des modeles et de la demarche de modelisation qui sont pourtant reconnus comme indispensables. En effet, les modeles favorisent la conciliation des champs concrets et abstraits entre lesquels le scientifique, meme en herbe, effectue des allers-retours afin de concilier le champ experimental de reference qu’il manipule et observe au champ theorique relie qu’il construit. L’objectif de cette recherche est donc de comprendre comment les modeles et la demarche de modelisation contribuent a faciliter l’articulation du concret et de l’abstrait dans l’enseignement des sciences et des technologies (S&T) au 2eme cycle du secondaire. Pour repondre a cette question, nous avons travaille avec les enseignants dans une perspective collaborative lors de groupes focalises et d’observation en classe. Ces dispositifs ont permis d’examiner les pratiques d’enseignement que quatre enseignants mettent en oeuvre en utilisant des modeles et des demarches de modelisation. L’analyse des pratiques d’enseignement et des ajustements que les enseignants envisagent dans leur pratique nous permet de degager des connaissances a la fois pour la recherche et pour la pratique des enseignants, au regard de l’utilisation des modeles et de la demarche de modelisation en S&T au secondaire.
Hafidi, Zouheir; Handor, Hanan; Laghmari, Mina; Handor, Najat; Cherkaoui, Lalla Ouafae; Tachfouti, Samira; Seffar, Myriame; Daoudi, Rajae
2013-01-01
L′anthrax est une zoonose causée par le Bacillus anthracis. les humains contractent généralement cette maladie dans des régions endémiques, par contact direct avec des animaux infectés ou avec leurs produits contaminés. Les localisations palpébrales sont rares dans la pratique clinique et posent des problèmes de diagnostic différentiel. Les auteurs rapportent l'observation d'un patient admis dans un tableau de cellulite préseptale, avec escarre noirâtre étendue de la paupière supérieure et œdème extensif de l′hémiface, faisant suspecter une localisation palpébrale de la maladie du charbon. L'examen bactériologique a permis de confirmer le diagnostic. Le patient a bénéficié d′une antibiothérapie à base de pénicilline G avec une bonne évolution. PMID:24171070
Antihistamines: Understanding Your OTC Options
... you can buy over the counter include: Brompheniramine (brand names include Children’s Dimetapp Cold) Chlorpheniramine (brand names include Chlor-Trimeton, Actifed Cold) Dimenhydrinate (brand ...
2012-07-01
du monde de la modélisation et de la simulation et lui fournir des directives de mise en œuvre ; et fournir des ...définition ; rapports avec les normes ; spécification de procédure de gestion de la MC ; spécification d’artefact de MC. Considérations importantes...utilisant la présente directive comme référence. • Les VV&A (vérification, validation et acceptation) des MC doivent faire partie intégrante du
Broda, Anja; Bieber, Anja; Meyer, Gabriele; Hopper, Louise; Joyce, Rachael; Irving, Kate; Zanetti, Orazio; Portolani, Elisa; Kerpershoek, Liselot; Verhey, Frans; Vugt, Marjolein de; Wolfs, Claire; Eriksen, Siren; Røsvik, Janne; Marques, Maria J; Gonçalves-Pereira, Manuel; Sjölund, Britt-Marie; Woods, Bob; Jelley, Hannah; Orrell, Martin; Stephan, Astrid
2017-08-03
As part of the ActifCare (ACcess to Timely Formal Care) project, we conducted expert interviews in eight European countries with policy and political decision makers, or representatives of relevant institutions, to determine their perspectives on access to formal care for people with dementia and their carers. Each ActifCare country (Germany, Ireland, Italy, The Netherlands, Norway, Portugal, Sweden, United Kingdom) conducted semi-structured interviews with 4-7 experts (total N = 38). The interview guide addressed the topics "Complexity and Continuity of Care", "Formal Services", and "Public Awareness". Country-specific analysis of interview transcripts used an inductive qualitative content analysis. Cross-national synthesis focused on similarities in themes across the ActifCare countries. The analysis revealed ten common themes and two additional sub-themes across countries. Among others, the experts highlighted the need for a coordinating role and the necessity of information to address issues of complexity and continuity of care, demanded person-centred, tailored, and multidisciplinary formal services, and referred to education, mass media and campaigns as means to raise public awareness. Policy and political decision makers appear well acquainted with current discussions among both researchers and practitioners of possible approaches to improve access to dementia care. Experts described pragmatic, realistic strategies to influence dementia care. Suggested innovations concerned how to achieve improved dementia care, rather than transforming the nature of the services provided. Knowledge gained in these expert interviews may be useful to national decision makers when they consider reshaping the organisation of dementia care, and may thus help to develop best-practice strategies and recommendations.
Modelisation of the SECMin molten salts environment
NASA Astrophysics Data System (ADS)
Lucas, M.; Slim, C.; Delpech, S.; di Caprio, D.; Stafiej, J.
2014-06-01
We develop a cellular automata modelisation of SECM experiments to study corrosion in molten salt media for generation IV nuclear reactors. The electrodes used in these experiments are cylindrical glass tips with a coaxial metal wire inside. As the result of simulations we obtain the current approach curves of the electrodes with geometries characterized by several values of the ratios of glass to metal area at the tip. We compare these results with predictions of the known analytic expressions, solutions of partial differential equations for flat uniform geometry of the substrate. We present the results for other, more complicated substrate surface geometries e. g. regular saw modulated surface, surface obtained by Eden model process, ...
NASA Astrophysics Data System (ADS)
Varlet, Madeleine
Le recours aux modeles et a la modelisation est mentionne dans la documentation scientifique comme un moyen de favoriser la mise en oeuvre de pratiques d'enseignement-apprentissage constructivistes pour pallier les difficultes d'apprentissage en sciences. L'etude prealable du rapport des enseignantes et des enseignants aux modeles et a la modelisation est alors pertinente pour comprendre leurs pratiques d'enseignement et identifier des elements dont la prise en compte dans les formations initiale et disciplinaire peut contribuer au developpement d'un enseignement constructiviste des sciences. Plusieurs recherches ont porte sur ces conceptions sans faire de distinction selon les matieres enseignees, telles la physique, la chimie ou la biologie, alors que les modeles ne sont pas forcement utilises ou compris de la meme maniere dans ces differentes disciplines. Notre recherche s'est interessee aux conceptions d'enseignantes et d'enseignants de biologie au secondaire au sujet des modeles scientifiques, de quelques formes de representations de ces modeles ainsi que de leurs modes d'utilisation en classe. Les resultats, que nous avons obtenus au moyen d'une serie d'entrevues semi-dirigees, indiquent que globalement leurs conceptions au sujet des modeles sont compatibles avec celle scientifiquement admise, mais varient quant aux formes de representations des modeles. L'examen de ces conceptions temoigne d'une connaissance limitee des modeles et variable selon la matiere enseignee. Le niveau d'etudes, la formation prealable, l'experience en enseignement et un possible cloisonnement des matieres pourraient expliquer les differentes conceptions identifiees. En outre, des difficultes temporelles, conceptuelles et techniques peuvent freiner leurs tentatives de modelisation avec les eleves. Toutefois, nos resultats accreditent l'hypothese que les conceptions des enseignantes et des enseignants eux-memes au sujet des modeles, de leurs formes de representation et de leur approche constructiviste en enseignement representent les plus grands obstacles a la construction des modeles en classe. Mots-cles : Modeles et modelisation, biologie, conceptions, modes d'utilisation, constructivisme, enseignement, secondaire.
DOT National Transportation Integrated Search
1978-04-01
Fourteen men were studied to determine the combined effects of two altitudes (ground level (1,274 ft) and 12,500 ft), and three preparations (lactose placebo, Compound A (Actifed - Registered Trade Name), and Compound B (Dristan - Registered Trade Na...
ERIC Educational Resources Information Center
Crelinsten, Michael, Ed.
The bilingual student manual, devoted to the active leisure learning activity portion of Katimavik (the nine-month volunteer community service and experiential learning program for 17 to 21 year old Canadians) contains sections on learning program objectives and trimester guidelines; optional activities; resume recordkeeping; general information…
Time Sensitive Course of Action Development and Evaluation
2010-10-01
Applications militaires de la modelisation humaine ). RTO-MP-HFM-202 14. ABSTRACT The development of courses of action that integrate military with...routes between the capital town C of the province and a neighboring country M. Both roads are historically significant smuggling routes. There were
NASA Astrophysics Data System (ADS)
Gaudeua de Gerlicz, C.; Golding, J. G.; Bobola, Ph.; Moutarde, C.; Naji, S.
2008-06-01
The spaceflight under microgravity cause basically biological and physiological imbalance in human being. Lot of study has been yet release on this topic especially about sleep disturbances and on the circadian rhythms (alternation vigilance-sleep, body, temperature...). Factors like space motion sickness, noise, or excitement can cause severe sleep disturbances. For a stay of longer than four months in space, gradual increases in the planned duration of sleep were reported. [1] The average sleep in orbit was more than 1.5 hours shorter than the during control periods on earth, where sleep averaged 7.9 hours. [2] Alertness and calmness were unregistered yield clear circadian pattern of 24h but with a phase delay of 4h.The calmness showed a biphasic component (12h) mean sleep duration was 6.4 structured by 3-5 non REM/REM cycles. Modelisations of neurophysiologic mechanisms of stress and interactions between various physiological and psychological variables of rhythms have can be yet release with the COSINOR method. [3
Active Control of Engine Dynamics (Le controle actif pour la dynamique des moteurs)
2002-11-01
optimum operating conditions, avoiding, for example, inadvertent operation when the pulsations can cause unacceptable rates of surface heat transfer or...such as shipboard incineration, and power and heat generation in the field. Because the practical problem of suppressing combustion instabilities has...aforementioned physical processes are essentially completed prior to entering the combustor. One consequence of fuel-air premixing is that the heat
Human Modelling for Military Application (Applications militaires de la modelisation humaine)
2010-10-01
techniques (rooted in the mathematics-centered analytic methods arising from World War I analyses by Lanchester 2 ). Recent requirements for research and...34Dry Shooting for Airplane Gunners - Popular Science Monthly". January 1919. p. 13-14. 2 Lanchester F.W., Mathematics in Warfare in The World of
2006-09-01
Control Force Agility Shared Situational Awareness Attentional Demand Interoperability Network Based Operations Effect Based Operations Speed of...Command Self Synchronization Reach Back Reach Forward Information Superiority Increased Mission Effectiveness Humansystems® Team Modelling...communication effectiveness and Distributed Mission Training (DMT) effectiveness . The NASA Ames Centre - Distributed Research Facilities platform could
Bellman Continuum (3rd) International Workshop (13-14 June 1988)
1988-06-01
Modelling Uncertain Problem ................. 53 David Bensoussan ,---,>Asymptotic Linearization of Uncertain Multivariable Systems by Sliding Modes...K. Ghosh .-. Robust Model Tracking for a Class of Singularly Perturbed Nonlinear Systems via Composite Control ....... 93 F. Garofalo and L. Glielmo...MODELISATION ET COMMANDE EN ECONOMIE MODELS AND CONTROL POLICIES IN ECONOMICS Qualitative Differential Games : A Viability Approach ............. 117
2009-09-01
frequency shallow water scenarios, and DRDC has ready access to a well-established PE model ( PECan ). In those spectral areas below 1 kHz, where the PE...PCs Personnel Computers PE Parabolic Equation PECan PE Model developed by DRDC SPADES/ICE Sensor Performance and Acoustic Detection Evaluation
2000-05-01
est constitude par un .les pressions sur la gouveme et le ensemble de 17 pouts de jauge , de 20 moment de charni~re sont surestimds accildrom~tes, de...avec les corrdlations calcul-essais 130 mm). des rdponses dc jauges de contraintes A 12 Le calcul, comme les essais, permettent chargements statiques...encastrement au mur * 250 capteurs ( pression, jauge , acc~l6romnbtre, fibre optique) gouverne encastrement ~-axe dispositif de s6curit6 ~ guen BLJTEE A JEUl
Synthese de champs sonores adaptative
NASA Astrophysics Data System (ADS)
Gauthier, Philippe-Aubert
La reproduction de champs acoustiques est une approche physique au probleme technologique de la spatialisation sonore. Cette these concerne l'aspect physique de la reproduction de champs acoustiques. L'objectif principal est l'amelioration de la reproduction de champs acoustiques par "synthese de champs acoustiques" ("Wave Field Synthesis", WFS), une approche connue, basee sur des hypotheses de champ libre, a l'aide du controle actif par l'ajout de capteurs de l'erreur de reproduction et d'une boucle fermee. Un premier chapitre technique (chapitre 4) expose les resultats d'appreciation objective de la WFS par simulations et mesures experimentales. L'effet indesirable de la salle de reproduction sur les qualites objectives de la WFS fut illustre. Une premiere question de recherche fut ensuite abordee (chapitre 5), a savoir s'il est possible de reproduire des champs progressifs en salle dans un paradigme physique de controle actif: cette possibilite fut prouvee. L'approche technique privilegiee, "synthese de champs adaptative" ("Adaptive Wave Field Synthesis" [AWFS]), fut definie, puis simulee (chapitre 6). Cette approche d'AWFS comporte une originalite en controle actif et en reproduction de champs acoustiques: la fonction cout quadratique representant la minimisation des erreurs de reproduction inclut une regularisation de Tikhonov avec solution a priori qui vient de la WFS. L'etude de l'AWFS a l'aide de la decomposition en valeurs singulieres (chapitre 7) a permis de comprendre les mecanismes propres a l'AWFS. C'est la deuxieme principale originalite de la these. L'algorithme FXLMS (LMS et reference filtree) est modifie pour l'AWFS (chapitre 8). Le decouplage du systeme par decomposition en valeurs singulieres est illustre dans le domaine du traitement de signal et l'AWFS basee sur le controle independant des modes de rayonnement est simulee (chapitre 8). Ce qui constitue la troisieme originalite principale de cette these. Ces simulations du traitement de signal montrent l'efficacite des algorithmes et la capacite de l'AWFS a attenuer les erreurs attribuables a des reflexions acoustiques. Le neuvieme chapitre presente des resultats experimentaux d'AWFS. L'objectif etait de valider la methode et d'evaluer les performances de l'AWFS. Un autre algorithme prometteur est aussi teste. Les resultats demontrent la bonne marche de l'AWFS et des algorithmes testes. Autant dans le cas de la reproduction de champs harmoniques que dans le cas de la reproduction de champs a large bande, l'AWFS reduit l'erreur de reproduction de la WFS et les effets indesirables causes par les lieux de reproduction.
1998-12-01
failure detection, monitoring, and decision making.) moderator function. Originally, the output from these One of the best known OCM implementations, the...imposed by the tasks themselves, the information and equipment provided, the task environment, operator skills and experience, operator strategies , the...problem-solving situation, including the toward failure.) knowledge necessary to generate the right problem- solving strategies , the attention that
Computational approach to estimating the effects of blood properties on changes in intra-stent flow.
Benard, Nicolas; Perrault, Robert; Coisne, Damien
2006-08-01
In this study various blood rheological assumptions are numerically investigated for the hemodynamic properties of intra-stent flow. Non-newtonian blood properties have never been implemented in blood coronary stented flow investigation, although its effects appear essential for a correct estimation and distribution of wall shear stress (WSS) exerted by the fluid on the internal vessel surface. Our numerical model is based on a full 3D stent mesh. Rigid wall and stationary inflow conditions are applied. Newtonian behavior, non-newtonian model based on Carreau-Yasuda relation and a characteristic newtonian value defined with flow representative parameters are introduced in this research. Non-newtonian flow generates an alteration of near wall viscosity norms compared to newtonian. Maximal WSS values are located in the center part of stent pattern structure and minimal values are focused on the proximal stent wire surface. A flow rate increase emphasizes fluid perturbations, and generates a WSS rise except for interstrut area. Nevertheless, a local quantitative analysis discloses an underestimation of WSS for modelisation using a newtonian blood flow, with clinical consequence of overestimate restenosis risk area. Characteristic viscosity introduction appears to present a useful option compared to rheological modelisation based on experimental data, with computer time gain and relevant results for quantitative and qualitative WSS determination.
Future Modelling and Simulation Challenges (Defis futurs pour la modelisation et la simulation)
2002-11-01
Language School Figure 2: Location of the simulation center within the MEC Military operations research section - simulation lab Military operations... language . This logic can be probabilistic (branching is randomised, which is useful for modelling error), tactical (a branch goes to the task with the... language and a collection of simulation tools that can be used to create human and team behaviour models to meet users’ needs. Hence, different ways of
Carbon nano structures: Production and characterization
NASA Astrophysics Data System (ADS)
Beig Agha, Rosa
L'objectif de ce memoire est de preparer et de caracteriser des nanostructures de carbone (CNS -- Carbon Nanostructures, en licence a l'Institut de recherche sur l'hydrogene, Quebec, Canada), un carbone avec un plus grand degre de graphitisation et une meilleure porosite. Le Chapitre 1 est une description generale des PEMFCs (PEMFC -- Polymer Electrolyte Membrane Fuel Cell) et plus particulierement des CNS comme support de catalyseurs, leur synthese et purification. Le Chapitre 2 decrit plus en details la methode de synthese et la purification des CNS, la theorie de formation des nanostructures et les differentes techniques de caracterisation que nous avons utilises telles que la diffraction aux rayons-X (XRD -- X-ray diffraction), la microscopie electronique a transmission (TEM -- transmission electron microscope ), la spectroscopie Raman, les isothermes d'adsorption d'azote a 77 K (analyse BET, t-plot, DFT), l'intrusion au mercure, et l'analyse thermogravimetrique (TGA -- thermogravimetric analysis). Le Chapitre 3 presente les resultats obtenus a chaque etape de la synthese des CNS et avec des echantillons produits a l'aide d'un broyeur de type SPEXRTM (SPEX/CertiPrep 8000D) et d'un broyeur de type planetaire (Fritsch Pulverisette 5). La difference essentielle entre ces deux types de broyeur est la facon avec laquelle les materiaux sont broyes. Le broyeur de type SPEX secoue le creuset contenant les materiaux et des billes d'acier selon 3 axes produisant ainsi des impacts de tres grande energie. Le broyeur planetaire quant a lui fait tourner et deplace le creuset contenant les materiaux et des billes d'acier selon 2 axes (plan). Les materiaux sont donc broyes differemment et l'objectif est de voir si les CNS produits ont les memes structures et proprietes. Lors de nos travaux nous avons ete confrontes a un probleme majeur. Nous n'arrivions pas a reproduire les CNS dont la methode de synthese a originellement ete developpee dans les laboratoires de l'Institut de recherche sur l'hydrogene (IRH). Nos echantillons presentaient toujours une grande quantite de carbure de fer au detriment de la formation de nanostructures de carbone. Apres plusieurs mois de recherche nous avons constate que les metaux de base, soit le fer et le cobalt, etaient contamines. Neanmoins, ces recherches nous ont enseigne beaucoup et les resultats sont presentes aux Appendices I a III. Le carbone de depart est du charbon active commercial (CNS201) qui a ete prealablement chauffe a 1,000°C sous vide pendant 90 minutes pour se debarrasser de toute humidite et autres impuretes. En premiere etape, dans un creuset d'acier durci du CNS201 pretraite fut melange a une certaine quantite de Fe et de Co (99.9 % purs). Des proportions typiques sont 50 pd. %, 44 pd. %, et 6 pd. % pour le C, le Fe, et le Co respectivement. Pour les echantillons prepares avec le broyeur SPEX, trois a six billes en acier durci furent utilisees pour le broyage, de masse relative echantillon/poudre de 35 a 1. Pour les echantillons prepares avec le broyeur planetaire, trente-six billes en acier durci furent utilisees pour le broyage, de masse relative echantillon/poudre de 10 a 1. L'hydrogene fut alors introduit dans le creuset pour les deux types de broyeur a une pression de 1.4 MPa, et l'echantillon fut broye pendant 12 h pour le SPEX et 24 h pour le planetaire. Le broyeur SPEX a un rendement de transfert d'energie mecanique plus grand qu'un broyeur planetaire, mais il a le desavantage de contaminer davantage l'echantillon en Fe par attrition. Cependant, ceci peut etre neglige vu que le Fe etait un des catalyseurs metalliques ajoutes au creuset. En deuxieme etape, l'echantillon broye est transfere sous gaz inerte (argon) dans un tube en quartz, qui est alors chauffe a 700°C pendant 90 minutes. Des mesures de patrons de diffraction a rayons-X sur poudre furent faites pour caracteriser les changements structurels des CNS lors des etapes de synthese. Ces mesures furent prises avec un diffractometre Bruker D8 FOCUS utilisant le rayonnement Cu Ka (lambda = 1.54054 A) et une geometrie Theta/2Theta. La Figure 3.1 montre le patron de diffraction de rayon-X du charbon active utilise comme precurseur pour produire les CNS. Le charbon active est prechauffe a haute temperature (1,000°C) pendant 1 h pour enlever l'humidite. La Figure 3.2 montre les patrons de diffraction de rayons-X des echantillons SPEX et planetaire apres broyage de 12 h et 24 h, respectivement. Les structures de charbon ne sont pas encore bien definies, mais un pic a 2theta ≈ 20°-30° correspond aux petites cristallites a caractere turbostatique et un pic correspondant au fer et au carbure de fer apparait a 2theta ≈ 45°. (Abstract shortened by UMI.)
NASA Astrophysics Data System (ADS)
Mejdi, Abderrazak
Les fuselages des avions sont generalement en aluminium ou en composite renforces par des raidisseurs longitudinaux (lisses) et transversaux (cadres). Les raidisseurs peuvent etre metalliques ou en composite. Durant leurs differentes phases de vol, les structures d'avions sont soumises a des excitations aeriennes (couche limite turbulente : TBL, champs diffus : DAF) sur la peau exterieure dont l'energie acoustique produite se transmet a l'interieur de la cabine. Les moteurs, montes sur la structure, produisent une excitation solidienne significative. Ce projet a pour objectifs de developper et de mettre en place des strategies de modelisations des fuselages d'avions soumises a des excitations aeriennes et solidiennes. Tous d'abord, une mise a jour des modeles existants de la TBL apparait dans le deuxieme chapitre afin de mieux les classer. Les proprietes de la reponse vibro-acoustique des structures planes finies et infinies sont analysees. Dans le troisieme chapitre, les hypotheses sur lesquelles sont bases les modeles existants concernant les structures metalliques orthogonalement raidies soumises a des excitations mecaniques, DAF et TBL sont reexamines en premier lieu. Ensuite, une modelisation fine et fiable de ces structures est developpee. Le modele est valide numeriquement a l'aide des methodes des elements finis (FEM) et de frontiere (BEM). Des tests de validations experimentales sont realises sur des panneaux d'avions fournis par des societes aeronautiques. Au quatrieme chapitre, une extension vers les structures composites renforcees par des raidisseurs aussi en composites et de formes complexes est etablie. Un modele analytique simple est egalement implemente et valide numeriquement. Au cinquieme chapitre, la modelisation des structures raidies periodiques en composites est beaucoup plus raffinee par la prise en compte des effets de couplage des deplacements planes et transversaux. L'effet de taille des structures finies periodiques est egalement pris en compte. Les modeles developpes ont permis de conduire plusieurs etudes parametriques sur les proprietes vibro-acoustiques des structures d'avions facilitant ainsi la tache des concepteurs. Dans le cadre de cette these, un article a ete publie dans le Journal of Sound and Vibration et trois autres soumis, respectivement aux Journal of Acoustical Society of America, International Journal of Solid Mechanics et au Journal of Sound and Vibration Mots cles : structures raidies, composites, vibro-acoustique, perte par transmission.
Modelisation frequentielle de la permittivite du beton pour le controle non destructif par georadar
NASA Astrophysics Data System (ADS)
Bourdi, Taoufik
Le georadar (Ground Penetrating Radar (GPR)) constitue une technique de controle non destructif (CND) interessante pour la mesure des epaisseurs des dalles de beton et la caracterisation des fractures, en raison de ses caracteristiques de resolution et de profondeur de penetration. Les equipements georadar sont de plus en plus faciles a utiliser et les logiciels d'interpretation sont en train de devenir plus aisement accessibles. Cependant, il est ressorti dans plusieurs conferences et ateliers sur l'application du georadar en genie civil qu'il fallait poursuivre les recherches, en particulier sur la modelisation et les techniques de mesure des proprietes electriques du beton. En obtenant de meilleures informations sur les proprietes electriques du beton aux frequences du georadar, l'instrumentation et les techniques d'interpretation pourraient etre perfectionnees plus efficacement. Le modele de Jonscher est un modele qui a montre son efficacite dans le domaine geophysique. Pour la premiere fois, son utilisation dans le domaine genie civil est presentee. Dans un premier temps, nous avons valide l'application du modele de Jonscher pour la caracterisation de la permittivite dielectrique du beton. Les resultats ont montre clairement que ce modele est capable de reproduire fidelement la variation de la permittivite de differents types de beton sur la bande de frequence georadar (100 MHz-2 GHz). Dans un deuxieme temps, nous avons montre l'interet du modele de Jonscher en le comparant a d'autres modeles (Debye et Debye-etendu) deja utilises dans le domaine genie civil. Nous avons montre aussi comment le modele de Jonscher peut presenter une aide a la prediction de l'efficacite de blindage et a l'interpretation des ondes de la technique GPR. Il a ete determine que le modele de Jonscher permet de donner une bonne presentation de la variation de la permittivite du beton dans la gamme de frequence georadar consideree. De plus, cette modelisation est valable pour differents types de beton et a differentes teneurs en eau. Dans une derniere partie, nous avons presente l'utilisation du modele de Jonscher pour l'estimation de l'epaisseur d'une dalle de beton par la technique GPR dans le domaine frequentiel. Mots-cles : CND, beton, georadar , permittivite, Jonscher
3D Modelling of Urban Terrain (Modelisation 3D de milieu urbain)
2011-09-01
Panel • IST Information Systems Technology Panel • NMSG NATO Modelling and Simulation Group • SAS System Analysis and Studies Panel • SCI... Systems Concepts and Integration Panel • SET Sensors and Electronics Technology Panel These bodies are made up of national representatives as well as...of a part of it may be made for individual use only. The approval of the RTA Information Management Systems Branch is required for more than one
Evaluation d’une grille de supervision des laboratoires des leishmanioses cutanées au Maroc
El Mansouri, Bouchra; Amarir, Fatima; Hajli, Yamina; Fellah, Hajiba; Sebti, Faiza; Delouane, Bouchra; Sadak, Abderrahim; Adlaoui, El Bachir; Rhajaoui, Mohammed
2017-01-01
Introduction Afin d’évaluer une grille de contrôle standardisée de laboratoire de diagnostic des leishmanioses, comme nouveau outil de supervision. Méthodes Un essai pilote a été pratiqué sur sept laboratoires provinciaux, appartenant à quatre provinces au Maroc, en suivant l’évolution de leurs performances tous les deux ans, entre l’année 2006 et 2014. Cette étude détaille la situation des laboratoires provinciaux avant et après la mise en œuvre de la grille de supervision. Au total vingt et une grille sont analysées. Résultats En 2006, les résultats ont montré clairement une insuffisance des performances des laboratoires: besoin en formation (41.6%), personnel pratiquant le prélèvement cutané (25%), pénurie en matériels et réactifs (65%), gestions documentaire et local non conformes (85%). Différentes actions correctives ont été menées par le Laboratoire National de Référence des Leishmanioses (LNRL) durant la période d’étude. En 2014, le LNRL a enregistré une nette amélioration des performances des laboratoires. Les besoins en matière de formation, qualité du prélèvement, dotation en matériels et réactifs ont été comblés et une coordination efficace s’est établie entre le LNRL et les laboratoires provinciaux. Conclusion Ceci montre l'efficacité de la grille comme outil de supervision de grande qualité, et comme pierre angulaire de tout progrès qui doit être obtenu dans les programmes de lutte contre les leishmanioses. PMID:29187922
2009-10-01
636.7 115,418 0 2500 5000 7500 10000 12500 iterations -5 -4 -3 -2 -1 0 lo g( dρ /d t) SA EARSM EARSM + CC Hellsten EARSM Hellsten EARSM + CC DRSM...VORTEX BREAKDOWN RTO-TR-AVT-113 29 - 13 θU URo axial= (1) As a vortex passes through a normal shock, the tangential velocity is
2009-09-01
involved in R&T activities. RTO reports both to the Military Committee of NATO and to the Conference of National Armament Directors. It comprises a...4 11.5.3 Project Description 11-5 Chapter 12 – Technical Evaluation Report 12-1 12.1 Executive Summary 12-1 12.2 Introduction 12-2 12.3...modelling human factors has been slow over the past decade, other forums have been reporting a number of theoretical and applied papers on human behaviour
2009-09-01
ordination with other NATO bodies involved in R&T activities. RTO reports both to the Military Committee of NATO and to the Conference of National...Aims 11-4 11.5.2 Background 11-4 11.5.3 Project Description 11-5 Chapter 12 – Technical Evaluation Report 12-1 12.1 Executive Summary 12-1...track. Although progress in modelling human factors has been slow over the past decade, other forums have been reporting a number of theoretical and
NASA Astrophysics Data System (ADS)
Bredin, Nathalie
La génération incéssante de déchets nécessite le développement de nouvelles technologies, telle que la valorisation énergétique, pour en disposer. Une filière appropriée pour valoriser énergétiquement les déchets est le procédé cimentier. L'industrie du ciment est une des grandes consommatrices d'énergie. La température nécessaire à la préparation du ciment se situe aux environs de 1450°C pour faire réagir la matière première (cru) qui est sous forme poudreuse et constituée principalement de roches calcaires, argileuses, schisteuses,... Les gaz de combustion ont un long temps de résidence dans les fours. De plus, le mode de fonctionnement des fours est responsable d'un effet de lessivage des gaz acides par le cru alcalin. Ces propriétés font du procédé cimentier un bon candidat pour la valorisation énergétique des déchets. Les déchets interessants pour les cimenteries sont, entre autres, les huiles usées, les solvants usés et les pneus usés qui ont un pouvoir calorifique équivalent à celui du charbon. Les rejets à l'atmosphère des cimenteries sont principalement des émissions gazeuses. Ainsi, l'impact de la valorisation de pneus usés sur les émissions gazeuses de la cimenterie Saint-Laurent de Joliette a été étudié, à l'aide de l'outil qu'est la modélisation de la dispersion atmosphérique. Le modèle utilisé ISC-ST2, Industrial Source Complex-Short Term, est de type gaussien. L'analyse des concentrations maximales horaires et moyennes sur différentes périodes de temps (1 heure, 8 heures, ..., 1 an) des émissions gazeuses dans l'air ambiant montre que celles-ci sont en deçà des normes émises par le gouvernement québécois et par la Communauté Urbaine de Montréal. L'étude de la distribution géographique des polluants, d'après les concentrations annuelles, dans un rayon de 5 km autour de la cimenterie montre que le fait d'utiliser des pneus comme combustible de substitution n'a qu'un faible impact sur la concentration des contaminants au niveau du sol. L'étude du modèle gaussien de dispersion a permis de mettre au point un nouvel outil: la corrélation existant entre les concentrations latérales et verticales des polluants dans le panache. Cet outil utilisé pour étudier les schémas de dispersion atmosphérique de Turner en milieu rural, et de Briggs en milieux urbain et rural, montre que, en milieu rural, le schéma de dispersion proposé par Briggs présente une dispersion plus importante que celui de Turner pour les classes neutres et instables et moins importantes pour les classes stables. La comparaison des schémas de Briggs (rural et urbain) confirme que la dispersion en milieu urbain est plus importante qu'en milieu rural.
2001-07-01
Major General A C Figgures, Capability Manager (Manœuvre) UK MOD, provided the Conference with a fitting end message encouraging the SE and M&S...SESSION Welcoming Address - ‘Synthetic Environments - Managing the Breakout’ WA by M. Markin Opening Address for NATO M&S Conference OA by G. Sürsal...Keynote Address KN by G.J. Burrows Industry’s Role IR† by M. Mansell The RMCS SSEL I by J.R. Searle SESSION 1: POLICY, STRATEGY & MANAGEMENT A Strategy
2003-03-01
nations, a very thorough examination of current practices. Introduction The Applied Vehicle Technology Panel (AVT) of the Research and Technology...the introduction of new information generated by computer codes required it to be timely and presented in appropriate fashion so that it could...military competition between the NATO allies and the Soviet Union. The second was the introduction of commercial, high capacity transonic aircraft and
1999-08-01
immediately, re- ducing venous return artifacts during the first beat of the simulation. tn+1 - W+ on c+ / \\ W_ on c_ t 1 Xi-l Xi+1 Figure 4...s) Figure 5: The effect of network complexity. The aortic pressure is shown in Figure 5 during the fifth beat for the networks with one and three...Mechanical Engineering Department, Uni- versity of Victoria. [19] Huyghe J.M., 1986, "Nonlinear Finite Element Models of The Beating Left
2015-05-01
delivery business model where S&T activities are conducted in a NATO dedicated executive body, having its own personnel, capabilities and infrastructure ...SD-4: Design for Securability 5-4 5.3.2 Recommendations on Simulation Environment Infrastructure 5-5 5.3.2.1 Recommendation IN-1: Harmonize...Critical Data and 5-5 Algorithms 5.3.2.2 Recommendation IN-2: Establish Permanent Simulation 5-5 Infrastructure 5.3.2.3 Recommendation IN-3: Establish
1989-09-01
pyridone).Previous work on, py/ridimum, pyrazinjumn or pyrimidi im salts Koon 2 -pyrimloone and 2 - pyrimidone salts [43j have shown that some...forces. Acct . r ~[U... •K;.i. LJ , ’ 0, ’’ .t_I ..- .It . ( :.. 2 A VIBRATIONAL MOLECULAR FORCE FIELD FOR .ACROMOLECULA-R MODELLI= Gerard VERGOTENi...microscopic point of view are (1) understanding, ( 2 ) interpretation of experimental results, (3) semiquantitative estimates of experimental results and (4
1994-09-01
the refractive index i. can be density, temperature , ion composition, ionospheric determined from a simplified form of the Appleton- electric field...see Cannon 119941. the electron density profile is based upon the underlying neutral composition. temperature and wind together with electric field...in many of the newer HF predictions decision software , NSSDC/WDC-A-R&S 90-19, National Space aids. They also provide a very useful stand alone
Comprendre. La diffusion Raman exaltée de surface
NASA Astrophysics Data System (ADS)
Boubekeur-Lecaque, Leïla; Felidj, Nordin; Lamy de la Chapelle, Marc
2018-02-01
La spectroscopie Raman est une spectroscopie vibrationnelle très peu sensible qui limite l'analyse d'espèces chimiques aux fortes concentrations. Néanmoins, lorsque des molécules sont placées au voisinage d'une surface métallique nanostructurée, il est possible d'exalter considérablement leur signature Raman. On parle alors de diffusion Raman exaltée de surface. Les remarquables potentialités de cette technique ont nourri de nombreux champs d'étude tant pour le design de substrats dits SERS-actifs, que pour l'exploration d'applications en médecine, pharmacologie, défense ou le monde de l'art.
NASA Astrophysics Data System (ADS)
Ballet, J.; Barret, D.
2001-01-01
L'astronomie X connait aujourd'hui une de ses périodes les plus actives et les plus fastes, après le lancement de Chandra et XMM-Newton, et alors que Beppo SAX et Rossi XTE sont toujours en orbite. L'extraordinaire complémentarité de ces satellites est telle que leur domaine d'utilisation est extrêmement vaste, couvrant des étoiles jeunes aux toujours énigmatiques sursauts γ, en passant bien entendu par les trous noirs accrétants dans les binaires X ou dans les noyaux actifs de galaxies. L'atelier fut organisé selon quatre thèmes les étoiles, les phénomènes explosifs, les binaires X et les noyaux actifs de galaxies. Les résultats qui y furent présentés, pour chacun de ces thèmes témoignent de la superbe qualité des données obtenues. En particulier l'accès à la haute résolution spectrale (réseaux) en rayons X marque un pas important. Les présentations plus théoriques ont montré que parallèlement des progrès significatifs sont réalisés dans la physique de l'accrétion autour des objets compacts. Les actes de l'atelier donnent un panorama représentatif des progrès réalisés récemment par l'astronomie X, aussi bien du point de vue observationnel que théorique. Ces actes de colloque sont aussi l'occasion de rappeler l'historique et ce que furent les activités scientifiques de notre GdR au moment ou il doit s'intègrer au GdR PCHE et au PNPS. Enfin, pour toutes informations complémentaires concernant l'atelier: http://www.cesr.fr/~barret/adj/vg.html Ce site donne accès en particulier à la plupart des présentations (transparents).
1990-01-01
modifiers and added an additional set of modifiers to adjust the average VTOP. The original DECO model made use of waveguide excitation factors and...ranges far beyond the horizon. The modified refractivity M is defined by N - N + (h/a) x 106 - N + 0.157 h (2.1) where h is the height above the earth’s...LAYEIR APPING LAVER REFRACTIVITY N MODIFIED REFRAACTIVIT M Figure 2.4. N and N profiles for an elevated duct. t /VA--’’TM tDUCT ITx IFPAT4G RELRACIVT
Modelisation and distribution of neutron flux in radium-beryllium source (226Ra-Be)
NASA Astrophysics Data System (ADS)
Didi, Abdessamad; Dadouch, Ahmed; Jai, Otman
2017-09-01
Using the Monte Carlo N-Particle code (MCNP-6), to analyze the thermal, epithermal and fast neutron fluxes, of 3 millicuries of radium-beryllium, for determine the qualitative and quantitative of many materials, using method of neutron activation analysis. Radium-beryllium source of neutron is established to practical work and research in nuclear field. The main objective of this work was to enable us harness the profile flux of radium-beryllium irradiation, this theoretical study permits to discuss the design of the optimal irradiation and performance for increased the facility research and education of nuclear physics.
2010-02-01
interdependencies, and then modifying plans according to updated projections. This is currently an immature area where further research is required. The...crosscutting.html. [7] Zeigler, B.P. and Hammonds, P. (2007). “Modelling and Simulation- Based Data Engineering: Introducing Pragmatics and Ontologies for...the optimum benefit to be obtained and while immature , ongoing research needs to be maintained. 20) Use of M&S to support complex operations needs
Etude thermo-hydraulique de l'ecoulement du moderateur dans le reacteur CANDU-6
NASA Astrophysics Data System (ADS)
Mehdi Zadeh, Foad
Etant donne la taille (6,0 m x 7,6 m) ainsi que le domaine multiplement connexe qui caracterisent la cuve des reacteurs CANDU-6 (380 canaux dans la cuve), la physique qui gouverne le comportement du fluide moderateur est encore mal connue de nos jours. L'echantillonnage de donnees dans un reacteur en fonction necessite d'apporter des changements a la configuration de la cuve du reacteur afin d'y inserer des sondes. De plus, la presence d'une zone intense de radiations empeche l'utilisation des capteurs courants d'echantillonnage. En consequence, l'ecoulement du moderateur doit necessairement etre etudie a l'aide d'un modele experimental ou d'un modele numerique. Pour ce qui est du modele experimental, la fabrication et la mise en fonction de telles installations coutent tres cher. De plus, les parametres de la mise a l'echelle du systeme pour fabriquer un modele experimental a l'echelle reduite sont en contradiction. En consequence, la modelisation numerique reste une alternative importante. Actuellement, l'industrie nucleaire utilise une approche numerique, dite de milieu poreux, qui approxime le domaine par un milieu continu ou le reseau des tubes est remplace par des resistances hydrauliques distribuees. Ce modele est capable de decrire les phenomenes macroscopiques de l'ecoulement, mais ne tient pas compte des effets locaux ayant un impact sur l'ecoulement global, tel que les distributions de temperatures et de vitesses a proximite des tubes ainsi que des instabilites hydrodynamiques. Dans le contexte de la surete nucleaire, on s'interesse aux effets locaux autour des tubes de calandre. En effet, des simulations faites par cette approche predisent que l'ecoulement peut prendre plusieurs configurations hydrodynamiques dont, pour certaines, l'ecoulement montre un comportement asymetrique au sein de la cuve. Ceci peut provoquer une ebullition du moderateur sur la paroi des canaux. Dans de telles conditions, le coefficient de reactivite peut varier de maniere importante, se traduisant par l'accroissement de la puissance du reacteur. Ceci peut avoir des consequences majeures pour la surete nucleaire. Une modelisation CFD (Computational Fluid Dynamics) detaillee tenant compte des effets locaux s'avere donc necessaire. Le but de ce travail de recherche est de modeliser le comportement complexe de l'ecoulement du moderateur au sein de la cuve d'un reacteur nucleaire CANDU-6, notamment a proximite des tubes de calandre. Ces simulations servent a identifier les configurations possibles de l'ecoulement dans la calandre. Cette etude consiste ainsi a formuler des bases theoriques a l'origine des instabilites macroscopiques du moderateur, c.-a-d. des mouvements asymetriques qui peuvent provoquer l'ebullition du moderateur. Le defi du projet est de determiner l'impact de ces configurations de l'ecoulement sur la reactivite du reacteur CANDU-6.
Modelisation de l'historique d'operation de groupes turbine-alternateur
NASA Astrophysics Data System (ADS)
Szczota, Mickael
Because of their ageing fleet, the utility managers are increasingly in needs of tools that can help them to plan efficiently maintenance operations. Hydro-Quebec started a project that aim to foresee the degradation of their hydroelectric runner, and use that information to classify the generating unit. That classification will help to know which generating unit is more at risk to undergo a major failure. Cracks linked to the fatigue phenomenon are a predominant degradation mode and the loading sequences applied to the runner is a parameter impacting the crack growth. So, the aim of this memoir is to create a generator able to generate synthetic loading sequences that are statistically equivalent to the observed history. Those simulated sequences will be used as input in a life assessment model. At first, we describe how the generating units are operated by Hydro-Quebec and analyse the available data, the analysis shows that the data are non-stationnary. Then, we review modelisation and validation methods. In the following chapter a particular attention is given to a precise description of the validation and comparison procedure. Then, we present the comparison of three kind of model : Discrete Time Markov Chains, Discrete Time Semi-Markov Chains and the Moving Block Bootstrap. For the first two models, we describe how to take account for the non-stationnarity. Finally, we show that the Markov Chain is not adapted for our case, and that the Semi-Markov chains are better when they include the non-stationnarity. The final choice between Semi-Markov Chains and the Moving Block Bootstrap depends of the user. But, with a long term vision we recommend the use of Semi-Markov chains for their flexibility. Keywords: Stochastic models, Models validation, Reliability, Semi-Markov Chains, Markov Chains, Bootstrap
1985-11-01
tourbillons daxe perpendicu-V laire A l’fcoulement principal) issu d’un profil occillant en Tamis dan;, do,, condition,, dn dorochagp dynamique. 5_10...a~rodyna- - mique sur R. A partir de cette analyse experimentale, une tentative de modelisation th~sorique des effets non *lin~ laires observes aux...cisaillement A la paroi d’un profil d’aile anim6 d’un mouvament harmonique parall~le ou parpandicu- laire A 1coulement non perturb~s", EUROMECH
Modelisation of an unspecialized quadruped walking mammal.
Neveu, P; Villanova, J; Gasc, J P
2001-12-01
Kinematics and structural analyses were used as basic data to elaborate a dynamic quadruped model that may represent an unspecialized mammal. Hedgehogs were filmed on a treadmill with a cinefluorographic system providing trajectories of skeletal elements during locomotion. Body parameters such as limb segments mass and length, and segments centre of mass were checked from cadavers. These biological parameters were compiled in order to build a virtual quadruped robot. The robot locomotor behaviour was compared with the actual hedgehog to improve the model and to disclose the necessary changes. Apart from use in robotics, the resulting model may be useful to simulate the locomotion of extinct mammals.
NASA Astrophysics Data System (ADS)
Corbeil Therrien, Audrey
La tomographie d'emission par positrons (TEP) est un outil precieux en recherche preclinique et pour le diagnostic medical. Cette technique permet d'obtenir une image quantitative de fonctions metaboliques specifiques par la detection de photons d'annihilation. La detection des ces photons se fait a l'aide de deux composantes. D'abord, un scintillateur convertit l'energie du photon 511 keV en photons du spectre visible. Ensuite, un photodetecteur convertit l'energie lumineuse en signal electrique. Recemment, les photodiodes avalanche monophotoniques (PAMP) disposees en matrice suscitent beaucoup d'interet pour la TEP. Ces matrices forment des detecteurs sensibles, robustes, compacts et avec une resolution en temps hors pair. Ces qualites en font un photodetecteur prometteur pour la TEP, mais il faut optimiser les parametres de la matrice et de l'electronique de lecture afin d'atteindre les performances optimales pour la TEP. L'optimisation de la matrice devient rapidement une operation difficile, car les differents parametres interagissent de maniere complexe avec les processus d'avalanche et de generation de bruit. Enfin, l'electronique de lecture pour les matrices de PAMP demeure encore rudimentaire et il serait profitable d'analyser differentes strategies de lecture. Pour repondre a cette question, la solution la plus economique est d'utiliser un simulateur pour converger vers la configuration donnant les meilleures performances. Les travaux de ce memoire presentent le developpement d'un tel simulateur. Celui-ci modelise le comportement d'une matrice de PAMP en se basant sur les equations de physique des semiconducteurs et des modeles probabilistes. Il inclut les trois principales sources de bruit, soit le bruit thermique, les declenchements intempestifs correles et la diaphonie optique. Le simulateur permet aussi de tester et de comparer de nouvelles approches pour l'electronique de lecture plus adaptees a ce type de detecteur. Au final, le simulateur vise a quantifier l'impact des parametres du photodetecteur sur la resolution en energie et la resolution en temps et ainsi optimiser les performances de la matrice de PAMP. Par exemple, l'augmentation du ratio de surface active ameliore les performances, mais seulement jusqu'a un certain point. D'autres phenomenes lies a la surface active, comme le bruit thermique, provoquent une degradation du resultat. Le simulateur nous permet de trouver un compromis entre ces deux extremes. Les simulations avec les parametres initiaux demontrent une efficacite de detection de 16,7 %, une resolution en energie de 14,2 % LMH et une resolution en temps de 0.478 ns LMH. Enfin, le simulateur propose, bien qu'il vise une application en TEP, peut etre adapte pour d'autres applications en modifiant la source de photons et en adaptant les objectifs de performances. Mots-cles : Photodetecteurs, photodiodes avalanche monophotoniques, semiconducteurs, tomographie d'emission par positrons, simulations, modelisation, detection monophotonique, scintillateurs, circuit d'etouffement, SPAD, SiPM, Photodiodes avalanche operees en mode Geiger
Adohinzin, Clétus Come; Meda, Nicolas; Belem, Adrien Marie Gaston; Ouédraogo, Georges Anicet; Sombie, Issiaka; Berthe, Abdramane; Fond-Harmant, Laurence
2016-01-01
Introduction Malgré les efforts d'éducation à la santé, les jeunes continuent d'adopter des comportements sexuels à risques, susceptibles d'avoir des répercussions importantes sur leur santé. Cette étude visait à analyser les facteurs associés à la précocité sexuelle et au multipartenariat chez les jeunes de 19-24 ans de Bobo-Dioulasso. Méthodes Il s'agit d'une étude quantitative et transversale. Les données d'enquête ont été recueillies en décembre 2014 à Bobo-Dioulasso (Burkina Faso), auprès de 573 jeunes de 15 à 24 ans. Ces enquêtés ont été sélectionnés par un sondage en grappes à deux degrés. Des facteurs à risques relatifs à la précocité sexuelle et au multipartenariat ont été analysés à l'aide du logiciel Stata IC 13. Le seuil de signification de P<0,05 a été utilisée. Résultats Plus de la moitié des enquêtés (54%) étaient sexuellement actifs dont 14% avant l'âge de 16 ans. Le multipartenariat sexuel avait été observé chez 24% des jeunes sexuellement actifs. Parmi les facteurs déterminants de la précocité sexuelle et du multipartenariat figuraient l'âge, le sexe, le niveau d'étude, et la situation économique des parents. Nos données avaient aussi montré que les rapports sexuels trop précoces étaient associés au multipartenariat sexuel (p<0,005). Conclusion Les actions visant à renforcer les capacités des jeunes à retarder les premiers rapports sexuels et à mieux évaluer les risques seront de toute importance. Les capacités des parents, des enseignants et des prestataires devraient être aussi renforcées pour l'amélioration de la qualité des relations entre eux et les jeunes. PMID:28292094
NASA Astrophysics Data System (ADS)
Communier, David
Lors de l'etude structurelle d'une aile d'avion, il est difficile de modeliser fidelement les forces aerodynamiques subies par l'aile de l'avion. Pour faciliter l'analyse, on repartit la portance maximale theorique de l'aile sur son longeron principal ou sur ses nervures. La repartition utilisee implique que l'aile entiere sera plus resistante que necessaire et donc que la structure ne sera pas totalement optimisee. Pour pallier ce probleme, il faudrait s'assurer d'appliquer une repartition aerodynamique de la portance sur la surface complete de l'aile. On serait donc en mesure d'obtenir une repartition des charges sur l'aile beaucoup plus fiable. Pour le realiser, nous aurons besoin de coupler les resultats d'un logiciel calculant les charges aerodynamiques de l'aile avec les resultats d'un logiciel permettant sa conception et son analyse structurelle. Dans ce projet, le logiciel utilise pour calculer les coefficients de pression sur l'aile est XFLR5 et le logiciel permettant la conception et l'analyse structurelle sera CATIA V5. Le logiciel XFLR5 permet une analyse rapide d'une aile en se basant sur l'analyse de ses profils. Ce logiciel calcule les performances des profils de la meme maniere que XFOIL et permet de choisir parmi trois methodes de calcul pour obtenir les performances de l'aile : Lifting Line Theory (LLT), Vortex Lattice Method (VLM) et 3D Panels. Dans notre methodologie, nous utilisons la methode de calcul 3D Panels dont la validite a ete testee en soufflerie pour confirmer les calculs sur XFLR5. En ce qui concerne la conception et l'analyse par des elements finis de la structure, le logiciel CATIA V5 est couramment utilise dans le domaine aerospatial. CATIA V5 permet une automatisation des etapes de conception de l'aile. Ainsi, dans ce memoire, nous allons decrire la methodologie permettant l'etude aerostructurelle d'une aile d'avion.
Catalyseur d'hydrocraquage à base de sulfure de NiMo déposé sur une zéolithe HEMT modifiée
NASA Astrophysics Data System (ADS)
Baalala, M.; Becue, T.; Leglise, J.; Manoli, J. M.; van Gestel, J. N. M.; Lamotte, J.; Bensitel, M.; Goupil, J. M.; Cornet, D.
1999-02-01
Treating a NH4EMT zeolite with a solution of (NH4)2SiF6 at 80 °C affords a solid containing amorphous SiO2 intimately mixed with the zeolite. This acidic support EMT-Si was loaded with NiMo sulfide in order to prepare a bifunctional catalyst, which was tested for the hydrogenation of benzene and the hydrocracking of n-heptane. This NiMo/EMT-Si catalyst was found more active for hydrogenation than the analogous NiMo/HY. This is ascribed to a higher dispersion of the NiMo sulfide, which is almost equally shared between the internal mesopores in the modified EMT solid, and the fissures, which were created throughout the zeolite grains upon inserting the NiMo sulfide. The catalyst with the EMT-Si support was also found more active than the NiMo/HY for the hydrocracking of heptane, with a slightly higher selectivity into heptane isomers. Le traitement d'une zéolithe NH4EMT par une solution de (NH4)2SiF6 fournit un solide comportant une phase SiO2 amorphe intimement mélangée aux parties intactes de la zéolithe. Sur ce support acide EMT-Si, on a greffé un sulfure de NiMo afin de préparer un catalyseur bifonctionnel qui a été testé dans les réactions d'hydrogénation du benzène et d'hydrocraquage du n-heptane. Ce catalyseur NiMo/EMT-Si s'avère plus actif en hydrogénation que son analogue NiMo/HY, en raison d'une meilleure dispersion du sulfure de NiMo. Sur le solide EMT modifié, le sulfure se répartit à peu près également entre les mésopores internes et les fissures crées dans les grains de zéolithe lors de l'insertion du sulfure de NiMo. Au contraire sur le support Y, une partie du sulfure est externe aux grains de zéolithe et inactive en catalyse. Le catalyseur NiMo/EMT-Si est aussi trouvé plus actif que le NiMo/HY en hydrocraquage du n-heptane, et un peu plus sélectif en isomères.
Charge Transport in Carbon Nanotubes-Polymer Composite Photovoltaic Cells
Ltaief, Adnen; Bouazizi, Abdelaziz; Davenas, Joel
2009-01-01
We investigate the dark and illuminated current density-voltage (J/V) characteristics of poly(2-methoxy-5-(2’-ethylhexyloxy)1-4-phenylenevinylene) (MEH-PPV)/single-walled carbon nanotubes (SWNTs) composite photovoltaic cells. Using an exponential band tail model, the conduction mechanism has been analysed for polymer only devices and composite devices, in terms of space charge limited current (SCLC) conduction mechanism, where we determine the power parameters and the threshold voltages. Elaborated devices for MEH-PPV:SWNTs (1:1) composites showed a photoresponse with an open-circuit voltage Voc of 0.4 V, a short-circuit current density JSC of 1 µA/cm² and a fill factor FF of 43%. We have modelised the organic photovoltaic devices with an equivalent circuit, where we calculated the series and shunt resistances.
LLR data analysis and impact on lunar dynamics from recent developments at OCA LLR Station
NASA Astrophysics Data System (ADS)
Viswanathan, Vishnu; Fienga, Agnes; Courde, Clement; Torre, Jean-Marie; Exertier, Pierre; Samain, Etienne; Feraudy, Dominique; Albanese, Dominique; Aimar, Mourad; Mariey, Hervé; Viot, Hervé; Martinot-Lagarde, Gregoire
2016-04-01
Since late 2014, OCA LLR station has been able to range with infrared wavelength (1064nm). IR ranging provides both temporal and spatial improvement in the LLR observations. IR detection also permits in densification of normal points, including the L1 and L2 retroreflectors due to better signal to noise ratio. This contributes to a better modelisation of the lunar libration. The hypothesis of lunar dust and environmental effects due to the chromatic behavior noticed on returns from L2 retroreflector is discussed. In addition, data analysis shows that the effect of retroreflector tilt and the use of calibration profile for the normal point deduction algorithm, contributes to improving the precision of normal points, thereby impacting lunar dynamical models and inner physics.
Runaway reactions, their courses and the methods to establish safe process conditions
NASA Astrophysics Data System (ADS)
Gustin, J. L.
1991-08-01
Much of the literature on runaway reactions deals with the consequences such as mechanical damage toxic and flammable release. The DIERS literature provides effective methods for vent sizing where experimental information is requested. Thermal stability measurements provide information on the onset temperature and kinetic data for chemical reactions. There is less information on the way the runaway reactions occur whereas the runaway reactions may have different causes. The purpose of this paper is to describe the various process deviations which can cause a runaway reaction to occur and to discuss the experimental information necessary for risk assessment, the choice of a safe process and the mitigation of the consequences of the runaway reaction. Each possible hazardous process deviation is illustrated by examples from the process industry and/or relevant experimental information obtained from laboratory experiments. The typical hazardous situations to be considered are the following: 1) The homogeneous thermal runaway due to too high a temperature. 2) The homogeneous runaway reaction by unintended introduction of additional reactants or catalyst. 3) The heterogeneous runaway reaction due to too high a local temperature. 4) The heterogeneous runaway reaction caused by slow heat conduction to the outside. 5) The runaway reaction caused by excess residence time at the process temperature (autocatalytic reactions). 6) The runaway reaction caused by reactant accumulation. The controling reactant feed rate is higher than the consumption rate perhaps because the temperature is too low, or the catalyst is absent. 7) The runaway reaction due to the pressurization of the enclosure by gaseous oxidizing intermediates (typical of nitric oxidations). 8) The runaway reaction due to phase separation of unstable species (liquids, solids) by loss of mixing or on cooling. 9) The runaway reaction on mixing of fast reacting chemicals in separate phases. 10)The runaway reaction due to fire or external heating. Considering the various runaway situations, the effectiveness of the following approaches is discussed: - Theoretical and experimental information required for hazard assessment. - Choice of adequate process conditions. - Choice of adequate methods for process control. - Experimental information required for vent sizing. La plus grande partie de la littérature sur les emballements thermiques traite des conséquences de l'accident telles que les effets mécaniques, les émissions toxiques et inflammables. Les travaux publiés par le DIERS fournissent des méthodes permettant le dimensionnement d'évents, nécessitant des déterminations expérimentales. Il y a moins d'information sur la manière dont les emballements thermiques peuvent survenir alors que ceux-ci peuvent avoir différentes causes. Le propos de cet article est de décrire les différentes dérives de procédé qui peuvent entraîner un emballement thermique et de déterminer l'information expérimentale nécessaire pour l'analyse des risques du procédé, le choix de conditions opératoires sûres et la réduction des conséquences de l'emballement thermique. Chaque dérive de procédé dangereuse, est illustrée par des exemples connus dans l'industrie chimique et par des données expérimentales obtenues dans des essais de laboratoire. Les conditions de procédé dangereuses prises en compte sont les suivantes: 1)L'emballement thermique homogène dû à une température excessive; 2) L'emballement thermique homogène par introduction d'un catalyseur ou d'un réactif contrôlant; 3) L'emballement thermique hétérogène dû à une température locale excessive; 4)L'emballement thermique hétérogène dû à une faible conduction thermique vers l'extérieur; 5) L'emballement thermique dû à un temps de séjour excessif à la température du procédé (Réactions autocatalytiques); 6) L'emballement thermique par accumulation de réactifs. La vitesse d'introduction d'un réactif contrôlant est supérieure à la vitesse de consommation de ce réactif, parce que la température est trop basse ou le catalyseur absent; 7) L'emballement thermique dû à la pressurisation d'une enceinte par des intermédiaires gazeux oxydants (situation caractéristique des oxydations nitriques), 8)L'emballement thermique dû à la séparation de phases contenant des espèces instables (liquides, solides) par perte de l'agitation ou par refroidissement; 9) L'emballement thermique par mélange de produits incompatibles, se trouvant précédemment dans des phases séparées; 10) L'emballement thermique dû à un chauffage externe ou à un feu. Considérant les différentes situations conduisant à un emballement thermique, l'intérêt de l'approche systématique suivante est examiné: - Information théorique et expérimentale nécessaire pour déterminer les risques du procédé. - Choix de conditions opératoires adéquates. - Choix de méthodes convenables pour le contrôle du procédé. - Information expérimentale nécessaire pour le calcul d'évent.
Couches minces supraconductrices à haute température critique pour l'électronique
NASA Astrophysics Data System (ADS)
Guilloux-Viry, M.; Perrin, A.
1998-08-01
High critical temperature superconductors (HTCS) are very promising for applications in microelectronics due to the control of high quality epitaxial thin films, in spite of a number of specific constraints. Active and passive devices are already available in various laboratories, prooving that applications are actually expected soon. We report here on the interest of HTCS thin films, on preparation processes including materials and substrates choice, and also on characterization methods which are required in order to chek the quality of the samples. Finally some illustrative examples of applications are presented. Les supraconducteurs à haute température critique ouvrent des perspectives prometteuses dans le domaine de l'électronique en raison de la maîtrise de la croissance de films minces de haute qualité cristalline et physique, malgré des difficultés spécifiques. Des dispositifs, aussi bien actifs que passifs, commencent à être réalisés dans divers laboratoires, montrant que des applications peuvent être effectivement envisagées à relativement court terme.
NASA Astrophysics Data System (ADS)
Doucet, Alexandre
Ce manuscrit presente la conception et la fabrication d'un miroir polarisant fabrique avec la methode de deposition par incidence oblique communement appelee en anglais GLAD (GLancing Angle Deposition). Cette methode de deposition par GLAD permet de changer la nanostructure des revetements avec l'inclinaison et la rotation du substrat par rapport au flux de materiau evapore. Ceci nous permet d'ajuster l'indice de refraction et d'obtenir des revetements birefringents avec un materiau intrinsequement isotrope. Puisque l'indice de refraction peut etre change, les miroirs sont fabriques avec un seul materiau contrairement aux methodes usuelles qui necessite deux materiaux. Les proprietes optiques des echantillons sont mesurees avec l'aide de l'ellipsometrie. Des images avec un microscope electronique a balayage par transmission permettent de verifier Ia structure des revetements deposes. Les miroirs sont utilises comme coupleurs de sortie du resonateur d'un laser avec un milieu actif d'(Yb3+0.1 Y 0.9)3Al5O12, ou plus simplement Yb: YAG, pompe optiquement avec une diode laser. Ces cristaux presentent des proprietes optiques interessantes pour leur utilisation comme milieu actif, mais avec une structure cristalline cubique, ils donnent lieu a des faisceaux polarises aleatoirement. Les miroirs que nous fabriquons permettent d'obtenir une emission polarisee lineairement sans avoir a ajouter d'autres elements au resonateur. Les tests sont faits en regime continu et pulse avec un absorbant saturable de Cr : Y AG. Deux materiaux sont etudies, soit le WO3 et le TiO2, et ils nous permettent d'obtenir une emission polarisee lineairement dans le mode TEM 00 avec un rapport d'extinction de 1000 (30 dB), mais seuls les miroirs de TiO2 permettent une emission pulsee periodique avec une densite de puissance crete pres de 700+/-80 MW/cm2. En etudiant le rapport d'extinction en fonction du temps de pompage, nous remarquons que l'etat de polarisation est beaucoup plus stable que celui obtenu avec un miroir isotrope. Des mesures du spectre d'emission avec un spectrometre de haute resolution permettent de constater le caractere multimode longitudinal en regime continu et une emission monomode longitudinale en regime pulse. None None None None None None None None None None None None None None None None None None None None None None None
Contribution to study of interfaces instabilities in plane, cylindrical and spherical geometry
NASA Astrophysics Data System (ADS)
Toque, Nathalie
1996-12-01
This thesis proposes several experiments of hydrodynamical instabilities which are studied, numerically and theoretically. The experiments are in plane and cylindrical geometry. Their X-ray radiographies show the evolution of an interface between two solid media crossed by a detonation wave. These materials are initially solid. They become liquide under shock wave or stay between two phases, solid and liquid. The numerical study aims at simulating with the codes EAD and Ouranos, the interfaces instabilities which appear in the experiments. The experimental radiographies and the numerical pictures are in quite good agreement. The theoretical study suggests to modelise a spatio-temporal part of the experiments to obtain the quantitative development of perturbations at the interfaces and in the flows. The models are linear and in plane, cylindrical and spherical geometry. They preceed the inoming study of transition between linear and non linear development of instabilities in multifluids flows crossed by shock waves.
NASA Astrophysics Data System (ADS)
Privas, E.; Archier, P.; Bernard, D.; De Saint Jean, C.; Destouche, C.; Leconte, P.; Noguère, G.; Peneliau, Y.; Capote, R.
2016-02-01
A new IAEA Coordinated Research Project (CRP) aims to test, validate and improve the IRDF library. Among the isotopes of interest, the modelisation of the 238U capture and fission cross sections represents a challenging task. A new description of the 238U neutrons induced reactions in the fast energy range is within progress in the frame of an IAEA evaluation consortium. The Nuclear Data group of Cadarache participates in this effort utilizing the 238U spectral indices measurements and Post Irradiated Experiments (PIE) carried out in the fast reactors MASURCA (CEA Cadarache) and PHENIX (CEA Marcoule). Such a collection of experimental results provides reliable integral information on the (n,γ) and (n,f) cross sections. This paper presents the Integral Data Assimilation (IDA) technique of the CONRAD code used to propagate the uncertainties of the integral data on the 238U cross sections of interest for dosimetry applications.
Modelisation de l'architecture des forets pour ameliorer la teledetection des attributs forestiers
NASA Astrophysics Data System (ADS)
Cote, Jean-Francois
The quality of indirect measurements of canopy structure, from in situ and satellite remote sensing, is based on knowledge of vegetation canopy architecture. Technological advances in ground-based, airborne or satellite remote sensing can now significantly improve the effectiveness of measurement programs on forest resources. The structure of vegetation canopy describes the position, orientation, size and shape of elements of the canopy. The complexity of the canopy in forest environments greatly limits our ability to characterize forest structural attributes. Architectural models have been developed to help the interpretation of canopy structural measurements by remote sensing. Recently, the terrestrial LiDAR systems, or TLiDAR (Terrestrial Light Detection and Ranging), are used to gather information on the structure of individual trees or forest stands. The TLiDAR allows the extraction of 3D structural information under the canopy at the centimetre scale. The methodology proposed in my Ph.D. thesis is a strategy to overcome the weakness in the structural sampling of vegetation cover. The main objective of the Ph.D. is to develop an architectural model of vegetation canopy, called L-Architect (LiDAR data to vegetation Architecture), and to focus on the ability to document forest sites and to get information on canopy structure from remote sensing tools. Specifically, L-Architect reconstructs the architecture of individual conifer trees from TLiDAR data. Quantitative evaluation of L-Architect consisted to investigate (i) the structural consistency of the reconstructed trees and (ii) the radiative coherence by the inclusion of reconstructed trees in a 3D radiative transfer model. Then, a methodology was developed to quasi-automatically reconstruct the structure of individual trees from an optimization algorithm using TLiDAR data and allometric relationships. L-Architect thus provides an explicit link between the range measurements of TLiDAR and structural attributes of individual trees. L-Architect has finally been applied to model the architecture of forest canopy for better characterization of vertical and horizontal structure with airborne LiDAR data. This project provides a mean to answer requests of detailed canopy architectural data, difficult to obtain, to reproduce a variety of forest covers. Because of the importance of architectural models, L-Architect provides a significant contribution for improving the capacity of parameters' inversion in vegetation cover for optical and lidar remote sensing. Mots-cles: modelisation architecturale, lidar terrestre, couvert forestier, parametres structuraux, teledetection.
NASA Astrophysics Data System (ADS)
Mougenot, Bernard
2016-04-01
The Mediterranean region is affected by water scarcity. Some countries as Tunisia reached the limit of 550 m3/year/capita due overexploitation of low water resources for irrigation, domestic uses and industry. A lot of programs aim to evaluate strategies to improve water consumption at regional level. In central Tunisia, on the Merguellil catchment, we develop integrated water resources modelisations based on social investigations, ground observations and remote sensing data. The main objective is to close the water budget at regional level and to estimate irrigation and water pumping to test scenarios with endusers. Our works benefit from French, bilateral and European projects (ANR, MISTRALS/SICMed, FP6, FP7…), GMES/GEOLAND-ESA) and also network projects as JECAM and AERONET, where the Merguellil site is a reference. This site has specific characteristics associating irrigated and rainfed crops mixing cereals, market gardening and orchards and will be proposed as a new environmental observing system connected to the OMERE, TENSIFT and OSR systems respectively in Tunisia, Morocco and France. We show here an original and large set of ground and remote sensing data mainly acquired from 2008 to present to be used for calibration/validation of water budget processes and integrated models for present and scenarios: - Ground data: meteorological stations, water budget at local scale: fluxes tower, soil fluxes, soil and surface temperature, soil moisture, drainage, flow, water level in lakes, aquifer, vegetation parameters on selected fieds/month (LAI, height, biomass, yield), land cover: 3 times/year, bare soil roughness, irrigation and pumping estimations, soil texture. - Remote sensing data: remote sensing products from multi-platform (MODIS, SPOT, LANDSAT, ASTER, PLEIADES, ASAR, COSMO-SkyMed, TerraSAR X…), multi-wavelength (solar, micro-wave and thermal) and multi-resolution (0.5 meters to 1 km). Ground observations are used (1) to calibrate soil-vegetation-atmosphere models at field scale on different compartment and irrigated and rainfed land during a limited time (seasons or set of dry and wet years), (2) to calibrate and validate particularly evapotranspiration derived from multi-wavelength satellite data at watershed level in relationships with the aquifer conditions: pumping and recharge rate. We will point out some examples.
Prediction du profil de durete de l'acier AISI 4340 traite thermiquement au laser
NASA Astrophysics Data System (ADS)
Maamri, Ilyes
Les traitements thermiques de surfaces sont des procedes qui visent a conferer au coeur et a la surface des pieces mecaniques des proprietes differentes. Ils permettent d'ameliorer la resistance a l'usure et a la fatigue en durcissant les zones critiques superficielles par des apports thermiques courts et localises. Parmi les procedes qui se distinguent par leur capacite en terme de puissance surfacique, le traitement thermique de surface au laser offre des cycles thermiques rapides, localises et precis tout en limitant les risques de deformations indesirables. Les proprietes mecaniques de la zone durcie obtenue par ce procede dependent des proprietes physicochimiques du materiau a traiter et de plusieurs parametres du procede. Pour etre en mesure d'exploiter adequatement les ressources qu'offre ce procede, il est necessaire de developper des strategies permettant de controler et regler les parametres de maniere a produire avec precision les caracteristiques desirees pour la surface durcie sans recourir au classique long et couteux processus essai-erreur. L'objectif du projet consiste donc a developper des modeles pour predire le profil de durete dans le cas de traitement thermique de pieces en acier AISI 4340. Pour comprendre le comportement du procede et evaluer les effets des differents parametres sur la qualite du traitement, une etude de sensibilite a ete menee en se basant sur une planification experimentale structuree combinee a des techniques d'analyse statistiques eprouvees. Les resultats de cette etude ont permis l'identification des variables les plus pertinentes a exploiter pour la modelisation. Suite a cette analyse et dans le but d'elaborer un premier modele, deux techniques de modelisation ont ete considerees, soient la regression multiple et les reseaux de neurones. Les deux techniques ont conduit a des modeles de qualite acceptable avec une precision d'environ 90%. Pour ameliorer les performances des modeles a base de reseaux de neurones, deux nouvelles approches basees sur la caracterisation geometrique du profil de durete ont ete considerees. Contrairement aux premiers modeles predisant le profil de durete en fonction des parametres du procede, les nouveaux modeles combinent les memes parametres avec les attributs geometriques du profil de durete pour refleter la qualite du traitement. Les modeles obtenus montrent que cette strategie conduit a des resultats tres prometteurs.
MACVIA clinical decision algorithm in adolescents and adults with allergic rhinitis.
Bousquet, Jean; Schünemann, Holger J; Hellings, Peter W; Arnavielhe, Sylvie; Bachert, Claus; Bedbrook, Anna; Bergmann, Karl-Christian; Bosnic-Anticevich, Sinthia; Brozek, Jan; Calderon, Moises; Canonica, G Walter; Casale, Thomas B; Chavannes, Niels H; Cox, Linda; Chrystyn, Henry; Cruz, Alvaro A; Dahl, Ronald; De Carlo, Giuseppe; Demoly, Pascal; Devillier, Phillipe; Dray, Gérard; Fletcher, Monica; Fokkens, Wytske J; Fonseca, Joao; Gonzalez-Diaz, Sandra N; Grouse, Lawrence; Keil, Thomas; Kuna, Piotr; Larenas-Linnemann, Désirée; Lodrup Carlsen, Karin C; Meltzer, Eli O; Mullol, Jaoquim; Muraro, Antonella; Naclerio, Robert N; Palkonen, Susanna; Papadopoulos, Nikolaos G; Passalacqua, Giovanni; Price, David; Ryan, Dermot; Samolinski, Boleslaw; Scadding, Glenis K; Sheikh, Aziz; Spertini, François; Valiulis, Arunas; Valovirta, Erkka; Walker, Samantha; Wickman, Magnus; Yorgancioglu, Arzu; Haahtela, Tari; Zuberbier, Torsten
2016-08-01
The selection of pharmacotherapy for patients with allergic rhinitis (AR) depends on several factors, including age, prominent symptoms, symptom severity, control of AR, patient preferences, and cost. Allergen exposure and the resulting symptoms vary, and treatment adjustment is required. Clinical decision support systems (CDSSs) might be beneficial for the assessment of disease control. CDSSs should be based on the best evidence and algorithms to aid patients and health care professionals to jointly determine treatment and its step-up or step-down strategy depending on AR control. Contre les MAladies Chroniques pour un VIeillissement Actif en Languedoc-Roussillon (MACVIA-LR [fighting chronic diseases for active and healthy ageing]), one of the reference sites of the European Innovation Partnership on Active and Healthy Ageing, has initiated an allergy sentinel network (the MACVIA-ARIA Sentinel Network). A CDSS is currently being developed to optimize AR control. An algorithm developed by consensus is presented in this article. This algorithm should be confirmed by appropriate trials. Copyright © 2016 The Authors. Published by Elsevier Inc. All rights reserved.
NASA Astrophysics Data System (ADS)
Fall, H.; Charon, W.; Kouta, R.
2002-12-01
Ces dernières décennies, des activités significatives dans le monde étaient dirigées autour du contrôle actif. Le but de ces recherches était essentiellement d'améliorer les performances, la fiabilité et la sécurité des systèmes. Notamment dans le cas des structures soumises à des vibrations aléatoires. D'importants travaux ont été consacré à l'utilisation des “matériaux intelligents” comme capteurs et actionneurs. Cette article propose l'analyse de la fiabilité des systèmes mécaniques en étudiant les pannes des actionneurs ou des capteurs. L'effet de ces pannes sur la stabilité et la performance du système y est démontré. Les méthodologies de conception y sont rappelées. Des exemples numériques sont fournis à travers le contrôle d'un panneau sous chargement dynamique pour illustrer la méthode proposée.
Le satellite Encelade source d'ions N+ dans la magnétosphère de Saturne
NASA Astrophysics Data System (ADS)
Bouhram, Mehdi; Berthelier, Jean-Jacques; Illiano, Jean-Marie; Smith, Howard T.; Sittler, Edward C.; Crary, Frank J.; Young, Dave T.
2005-12-01
xml:lang="fr">RésuméLe premier passage de la sonde Cassini dans l'environnement de Saturne, au dessus de l'anneau E, a mis en évidence l'existence d'un plasma composé d'un mélange d'ions issus des produits de l'eau (H+, O+, OH+, H2O+) avec une faible composante en ions N+ (3 %). A partir d'un modèle simple du transport des ions dans la magnétosphère, nous montrons que la source de ces ions N+ coïncide avec le satellite Encelade. Un tel résultat peut s'expliquer par la présence de composés volatiles tels que l'ammoniac NH3 sur ce satellite de glace, supposé encore actif géologiquement, ou par la présence d'ions N+ d'origine externe préalablement implantés sur sa surface. Pour citer cet article : M. Bouhram et al., C. R. Physique 6 (2005).
NASA Astrophysics Data System (ADS)
Bel Hadj Kacem, Mohamed Salah
All hydrological processes are affected by the spatial variability of the physical parameters of the watershed, and also by human intervention on the landscape. The water outflow from a watershed strictly depends on the spatial and temporal variabilities of the physical parameters of the watershed. It is now apparent that the integration of mathematical models into GIS's can benefit both GIS and three-dimension environmental models: a true modeling capability can help the modeling community bridge the gap between planners, scientists, decision-makers and end-users. The main goal of this research is to design a practical tool to simulate run-off water surface using Geographic design a practical tool to simulate run-off water surface using Geographic Information Systems and the simulation of the hydrological behavior by the Finite Element Method.
Realisation et Applications D'un Laser a Fibre a L'erbium Monofrequence
NASA Astrophysics Data System (ADS)
Larose, Robert
L'incorporation d'ions de terres rares a l'interieur de la matrice de verre d'une fibre optique a permis l'emergence de composants amplificateurs tout-fibre. Le but de cette these consiste d'une part a analyser et a modeliser un tel dispositif et d'autre part, a fabriquer puis a caracteriser un amplificateur et un oscillateur a fibre. A l'aide d'une fibre fortement dopee a l'erbium fabriquee sur demande, on realise un laser a fibre syntonisable qui fonctionne en regime multimodes longitudinaux avec une largeur de raie de 1.5 GHz et egalement comme source monofrequencielle de largeur de raie de 70 kHz. Le laser sert ensuite a caracteriser un reseau de Bragg ecrit par photosensibilite dans une fibre optique. La technique de syntonisation permet aussi l'asservissement au fond d'une resonance de l'acetylene. Le laser garde alors la position centrale de la raie avec une erreur de moins de 1 MHz corrigeant ainsi les derives mecaniques de la cavite.
Modelisation des emissions de particules microniques et nanometriques en usinage
NASA Astrophysics Data System (ADS)
Khettabi, Riad
La mise en forme des pieces par usinage emet des particules, de tailles microscopiques et nanometriques, qui peuvent etre dangereuses pour la sante. Le but de ce travail est d'etudier les emissions de ces particules pour fins de prevention et reduction a la source. L'approche retenue est experimentale et theorique, aux deux echelles microscopique et macroscopique. Le travail commence par des essais permettant de determiner les influences du materiau, de l'outil et des parametres d'usinage sur les emissions de particules. E nsuite un nouveau parametre caracterisant les emissions, nomme Dust unit , est developpe et un modele predictif est propose. Ce modele est base sur une nouvelle theorie hybride qui integre les approches energetiques, tribologiques et deformation plastique, et inclut la geometrie de l'outil, les proprietes du materiau, les conditions de coupe et la segmentation des copeaux. Il ete valide au tournage sur quatre materiaux: A16061-T6, AISI1018, AISI4140 et fonte grise.
Comparison of different 3D wavefront sensing and reconstruction techniques for MCAO
NASA Astrophysics Data System (ADS)
Bello, Dolores; Vérinaud, Christophe; Conan, Jean-Marc; Fusco, Thierry; Carbillet, Marcel; Esposito, Simone
2003-02-01
The vertical distribution of the turbulence limits the field of view of classical adaptive optics due to the anisoplanatism. Multiconjugate adaptive optics (MCAO) uses several deformable mirrors conjugated to different layers in the atmosphere to overcome this effect. In the last few years, many studies and developments have been done regarding the analysis of the turbulence volume, and the choice of the wavefront reconstruction techniques.An extensive study of MCAO modelisation and performance estimation has been done at OAA and ONERA. The developed Monte Carlo codes allow to simulate and investigate many aspects: comparison of turbulence analysis strategies (tomography or layer oriented) and comparison of different reconstruction approaches. For instance in the layer oriented approach, the control for a given deformable mirror can be either deduced from the whole set of wavefront sensor measurements or only using the associated wavefront sensor. Numerical simulations are presented showing the advantages and disadvantages of these different options for several cases depending on the number, geometry and magnitude of the guide stars.
Regard epistemique sur une evolution conceptuelle en physique au secondaire
NASA Astrophysics Data System (ADS)
Potvin, Patrice
The thesis, which is in continuity with Legendre's (1993) work, deals with qualitative understanding of physics notions at the secondary level. It attempts to identify and to label, in the verbalizations of 12 to 16 year-old students, the tendencies that guide their cognitive itineraries through the exploration of problem-situations. The hypotheses of work are about modelisations, conceptions and p-prims. These last objects are seen, in DiSessa's epistemological perspective, as a type of habit that influences the determination of links between the parameters of a problem. In other words, they coordinate logically and mathematically. Methodology is based on explicitation interviews. This type of interview authorizes verbalizations that involve an "intuitive sense" of mechanics. Twenty students are invited to share their evocations as they explore the logics of a computerized microworld. This microworld has been programmed on the "Interactive Physics(TM)" software and is made of five different situations that involve speed, acceleration, mass, force and inertia. The situations are presented to the students from the least to the most complex. An analysis of the verbalizations of the five students shows the existence of elements that play a role in modelisation and qualitative construction of comprehension as well as in its qualitative/quantitative articulation. Results indicate the presence of coordinative habits easily discernible. P-prims appear to play an important part in the construction of models and in the determination of links between the variables of a problem. The analysis of the results allows to see that conceptions are not so important pieces in comprehension. As such, they seem phenotypic. Also, analysis allows to recognize the difficulty to understand properly the inverse relation (1/x) and its asymptotic nature. The "p-prim" analysis also establishes the possibility to analyze not only efficient and inefficient intuitions, but also the cognitive itineraries of students working to construct the logic of the movement of a "ball" as a whole. Implications of the thesis are, among others, at the praxic level; it becomes possible to imagine sequences of learning and teaching physics that are based on the consideration of p-prims despite the implicit nature of these objects. This is a truly constructivist practice which establishes bridges between novice and expert knowledge because there are p-prims in both of them. As so, the thesis acknowledges a perspective of learning inscribed in "continuity". It also proposes a fertile theoretical ground for the comprehension of physics.
Algorithmes de couplage RANS et ecoulement potentiel
NASA Astrophysics Data System (ADS)
Gallay, Sylvain
Dans le processus de developpement d'avion, la solution retenue doit satisfaire de nombreux criteres dans de nombreux domaines, comme par exemple le domaine de la structure, de l'aerodynamique, de la stabilite et controle, de la performance ou encore de la securite, tout en respectant des echeanciers precis et minimisant les couts. Les geometries candidates sont nombreuses dans les premieres etapes de definition du produit et de design preliminaire, et des environnements d'optimisations multidisciplinaires sont developpes par les differentes industries aeronautiques. Differentes methodes impliquant differents niveaux de modelisations sont necessaires pour les differentes phases de developpement du projet. Lors des phases de definition et de design preliminaires, des methodes rapides sont necessaires afin d'etudier les candidats efficacement. Le developpement de methodes ameliorant la precision des methodes existantes tout en gardant un cout de calcul faible permet d'obtenir un niveau de fidelite plus eleve dans les premieres phases de developpement du projet et ainsi grandement diminuer les risques associes. Dans le domaine de l'aerodynamisme, les developpements des algorithmes de couplage visqueux/non visqueux permettent d'ameliorer les methodes de calcul lineaires non visqueuses en methodes non lineaires prenant en compte les effets visqueux. Ces methodes permettent ainsi de caracteriser l'ecoulement visqueux sur les configurations et predire entre autre les mecanismes de decrochage ou encore la position des ondes de chocs sur les surfaces portantes. Cette these se focalise sur le couplage entre une methode d'ecoulement potentiel tridimensionnelle et des donnees de section bidimensionnelles visqueuses. Les methodes existantes sont implementees et leurs limites identifiees. Une methode originale est ensuite developpee et validee. Les resultats sur une aile elliptique demontrent la capacite de l'algorithme a de grands angles d'attaques et dans la region post-decrochage. L'algorithme de couplage a ete compare a des donnees de plus haute fidelite sur des configurations issues de la litterature. Un modele de fuselage base sur des relations empiriques et des simulations RANS a ete teste et valide. Les coefficients de portance, de trainee et de moment de tangage ainsi que les coefficients de pression extraits le long de l'envergure ont montre un bon accord avec les donnees de soufflerie et les modeles RANS pour des configurations transsoniques. Une configuration a geometrie hypersustentatoire a permis d'etudier la modelisation des surfaces hypersustentees de la methode d'ecoulement potentiel, demontrant que la cambrure peut etre prise en compte uniquement dans les donnees visqueuses.
Dubuc, Jocelyn; Baril, Jean; DesCôteaux, Luc
2009-01-01
Le prémélange de monensin est utilisé fréquemment sur les fermes laitières canadiennes. L’ingrédient actif de ce produit est le monensin sodique. Bien que son utilisation chez les vaches laitières soit sécuritaire, des cas de surdose ont été rapportés à la suite de consommation de niveaux de monensin plus élevés que ceux recommandés. Un suivi hebdomadaire du pourcentage de matières grasses du réservoir de lait de la ferme devrait être fait de routine suite à la livraison d’aliment médicamenteux contenant du monensin pour détecter rapidement les situations de surdose. L’observation d’une baisse soudaine de la consommation volontaire de matière sèche et l’apparition de diarrhée dans un troupeau sont d’autres signes cliniques de surdose de monensin. Une détection rapide de ces cas permettra de corriger la situation. PMID:19721781
NASA Astrophysics Data System (ADS)
Paradis, Alexandre
The principal objective of the present thesis is to elaborate a computational model describing the mechanical properties of NiTi under different loading conditions. Secondary objectives are to build an experimental database of NiTi under stress, strain and temperature in order to validate the versatility of the new model proposed herewith. The simulation model used presently at Laboratoire sur les Alliage a Memoire et les Systemes Intelligents (LAMSI) of ETS is showing good behaviour in quasi-static loading. However, dynamic loading with the same model do not allows one to include degradation. The goal of the present thesis is to build a model capable of describing such degradation in a relatively accurate manner. Some experimental testing and results will be presented. In particular, new results on the behaviour of NiTi being paused during cycling are presented in chapter 2. A model is developed in chapter 3 based on Likhachev's micromechanical model. Good agreement is found with experimental data. Finally, an adaptation of the model is presented in chapter 4, allowing it to be eventually implemented into a finite-element commercial software.
Modelisation de la diffusion sur les surfaces metalliques: De l'adatome aux processus de croissance
NASA Astrophysics Data System (ADS)
Boisvert, Ghyslain
Cette these est consacree a l'etude des processus de diffusion en surface dans le but ultime de comprendre, et de modeliser, la croissance d'une couche mince. L'importance de bien mai triser la croissance est primordiale compte tenu de son role dans la miniaturisation des circuits electroniques. Nous etudions ici les surface des metaux nobles et de ceux de la fin de la serie de transition. Dans un premier temps, nous nous interessons a la diffusion d'un simple adatome sur une surface metallique. Nous avons, entre autres, mis en evidence l'apparition d'une correlation entre evenements successifs lorsque la temperature est comparable a la barriere de diffusion, i.e., la diffusion ne peut pas etre associee a une marche aleatoire. Nous proposons un modele phenomenologique simple qui reproduit bien les resultats des simulations. Ces calculs nous ont aussi permis de montrer que la diffusion obeit a la loi de Meyer-Neldel. Cette loi stipule que, pour un processus active, le prefacteur augmente exponentiellement avec la barriere. En plus, ce travail permet de clarifier l'origine physique de cette loi. En comparant les resultats dynamiques aux resultats statiques, on se rend compte que la barriere extraite des calculs dynamiques est essentiellement la meme que celle obtenue par une approche statique, beaucoup plus simple. On peut donc obtenir cette barriere a l'aide de methodes plus precises, i.e., ab initio, comme la theorie de la fonctionnelle de la densite, qui sont aussi malheureusement beaucoup plus lourdes. C'est ce que nous avons fait pour plusieurs systemes metalliques. Nos resultats avec cette derniere approche se comparent tres bien aux resultats experimentaux. Nous nous sommes attardes plus longuement a la surface (111) du platine. Cette surface regorge de particularites interessantes, comme la forme d'equilibre non-hexagonale des i lots et deux sites d'adsorption differents pour l'adatome. De plus, des calculs ab initio precedents n'ont pas reussi a confirmer la forme d'equilibre et surestiment grandement la barriere. Nos calculs, plus complets et dans un formalisme mieux adapte a ce genre de probleme, predisent correctement la forme d'equilibre, qui est en fait due a un relachement different du stress de surface aux deux types de marches qui forment les cotes des i lots. Notre valeur pour la barriere est aussi fortement diminuee lorsqu'on relaxe les forces sur les atomes de la surface, amenant le resultat theorique beaucoup plus pres de la valeur experimentale. Nos calculs pour le cuivre demontre en effet que la diffusion de petits i lots pendant la croissance ne peut pas etre negligee dans ce cas, mettant en doute la valeur des interpretations des mesures experimentales. (Abstract shortened by UMI.)
Modelisation de la Propagation des Ondes Sonores dans un Environnement Naturel Complexe
NASA Astrophysics Data System (ADS)
L'Esperance, Andre
Ce travail est consacre a la propagation sonore a l'exterieur dans un environnement naturel complexe, i.e. en presence de conditions reelles de vent, de gradient de temperature et de turbulence atmospherique. Plus specifiquement ce travail comporte deux objectifs. D'une part, il vise a developper un modele heuristique de propagation sonore (MHP) permettant de prendre en consideration l'ensemble des phenomenes meteorologiques et acoustiques influencant la propagation du son a l'exterieur. D'autre part, il vise a identifier dans quelles circonstances et avec quelle importance les conditions meteorologiques interviennent sur la propagation sonore. Ce travail est divise en cinq parties. Apres une breve introduction identifiant les motivations de cette etude (chapitre 1), le chapitre 2 fait un rappel des travaux deja realises dans le domaine de la propagation du son a l'exterieur. Ce chapitre presente egalement les bases de l'acoustique geometrique a partir desquelles ont ete developpees la partie acoustique du modele heuristique de propagation. En outre, on y decrit comment les phenomenes de refraction et de turbulence atmospherique peuvent etre consideres dans la theorie des rayons. Le chapitre 3 presente le modele heuristique de propagation (MHP) developpe au cours de cet ouvrage. La premiere section de ce chapitre decrit le modele acoustique de propagation, modele qui fait l'hypothese d'un gradient de celerite lineaire et qui est base sur une solution hybride d'acoustique geometrique et de theorie des residus. La deuxieme section du chapitre 3 traite plus specifiquement de la modelisation des aspects meteorologiques et de la determination des profils de celerite et des index de fluctuation associes aux conditions meteorologiques. La section 3 de ce chapitre decrit comment les profils de celerite resultants sont linearises pour les calculs dans le modele acoustique, et finalement la section 4 donne les tendances generales obtenues par le modele. Le chapitre 4 decrit les compagnes de mesures qui ont ete realisees a Rock-Spring (Pennsylvanie, Etats -Unis) au cours de l'ete 90 et a Bouin (Vendee, France) au cours de l'automne 91. La campagne de mesure de Rock -Spring a porte plus specifiquement sur les effets de la refraction alors que la campagne de Bouin a prote plus specifiquement sur les effets de la turbulence. La section 4.1 decrit les equipements et le traitement des donnees meteorologiques realisees dans chaque cas et la section 4.2 fait de meme pour les resultats acoustiques. Finalement, le chapitre 5 compare les resultats experimentaux obtenus avec ceux donnes par le MHP, tant pour les resultats meteorologiques que pour les resultats acoustiques. Des comparaisons avec un autre modele (le Fast Field Program) sont egalement presentees.
NASA Astrophysics Data System (ADS)
Chardon, J.; Mathevet, T.; Le Lay, M.; Gailhard, J.
2012-04-01
In the context of a national energy company (EDF : Electricité de France), hydro-meteorological forecasts are necessary to ensure safety and security of installations, meet environmental standards and improve water ressources management and decision making. Hydrological ensemble forecasts allow a better representation of meteorological and hydrological forecasts uncertainties and improve human expertise of hydrological forecasts, which is essential to synthesize available informations, coming from different meteorological and hydrological models and human experience. An operational hydrological ensemble forecasting chain has been developed at EDF since 2008 and is being used since 2010 on more than 30 watersheds in France. This ensemble forecasting chain is characterized ensemble pre-processing (rainfall and temperature) and post-processing (streamflow), where a large human expertise is solicited. The aim of this paper is to compare 2 hydrological ensemble post-processing methods developed at EDF in order improve ensemble forecasts reliability (similar to Monatanari &Brath, 2004; Schaefli et al., 2007). The aim of the post-processing methods is to dress hydrological ensemble forecasts with hydrological model uncertainties, based on perfect forecasts. The first method (called empirical approach) is based on a statistical modelisation of empirical error of perfect forecasts, by streamflow sub-samples of quantile class and lead-time. The second method (called dynamical approach) is based on streamflow sub-samples of quantile class and streamflow variation, and lead-time. On a set of 20 watersheds used for operational forecasts, results show that both approaches are necessary to ensure a good post-processing of hydrological ensemble, allowing a good improvement of reliability, skill and sharpness of ensemble forecasts. The comparison of the empirical and dynamical approaches shows the limits of the empirical approach which is not able to take into account hydrological dynamic and processes, i. e. sample heterogeneity. For a same streamflow range corresponds different processes such as rising limbs or recession, where uncertainties are different. The dynamical approach improves reliability, skills and sharpness of forecasts and globally reduces confidence intervals width. When compared in details, the dynamical approach allows a noticeable reduction of confidence intervals during recessions where uncertainty is relatively lower and a slight increase of confidence intervals during rising limbs or snowmelt where uncertainty is greater. The dynamic approach, validated by forecaster's experience that considered the empirical approach not discriminative enough, improved forecaster's confidence and communication of uncertainties. Montanari, A. and Brath, A., (2004). A stochastic approach for assessing the uncertainty of rainfall-runoff simulations. Water Resources Research, 40, W01106, doi:10.1029/2003WR002540. Schaefli, B., Balin Talamba, D. and Musy, A., (2007). Quantifying hydrological modeling errors through a mixture of normal distributions. Journal of Hydrology, 332, 303-315.
NASA Astrophysics Data System (ADS)
Yang, Xiaojun; Damen, Michiel C. J.; van Zuidam, Robert A.
Channel migration in deltaic lowlands tends to be complicated by marine processes and intensified cultural practices. Understanding the ways in which river channels have migrated through time is critical to tackling many geomorphologic and river management problems. Because of large magnitude and rapid rates of change, special surveillance systems are needed to efficiently measure and monitor channel migration. This study presents an application of geographic information technologies for the study of channel migration in the active Yellow River Delta, China. The main source of data was a series of time-sequential Landsat images spanning a period of approximately 19 years. A geographic information system (GIS) was used to support modernized channel position mapping and measurement. The spatio-temporal changes of river banks and channel centerlines were systematically examined, and an attempt was made to relate these computational results with appropriate natural and human processes affecting the delta. This study demonstrates the utility of satellite remote sensing integrated with a GIS in investigating channel migration.
Kà, Daye; Manga, Noël Magloire; Ngom-Guéye, Ndéye Fatou; Ndiaga, Diop; Diop, Moustapha; Cisse-Diallo, Viviane Marie Pierre; Diallo-Mbaye, Khardiata; Lakhe, Ndèye Aissatou; fortès-Déguenonvo, Louise; Ndour, Cheikh Tidiane; Diop-Nyafouna, Sylvie Audrey; Seydi, Moussa
2017-01-01
Introduction L'objectif de ce travail était d'évaluer les différents facteurs associés à la dissociation immunovirologique malgré un traitement antirétroviral hautement actif et efficace. Méthodes Il s'agissait d'une étude de cohorte historique, descriptive et analytique faite à partir de dossiers de patients infectés par le VIH-1; sous traitement antirétroviral depuis au moins 12 mois, suivis dans la cohorte du CTA de 2001 à 2011 et ayant une charge virale indétectable depuis 6 mois. Résultats Durant cette période d'étude de 10 ans, la prévalence de la DIV était de 19,3%. Le sexe féminin était prédominant avec un sexe ratio de 1,9. La dissociation immunovirologique a été plus fréquemment rencontrée chez les patients de sexe masculin (29,7% vs 14,1%) avec une différence statistiquement significative (p = 0,00006). L'âge médian était de 44 ans ± 10 ans. Un antécédent de tuberculose a été retrouvé dans environ un tiers des cas (31,4%). La dissociation immunovirologique était significativement plus fréquente chez les patients ayant un antécédent de tuberculose (p = 0,00005). La plupart des patients (68%) était au stade SIDA 3 ou 4 de l'OMS. Les patients ayant une dissociation immunovirologique étaient plus souvent aux stades 3 et 4 de l'OMS (p = 0,0001). La dénutrition a été notée dans plus de la moitié des cas (56,2%) et la dissociation immunovirologique prédominait chez les patients dénutris (p=0,005). Le taux moyen de lymphocytes TCD4+ était de 86,7± 83 cellules / mm3. La dissociation immunovirologique était plus fréquente chez les patients ayant un taux de lymphocytes TCD4 bas à l'initiation avec une différence statistiquement significative (p = 0,00000). En analyse multivariée; Seuls l'âge supérieur ou égal à 43 ans, le taux de CD4 initial < 100 c/mm3 et le sexe masculin étaient significativement associés à cette dissociation immunovirologique. Conclusion Les principaux facteurs associés à la dissociation immunovirologique étant évalués, d'autres études portant sur ce groupe mériteraient d'être envisagées afin de connaitre l'impact de cette réponse immunologique partielle sur la survenue d'infections opportunistes ou bien la mise en place d'une trithérapie spécifique uniquement dans le but d'avoir une restauration immunologique optimale. PMID:28748017
La conception, la modelisation et la simulation du systeme VSC-HVDC offshore
NASA Astrophysics Data System (ADS)
Benhalima, Seghir
Wind energy is recognized worldwide as a proven technology to meet the growing demands of green sustainable energy. To exploit this stochastic energy source and put together with the conventional energy sources without affecting the performance of existing electrical grids, several research projects have been achieved. In addition, at ocean level, wind energy has a great potential. It means that the production of this energy will increase in the world. The optimal extraction of this energy source needs to be connected to the grid via a voltage source converter which plays the role of interface. To minimise losses due to the transport of energy at very long distances, the technology called High Voltage Direct Current based on Voltage Source Converter (VSC-HVDC) is used. To achieve this goal, a new topology is designed with a new control algorithm based on control of power generated by the wind farm, the DC voltage regulation and the synchronization between wind farm and VSC-HVDC (based on NPC). The proposed topology and its control technique are validated using the "MATLAB/Simulink program". The results are promising, because the THD is less than 5% and the power factor is close to one.
MONET: multidimensional radiative cloud scene model
NASA Astrophysics Data System (ADS)
Chervet, Patrick
1999-12-01
All cloud fields exhibit variable structures (bulge) and heterogeneities in water distributions. With the development of multidimensional radiative models by the atmospheric community, it is now possible to describe horizontal heterogeneities of the cloud medium, to study these influences on radiative quantities. We have developed a complete radiative cloud scene generator, called MONET (French acronym for: MOdelisation des Nuages En Tridim.) to compute radiative cloud scene from visible to infrared wavelengths for various viewing and solar conditions, different spatial scales, and various locations on the Earth. MONET is composed of two parts: a cloud medium generator (CSSM -- Cloud Scene Simulation Model) developed by the Air Force Research Laboratory, and a multidimensional radiative code (SHDOM -- Spherical Harmonic Discrete Ordinate Method) developed at the University of Colorado by Evans. MONET computes images for several scenario defined by user inputs: date, location, viewing angles, wavelength, spatial resolution, meteorological conditions (atmospheric profiles, cloud types)... For the same cloud scene, we can output different viewing conditions, or/and various wavelengths. Shadowing effects on clouds or grounds are taken into account. This code is useful to study heterogeneity effects on satellite data for various cloud types and spatial resolutions, and to determine specifications of new imaging sensor.
Etude vibroacoustique d'un systeme coque-plancher-cavite avec application a un fuselage simplifie
NASA Astrophysics Data System (ADS)
Missaoui, Jemai
L'objectif de ce travail est de developper des modeles semi-analytiques pour etudier le comportement structural, acoustique et vibro-acoustique d'un systeme coque-plancher-cavite. La connection entre la coque et le plancher est assuree en utilisant le concept de rigidite artificielle. Ce concept de modelisation flexible facilite le choix des fonctions de decomposition du mouvement de chaque sous-structure. Les resultats issus de cette etude vont permettre la comprehension des phenomenes physiques de base rencontres dans une structure d'avion. Une approche integro-modale est developpee pour calculer les caracteristiques modales acoustiques. Elle utilise une discretisation de la cavite irreguliere en sous-cavites acoustiques dont les bases de developpement sont connues a priori. Cette approche, a caractere physique, presente l'avantage d'etre efficace et precise. La validite de celle-ci a ete demontree en utilisant des resultats disponibles dans la litterature. Un modele vibro-acoustique est developpe dans un but d'analyser et de comprendre les effets structuraux et acoustiques du plancher dans la configuration. La validite des resultats, en termes de resonance et de fonction de transfert, est verifiee a l'aide des mesures experimentales realisees au laboratoire.
NASA Astrophysics Data System (ADS)
Guerrout, EL-Hachemi; Ait-Aoudia, Samy; Michelucci, Dominique; Mahiou, Ramdane
2018-05-01
Many routine medical examinations produce images of patients suffering from various pathologies. With the huge number of medical images, the manual analysis and interpretation became a tedious task. Thus, automatic image segmentation became essential for diagnosis assistance. Segmentation consists in dividing the image into homogeneous and significant regions. We focus on hidden Markov random fields referred to as HMRF to model the problem of segmentation. This modelisation leads to a classical function minimisation problem. Broyden-Fletcher-Goldfarb-Shanno algorithm referred to as BFGS is one of the most powerful methods to solve unconstrained optimisation problem. In this paper, we investigate the combination of HMRF and BFGS algorithm to perform the segmentation operation. The proposed method shows very good segmentation results comparing with well-known approaches. The tests are conducted on brain magnetic resonance image databases (BrainWeb and IBSR) largely used to objectively confront the results obtained. The well-known Dice coefficient (DC) was used as similarity metric. The experimental results show that, in many cases, our proposed method approaches the perfect segmentation with a Dice Coefficient above .9. Moreover, it generally outperforms other methods in the tests conducted.
NASA Astrophysics Data System (ADS)
Linkmann, Moritz; Buzzicotti, Michele; Biferale, Luca
2018-06-01
We provide analytical and numerical results concerning multi-scale correlations between the resolved velocity field and the subgrid-scale (SGS) stress-tensor in large eddy simulations (LES). Following previous studies for Navier-Stokes equations, we derive the exact hierarchy of LES equations governing the spatio-temporal evolution of velocity structure functions of any order. The aim is to assess the influence of the subgrid model on the inertial range intermittency. We provide a series of predictions, within the multifractal theory, for the scaling of correlation involving the SGS stress and we compare them against numerical results from high-resolution Smagorinsky LES and from a-priori filtered data generated from direct numerical simulations (DNS). We find that LES data generally agree very well with filtered DNS results and with the multifractal prediction for all leading terms in the balance equations. Discrepancies are measured for some of the sub-leading terms involving cross-correlation between resolved velocity increments and the SGS tensor or the SGS energy transfer, suggesting that there must be room to improve the SGS modelisation to further extend the inertial range properties for any fixed LES resolution.
NASA Astrophysics Data System (ADS)
Coulibaly, Issa
Principale source d'approvisionnement en eau potable de la municipalite d'Edmundston, le bassin versant Iroquois/Blanchette est un enjeu capital pour cette derniere, d'ou les efforts constants deployes pour assurer la preservation de la qualite de son eau. A cet effet, plusieurs etudes y ont ete menees. Les plus recentes ont identifie des menaces de pollution de diverses origines dont celles associees aux changements climatiques (e.g. Maaref 2012). Au regard des impacts des modifications climatiques annonces a l'echelle du Nouveau-Brunswick, le bassin versant Iroquois/Blanchette pourrait etre fortement affecte, et cela de diverses facons. Plusieurs scenarios d'impacts sont envisageables, notamment les risques d'inondation, d'erosion et de pollution a travers une augmentation des precipitations et du ruissellement. Face a toutes ces menaces eventuelles, l'objectif de cette etude est d'evaluer les impacts potentiels des changements climatiques sur les risques d'erosion et de pollution a l'echelle du bassin versant Iroquois/Blanchette. Pour ce faire, la version canadienne de l'equation universelle revisee des pertes en sol RUSLE-CAN et le modele hydrologique SWAT ( Soil and Water Assessment Tool) ont ete utilises pour modeliser les risques d'erosion et de pollution au niveau dans la zone d'etude. Les donnees utilisees pour realiser ce travail proviennent de sources diverses et variees (teledetections, pedologiques, topographiques, meteorologiques, etc.). Les simulations ont ete realisees en deux etapes distinctes, d'abord dans les conditions actuelles ou l'annee 2013 a ete choisie comme annee de reference, ensuite en 2025 et 2050. Les resultats obtenus montrent une tendance a la hausse de la production de sediments dans les prochaines annees. La production maximale annuelle augmente de 8,34 % et 8,08 % respectivement en 2025 et 2050 selon notre scenario le plus optimiste, et de 29,99 % en 2025 et 29,72 % en 2050 selon le scenario le plus pessimiste par rapport a celle de 2013. Pour ce qui est de la pollution, les concentrations observees (sediment, nitrate et phosphore) connaissent une evolution avec les changements climatiques. La valeur maximale de la concentration en sediments connait une baisse en 2025 et 2050 par rapport a 2013, de 11,20 mg/l en 2013, elle passe a 9,03 mg/l en 2025 puis a 6,25 en 2050. On s'attend egalement a une baisse de la valeur maximale de la concentration en nitrate au fil des annees, plus accentuee en 2025. De 4,12 mg/l en 2013, elle passe a 1,85 mg/l en 2025 puis a 2,90 en 2050. La concentration en phosphore par contre connait une augmentation dans les annees a venir par rapport a celle de 2013, elle passe de 0,056 mg/l en 2013 a 0,234 mg/l en 2025 puis a 0,144 en 2050.
POD and PPP with multi-frequency processing
NASA Astrophysics Data System (ADS)
Roldán, Pedro; Navarro, Pedro; Rodríguez, Daniel; Rodríguez, Irma
2017-04-01
Precise Orbit Determination (POD) and Precise Point Positioning (PPP) are methods for estimating the orbits and clocks of GNSS satellites and the precise positions and clocks of user receivers. These methods are traditionally based on processing the ionosphere-free combination. With this combination, the delay introduced in the signal when passing through the ionosphere is removed, taking advantage of the dependency of this delay with the square of the frequency. It is also possible to process the individual frequencies, but in this case it is needed to properly model the ionospheric delay. This modelling is usually very challenging, as the electron content in the ionosphere experiences important temporal and spatial variations. These two options define the two main kinds of processing: the dual-frequency ionosphere-free processing, typically used in the POD and in certain applications of PPP, and the single-frequency processing with estimation or modelisation of the ionosphere, mostly used in the PPP processing. In magicGNSS, a software tool developed by GMV for POD and PPP, a hybrid approach has been implemented. This approach combines observations from any number of individual frequencies and any number of ionosphere-free combinations of these frequencies. In such a way, the observations of ionosphere-free combination allow a better estimation of positions and orbits, while the inclusion of observations from individual frequencies allows to estimate the ionospheric delay and to reduce the noise of the solution. It is also possible to include other kind of combinations, such as geometry-free combination, instead of processing individual frequencies. The joint processing of all the frequencies for all the constellations requires both the estimation or modelisation of ionospheric delay and the estimation of inter-frequency biases. The ionospheric delay can be estimated from the single-frequency or dual-frequency geometry-free observations, but it is also possible to use a-priori information based on ionospheric models, on external estimations and on the expected behavior of the ionosphere. The inter-frequency biases appear because the delay of the signal inside the transmitter and the receiver strongly depends on its frequency. However, it is possible to include constraints in the estimator regarding these delays, assuming small variations over time. By using different types of combinations, all the available information from GNSS systems can be included in the processing. This is especially interesting for the case of Galileo satellites, which transmit in several frequencies, and the GPS IIF satellites, which transmit in L5 in addition to the traditional L1 and L2. Several experiments have been performed, to assess the improvement on performance of POD and PPP when using all the constellations and all the available frequencies for each constellation. This paper describes the new approach of multi-frequency processing, including the estimation of biases and ionospheric delays impacting on GNSS observations, and presents the results of the performed experimentation activities to assess the benefits in POD and PPP algorithms.
Bousquet, J; Farrell, J; Crooks, G; Hellings, P; Bel, E H; Bewick, M; Chavannes, N H; de Sousa, J Correia; Cruz, A A; Haahtela, T; Joos, G; Khaltaev, N; Malva, J; Muraro, A; Nogues, M; Palkonen, S; Pedersen, S; Robalo-Cordeiro, C; Samolinski, B; Strandberg, T; Valiulis, A; Yorgancioglu, A; Zuberbier, T; Bedbrook, A; Aberer, W; Adachi, M; Agusti, A; Akdis, C A; Akdis, M; Ankri, J; Alonso, A; Annesi-Maesano, I; Ansotegui, I J; Anto, J M; Arnavielhe, S; Arshad, H; Bai, C; Baiardini, I; Bachert, C; Baigenzhin, A K; Barbara, C; Bateman, E D; Beghé, B; Kheder, A Ben; Bennoor, K S; Benson, M; Bergmann, K C; Bieber, T; Bindslev-Jensen, C; Bjermer, L; Blain, H; Blasi, F; Boner, A L; Bonini, M; Bonini, S; Bosnic-Anticevitch, S; Boulet, L P; Bourret, R; Bousquet, P J; Braido, F; Briggs, A H; Brightling, C E; Brozek, J; Buhl, R; Burney, P G; Bush, A; Caballero-Fonseca, F; Caimmi, D; Calderon, M A; Calverley, P M; Camargos, P A M; Canonica, G W; Camuzat, T; Carlsen, K H; Carr, W; Carriazo, A; Casale, T; Cepeda Sarabia, A M; Chatzi, L; Chen, Y Z; Chiron, R; Chkhartishvili, E; Chuchalin, A G; Chung, K F; Ciprandi, G; Cirule, I; Cox, L; Costa, D J; Custovic, A; Dahl, R; Dahlen, S E; Darsow, U; De Carlo, G; De Blay, F; Dedeu, T; Deleanu, D; De Manuel Keenoy, E; Demoly, P; Denburg, J A; Devillier, P; Didier, A; Dinh-Xuan, A T; Djukanovic, R; Dokic, D; Douagui, H; Dray, G; Dubakiene, R; Durham, S R; Dykewicz, M S; El-Gamal, Y; Emuzyte, R; Fabbri, L M; Fletcher, M; Fiocchi, A; Fink Wagner, A; Fonseca, J; Fokkens, W J; Forastiere, F; Frith, P; Gaga, M; Gamkrelidze, A; Garces, J; Garcia-Aymerich, J; Gemicioğlu, B; Gereda, J E; González Diaz, S; Gotua, M; Grisle, I; Grouse, L; Gutter, Z; Guzmán, M A; Heaney, L G; Hellquist-Dahl, B; Henderson, D; Hendry, A; Heinrich, J; Heve, D; Horak, F; Hourihane, J O' B; Howarth, P; Humbert, M; Hyland, M E; Illario, M; Ivancevich, J C; Jardim, J R; Jares, E J; Jeandel, C; Jenkins, C; Johnston, S L; Jonquet, O; Julge, K; Jung, K S; Just, J; Kaidashev, I; Kaitov, M R; Kalayci, O; Kalyoncu, A F; Keil, T; Keith, P K; Klimek, L; Koffi N'Goran, B; Kolek, V; Koppelman, G H; Kowalski, M L; Kull, I; Kuna, P; Kvedariene, V; Lambrecht, B; Lau, S; Larenas-Linnemann, D; Laune, D; Le, L T T; Lieberman, P; Lipworth, B; Li, J; Lodrup Carlsen, K; Louis, R; MacNee, W; Magard, Y; Magnan, A; Mahboub, B; Mair, A; Majer, I; Makela, M J; Manning, P; Mara, S; Marshall, G D; Masjedi, M R; Matignon, P; Maurer, M; Mavale-Manuel, S; Melén, E; Melo-Gomes, E; Meltzer, E O; Menzies-Gow, A; Merk, H; Michel, J P; Miculinic, N; Mihaltan, F; Milenkovic, B; Mohammad, G M Y; Molimard, M; Momas, I; Montilla-Santana, A; Morais-Almeida, M; Morgan, M; Mösges, R; Mullol, J; Nafti, S; Namazova-Baranova, L; Naclerio, R; Neou, A; Neffen, H; Nekam, K; Niggemann, B; Ninot, G; Nyembue, T D; O'Hehir, R E; Ohta, K; Okamoto, Y; Okubo, K; Ouedraogo, S; Paggiaro, P; Pali-Schöll, I; Panzner, P; Papadopoulos, N; Papi, A; Park, H S; Passalacqua, G; Pavord, I; Pawankar, R; Pengelly, R; Pfaar, O; Picard, R; Pigearias, B; Pin, I; Plavec, D; Poethig, D; Pohl, W; Popov, T A; Portejoie, F; Potter, P; Postma, D; Price, D; Rabe, K F; Raciborski, F; Radier Pontal, F; Repka-Ramirez, S; Reitamo, S; Rennard, S; Rodenas, F; Roberts, J; Roca, J; Rodriguez Mañas, L; Rolland, C; Roman Rodriguez, M; Romano, A; Rosado-Pinto, J; Rosario, N; Rosenwasser, L; Rottem, M; Ryan, D; Sanchez-Borges, M; Scadding, G K; Schunemann, H J; Serrano, E; Schmid-Grendelmeier, P; Schulz, H; Sheikh, A; Shields, M; Siafakas, N; Sibille, Y; Similowski, T; Simons, F E R; Sisul, J C; Skrindo, I; Smit, H A; Solé, D; Sooronbaev, T; Spranger, O; Stelmach, R; Sterk, P J; Sunyer, J; Thijs, C; To, T; Todo-Bom, A; Triggiani, M; Valenta, R; Valero, A L; Valia, E; Valovirta, E; Van Ganse, E; van Hage, M; Vandenplas, O; Vasankari, T; Vellas, B; Vestbo, J; Vezzani, G; Vichyanond, P; Viegi, G; Vogelmeier, C; Vontetsianos, T; Wagenmann, M; Wallaert, B; Walker, S; Wang, D Y; Wahn, U; Wickman, M; Williams, D M; Williams, S; Wright, J; Yawn, B P; Yiallouros, P K; Yusuf, O M; Zaidi, A; Zar, H J; Zernotti, M E; Zhang, L; Zhong, N; Zidarn, M; Mercier, J
2016-01-01
Action Plan B3 of the European Innovation Partnership on Active and Healthy Ageing (EIP on AHA) focuses on the integrated care of chronic diseases. Area 5 (Care Pathways) was initiated using chronic respiratory diseases as a model. The chronic respiratory disease action plan includes (1) AIRWAYS integrated care pathways (ICPs), (2) the joint initiative between the Reference site MACVIA-LR (Contre les MAladies Chroniques pour un VIeillissement Actif) and ARIA (Allergic Rhinitis and its Impact on Asthma), (3) Commitments for Action to the European Innovation Partnership on Active and Healthy Ageing and the AIRWAYS ICPs network. It is deployed in collaboration with the World Health Organization Global Alliance against Chronic Respiratory Diseases (GARD). The European Innovation Partnership on Active and Healthy Ageing has proposed a 5-step framework for developing an individual scaling up strategy: (1) what to scale up: (1-a) databases of good practices, (1-b) assessment of viability of the scaling up of good practices, (1-c) classification of good practices for local replication and (2) how to scale up: (2-a) facilitating partnerships for scaling up, (2-b) implementation of key success factors and lessons learnt, including emerging technologies for individualised and predictive medicine. This strategy has already been applied to the chronic respiratory disease action plan of the European Innovation Partnership on Active and Healthy Ageing.
Bousquet, J; Hellings, P W; Agache, I; Bedbrook, A; Bachert, C; Bergmann, K C; Bewick, M; Bindslev-Jensen, C; Bosnic-Anticevitch, S; Bucca, C; Caimmi, D P; Camargos, P A M; Canonica, G W; Casale, T; Chavannes, N H; Cruz, A A; De Carlo, G; Dahl, R; Demoly, P; Devillier, P; Fonseca, J; Fokkens, W J; Guldemond, N A; Haahtela, T; Illario, M; Just, J; Keil, T; Klimek, L; Kuna, P; Larenas-Linnemann, D; Morais-Almeida, M; Mullol, J; Murray, R; Naclerio, R; O'Hehir, R E; Papadopoulos, N G; Pawankar, R; Potter, P; Ryan, D; Samolinski, B; Schunemann, H J; Sheikh, A; Simons, F E R; Stellato, C; Todo-Bom, A; Tomazic, P V; Valiulis, A; Valovirta, E; Ventura, M T; Wickman, M; Young, I; Yorgancioglu, A; Zuberbier, T; Aberer, W; Akdis, C A; Akdis, M; Annesi-Maesano, I; Ankri, J; Ansotegui, I J; Anto, J M; Arnavielhe, S; Asarnoj, A; Arshad, H; Avolio, F; Baiardini, I; Barbara, C; Barbagallo, M; Bateman, E D; Beghé, B; Bel, E H; Bennoor, K S; Benson, M; Białoszewski, A Z; Bieber, T; Bjermer, L; Blain, H; Blasi, F; Boner, A L; Bonini, M; Bonini, S; Bosse, I; Bouchard, J; Boulet, L P; Bourret, R; Bousquet, P J; Braido, F; Briggs, A H; Brightling, C E; Brozek, J; Buhl, R; Bunu, C; Burte, E; Bush, A; Caballero-Fonseca, F; Calderon, M A; Camuzat, T; Cardona, V; Carreiro-Martins, P; Carriazo, A M; Carlsen, K H; Carr, W; Cepeda Sarabia, A M; Cesari, M; Chatzi, L; Chiron, R; Chivato, T; Chkhartishvili, E; Chuchalin, A G; Chung, K F; Ciprandi, G; de Sousa, J Correia; Cox, L; Crooks, G; Custovic, A; Dahlen, S E; Darsow, U; Dedeu, T; Deleanu, D; Denburg, J A; De Vries, G; Didier, A; Dinh-Xuan, A T; Dokic, D; Douagui, H; Dray, G; Dubakiene, R; Durham, S R; Du Toit, G; Dykewicz, M S; Eklund, P; El-Gamal, Y; Ellers, E; Emuzyte, R; Farrell, J; Fink Wagner, A; Fiocchi, A; Fletcher, M; Forastiere, F; Gaga, M; Gamkrelidze, A; Gemicioğlu, B; Gereda, J E; van Wick, R Gerth; González Diaz, S; Grisle, I; Grouse, L; Gutter, Z; Guzmán, M A; Hellquist-Dahl, B; Heinrich, J; Horak, F; Hourihane, J O' B; Humbert, M; Hyland, M; Iaccarino, G; Jares, E J; Jeandel, C; Johnston, S L; Joos, G; Jonquet, O; Jung, K S; Jutel, M; Kaidashev, I; Khaitov, M; Kalayci, O; Kalyoncu, A F; Kardas, P; Keith, P K; Kerkhof, M; Kerstjens, H A M; Khaltaev, N; Kogevinas, M; Kolek, V; Koppelman, G H; Kowalski, M L; Kuitunen, M; Kull, I; Kvedariene, V; Lambrecht, B; Lau, S; Laune, D; Le, L T T; Lieberman, P; Lipworth, B; Li, J; Lodrup Carlsen, K C; Louis, R; Lupinek, C; MacNee, W; Magar, Y; Magnan, A; Mahboub, B; Maier, D; Majer, I; Malva, J; Manning, P; De Manuel Keenoy, E; Marshall, G D; Masjedi, M R; Mathieu-Dupas, E; Maurer, M; Mavale-Manuel, S; Melén, E; Melo-Gomes, E; Meltzer, E O; Mercier, J; Merk, H; Miculinic, N; Mihaltan, F; Milenkovic, B; Millot-Keurinck, J; Mohammad, Y; Momas, I; Mösges, R; Muraro, A; Namazova-Baranova, L; Nadif, R; Neffen, H; Nekam, K; Nieto, A; Niggemann, B; Nogueira-Silva, L; Nogues, M; Nyembue, T D; Ohta, K; Okamoto, Y; Okubo, K; Olive-Elias, M; Ouedraogo, S; Paggiaro, P; Pali-Schöll, I; Palkonen, S; Panzner, P; Papi, A; Park, H S; Passalacqua, G; Pedersen, S; Pereira, A M; Pfaar, O; Picard, R; Pigearias, B; Pin, I; Plavec, D; Pohl, W; Popov, T A; Portejoie, F; Postma, D; Poulsen, L K; Price, D; Rabe, K F; Raciborski, F; Roberts, G; Robalo-Cordeiro, C; Rodenas, F; Rodriguez-Mañas, L; Rolland, C; Roman Rodriguez, M; Romano, A; Rosado-Pinto, J; Rosario, N; Rottem, M; Sanchez-Borges, M; Sastre-Dominguez, J; Scadding, G K; Scichilone, N; Schmid-Grendelmeier, P; Serrano, E; Shields, M; Siroux, V; Sisul, J C; Skrindo, I; Smit, H A; Solé, D; Sooronbaev, T; Spranger, O; Stelmach, R; Sterk, P J; Strandberg, T; Sunyer, J; Thijs, C; Triggiani, M; Valenta, R; Valero, A; van Eerd, M; van Ganse, E; van Hague, M; Vandenplas, O; Varona, L L; Vellas, B; Vezzani, G; Vazankari, T; Viegi, G; Vontetsianos, T; Wagenmann, M; Walker, S; Wang, D Y; Wahn, U; Werfel, T; Whalley, B; Williams, D M; Williams, S; Wilson, N; Wright, J; Yawn, B P; Yiallouros, P K; Yusuf, O M; Zaidi, A; Zar, H J; Zernotti, M E; Zhang, L; Zhong, N; Zidarn, M
2016-01-01
The Allergic Rhinitis and its Impact on Asthma (ARIA) initiative commenced during a World Health Organization workshop in 1999. The initial goals were (1) to propose a new allergic rhinitis classification, (2) to promote the concept of multi-morbidity in asthma and rhinitis and (3) to develop guidelines with all stakeholders that could be used globally for all countries and populations. ARIA-disseminated and implemented in over 70 countries globally-is now focusing on the implementation of emerging technologies for individualized and predictive medicine. MASK [MACVIA ( Contre les Maladies Chroniques pour un Vieillissement Actif )-ARIA Sentinel NetworK] uses mobile technology to develop care pathways for the management of rhinitis and asthma by a multi-disciplinary group and by patients themselves. An app (Android and iOS) is available in 20 countries and 15 languages. It uses a visual analogue scale to assess symptom control and work productivity as well as a clinical decision support system. It is associated with an inter-operable tablet for physicians and other health care professionals. The scaling up strategy uses the recommendations of the European Innovation Partnership on Active and Healthy Ageing. The aim of the novel ARIA approach is to provide an active and healthy life to rhinitis sufferers, whatever their age, sex or socio-economic status, in order to reduce health and social inequalities incurred by the disease.
A spatial interpretation of emerging superconductivity in lightly doped cuprates
NASA Astrophysics Data System (ADS)
Deutscher, Guy; de Gennes, Pierre-Gilles
The formation of domains comprising alternating 'hole rich' and 'hole poor' ladders recently observed by Scanning Tunneling Microscopy by Kohsaka et al., on lightly hole doped cuprates, is interpreted in terms of an attractive mechanism which favors the presence of doped holes on Cu sites located each on one side of an oxygen atom. This mechanism leads to a geometrical pattern of alternating hole-rich and hole-poor ladders with a periodicity equal to 4 times the lattice spacing in the CuO plane, as observed experimentally. Cuprates supraconducteurs peu dopés : une interprétation des structures spatiales. Des arrangements électroniques réguliers ont été détectés récemment par Kohsaka et al. dans des cuprates sous dopés (via une sonde tunnel locale). Certaines paires Cu-O-Cu sont « actives », et forment une échelle. Les autres sites sont peu actifs. Pour expliquer ces structures, nous postulons que, lorsqu'une liaison Cu-O-Cu est occupée par deux trous, la distance (Cu-Cu) rétrécit et l'intégrale de transfert (t) est fortement augmentée. Ceci peut engendrer des paires localisées (réelles ou virtuelles). Aux taux de dopage étudiés, la période de répétition vaudrait 4 mailles élémentaires.
Décontamination nucléaire par laser UV
NASA Astrophysics Data System (ADS)
Delaporte, Ph.; Gastaud, M.; Marine, W.; Sentis, M.; Uteza, O.; Thouvenot, P.; Alcaraz, J. L.; Le Samedy, J. M.; Blin, D.
2003-06-01
Le développement et l'utilisation de procédés propres pour le nettoyage ou la préparation de surfaces est l'une des priorités du milieu industriel. Cet intérêt est d'autant plus grand dans le domaine du nucléaire pour lequel la réduction des déchets est un axe de recherche important. Un dispositif de décontamination nucléaire par laser UV impulsionnel a été développé et testé. Il est composé. d'un laser à excimères de 1kW, d'un faisceau de fibres optiques et d'un dispositif de récupération des particules. Les essais réalisés en milieu actif ont démontré sa capacité à nettoyer des surfaces métalliques polluées par différents radioéléments avec des facteurs de décontamination généralement supérieurs à 10. Ce dispositif permet de décontaminer de grandes surfaces de géométrie simple en réduisant fortement la génération de déchets secondaires. Il est, à ce jour et dans ces conditions d'utilisations, le procédé de décontamination par voie sèche le plus efficace.
Yorgancıoğlu, Ayşe Arzu; Kalaycı, Ömer; Cingi, Cemal; Gemicioğlu, Bilun; Kalyoncu, Ali Fuat; Agache, Iogana; Bachert, Claus; Bedbrook, Anna; Canonica, George Walter; Casale, Thomas; Cruz, Alvaro; Fokkens, Wytsk Ej; Hellings, Peter; Samolinski, Boleslaw; Bousquet, Jean
2017-03-01
The Allergic Rhinitis and its Impact on Asthma (ARIA) initiative commenced during a World Health Organization (WHO) workshop in 1999. The initial goals were (i) to propose a new allergic rhinitis classification, (ii) to promote the concept of multi-morbidity in asthma and rhinitis and (iii) to develop guidelines with all stakeholders for global use in all countries and populations. ARIA- disseminated and implemented in over 70 countries globally- is now focusing on the implementation of emerging technologies for individualized and predictive medicine. MASK (MACVIA (Contre les MAladies Chroniques pour un VIeillissement Actif)-ARIA Sentinel NetworK) uses mobile technology to develop care pathways in order to enable the management of rhinitis and asthma by a multi-disciplinary group or by patients themselves. An App (Android and iOS) is available in 20 countries and 15 languages. It uses a visual analogue scale to assess symptom control and work productivity as well as a clinical decision support system. It is associated with an inter-operable tablet for physicians and other health care professionals. The scaling up strategy uses the recommendations of the European Innovation Partnership on Active and Healthy Ageing. The aim of the novel ARIA approach is to provide an active and healthy life to rhinitis sufferers, whatever their age, sex or socio-economic status, in order to reduce health and social inequalities incurred by the disease.
NASA Astrophysics Data System (ADS)
Vignéras-Lefebvre, V.; Miane, J. L.; Parneix, J. P.
1993-03-01
A modelisation of the behaviour of heterogeneous structures, made with spherical particles, submitted to microwave fields, using multiple scattering, is presented. First of all, we expose the principle of scattering by a single sphere, using Mie's equations represented in the form of a transfer matrix. This matrix, generalized to a distribution of particles, allows the translation of an average behaviour of the material. As part of the limit of Rayleigh, the value of the effective permittivity thus obtained is compared to experimental results. Une modélisation du comportement de structures hétérogènes composées de particules sphériques, soumises à des champs hyperfréquences, utilisant la multidiffusion, est présentée. Dans un premier temps, nous exposons le principe de la diffusion par une seule sphère en utilisant les équations de Mie représentées sous forme matricielle. Cette matrice généralisée à une distribution de particules permet de traduire un comportement moyen du matériau. Dans le cadre de l'approximation de Rayleigh, la valeur de la permittivité ainsi calculée est comparée à des résultats expérimentaux.
Magnétochiralité et résonances stochastiques dans les lasers
NASA Astrophysics Data System (ADS)
Bonnet, C.; Bretenaker, F.; Brunel, M.; Chauvat, D.; Emile, O.; Lai, N. D.; Le Floch, A.; Ropars, G.; Ruchon, T.; Singh, K.; Thépot, J.-Y.; Vallet, M.
2002-06-01
Les états propres d'un laser constituent un outil de choix pour étudier les différents rôles joués par le bruit dans un système. D'une part, si on veut isoler un effet petit difficilement accessible par les méthodes classiques, ces états propres permettent de réaliser des mesures différentielles de haute précision, à condition de pouvoir éliminer les bruits mécaniques, optiques, électroniques. A titre d'exemple, nous avons utilisé les états propageant et contrapropageant d'un laser ionique en anneau pour mesurer une interaction fondamentale faible: la biréfringence magnétochirale. Cette "biréfringence" se manifeste en effet par une petite variation d'indice selon le sens de parcours de l'anneau, de l'ordre de Δ n.10^{-11}, indépendante de la polarisation. A l'opposé, les deux états propres d'un laser du type Fabry-Perot constituent un système idéal pour explorer les résonances stochastiques à deux dimensions. Les résonances stochastiques par inhibition et par rotation sont isolées en présence de bruits blancs gaussiens tant pour les bruits optiques que magnétiques. L'utilisation possible de l'émission spontanée comme bruit actif est démontrée.
Blain, H; Bernard, P L; Canovas, G; Raffort, N; Desfour, H; Soriteau, L; Noguès, M; Camuzat, T; Mercier, J; Dupeyron, A; Quéré, I; Laffont, I; Hérisson, C; Solimene, H; Bousquet, J
2016-12-01
Scaling up and replication of successful innovative integrated care models for chronic diseases is one of the targets of the European Innovation Partnership on Active and Healthy Ageing (EIP on AHA). MACVIA-LR ® (MAladies Chroniques pour un VIeillissement Actif en Languedoc-Roussillon) is a Reference Site of the EIP on AHA. The main objective of MACVIA-LR ® is to develop innovative solutions in order to (1) improve the care of patients affected by chronic diseases, (2) reduce avoidable hospitalization and (3) scale up the innovation to regions of Europe. The MACVIA-LR ® project also aims to assess all possible aspects of medicine-including non-pharmacologic approaches-in order to maintain health and prevent chronic diseases. These approaches include hydrotherapy and balneotherapy which can be of great importance if health promotion strategies are considered. Balneotherapy at Balaruc-les-Bains focusses on musculoskeletal diseases and chronic venous insufficiency of the lower limbs. Each year, over 46,000 people attend an 18-day course related to a new falls prevention initiative combining balneotherapy and education. On arrival, each person receives a flyer providing information on the risk of fall and, depending on this risk, a course is proposed combining education and physical activity. A pilot study assesses the impact of the course 6 and 12 months later. This health promotion strategy for active and healthy ageing follows the FEMTEC (World Federation of Hydrotherapy and Climatotherapy) concept.
NASA Astrophysics Data System (ADS)
Queirós, S. M. D.; Tsallis, C.
2005-11-01
The GARCH algorithm is the most renowned generalisation of Engle's original proposal for modelising returns, the ARCH process. Both cases are characterised by presenting a time dependent and correlated variance or volatility. Besides a memory parameter, b, (present in ARCH) and an independent and identically distributed noise, ω, GARCH involves another parameter, c, such that, for c=0, the standard ARCH process is reproduced. In this manuscript we use a generalised noise following a distribution characterised by an index qn, such that qn=1 recovers the Gaussian distribution. Matching low statistical moments of GARCH distribution for returns with a q-Gaussian distribution obtained through maximising the entropy Sq=1-sumipiq/q-1, basis of nonextensive statistical mechanics, we obtain a sole analytical connection between q and left( b,c,qnright) which turns out to be remarkably good when compared with computational simulations. With this result we also derive an analytical approximation for the stationary distribution for the (squared) volatility. Using a generalised Kullback-Leibler relative entropy form based on Sq, we also analyse the degree of dependence between successive returns, zt and zt+1, of GARCH(1,1) processes. This degree of dependence is quantified by an entropic index, qop. Our analysis points the existence of a unique relation between the three entropic indexes qop, q and qn of the problem, independent of the value of (b,c).
Herbolsheimer, Florian; Riepe, Matthias W; Peter, Richard
2018-02-21
Numerous studies have reported weak or moderate correlations between self-reported and accelerometer-assessed physical activity. One explanation is that self-reported physical activity might be biased by demographic, cognitive or other factors. Cognitive function is one factor that could be associated with either overreporting or underreporting of daily physical activity. Difficulties in remembering past physical activities might result in recall bias. Thus, the current study examines whether the cognitive function is associated with differences between self-reported and accelerometer-assessed physical activity. Cross-sectional data from the population-based Activity and Function in the Elderly in Ulm study (ActiFE) were used. A total of 1172 community-dwelling older adults (aged 65-90 years) wore a uniaxial accelerometer (activPAL unit) for a week. Additionally, self-reported physical activity was assessed using the LASA Physical Activity Questionnaire (LAPAQ). Cognitive function was measured with four items (immediate memory, delayed memory, recognition memory, and semantic fluency) from the Consortium to Establish a Registry for Alzheimer's Disease Total Score (CERAD-TS). Mean differences of self-reported and accelerometer-assessed physical activity (MPA) were associated with cognitive function in men (r s = -.12, p = .002) but not in women. Sex-stratified multiple linear regression analyses showed that MPA declined with high cognitive function in men (β = -.13; p = .015). Results suggest that self-reported physical activity should be interpreted with caution in older populations, as cognitive function was one factor that explained the differences between objective and subjective physical activity measurements.
NASA Astrophysics Data System (ADS)
Benard, Pierre
Nous presentons une etude des fluctuations magnetiques de la phase normale de l'oxyde de cuivre supraconducteur La_{2-x}Sr _{x}CuO_4 . Le compose est modelise par le Hamiltonien de Hubbard bidimensionnel avec un terme de saut vers les deuxiemes voisins (modele tt'U). Le modele est etudie en utilisant l'approximation de la GRPA (Generalized Random Phase Approximation) et en incluant les effets de la renormalisation de l'interaction de Hubbard par les diagrammes de Brueckner-Kanamori. Dans l'approche presentee dans ce travail, les maximums du facteur de structure magnetique observes par les experiences de diffusion de neutrons sont associes aux anomalies 2k _{F} de reseau du facteur de structure des gaz d'electrons bidimensionnels sans interaction. Ces anomalies proviennent de la diffusion entre particules situees a des points de la surface de Fermi ou les vitesses de Fermi sont tangentes, et conduisent a des divergences dont la nature depend de la geometrie de la surface de Fermi au voisinage de ces points. Ces resultats sont ensuite appliques au modele tt'U, dont le modele de Hubbard usuel tU est un cas particulier. Dans la majorite des cas, les interactions ne determinent pas la position des maximums du facteur de structure. Le role de l'interaction est d'augmenter l'intensite des structures du facteur de structure magnetique associees a l'instabilite magnetique du systeme. Ces structures sont souvent deja presentes dans la partie imaginaire de la susceptibilite sans interaction. Le rapport d'intensite entre les maximums absolus et les autres structures du facteur de structure magnetique permet de determiner le rapport U_ {rn}/U_{c} qui mesure la proximite d'une instabilite magnetique. Le diagramme de phase est ensuite etudie afin de delimiter la plage de validite de l'approximation. Apres avoir discute des modes collectifs et de l'effet d'une partie imaginaire non-nulle de la self-energie, l'origine de l'echelle d'energie des fluctuations magnetiques est examinee. Il est ensuite demontre que le modele a trois bandes predit les memes resultats pour la position des structures du facteur de structure magnetique que le modele a une bande, dans la limite ou l'hybridation des orbitales des atomes d'oxygene des plans Cu-O_2 et l'amplitude de sauts vers les seconds voisins sont nulles. Il est de plus constate que l'effet de l'hybridation des orbitales des atomes d'oxygene est bien modelise par le terme de saut vers les seconds voisins. Meme si ils decrivent correctement le comportement qualitatif des maximums du facteur de structure magnetique, les modeles a trois bandes et a une bande ne permettent pas d'obtenir une position de ces structures conforme avec les mesures experimentales, si on suppose que la bande est rigide, c'est-a-dire que les parametres du Hamiltonien sont independants de la concentration de strontium. Ceci peut etre cause par la dependance des parametres du Hamiltonien sur la concentration de strontium. Finalement, les resultats sont compares avec les experiences de diffusion de neutrons et les autres theories, en particulier celles de Littlewood et al. (1993) et de Q. Si et al. (1993). La comparaison avec les resultats experimentaux pour le compose de lanthane suggere que le liquide de Fermi possede une surface de Fermi disjointe, et qu'il est situe pres d'une instabilite magnetique incommensurable.
NASA Astrophysics Data System (ADS)
Leroy, Pierre
The objective of this thesis is to conduct a thorough numerical and experimental analysis of the smart foam concept, in order to highlight the physical mechanisms and the technological limitations for the control of acoustic absorption. A smart foam is made of an absorbing material with an embedded actuator able to complete the lack of effectiveness of this material in the low frequencies (<500Hz). In this study, the absorbing material is a melamine foam and the actuator is a piezoelectric film of PVDF. A 3D finite element model coupling poroelastic, acoustic, elastic and piezoelectric fields is proposed. The model uses volume and surface quadratic elements. The improved formulation (u,p) is used. An orthotropic porous element is proposed. The power balance in the porous media is established. This model is a powerful and general tool allowing the modeling of all hybrid configurations using poroelastic and piezoelectric fields. Three smart foams prototypes have been built with the aim of validating the numerical model and setting up experimental active control. The comparison of numerical calculations and experimental measurements shows the validity of the model for passive aspects, transducer behaviors and also for control configuration. The active control of acoustic absorption is carried out in normal incidence with the assumption of plane wave in the frequency range [0-1500Hz]. The criterion of minimization is the reflected pressure measured by an unidirectional microphone. Three control cases were tested: off line control with a sum of pure tones, adaptive control with the nFX-LMS algorithm for a pure tone and for a random broad band noise. The results reveal the possibility of absorbing a pressure of 1.Pa at 1.00Hz with 100V and a broad band noise of 94dB with a hundred Vrms starting from 250Hz. These results have been obtained with a mean foam thickness of 4cm. The control ability of the prototypes is directly connected to the acoustic flow. An important limitation for the broad band control comes from the high distortion level through the system in the low and high frequency range (<500Hz, > 1500Hz). The use of the numerical model, supplemented by an analytical study made it possible to clarify the action mode and the dissipation mechanisms in smart foams. The PVDF moves with the same phase and amplitude of the residual incidental pressure which is not dissipated in the foam. Viscous effect dissipation is then very weak in the low frequencies and becomes more important in the high frequencies. The wave which was not been dissipated in the porous material is transmitted by the PVDF in the back cavity. The outlooks of this study are on the one hand, the improvement of the model and the prototypes and on the other hand, the widening of the field of research to the control of the acoustic transmission and the acoustic radiation of surfaces. The model could be improved by integrating viscoelastic elements able to account for the behavior of the adhesive layer between the PVDF and foam. A modelisation of electro-elastomers materials would also have to be implemented in the code. This new type of actuator could make it possible to exceed the PVDF displacement limitations. Finally it would be interesting for the industrial integration prospects to seek configurations able to maximize acoustic absorption and to limit the transmission and the radiation of surfaces at the same time.
NASA Astrophysics Data System (ADS)
Goyette, Stephane
1995-11-01
Le sujet de cette these concerne la modelisation numerique du climat regional. L'objectif principal de l'exercice est de developper un modele climatique regional ayant les capacites de simuler des phenomenes de meso-echelle spatiale. Notre domaine d'etude se situe sur la Cote Ouest nord americaine. Ce dernier a retenu notre attention a cause de la complexite du relief et de son controle sur le climat. Les raisons qui motivent cette etude sont multiples: d'une part, nous ne pouvons pas augmenter, en pratique, la faible resolution spatiale des modeles de la circulation generale de l'atmosphere (MCG) sans augmenter a outrance les couts d'integration et, d'autre part, la gestion de l'environnement exige de plus en plus de donnees climatiques regionales determinees avec une meilleure resolution spatiale. Jusqu'alors, les MCG constituaient les modeles les plus estimes pour leurs aptitudes a simuler le climat ainsi que les changements climatiques mondiaux. Toutefois, les phenomenes climatiques de fine echelle echappent encore aux MCG a cause de leur faible resolution spatiale. De plus, les repercussions socio-economiques des modifications possibles des climats sont etroitement liees a des phenomenes imperceptibles par les MCG actuels. Afin de circonvenir certains problemes inherents a la resolution, une approche pratique vise a prendre un domaine spatial limite d'un MCG et a y imbriquer un autre modele numerique possedant, lui, un maillage de haute resolution spatiale. Ce processus d'imbrication implique alors une nouvelle simulation numerique. Cette "retro-simulation" est guidee dans le domaine restreint a partir de pieces d'informations fournies par le MCG et forcee par des mecanismes pris en charge uniquement par le modele imbrique. Ainsi, afin de raffiner la precision spatiale des previsions climatiques de grande echelle, nous developpons ici un modele numerique appele FIZR, permettant d'obtenir de l'information climatique regionale valide a la fine echelle spatiale. Cette nouvelle gamme de modeles-interpolateurs imbriques qualifies d'"intelligents" fait partie de la famille des modeles dits "pilotes". L'hypothese directrice de notre etude est fondee sur la supposition que le climat de fine echelle est souvent gouverne par des forcages provenant de la surface plutot que par des transports atmospheriques de grande echelle spatiale. La technique que nous proposons vise donc a guider FIZR par la Dynamique echantillonnee d'un MCG et de la forcer par la Physique du MCG ainsi que par un forcage orographique de meso-echelle, en chacun des noeuds de la grille fine de calculs. Afin de valider la robustesse et la justesse de notre modele climatique regional, nous avons choisi la region de la Cote Ouest du continent nord americain. Elle est notamment caracterisee par une distribution geographique des precipitations et des temperatures fortement influencee par le relief sous-jacent. Les resultats d'une simulation d'un mois de janvier avec FIZR demontrent que nous pouvons simuler des champs de precipitations et de temperatures au niveau de l'abri beaucoup plus pres des observations climatiques comparativement a ceux simules a partir d'un MCG. Ces performances sont manifestement attribuees au forcage orographique de meso-echelle de meme qu'aux caracteristiques de surface determinees a fine echelle. Un modele similaire a FIZR peut, en principe, etre implante sur l'importe quel MCG, donc, tout organisme de recherche implique en modelisation numerique mondiale de grande echelle pourra se doter d'un el outil de regionalisation.
Modelisation geometrique par NURBS pour le design aerodynamique des ailes d'avion
NASA Astrophysics Data System (ADS)
Bentamy, Anas
The constant evolution of the computer science gives rise to many research areas especially in computer aided design. This study is part, of the advancement of the numerical methods in engineering computer aided design, specifically in aerospace science. The geometric modeling based on NURBS has been applied successfully to generate a parametric wing surface for aerodynamic design while satisfying manufacturing constraints. The goal of providing a smooth geometry described with few parameters has been achieved. In that case, a wing design including ruled surfaces at the leading edge slat and at the flap, and, curved central surfaces with intrinsic geometric property coming from conic curves, necessitates 130 control points and 15 geometric design variables. The 3D character of the wing need to be analyzed by techniques of investigation of surfaces in order to judge conveniently the visual aspect and detect any sign inversion in both directions of parametrization u and nu. Color mapping of the Gaussian curvature appears to be a very effective tools in visualization. The automation of the construction has been attained using an heuristic optimization algorithm, simulated annealing. The relative high speed of convergence to the solutions confirms its practical interest in engineering problems nowadays. The robustness of the geometric model has been tested successfully with an academic inverse design problem. The results obtained allow to foresee multiple possible applications from an extension to a complete geometric description of an airplane to the interaction with others disciplines belonging to a preliminary aeronautical design process.
Development of a precision multimodal surgical navigation system for lung robotic segmentectomy
Soldea, Valentin; Lachkar, Samy; Rinieri, Philippe; Sarsam, Mathieu; Bottet, Benjamin; Peillon, Christophe
2018-01-01
Minimally invasive sublobar anatomical resection is becoming more and more popular to manage early lung lesions. Robotic-assisted thoracic surgery (RATS) is unique in comparison with other minimally invasive techniques. Indeed, RATS is able to better integrate multiple streams of information including advanced imaging techniques, in an immersive experience at the level of the robotic console. Our aim was to describe three-dimensional (3D) imaging throughout the surgical procedure from preoperative planning to intraoperative assistance and complementary investigations such as radial endobronchial ultrasound (R-EBUS) and virtual bronchoscopy for pleural dye marking. All cases were operated using the DaVinci SystemTM. Modelisation was provided by Visible Patient™ (Strasbourg, France). Image integration in the operative field was achieved using the Tile Pro multi display input of the DaVinci console. Our experience was based on 114 robotic segmentectomies performed between January 2012 and October 2017. The clinical value of 3D imaging integration was evaluated in 2014 in a pilot study. Progressively, we have reached the conclusion that the use of such an anatomic model improves the safety and reliability of procedures. The multimodal system including 3D imaging has been used in more than 40 patients so far and demonstrated a perfect operative anatomic accuracy. Currently, we are developing an original virtual reality experience by exploring 3D imaging models at the robotic console level. The act of operating is being transformed and the surgeon now oversees a complex system that improves decision making. PMID:29785294
Development of a precision multimodal surgical navigation system for lung robotic segmentectomy.
Baste, Jean Marc; Soldea, Valentin; Lachkar, Samy; Rinieri, Philippe; Sarsam, Mathieu; Bottet, Benjamin; Peillon, Christophe
2018-04-01
Minimally invasive sublobar anatomical resection is becoming more and more popular to manage early lung lesions. Robotic-assisted thoracic surgery (RATS) is unique in comparison with other minimally invasive techniques. Indeed, RATS is able to better integrate multiple streams of information including advanced imaging techniques, in an immersive experience at the level of the robotic console. Our aim was to describe three-dimensional (3D) imaging throughout the surgical procedure from preoperative planning to intraoperative assistance and complementary investigations such as radial endobronchial ultrasound (R-EBUS) and virtual bronchoscopy for pleural dye marking. All cases were operated using the DaVinci System TM . Modelisation was provided by Visible Patient™ (Strasbourg, France). Image integration in the operative field was achieved using the Tile Pro multi display input of the DaVinci console. Our experience was based on 114 robotic segmentectomies performed between January 2012 and October 2017. The clinical value of 3D imaging integration was evaluated in 2014 in a pilot study. Progressively, we have reached the conclusion that the use of such an anatomic model improves the safety and reliability of procedures. The multimodal system including 3D imaging has been used in more than 40 patients so far and demonstrated a perfect operative anatomic accuracy. Currently, we are developing an original virtual reality experience by exploring 3D imaging models at the robotic console level. The act of operating is being transformed and the surgeon now oversees a complex system that improves decision making.
Mechanical behavior and modelisation of Ti-6Al-4V titanium sheet under hot stamping conditions
NASA Astrophysics Data System (ADS)
Sirvin, Q.; Velay, V.; Bonnaire, R.; Penazzi, L.
2017-10-01
The Ti-6Al-4V titanium alloy is widely used for the manufacture of aeronautical and automotive parts (solid parts). In aeronautics, this alloy is employed for its excellent mechanical behavior associated with low density, outstanding corrosion resistance and good mechanical properties up to 600°C. It is especially used for the manufacture of fuselage frames, on the pylon for carrying out the primary structure (machining forged blocks) and the secondary structure in sheet form. In this last case, the sheet metal forming can be done through various methods: at room temperature by drawing operation, at very high temperature (≃900°C) by superplastic forming (SPF) and at intermediate temperature (≥750°C) by hot forming (HF). In order to reduce production costs and environmental troubles, the cycle times reduction associated with a decrease of temperature levels are relevant. This study focuses on the behavior modelling of Ti-6Al-4V alloy at temperatures above room temperature to obtained greater formability and below SPF condition to reduce tools workshop and energy costs. The displacement field measurement obtained by Digital Image Correlation (DIC) is based on innovative surface preparation pattern adapted to high temperature exposures. Different material parameters are identified to define a model able to predict the mechanical behavior of Ti-6Al-4V alloy under hot stamping conditions. The hardening plastic model identified is introduced in FEM to simulate an omega shape forming operation.
Scaling forecast models for wind turbulence and wind turbine power intermittency
NASA Astrophysics Data System (ADS)
Duran Medina, Olmo; Schmitt, Francois G.; Calif, Rudy
2017-04-01
The intermittency of the wind turbine power remains an important issue for the massive development of this renewable energy. The energy peaks injected in the electric grid produce difficulties in the energy distribution management. Hence, a correct forecast of the wind power in the short and middle term is needed due to the high unpredictability of the intermittency phenomenon. We consider a statistical approach through the analysis and characterization of stochastic fluctuations. The theoretical framework is the multifractal modelisation of wind velocity fluctuations. Here, we consider three wind turbine data where two possess a direct drive technology. Those turbines are producing energy in real exploitation conditions and allow to test our forecast models of power production at a different time horizons. Two forecast models were developed based on two physical principles observed in the wind and the power time series: the scaling properties on the one hand and the intermittency in the wind power increments on the other. The first tool is related to the intermittency through a multifractal lognormal fit of the power fluctuations. The second tool is based on an analogy of the power scaling properties with a fractional brownian motion. Indeed, an inner long-term memory is found in both time series. Both models show encouraging results since a correct tendency of the signal is respected over different time scales. Those tools are first steps to a search of efficient forecasting approaches for grid adaptation facing the wind energy fluctuations.
A Simplified and Reliable Damage Method for the Prediction of the Composites Pieces
NASA Astrophysics Data System (ADS)
Viale, R.; Coquillard, M.; Seytre, C.
2012-07-01
Structural engineers are often faced to test results on composite structures largely tougher than predicted. By attempting to reduce this frequent gap, a survey of some extensive synthesis works relative to the prediction methods and to the failure criteria was led. This inquiry dealts with the plane stress state only. All classical methods have strong and weak points wrt practice and reliability aspects. The main conclusion is that in the plane stress case, the best usaul industrial methods give predictions rather similar. But very generally they do not explain the often large discrepancies wrt the tests, mainly in the cases of strong stress gradients or of bi-axial laminate loadings. It seems that only the methods considering the complexity of the composites damages (so-called physical methods or Continuum Damage Mechanics “CDM”) bring a clear mending wrt the usual methods..The only drawback of these methods is their relative intricacy mainly in urged industrial conditions. A method with an approaching but simplified representation of the CDM phenomenology is presented. It was compared to tests and other methods: - it brings a fear improvement of the correlation with tests wrt the usual industrial methods, - it gives results very similar to the painstaking CDM methods and very close to the test results. Several examples are provided. In addition this method is really thrifty wrt the material characterization as well as for the modelisation and the computation efforts.
NASA Astrophysics Data System (ADS)
Baillet, F.; Lamproglou, I.; Boisserie, G.
1998-04-01
It has been observed that bovine superoxide dismutase (SOD) can reduce some chronic complications due to radiotherapy. For this reason this enzyme has been used in the rat to treat radiation induced encaphalitis, studied by the two-way avoidance test. SOD has allowed significant regression of troubles in two studies with chronic encephalitis and two studies with acute encephalitis. Moreover, another study has shown that SOD prevented cognitival troubles brought on by strong painful stimulus. Thus SOD has been shown able to improve cerebral performances after a specific aggression (after radiotherapy) or after a non specific one (after very painful stimulus). This observation leads to interesting prospects for therapy. Il a été constaté que la superoxyde dismutase bovine (SOD) pouvait faire régresser certaines complications chroniques de la radiothérapie. Pour cette raison cette enzyme a été utilisée chez le rat pour traiter des encéphalites radiques étudiées par le test de l'évitement actif bilatéral. La SOD a permis une régression significative des troubles dans deux études d'encéphalite chronique et deux études d'encéphalite aiguë. Par ailleurs une autre étude a montré que la SOD prévenait les troubles cognitifs engendrés par un stimulus douloureux important. Ainsi la SOD s'est révélée capable d'améliorer les performances cérébrales après une agression spécifique (radiothérapie) ou non spécifique (stimulus douloureux important). Cette constatation ouvre des perspectives intéressantes pour la thérapeutique.
Laszlo, Roman; Kunz, Katia; Dallmeier, Dhayana; Klenk, Jochen; Denkinger, Michael; Koenig, Wolfgang; Rothenbacher, Dietrich; Steinacker, Juergen Michael
2017-10-01
The detection of left ventricular hypertrophy (LVH) is still a common objective of electrocardiography (ECG) in clinical practice. The aim of our study was to evaluate the accuracy of LVH ECG indices in people older than 65 recruited from a population-based cohort (ActiFE-Ulm study). In 432 subjects (mean age 76.2 ± 5.5 years, 51% male), left ventricular mass was echocardiographically determined (Devereux formula) and indexed (LVMI) to body surface area. Several LVH ECG indices (Lewis voltage, Gubner-Ungerleider voltage, Sokolow-Lyon voltage/product, Cornell voltage/product) were calculated with the help of resting ECG data and compared with the echocardiographic assessment. Despite echocardiographic signs of LVH [LVMI > 115 (♂) or >95 g/m 2 (♀)] in 47.5% of all subjects, diagnostic performance of all ECG indices was generally low. Magnitude of all LVH-indices was mainly predicted by frontal QRS axis in multivariate linear regression analysis. In comparison with the literature data from younger subjects, average frontal QRS axis turned counterclockwise. Most probably, age-related counterclockwise turn of frontal QRS axis is mainly explanatory for the decreased magnitude of LVH ECG indices and consecutive worse diagnostic performance of these indices in the elderly. ECG indices for detection of LVH have insufficient predictive values in geriatric subjects and should therefore not be used clinically for this purpose. Nevertheless, due to its established relevancy in cardiac risk stratification in this age group, usage of some established ECG indices might keep its significance even in the age of modern cardiac imaging.
[Relapse: causes and consequences].
Thomas, P
2013-09-01
Relapse after a first episode of schizophrenia is the recurrence of acute symptoms after a period of partial or complete remission. Due to its variable aspects, there is no operational definition of relapse able to modelise the outcome of schizophrenia and measure how the treatment modifies the disease. Follow-up studies based on proxys such as hospital admission revealed that 7 of 10 patients relapsed after a first episode of schizophrenia. The effectiveness of antipsychotic medications on relapse prevention has been widely demonstrated. Recent studies claim for the advantages of atypical over first generation antipsychotic medication. Non-adherence to antipsychotic represents with addictions the main causes of relapse long before some non-consensual factors such as premorbid functioning, duration of untreated psychosis and associated personality disorders. The consequences of relapse are multiple, psychological, biological and social. Pharmaco-clinical studies have demonstrated that the treatment response decreases with each relapse. Relapse, even the first one, will contribute to worsen the outcome of the disease and reduce the capacity in general functionning. Accepting the idea of continuing treatment is a complex decision in which the psychiatrist plays a central role besides patients and their families. The development of integrated actions on modifiable risk factors such as psychosocial support, addictive comorbidities, access to care and the therapeutic alliance should be promoted. Relapse prevention is a major goal of the treatment of first-episode schizophrenia. It is based on adherence to the maintenance treatment, identification of prodromes, family active information and patient therapeutical education. Copyright © 2013 L’Encéphale. Published by Elsevier Masson SAS.. All rights reserved.
Codigestion of solid wastes: a review of its uses and perspectives including modeling.
Mata-Alvarez, Joan; Dosta, Joan; Macé, Sandra; Astals, Sergi
2011-06-01
The last two years have witnessed a dramatic increase in the number of papers published on the subject of codigestion, highlighting the relevance of this topic within anaerobic digestion research. Consequently, it seems appropriate to undertake a review of codigestion practices starting from the late 1970s, when the first papers related to this concept were published, and continuing to the present day, demonstrating the exponential growth in the interest shown in this approach in recent years. Following a general analysis of the situation, state-of-the-art codigestion is described, focusing on the two most important areas as regards publication: codigestion involving sewage sludge and the organic fraction of municipal solid waste (including a review of the secondary advantages for wastewater treatment plant related to biological nutrient removal), and codigestion in the agricultural sector, that is, including agricultural - farm wastes, and energy crops. Within these areas, a large number of oversized digesters appear which can be used to codigest other substrates, resulting in economic and environmental advantages. Although the situation may be changing, there is still a need for good examples on an industrial scale, particularly with regard to wastewater treatment plants, in order to extend this beneficial practice. In the last section, a detailed analysis of papers addressing the important aspect of modelisation is included. This analysis includes the first codigestion models to be developed as well as recent applications of the standardised anaerobic digestion model ADM1 to codigestion. (This review includes studies ranging from laboratory to industrial scale.).
NASA Astrophysics Data System (ADS)
Boyer, Sylvain
On estime que sur les 3,7 millions des travailleurs au Quebec, plus de 500 000 sont exposes quotidiennement a des niveaux de bruits pouvant causer des lesions de l'appareil auditif. Lorsqu'il n'est pas possible de diminuer le niveau de bruit environnant, en modifiant les sources de bruits, ou en limitant la propagation du son, le port de protecteurs auditifs individualises, telles que les coquilles, demeure l'ultime solution. Bien que vue comme une solution a court terme, elle est communement employee, du fait de son caractere peu dispendieux, de sa facilite d'implantation et de son adaptabilite a la plupart des operations en environnement bruyant. Cependant les protecteurs auditifs peuvent etre a la fois inadaptes aux travailleurs et a leur environnement et inconfortables ce qui limite leur temps de port, reduisant leur protection effective. Afin de palier a ces difficultes, un projet de recherche sur la protection auditive intitule : " Developpement d'outils et de methodes pour ameliorer et mieux evaluer la protection auditive individuelle des travailleur ", a ete mis sur pied en 2010, associant l'Ecole de technologie superieure (ETS) et l'Institut de recherche Robert-Sauve en sante et en securite du travail (IRSST). S'inscrivant dans ce programme de recherche, le present travail de doctorat s'interesse specifiquement a la protection auditive au moyen de protecteurs auditifs " passifs " de type coquille, dont l'usage presente trois problematiques specifiques presentees dans les paragraphes suivants. La premiere problematique specifique concerne l'inconfort cause par exemple par la pression statique induite par la force de serrage de l'arceau, qui peut reduire le temps de port recommande pour limiter l'exposition au bruit. Il convient alors de pouvoir donner a l'utilisateur un protecteur confortable, adapte a son environnement de travail et a son activite. La seconde problematique specifique est l'evaluation de la protection reelle apportee par le protecteur. La methode des seuils auditifs REAT (Real Ear Attenuation Threshold) aussi vu comme un "golden standard" est utilise pour quantifier la reduction du bruit mais surestime generalement la performance des protecteurs. Les techniques de mesure terrains, telles que la F-MIRE (Field Measurement in Real Ear) peuvent etre a l'avenir de meilleurs outils pour evaluer l'attenuation individuelle. Si ces techniques existent pour des bouchons d'oreilles, elles doivent etre adaptees et ameliorees pour le cas des coquilles, en determinant l'emplacement optimal des capteurs acoustiques et les facteurs de compensation individuels qui lient la mesure microphonique a la mesure qui aurait ete prise au tympan. La troisieme problematique specifique est l'optimisation de l'attenuation des coquilles pour les adapter a l'individu et a son environnement de travail. En effet, le design des coquilles est generalement base sur des concepts empiriques et des methodes essais/erreurs sur des prototypes. La piste des outils predictifs a ete tres peu etudiee jusqu'a present et meriterait d'etre approfondie. L'utilisation du prototypage virtuel, permettrait a la fois d'optimiser le design avant production, d'accelerer la phase de developpement produit et d'en reduire les couts. L'objectif general de cette these est de repondre a ces differentes problematiques par le developpement d'un modele de l'attenuation sonore d'un protecteur auditif de type coquille. A cause de la complexite de la geometrie de ces protecteurs, la methode principale de modelisation retenue a priori est la methode des elements finis (FEM). Pour atteindre cet objectif general, trois objectifs specifiques ont ete etablis et sont presentes dans les trois paragraphes suivants. (Abstract shortened by ProQuest.).
NASA Astrophysics Data System (ADS)
Nitzsche, O.; Merkel, B.
Knowledge of the transport behavior of radionuclides in groundwater is needed for both groundwater protection and remediation of abandoned uranium mines and milling sites. Dispersion, diffusion, mixing, recharge to the aquifer, and chemical interactions, as well as radioactive decay, should be taken into account to obtain reliable predictions on transport of primordial nuclides in groundwater. This paper demonstrates the need for carrying out rehabilitation strategies before closure of the Königstein in-situ leaching uranium mine near Dresden, Germany. Column experiments on drilling cores with uranium-enriched tap water provided data about the exchange behavior of uranium. Uranium breakthrough was observed after more than 20 pore volumes. This strong retardation is due to the exchange of positively charged uranium ions. The code TReAC is a 1-D, 2-D, and 3-D reactive transport code that was modified to take into account the radioactive decay of uranium and the most important daughter nuclides, and to include double-porosity flow. TReAC satisfactorily simulated the breakthrough curves of the column experiments and provided a first approximation of exchange parameters. Groundwater flow in the region of the Königstein mine was simulated using the FLOWPATH code. Reactive transport behavior was simulated with TReAC in one dimension along a 6000-m path line. Results show that uranium migration is relatively slow, but that due to decay of uranium, the concentration of radium along the flow path increases. Results are highly sensitive to the influence of double-porosity flow. Résumé La protection des eaux souterraines et la restauration des sites miniers et de prétraitement d'uranium abandonnés nécessitent de connaître le comportement des radionucléides au cours de leur transport dans les eaux souterraines. La dispersion, la diffusion, le mélange, la recharge de l'aquifère et les interactions chimiques, de même que la décroissance radioactive, doivent être prises en compte pour obtenir des prédictions fiables concernant le transport des nucléides primaires dans les eaux souterraines. Ce papier montre la nécessité d'établir des stratégies de réhabilitation avant la fermeture de la mine d'uranium de Knigstein, près de Dresde (Allemagne). Des expériences de lessivage en colonne sur des carottes avec de l'eau enrichie en uranium fournissent des données sur le comportement de l'échange de l'uranium. La restitution de l'uranium a été observée après un lessivage par un volume supérieur à 20 fois celui des pores. Ce fort retard est dûà l'échange d'ions uranium positifs. Le code TReAC est un code de transport réactif en 1D, 2D et 3D, qui a été modifié pour prendre en compte la décroissance radioactive de l'uranium et les principaux nucléides descendants, et pour introduire l'écoulement dans un milieu à double porosité. TReAC a simulé de façon satisfaisante les courbes de restitution des expériences sur colonne et a fourni une première approche des paramètres de l'échange. L'écoulement souterrain dans la région de la mine de Knigstein a été simulé au moyen du code FLOWPATH. Le comportement du transport réactif a été simulé avec TReAC en une dimension, le long d'un axe d'écoulement long de 6000 m. Les résultats montrent que la migration de l'uranium est relativement lente ; mais du fait de la décroissance radioactive de l'uranium, la concentration en radium le long de cet axe augmente. Les résultats sont très sensibles à l'influence de l'écoulement en milieu à double porosité.
Benziane, H.; Karfo, R.; Siah, S.; Taoufik, J.
2011-01-01
Summary L'infection est longtemps restée la principale cause de mortalité chez le brûlé grave. Ce travail a pour but d'évaluer la prescription des antibiotiques dans notre Service des Brûlés et Chirurgie Plastique, au regard du dossier d'autorisation de mise sur le marché (Résumé des caractéristiques du produit). Tous les patients sous antibiothérapie, au Service des Brûlés et Chirurgie Plastique de l'Hôpital Militaire d'Instruction Mohammed V de Rabat, Maroc, durant la période janvier 2008/mai 2009, ont été inclus. Il s'agit d'une étude rétrospective qui a analysé 41 dossiers de patients. Les antibiotiques utilisés par le service appartiennent à différentes familles. Les plus utilisés sont les bêta-lactamines (65%), glycopeptides (10,5%), aminosides (9%), quinolones (7%) et colistine (4,3%), avec 4,2% pour les autres classes d'antibiotiques (métronidazole 500 mg en perfusion, fluconazole injectable 100 mg/50 ml, rifampicine 600 mg en perfusion, sulfadiazine argentique crème, acide fusidique 2% crème, etc.); 70% des prescriptions sont non documentées. La voie injectable est prépondérante (89%). En tout, 227 ordonnances nominatives d'antibiothérapie ont été analysées: la posologie et les contre-indications ont été respectées par rapport à l'autorisation de mise sur le marché. Trois cas d'interactions médicamenteuses ont été relevés (fluconazole-rifampicine, fluconazole-Saccharomyces boulardii, amikacine-vancomycine). Ce constat montre l'importance de l'analyse pharmaceutique des prescriptions des antibiotiques dans un service utilisant des antibiotiques de la réserve hospitalière, donc actifs mais très toxiques. PMID:22396670
NASA Astrophysics Data System (ADS)
Zimmermann, F.; Meux, E.; Oget, N.; Lecuire, J. M.; Mieloszynski, J. L.
2004-12-01
Actuellement, les métaux présents dans les effluents liquides industriels sont précipités sous forme d'hydroxydes métalliques par ajout de lait de chaux. Les boues obtenues sont dirigées vers des centres de stockage de déchets ultimes sans possibilité de valorisation. Cette étude propose comme alternative au traitement actuel, une précipitation sélective par des réactifs qui peuvent être préparés à partir d'acides carboxyliques résultant de l'oxydation de l'acide oléique présent dans les huiles végétales. Cette publication présente dans un premier temps l'oxydation de l'acide oléique par le système oxydant NaIO4/RuO4 pour l'obtention de deux acides carboxyliques. Le rendement de l'oxydation de l'acide oléique est de 100% avec production des acides pélargonïque et azélaïque qui sont facilement purifiés par recristallisation dans l’eau. Dans un deuxième temps, cette étude présente la caractérisation de différents azélates métalliques. La détermination de leur stœchiométrie conduit à des composés de type MAz pour les cations divalents et M2Az3 pour les trivalents. Des mesures de solubilités ont été réalisées pour les azélates de Fe(III), Pb(II), Zn(II), Cu(II), Ni(II) et Ca(II). La gamme de solubilité s'étend de 1,17.10-2 M pour CaAz à 1,58.10-6 M pour Fe2Az3.
Petithory, J C; Ambroise-Thomas, P; De Loye, J; Pelloux, H; Goullier-Fleuret, A; Milgram, M; Buffard, C; Garin, J P
1996-01-01
Reported are the results of a multicentre study involving 40 laboratories that was carried out in France to assess all the currently available methods used for the serodiagnosis of toxoplasmosis. For this purpose 10 batches of control sera were prepared with titres in the range 0-260 IU per ml. These sera were tested in nine laboratories using immunofluorescence methods; in three laboratories using dye tests; in forty laboratories using enzyme-linked immunosorbent assay; in four laboratories using direct agglutination and haemagglutination; in seven laboratories using the high-sensitivity IgG agglutination test; and in three laboratories using the latex agglutination test. In this way, 70 series of titrations were carried out using seven procedures and the results were compared with those obtained using the WHO reference serum in 15 cases, with the French national E6 serum in 16 other cases, and in 39 cases using 15 reference sera supplied by the reagent manufacturers. Rigorous comparison of the tests was not possible in all cases because one aim of the study was to ensure that the tests were carried out under the usual working conditions that prevailed in the participating laboratories. The results obtained indicate that the serological tests currently available for toxoplasmosis are acceptable for its serodiagnosis. Presentation of the titres in IU has advantages; however, caution is required since the definition of IU varies according to the test and reagents used. It is therefore essential that the conditions and limits for a positive reaction be carefully defined in each case, especially for commercially available kits.
Copolymères (carbazolylène-pyrrolylène) : synthèse par oxydation chimique et propriétés
NASA Astrophysics Data System (ADS)
Boucard, V.; Adès, D.; Siove, A.
1998-06-01
Conditions in which (carbazolylene-pyrrolylene) random copolymers could be synthetized directly by chemical oxidation by FeCl3 were studied. A substantial amount of soluble copolymers is obtained after work-up in the conditions corresponding to carbazole/pyrrole/2 FeCl3 molar proportions. An important fraction of polypyrrole was obtained beside a fraction of species soluble in ethanol (carbazole and dimer) and an other fraction of products soluble in water (pyrrole accompanied by the first terms of the oligomeric series). Soluble copolymers were characterized by means of SEC, NMR and UV-Visible spectroscopies. Cyclic voltammetry analysis disclosed that these copolymers exhibit both the carbazolic and the pyrrolic features. Les conditions dans lesquelles des copolymères statistiques (carbazo lylène-pyrrolylène) pouvaient être synthétisés directement par oxydation chimique par FeCl3 ont été étudiées. Des quantités substantielles de copolymères solubles en milieu organique sont obtenues par extraction lorsque les proportions molaires en réactifs carbazole/pyrrole/2 FeCl3 sont utilisées. Une fraction importante de polypyrrole est obtenue à côté d'une fraction d'espèces solubles dans l'éthanol (carbazole et son dimère) et d'une fraction de produits solubles dans l'eau (pyrrole et les premiers termes oligomères). Les copolymères solubles ont été caractérisés par CES, spectroscopies RMN et UV-Visible. L'analyse voltampérométrique de ces matériaux révèle qu'ils possèdent à la fois les caractéristiques des entités carbazolylènes et celles des entités pyrrolylènes.
Klenk, Jochen; Kerse, Ngaire; Rapp, Kilian; Becker, Clemens; Rothenbacher, Dietrich; Peter, Richard; Denkinger, Michael Dieter
2015-01-01
Objectives To investigate the relationship between physical activity and two measures of fall incidence in an elderly population using person-years as well as hours walked as denominators and to compare these two approaches. Design Prospective cohort study with one-year follow-up of falls using fall calendars. Physical activity was defined as walking duration and recorded at baseline over one week using a thigh-worn uni-axial accelerometer (activPAL; PAL Technologies, Glasgow, Scotland). Average daily physical activity was extracted from these data and categorized in low (0–59 min), medium (60–119 min) and high (120 min and more) activity. Setting The ActiFE Ulm study located in Ulm and adjacent regions in Southern Germany. Participants 1,214 community-dwelling older people (≥65 years, 56.4% men). Measurements Negative-binomial regression models were used to calculate fall rates and incidence rate ratios for each activity category each with using (1) person-years and (2) hours walked as denominators stratified by gender, age group, fall history, and walking speed. All analyses were adjusted either for gender, age, or both. Results No statistically significant association was seen between falls per person-year and average daily physical activity. However, when looking at falls per 100 hours walked, those who were low active sustained more falls per hours walked. The highest incidence rates of falls were seen in low-active persons with slow walking speed (0.57 (95% confidence interval (95% CI): 0.33 to 0.98) falls per 100 hours walked) or history of falls (0.60 (95% CI: 0.36 to 0.99) falls per 100 hours walked). Conclusion Falls per hours walked is a relevant and sensitive outcome measure. It complements the concept of incidence per person years, and gives an additional perspective on falls in community-dwelling older people. PMID:26058056
Encyclopédie scientifique de l'universe: les étoiles - le système solaire.
NASA Astrophysics Data System (ADS)
This book is a revised, extended and updated edition of the volume published in 1979 (27.003.156).Contents: Première partie - le système solaire: 1. Astronomie des positions (J. Lévy). 2. Le système des constantes astronomiques; les données fondamentales (A. Bec-Borsenberger, F. Chollet). 3. Mécanique du système solaire (B. Morando). 4. Relief et structure des planètes telluriques et des satellites (A. Cazenave, P. Masson, P. Thomas). 5. Physique des atmosphères planétaires denses (D. Gautier, M. Combes,G. Moreels, J. P. Parisot, O. Tallagrand). 6. Les anneaux entourant les planètes (N. Borderies, A. Dollfus). 7. Les comètes et les météorites (A. Levasseur-Regourd). 8. L'environnement du Soleil et de la Terre (J.-L. Steinberg, J.-P. Bibring, A. Boischot, P. Couturier, R. Dumont, T. Encrenaz, P. Lamy).Deuxième partie - le Soleil et les bases de la physique stellaire: 9. Théorie des atmosphères du Soleil et des étoiles (R. Michard). 10. Physique de l'atmosphère solaire {non perturbée} (P. Mein). 11. Les centres actifs (J.-C. Hénoux, J.-C. Vial). 12. Éruptions solaires et phénomènes transitoires (J.-C. Hénoux, M. Pick, G. Trottet). 13. Le cycle solaire (J. Latour, P. Simon).Troisième partie - physique des étoiles: 14. Acquisition des données fondamentales (F. Spite). 15. Les étoiles doubles (R. Bouigue, P. Muller). 16. Les étoiles variables (M. Auvergne, A. Baglin, D. Ducatel, J.-M. Le Contel, J. C. Valtier). 17. Structure interne et évolution des étoiles (J.-P. Zahn). 18. Les familles physiques d'étoiles (G. Cayrel).
Musimwa, Aimée Mudekereza; Kanteng, Gray Wakamb; Kitoko, Hermann Tamubango; Luboya, Oscar Numbi
2016-01-01
Introduction La malnutrition reste à ce jour un problème majeur de santé publique, notamment dans les pays en voie de développement. Cette étude a eu pour objectif de déterminer les signes cliniques observés chez l'enfant mal nourri, admis dans une unité de prise en charge. Méthodes Il s'agit d'une étude descriptive transversale, effectuée de juillet 2013 à décembre 2014. 311 cas ont été colligés (182 malnutris et 129 biens nourris), par échantillonnage exhaustif, avec un dépistage actif des enfants malnutris et biens nourris. Le diagnostic est fait cliniquement associé à l'anthropométrie. Résultats Les signes les plus enregistrés chez les enfants malnutris étaient dominés par la toux ou pneumopathie dans 42,50%, la gastroentérite dans 38,55%, les lésions dermatologiques ont présenté 22,91% de cas, la fièvre dans 22,35% de cas, 19,0% des enfants ont présenté les œdèmes, 8,38% d'enfants ont présenté la pâleur, enfin hépatomégalie et splénomégalie sont les signes les moins fréquents avec respectivement 1,68% et 2,89%. Tandis que les enfants en bonne état nutritionnel ont présenté plus la splénomégalie et la fièvre qui seraient liés au paludisme. Conclusion Les enfants malnutris vivant dans un milieu minier présentent une symptomatologie qui ne pas différents de autres enfants mal nourris à l'exception de l'hépatomégalie et splénomégalie qui sont très rare chez nos mal nourris. PMID:27642407
Capteur de CO{2} à fibres optiques par absorption moléculaire à 4,3 μm
NASA Astrophysics Data System (ADS)
Bendamardji, S.; Alayli, Y.; Huard, S.
1996-04-01
This paper describes a remote optical fibre sensor for the carbon dioxide detection by molecular absorption in the near infrared (4.3 μm) corresponding to fundamental mode ν3. To overcome the problem of the strong attenuation signal of optical fibre in the near infrared, we have used the opto-suppling technique which changes the working wavelength from 4.3 μm to 860 nm and permits the use of standard optical fibre 50/125. The simulation of absorption has been obtained by original modelisation of the absorption spectrum and the establishment of the calibration curves takes to the sensor to detect a partial pressures greater than 100 μbar with a minimal error margin of 100 μbar, which is acceptable considering the future use of the device. The sensor has been designed to monitor the CO{2} rate in enriched greenhouses. Cet article décrit un capteur à fibres optiques de gaz carbonique par absorption moléculaire dans l'infrarouge moyen (4,3 μm) correspondant au mode fondamental ν3. La liaison entre le site de mesure et le site de contrôle est assurée par un fibre optique standard 50/125 après une transposition de longueur d'onde de 4,3 μm à 860 nm par opto-alimentation. La simulation de l'absorption a été obtenue par modélisation originale du spectre d'absorption et l'établissement des courbes d'étalonnage prévoit une marge d'erreur minimale de 100 μbar, ce qui est suffisant pour l'application du dispositif à la régulation de taux CO{2} dans les serres agricoles enrichies par de gaz.
NASA Astrophysics Data System (ADS)
Losseau, Romain
The ongoing energy transition is about to entail important changes in the way we use and manage energy. In this view, smart grids are expected to play a significant part through the use of intelligent storage techniques. Initiated in 2014, the SmartDesc project follows this trend to create an innovative load management program by exploiting the thermal storage associated with electric water heaters existing in residential households. The device control algorithms rely on the recent theory of mean field games to achieve a decentralized control of the water heaters temperatures producing an aggregate optimal trajectory, designed to smooth the electric demand of a neighborhood. Currently, this theory does not include power and temperature constraints due to the tank heating system or necessary for the user's safety and comfort. Therefore, a trajectory violating these constraints would not be feasible and would not induce the forecast load smoothing. This master's thesis presents a method to detect the non-feasability, of a target trajectory based on the Kolmogorov equations associated with the controlled electric water heaters and suggests a way to correct it so as to make it achievable under constraints. First, a partial differential equations based model of the water heaters under temperature constraints is presented. Subsequently, a numerical scheme is developed to simulate it, and applied to the mean field control. The results of the mean field control with and without constraints are compared, and non-feasabilities of the target trajectory are highlighted upon violations. The last part of the thesis is dedicated to developing an accelerated version of the mean field and a method of correcting the target trajectory so as to enlarge as much as possible the set of achievable profiles.
NASA Astrophysics Data System (ADS)
Nguimbus, Raphael
La determination de l'impact des facteurs sous controle et hors controle qui influencent les volumes de vente des magasins de detail qui vendent des produits homogenes et fortement substituables constitue le coeur de cette these. Il s'agit d'estimer un ensemble de coefficients stables et asymtotiquement efficaces non correles avec les effets specifiques aleatoires des sites d'essence dans le marche de Montreal (Quebec, Canada) durant is periode 1993--1997. Le modele econometrique qui est ainsi specifie et teste, isole un ensemble de quatre variables dont le prix de detail affiche dans un site d'essence ordinaire, la capacite de service du site pendant les heures de pointe, les heures de service et le nombre de sites concurrents au voisinage du site dans un rayon de deux kilometres. Ces quatre facteurs influencent les ventes d'essence dans les stations-service. Les donnees en panel avec les methodes d'estimation robustes (estimateur a distance minimale) sont utilisees pour estimer les parametres du modele de vente. Nous partons avec l'hypothese generale selon laquelle il se developpe une force d'attraction qui attire les clients automobilistes dans chaque site, et qui lui permet de realiser les ventes. Cette capacite d'attraction varie d'un site a un autre et cela est du a la combinaison de l'effort marketing et de l'environnement concurrentiel autour du site. Les notions de voisinage et de concurrence spatiale expliquent les comportements des decideurs qui gerent les sites. Le but de cette these est de developper un outil d'aide a la decision (modele analytique) pour permettre aux gestionnaires des chaines de stations-service d'affecter efficacement les ressources commerciales dans ies points de vente.
Modelling a radiology department service using a VDL integrated approach.
Guglielmino, Maria Gabriella; Celano, Giovanni; Costa, Antonio; Fichera, Sergio
2009-01-01
The healthcare industry is facing several challenges such as the reduction of costs and quality improvement of the provided services. Engineering studies could be very useful in supporting organizational and management processes. Healthcare service efficiency depends on a strong collaboration between clinical and engineering experts, especially when it comes to analyzing the system and its constraints in detail and subsequently, when it comes to deciding on the reengineering of some key activities. The purpose of this paper is to propose a case study showing how a mix of representation tools allow a manager of a radiology department to solve some human and technological resource re-organizational issues, which have to be faced due to the introduction of a new technology and a new portfolio of services. In order to simulate the activities within the radiology department and examine the relationship between human and technological resources, different visual diagrammatic language (VDL) techniques have been implemented to get knowledge about the heterogeneous factors related to the healthcare service delivery. In particular, flow charts, IDEFO diagrams and Petri nets have been integrated each other with success as a modelisation tools. The simulation study performed through the application of the aforementioned VDL techniques suggests the opportunity of re-organizing the nurse activities within the radiology department. The re-organization of a healthcare service and in particular of a radiology department by means of joint flow charts, IDEF0 diagrams and Petri nets is a poorly investigated topic in literature. This paper demonstrates how flow charts and IDEF0 can help people working within the department to understand the weak points of their organization and constitute an efficient base of knowledge for the implementation of a Petri net aimed at improving the departmental performance.
Etude de la dynamique des porteurs dans des nanofils de silicium par spectroscopie terahertz
NASA Astrophysics Data System (ADS)
Beaudoin, Alexandre
Ce memoire presente une etude des proprietes de conduction electrique et de la dynamique temporelle des porteurs de charges dans des nanofils de silicium sondes par rayonnement terahertz. Les cas de nanofils de silicium non intentionnellement dopes et dopes type n sont compares pour differentes configurations du montage experimental. Les mesures de spectroscopie terahertz en transmission montre qu'il est possible de detecter la presence de dopants dans les nanofils via leur absorption du rayonnement terahertz (˜ 1--12 meV). Les difficultes de modelisation de la transmission d'une impulsion electromagnetique dans un systeme de nanofils sont egalement discutees. La detection differentielle, une modification au systeme de spectroscopie terahertz, est testee et ses performances sont comparees au montage de caracterisation standard. Les instructions et des recommendations pour la mise en place de ce type de mesure sont incluses. Les resultats d'une experience de pompe optique-sonde terahertz sont egalement presentes. Dans cette experience, les porteurs de charge temporairement crees suite a l'absorption de la pompe optique (lambda ˜ 800 nm) dans les nanofils (les photoporteurs) s'ajoutent aux porteurs initialement presents et augmentent done l'absorption du rayonnement terahertz. Premierement, l'anisotropie de l'absorption terahertz et de la pompe optique par les nanofils est demontree. Deuxiemement, le temps de recombinaison des photoporteurs est etudie en fonction du nombre de photoporteurs injectes. Une hypothese expliquant les comportements observes pour les nanofils non-dopes et dopes-n est presentee. Troisiemement, la photoconductivite est extraite pour les nanofils non-dopes et dopes-n sur une plage de 0.5 a 2 THz. Un lissage sur la photoconductivite permet d'estimer le nombre de dopants dans les nanofils dopes-n. Mots-cles: nanofil, silicium, terahertz, conductivite, spectroscopie, photoconductivite.
Étude de la réponse photoacoustique d'objets massifs en 3D
NASA Astrophysics Data System (ADS)
Séverac, H.; Mousseigne, M.; Franceschi, J. L.
1996-11-01
In some sectors such as microelectronics or the physics of materials, reliability is of capital importance. It is also particularly attractive to have access on informations on the material behaviour without the use of a destructive test like chemical analysis or others mechanical tests. The submitted method for non-destructive testing is based on the waves generation with a laser beam. The aim of studying the various waves in the three-dimensional space is to bring informations about materials response. Thermoelastic modelisation allowed a rigorous analytic approach and to give rise to a software written in Turbo-Pascal for a more general solution. Dans les secteurs où la fiabilité est capitale, tels la micro-électronique ou la physique des matériaux, il est particulièrement utile d'accéder aux informations sur le comportement du matériau sans avoir à utiliser une méthode destructive (analyses chimiques ou autres essais mécaniques). La méthode de contrôle non destructif présentée est basée sur la génération d'ondes par impact d'un faisceau laser focalisé à la surface d'un échantillon, sans atteindre le régime d'ablation. L'étude de la propagation des diverses ondes dans l'espace tridimensionnel permet d'apporter des mesures quantitatives sur l'analyse de la réponse des matériaux utilisés. La modélisation des phénomènes thermoélastiques a permis une approche analytique rigoureuse et donné naissance à un logiciel de simulation écrit en Turbo-Pascal pour des études plus générales.
How to anticipate the assessment of the public health benefit of new medicines?
Massol, Jacques; Puech, Alain; Boissel, Jean-Pierre
2007-01-01
The Public Health Benefit (PHB) of new medicines is a recent and French-specific criterion (October 1999 decree) which is often only partially documented in the transparency files due to a lack of timely information. At the time of the first reimbursement application for a new medicine to the "Transparency Committee", the file is exclusively based on data from randomised clinical trials. These data are generated from a global clinical development plan which was designed a long time before the new medicine's submission for reimbursement. And this plan does not systematically provide the data needed to assess the PHB. Thus, one easily understands the difficulty to anticipate and document this recent French criterion. In France, the PHB is both one of the necessary criteria for the reimbursement submission and an indicator for the national health policy management. Its assessment also helps to identify the needs and objectives of the post-registration studies (nowadays in the scope of responsibilities of the "Drug Economics Committee"). The assessment of the PHB criterion is carried through after the marketing authorization process and is an addition to it. To understand how to anticipate the assessment of the new medicines' PHB, one needs to consider how it differs from the preliminary step of the marketing authorization process. Whereas the evaluation for marketing authorization seeks to determine if the new medicine could be useful in a specific indication, the PHB assessment aims at quantifying the therapeutic benefit in a population, taking into account the reference treatments in this population. A new medicine receives a marketing authorization based on the data of the registration file which provides information on the clinical benefit of the new medicine in the populations of the trials and in the context of the trials. On the other side, the PHB looks at the effects of the new medicine at the scale of the general population, in real practice. The PHB components of a new medicine at first submission are the expected response of this new medicine to a public health need, the expected benefit on the health status of the population and ultimately the expected impact on the health care system. The benefit of a new medicine on the health status of a population is based on public health criteria which can be morbi-mortality or quality of life criteria. However, few registration files contain these public health criteria from the beginning and the predictive value of the surrogate criteria used in the trials is not always precisely assessed. It is, thus, difficult to quantify the expected benefit on these public health criteria. Moreover, the data that enable to quantify the new medicine's effects according to the various characteristics of the target population, are rarely available. Similarly, the French population epidemiological data related to the indication of the new medicine are often not available at the time of the assessment. Therefore it is difficult to evaluate the expected number of events that could be avoided if the new medicine reached the market. The authors suggest to adapt the clinical development plan for a better documentation of the PHB. They specifically recommend to integrate to the judgment criteria (endpoints) of the trials, criteria that are relevant in terms of public health, and to check for a good heterogeneity of the trial populations. They also suggest to start early enough collecting reliable national epidemiological data and the necessary elements for the assessment of the transposability of the trial results to the French population (ability to target the patients to be treated, adaptation of the healthcare system...). About the epidemiological data, the authors consider that the needs are covered in various ways depending on the diseases. To meet the needs of evaluation of the new medicines' target populations in specific indications, they recommend to use ad hoc studies as much as needed. In addition, epidemiological studies designed for market purpose with an acceptable methodology should not be systematically rejected but deserve to be presented. To be able to assess the importance of the expected theoretical benefit of a new medicine in a population, the authors underline the necessity to have access to study results with criteria related to this objective. They suggest to first define and list the criteria by disease. Regarding the representativity of the populations, it comes out that it would be advisable, but unrealistic to include in trials a population 100% representative of the population to be treated. Therefore the effect of the new medicine must be modelised (the "effect model") to be evaluated in the general population. Yet to obtain a reliable effect model, the study population must be sufficiently heterogeneous, which legitimates the demand to ensure a good population heterogeneity at the time of decision-making about trials methodology. When the criteria assessed during the development plan does not correspond to the PHB criteria, the only way to evaluate the number of events related to the PHB criterion is, again, to use modelisation. However, modelisation is only possible when the scientific literature has established a reliable correlation between the two types of criteria. In this case, the new model should be applied to a French target population to assess the expected benefit. As a conclusion, the possibilities to estimate the expected benefit of a new medicine on the health status of a specific population are currently limited. These limitations are regrettable because such an estimate is feasible without disrupting the development plans. The authors' general recommendations to update the development plans seem especially appropriate as the additions should not only be beneficial to France but to all the health authorities who would wish to assess the expected benefit of a new medicine on their territories. Anticipating the lack of clinical and epidemiological data and the lack of data that enable to evaluate the transposability of the trials results to real clinical practice is a sine qua none condition to improve the PHB assessment. The anticipation of these needs should be planned early enough by the pharmaceutical companies which could in this purpose meet the health authorities and the heads of the French public health policy in a consultation.Finally, because of the PHB's universal dimension, it is suggested that the necessary actions and publications be initiated so that the PHB can be acknowledged at the European level.
Holaly, Gbekley Efui; Simplice, Karou Damintoti; Charlemagne, Gnoula; Kodjovi, Agbodeka; Kokou, Anani; Tchadjobo, Tchacondo; Amegnona, Agbonon; Komlan, Batawila; Jacques, Simpore
2015-01-01
Introduction Les plantes constituent une grande source de principes actifs qui peuvent être utilisés pour traiter de nombreuses maladies, dont le diabète. L'objectif de cette étude était de recenser les plantes utilisées en médecine traditionnelle pour traiter le diabète dans la région Maritime du Togo. Méthodes De janvier 2013 à juin 2014, une enquête ethnobotanique a été réalisée auprès de 164 guérisseurs traditionnels dans la région Maritime par des interviews directes à l'aide d'un questionnaire semi structuré. Résultats Les données recueillies ont permis d'identifier 112 espèces végétales appartenant à 51 familles. Les familles les plus représentées ont été les Caesalpiniaceae / Fabaceae avec 9 espèces, suivie des Euphorbiaceae et des Compositae avec 8 espèces chacune. Les espèces les plus citées ont été Allium sativum, Alium cepa, Guilandina bonduc, Moringa oleifera et de Picralima nitida qui ont eu une valeur usuelle de 0,05. En termes de recettes, 132 recettes sont préparées à partir des 112 espèces de plantes. Les recettes à plantes uniques ont été au nombre de 78, tandis que 54 recettes sont obtenues par des associations de plantes. Les parties de plantes les plus utilisées ont été les feuilles suivies par les racines. La principale méthode de préparation reste la décoction. Conclusion La région maritime du Togo dispose d'une biodiversité floristique importante en matière de plantes antidiabétiques. Ces résultats constituent une bonne base de données pour le criblage biologique dans la recherche de molécules antidiabétiques à base des plantes. PMID:26309469
Modelisation et optimisation des systemes energetiques a l'aide d'algorithmes evolutifs
NASA Astrophysics Data System (ADS)
Hounkonnou, Sessinou M. William
Optimization of thermal and nuclear plant has many economics advantages as well as environmentals. Therefore new operating points research and use of new tools to achieve those kind of optimization are the subject of many studies. In this momentum, this project is intended to optimize energetic systems precisely the secondary loop of Gentilly 2 nuclear plant using both the extraction of the high and low pressure turbine as well as the extraction of the mixture coming from the steam generator. A detailed thermodynamic model of the various equipment of the secondary loop such as the feed water heaters, the moisture separator-reheater, the dearator, the condenser and the turbine is carried out. We use Matlab software (version R2007b, 2007) with the library for the thermodynamic properties of water and steam (XSteam pour Matlab, Holmgren, 2006). A model of the secondary loop is than obtained thanks to the assembly of the different equipments. A simulation of the equipment and the complete cycle enabled us to release two objectifs functions knowing as the net output and the efficiency which evolve in an opposite way according to the variation of the extractions. Due to the complexity of the problem, we use a method based on the genetic algorithms for the optimization. More precisely we used a tool which was developed at the "Institut de genie nucleaire" named BEST (Boundary Exploration Search Technique) developed in VBA* (Visual BASIC for Application) for its ability to converge more quickly and to carry out a more exhaustive search at the border of the optimal solutions. The use of the DDE (Dynamic Data Exchange) enables us to link the simulator and the optimizer. The results obtained show us that they still exists several combinations of extractions which make it possible to obtain a better point of operation for the improvement of the performance of Gentilly 2 power station secondary loop. *Trademark of Microsoft
NASA Astrophysics Data System (ADS)
Abou Chakra, Charbel; Somma, Janine; Elali, Taha; Drapeau, Laurent
2017-04-01
Climate change and its negative impact on water resource is well described. For countries like Lebanon, undergoing major population's rise and already decreasing precipitations issues, effective water resources management is crucial. Their continuous and systematic monitoring overs long period of time is therefore an important activity to investigate drought risk scenarios for the Lebanese territory. Snow cover on Lebanese mountains is the most important water resources reserve. Consequently, systematic observation of snow cover dynamic plays a major role in order to support hydrologic research with accurate data on snow cover volumes over the melting season. For the last 20 years few studies have been conducted for Lebanese snow cover. They were focusing on estimating the snow cover surface using remote sensing and terrestrial measurement without obtaining accurate maps for the sampled locations. Indeed, estimations of both snow cover area and volumes are difficult due to snow accumulation very high variability and Lebanese mountains chains slopes topographic heterogeneity. Therefore, the snow cover relief measurement in its three-dimensional aspect and its Digital Elevation Model computation is essential to estimate snow cover volume. Despite the need to cover the all lebanese territory, we favored experimental terrestrial topographic site approaches due to high resolution satellite imagery cost, its limited accessibility and its acquisition restrictions. It is also most challenging to modelise snow cover at national scale. We therefore, selected a representative witness sinkhole located at Ouyoun el Siman to undertake systematic and continuous observations based on topographic approach using a total station. After four years of continuous observations, we acknowledged the relation between snow melt rate, date of total melting and neighboring springs discharges. Consequently, we are able to forecast, early in the season, dates of total snowmelt and springs low water flows which are essentially feeded by snowmelt water. Simulations were ran, predicting the snow level between two sampled dates, they provided promising result for national scale extrapolation.
Development and modelisation of a hydro-power conversion system based on vortex induced vibration
NASA Astrophysics Data System (ADS)
Lefebure, David; Dellinger, Nicolas; François, Pierre; Mosé, Robert
2016-11-01
The Vortex Induced Vibration (VIV) phenomenon leads to mechanical issues concerning bluff bodies immerged in fluid flows and have therefore been studied by numerous authors. Moreover, an increasing demand for energy implies the development of alternative, complementary and renewable energy solutions. The main idea of EauVIV project consists in the use of VIV rather than its deletion. When rounded objects are immerged in a fluid flow, vortices are formed and shed on their downstream side, creating a pressure imbalance resulting in an oscillatory lift. A convertor modulus consists of an elastically mounted, rigid cylinder on end-springs, undergoing flow- induced motion when exposed to transverse fluid-flow. These vortices induce cyclic lift forces in opposite directions on the circular bar and cause the cylinder to vibrate up and down. An experimental prototype was developed and tested in a free-surface water channel and is already able to recover energy from free-stream velocity between 0.5 and 1 m.s -1. However, the large number of parameters (stiffness, damping coefficient, velocity of fluid flow, etc.) associated with its performances requires optimization and we choose to develop a complete tridimensionnal numerical model solution. A 3D numerical model has been developed in order to represent the real system behavior and improve it through, for example, the addition of parallel cylinders. The numerical model build up was carried out in three phases. The first phase consists in establishing a 2D model to choose the turbulence model and quantify the dependence of the oscillations amplitudes on the mesh size. The second corresponds to a 3D simulation with cylinder at rest in first time and with vertical oscillation in a second time. The third and final phase consists in a comparison between the experimental system dynamic behavior and its numerical model.
NASA Astrophysics Data System (ADS)
Basiuk, V.; Huynh, P.; Merle, A.; Nowak, S.; Sauter, O.; Contributors, JET; the EUROfusion-IM Team
2017-12-01
The neoclassical tearing modes (NTM) increase the effective heat and particle radial transport inside the plasma, leading to a flattening of the electron and ion temperature and density profiles at a given location depending on the safety factor q rational surface (Hegna and Callen 1997 Phys. Plasmas 4 2940). In burning plasma such as in ITER, this NTM-induced increased transport could reduce significantly the fusion performance and even lead to a disruption. Validating models describing the NTM-induced transport in present experiment is thus important to help quantifying this effect on future devices. In this work, we apply an NTM model to an integrated simulation of current, heat and particle transport on JET discharges using the European transport simulator. In this model, the heat and particle radial transport coefficients are modified by a Gaussian function locally centered at the NTM position and characterized by a full width proportional to the island size through a constant parameter adapted to obtain the best simulations of experimental profiles. In the simulation, the NTM model is turned on at the same time as the mode is triggered in the experiment. The island evolution is itself determined by the modified Rutherford equation, using self-consistent plasma parameters determined by the transport evolution. The achieved simulation reproduces the experimental measurements within the error bars, before and during the NTM. A small discrepancy is observed on the radial location of the island due to a shift of the position of the computed q = 3/2 surface compared to the experimental one. To explain such small shift (up to about 12% with respect to the position observed from the experimental electron temperature profiles), sensitivity studies of the NTM location as a function of the initialization parameters are presented. First results validate both the transport model and the transport modification calculated by the NTM model.
NASA Astrophysics Data System (ADS)
Quiers, M.; Gateuille, D.; Perrette, Y.; Naffrechoux, E.; David, B.; Malet, E.
2017-12-01
Soils are a key compartments of hydrosystems, especially in karst aquifers which are characterized by fast hydrologic responses to rainfalls. In steady state, soils are efficient filters preventing karst water from pollutions. But agricultural or forestry land uses can alter or even reverse the role of soils. Thus , soils can act as pollution sources rather than pollution filters. In order to manage water quality together with man activities in karst environment, the development of new tools and procedures designed to monitor the fate of soil organic matter are needed. This study reports two complementary methods applied in a moutain karst system impacted by anthropic activities and environmental stresses. A continuous monitoring of water fluorescence coupled with punctual sampling was analyzed by chemiometric methods and allowed to discriminate the type of organic matter transferred through the karst system along the year (winter / summer) and hydrological stages. As a main result, the modelisation of organic carbone fluxes is dominated by a colloidal or particulate part during highwaters, and a main part dissolved in solution during low water, demonstrating the change of organic carbone source. To confirm this result, a second method was used based on the observation of Polycyclic Aromatic Hydrocarbons (PAH) profiles. Two previous studies (Perrette et al 2013, Schwarz et al 2011) led to opposite conclusions about the fate of PAH from soil to groundwaters. This opposition leads to a potential use of PAH profiles (low molecular weight less hydrophobic ones versus high molecular weight more hydrophobic ones) as an indicator of soil erosion. We validate that use by the anaylsis of these PAH profiles for low and high waters (floods). These results demonstrate if needed the high vulnerability of karst system to soil erosion, and propose a new proxy to record soils erosion in groundwaters and in natural archives as stalagmites or sediments.
NASA Astrophysics Data System (ADS)
Leger, Michel T.
Les activites humaines energivores telles l'utilisation intensive de l'automobile, la surconsommation de biens et l'usage excessif d'electricite contribuent aux changements climatiques et autres problemes environnementaux. Bien que plusieurs recherches rapportent que l'etre humain est de plus en plus conscient de ses impacts sur le climat de la planete, ces memes recherches indiquent qu'en general, les gens continuent a se comporter de facon non ecologique. Que ce soit a l'ecole ou dans la communaute, plusieurs chercheurs en education relative a l'environnement estiment qu'une personne bien intentionnee est capable d'adopter des comportements plus respectueux de l'environnement. Le but de cette these etait de comprendre le processus d'integration de comportements d'attenuation des changements climatiques dans des familles. A cette fin, nous nous sommes fixe deux objectifs : 1) decrire les competences et les procedes qui favorisent l'adoption de comportements d'attenuation des changements climatiques dans des familles et 2) decrire les facteurs et les dynamiques familiales qui facilitent et limitent l'adoption de comportements d'attenuation des changements climatiques dans des familles. Des familles ont ete invitees a essayer des comportements personnels et collectifs d'attenuation des changements climatiques de sorte a integrer des modes de vie plus ecologiques. Sur une periode de huit mois, nous avons suivi leur experience de changement afin de mieux comprendre comment se produit le processus de changement dans des familles qui decident volontairement d'adopter des comportements d'attenuation des changements climatiques. Apres leur avoir fourni quelques connaissances de base sur les changements climatiques, nous avons observe le vecu de changement des familles durant huit mois d'essais a l'aide de journaux reflexifs, d'entretiens d'explicitation et du journal du chercheur. La these comporte trois articles scientifiques. Dans le premier article, nous presentons une recension des ecrits sur le changement de comportement en environnement. Nous explorons egalement la famille comme systeme fonctionnel de sorte a mieux comprendre ce contexte d'action environnementale qui est, a notre connaissance, peu etudie. Dans le deuxieme article, nous presentons nos resultats de recherche concernant les facteurs d'influence observes ainsi que les competences manifestees au cours du processus d'adoption de nouveaux comportements environnementaux dans trois familles. Enfin, le troisieme article presente les resultats du cas d'une quatrieme famille ou les membres vivent depuis longtemps des modes de vie ecologique. Dans le cadre d'une demarche d'analyse par theorisation ancree, l'etude de ce cas modele nous a permis d'approfondir les categories conceptuelles identifiees dans le deuxieme article de sorte a produire une modelisation de l'integration de comportements environnementaux dans le contexte de la famille. Les conclusions degagees grace a la recension des ecrits nous ont permis d'identifier les elements qui pourraient influencer l'adoption de comportements environnementaux dans des familles. La recension a aussi permis une meilleure comprehension des divers facteurs qui peuvent affecter l'adoption de comportements environnementaux et, enfin, elle a permis de mieux cerner le phenomene de changement de comportement dans le contexte de la famille consideree comme un systeme. En appliquant un processus d'analyse inductif, a partir de nos donnees qualitatives, les resultats de notre etude multi-cas nous ont indique que deux construits conceptuels semblent influencer l'adoption de comportements environnementaux en famille : 1) les valeurs biospheriques communes au sein de la famille et 2) les competences collectivement mises a profit collectivement durant l'essai de nouveaux comportements environnementaux. Notre modelisation du processus de changement dans des familles indique aussi qu'une dynamique familiale collaborative et la presence d'un groupe de soutien exterieur sont deux elements conceptuels qui tendent a influencer les deux principaux construits et, par ce fait, tendent a augmenter les chances d'integrer de nouveaux comportements environnementaux dans des familles. En conclusion, nous presentons les limites de notre recherche ainsi que des pistes pour des recherches futures. Notamment, nous recommandons que l'ecole accueille les familles des eleves dans le cadre d'activites d'education a l'environnement ou les freres, les soeurs et les parents des eleves puissent apprendre ensemble, a l'ecole. Par exemple, nous recommandons la conduite en ERE d'une recherche action portant sur l'apprentissage intergenerationnel de nouveaux comportements dans le contexte de la famille. Mots-cles : education relative a l'environnement, comportement environnemental en famille, changement de comportement en famille, valeurs biospheriques, competences d'action.
Najdi, Adil; Berraho, Mohamed; Bendahhou, Karima; Obtel, Majdouline; Zidouh, Ahmed; Errihani, Hassan; Nejjari, Chakib
2014-01-01
Introduction Le cancer au Maroc représente un problème majeur de santé publique, sa prise en charge doit être globale, active et complète pour tous les patients. L'objectif de ce travail était d'estimer la fréquence des perdus de vue « PDV » en oncologie au Maroc durant la première année de suivi et de déterminer les facteurs associés à ce problème. Méthodes Par une étude rétrospective portant sur 2854 dossiers de malades hospitalisés dans les trois principaux centres d'oncologie au Maroc depuis janvier 2003 jusqu’à juin 2007 et concernant les cinq principales localisations de cancer au Maroc, nous avons cherché la date des dernières nouvelles des patients ayant un recul de 18 mois minimum afin de déterminer le statut de ces malades après un an de suivi. Résultats La moyenne d’âge était de 52±14 ans, une proportion féminine de 63%, les sujets actifs constituaient 28%, les mariés 71%, les analphabètes 51%, 70% des patients habitaient en milieu urbain et seulement 11% des malades disposaient d'une couverture sociale. La localisation cancéreuse la plus fréquente était le poumon (23,8%) suivie du colon-rectum (23,5%) puis le col (21,9%), le sein (20,4%) et les lymphomes (10,4%). Le taux des «PDV» à un an de suivi était de 48%, ce statut était significativement lié au sexe, à l’âge, au NSE et au statut matrimonial. Sur le plan médical, le statut «PDV» était lié à la localisation du cancer, au stade de diagnostic et au type de traitement reçu. Conclusion Notre étude a mis en évidence la grande ampleur du problème des PDV en cancérologie au Maroc ainsi que ces déterminants. Ces résultats incitent tous les acteurs dans le domaine de la cancérologie à collaborer ensemble pour prendre les mesures qui s'imposent pour y pallier PMID:25400850
Uwingabiye, Jean; Zahid, Hafidi; Unyendje, Loubet; Hadef, Rachid
2016-01-01
Le but de ce travail était de déterminer la prévalence du virus de l’immunodéficience humaine (VIH), du virus de l’hépatite B (VHB) et C (VHC) sur les dons du sang collectés au Centre de transfusion sanguine(CTS) de l’hôpital militaire d’instruction Mohammed V entre 2010 et 2012. Etude rétrospective menée auprès des donneurs de sang militaires âgés de 18 à 50 ans avec prédominance masculine (95%). L’entretien médical pré-don constitue la première barrière de sélection des sujets à risque. Le dépistage biologique était réalisé par technique immuno-enzymatique en milieu liquide utilisant des anticorps et/ou des antigènes. L’ELISA (enzyme linked immuno-sorbent assay) combiné de quatrième génération pour VHC et VIH a été utilisé. La confirmation a été faite en réalisant la même technique en double au CTS et au laboratoire de virologie. Dans notre série de 25661 échantillons testés, la prévalence du VHB était 3,97‰ (n=102), celle de VHC était 2,45 ‰ (n=63), celle de VIH était 0,15 ‰ (n=4). Un seul cas de coïnfection (0,039 ‰) par le VHB et VHC a été noté, aucune association entre VIH-VHB, VIH-VHC ou VHB, VHC et VIH n’a été enregistrée. Les taux faibles de séroprévalence des marqueurs viraux de notre étude montrent l’amélioration des mesures préventives en ce qui concerne la sélection des donneurs et des tests de dépistage. Cette prévalence constatée incite à maintenir l’utilisation du réactif combiné qui est la seule alternative à la biologie moléculaire pour les pays en voie de développement. PMID:28292147
Electromagnetic properties of a modular MHD thruster
NASA Astrophysics Data System (ADS)
Kom, C. H.; Brunet, Y.
1999-04-01
The magnetic field of an annular MHD thruster made of independent superconducting modules has been studied with analytical and numerical methods. This configuration allows to obtain large magnetized volumes and high induction levels with rapidly decreasing stray fields. When some inductors are out of order, the thruster remains still operational, but the stray fields increase in the vicinity of the failure. For given structural materials and superconductors, it is possible to determine the size of the conductor in order to reduce the electromagnetic forces and the peak field supported by the conductors. For an active field of 10 T in a 6 m ray annular active channel of a thruster with 24 modules, the peak field is exactly 15.6 T in the Nb3Sn conductors and the structure has to sustain 10^8 N/m forces. The necessity to place some magnetic or superconducting shield is discussed, particularly when the thruster is in a degraded regime. Nous présentons une étude analytique et numérique du champ magnétique d'un propulseur MHD naval annulaire, constitué de secteurs inducteurs supraconducteurs. Cette configuration nécessite des champs magnétiques élevés dans des volumes importants, et permet une décroissance rapide des champs de fuite. Lorsque quelques inducteurs sont en panne, le propulseur reste toujours opérationnel, mais les champs de fuite sont importants aux environs des modules hors service. Étant donné un matériau supraconducteur, il est possible de déterminer la forme des inducteurs dans le but de réduire à la fois les forces électromagnétiques et le surchamp supporté par le bobinage. Pour un propulseur annulaire constitué de 24 modules inducteurs, et un champ actif de 10 T au centre de la partie active du canal (r = 6 m) on obtient avec du Nb3Sn un champ maximun sur le conducteur de 15,5 T et la structure supporte une force de 10^8 N/m. De plus, la nécessité de placer des écrans magnétique ou supraconducteur en régime dégradé (mise hors service d'un ou de plusieurs modules inducteurs) est discutée.
Conception et optimisation d'une peau en composite pour une aile adaptative =
NASA Astrophysics Data System (ADS)
Michaud, Francois
Les preoccupations economiques et environnementales constituent des enjeux majeurs pour le developpement de nouvelles technologies en aeronautique. C'est dans cette optique qu'est ne le projet MDO-505 intitule Morphing Architectures and Related Technologies for Wing Efficiency Improvement. L'objectif de ce projet vise a concevoir une aile adaptative active servant a ameliorer sa laminarite et ainsi reduire la consommation de carburant et les emissions de l'avion. Les travaux de recherche realises ont permis de concevoir et optimiser une peau en composite adaptative permettant d'assurer l'amelioration de la laminarite tout en conservant son integrite structurale. D'abord, une methode d'optimisation en trois etapes fut developpee avec pour objectif de minimiser la masse de la peau en composite en assurant qu'elle s'adapte par un controle actif de la surface deformable aux profils aerodynamiques desires. Le processus d'optimisation incluait egalement des contraintes de resistance, de stabilite et de rigidite de la peau en composite. Suite a l'optimisation, la peau optimisee fut simplifiee afin de faciliter la fabrication et de respecter les regles de conception de Bombardier Aeronautique. Ce processus d'optimisation a permis de concevoir une peau en composite dont les deviations ou erreurs des formes obtenues etaient grandement reduites afin de repondre au mieux aux profils aerodynamiques optimises. Les analyses aerodynamiques realisees a partir de ces formes ont predit de bonnes ameliorations de la laminarite. Par la suite, une serie de validations analytiques fut realisee afin de valider l'integrite structurale de la peau en composite suivant les methodes generalement utilisees par Bombardier Aeronautique. D'abord, une analyse comparative par elements finis a permis de valider une rigidite equivalente de l'aile adaptative a la section d'aile d'origine. Le modele par elements finis fut par la suite mis en boucle avec des feuilles de calcul afin de valider la stabilite et la resistance de la peau en composite pour les cas de chargement aerodynamique reels. En dernier lieu, une analyse de joints boulonnes fut realisee en utilisant un outil interne nomme LJ 85 BJSFM GO.v9 developpe par Bombardier Aeronautique. Ces analyses ont permis de valider numeriquement l'integrite structurale de la peau de composite pour des chargements et des admissibles de materiaux aeronautiques typiques.
Denkinger, Michael D; Franke, Sebastian; Rapp, Kilian; Weinmayr, Gudrun; Duran-Tauleria, Enric; Nikolaus, Thorsten; Peter, Richard
2010-07-27
A large number of studies have demonstrated a positive effect of increased physical activity (PA) on various health outcomes. In all large geriatric studies, however, PA has only been assessed by interview-based instruments which are all subject to substantial bias. This may represent one reason why associations of PA with geriatric syndromes such as falls show controversial results. The general aim of the Active-Ulm study was to determine the association of accelerometer-based physical activity with different health-related parameters, and to study the influence of this standardized objective measure of physical activity on health- and disability-related parameters in a longitudinal setting. We have set up an observational cohort study in 1500 community dwelling older persons (65 to 90 years) stratified by age and sex. Addresses have been obtained from the local residents registration offices. The study is carried out jointly with the IMCA--Respiratory Health Survey in the Elderly implemented in the context of the European project IMCA II. The study has a cross-sectional part (1) which focuses on PA and disability and two longitudinal parts (2) and (3). The primary information for part (2) is a prospective 1 year falls calendar including assessment of medication change. Part (3) will be performed about 36 months following baseline. Primary variables of interest include disability, PA, falls and cognitive function. Baseline recruitment has started in March 2009 and will be finished in April 2010.All participants are visited three times within one week, either at home or in the study center. Assessments included interviews on quality of life, diagnosed diseases, common risk factors as well as novel cognitive tests and established tests of physical functioning. PA is measured using an accelerometer-based sensor device, carried continuously over a one week period and accompanied by a prospective activity diary. The assessment of PA using a high standard accelerometer-based device is feasible in a large population-based study. The results obtained from cross-sectional and longitudinal analyses will shed light on important associations between PA and various outcomes and may provide information for specific interventions in older people.
NASA Astrophysics Data System (ADS)
Lavergne, Catherine
Geological formations of the Montreal area are mostly made of limestones. The usual approach for design is based on rock mass classification systems considering the rock mass as an equivalent continuous and isotropic material. However, for shallow excavations, stability is generally controlled by geological structures, that in Montreal, are bedding plans that give to the rock mass a strong strain and stress anisotropy. Objects of the research are to realize a numerical modeling that considers sedimentary rocks anisotropy and to determine the influence of the design parameters on displacements, stresses and failure around metro unsupported underground excavations. Geotechnical data used for this study comes from a metro extension project and has been made available to the author. The excavation geometries analyzed are the tunnel, the station and a garage consisting of three (3) parallel tunnels for rock covered between 4 and 16 m. The numerical modeling has been done with FLAC software that represents continuous environment, and ubiquitous joint behavior model to simulate strength anisotropy of sedimentary rock masses. The model considers gravity constraints for an anisotropic material and pore pressures. In total, eleven (11) design parameters have been analyzed. Results show that unconfined compressive strength of intact rock, fault zones and pore pressures in soils have an important influence on the stability of the numerical model. The geometry of excavation, the thickness of rock covered, the RQD, Poisson's ratio and the horizontal tectonic stresses have a moderate influence. Finally, ubiquitous joint parameters, pore pressures in rock mass, width of the pillars of the garage and the damage linked to the excavation method have a low impact. FLAC results have been compared with those of UDEC, a software that uses the distinct element method. Similar conclusions were obtained on displacements, stress state and failure modes. However, UDEC model give slightly less conservative results than FLAC. This study stands up by his local character and the large amount of geotechnical data available used to determine parameters of the numerical model. The results led to recommendations for laboratory tests that can be applied to characterize more specifically anisotropy of sedimentary rocks.
NASA Astrophysics Data System (ADS)
Xing, Jacques
Dielectric barrier discharge (DBD) plasma actuator is a proposed device for active for control in order to improve the performances of aircraft and turbomachines. Essentially, these actuators are made of two electrodes separated by a layer of dielectric material and convert electricity directly into flow. Because of the high costs associated with experiences in realistic operating conditions, there is a need to develop a robust numerical model that can predict the plasma body force and the effects of various parameters on it. Indeed, this plasma body force can be affected by atmospheric conditions (temperature, pressure, and humidity), velocity of the neutral flow, applied voltage (amplitude, frequency, and waveform), and by the actuator geometry. In that respect, the purpose of this thesis is to implement a plasma model for DBD actuator that has the potential to consider the effects of these various parameters. In DBD actuator modelling, two types of approach are commonly proposed, low-order modelling (or phenomenological) and high-order modelling (or scientific). However a critical analysis, presented in this thesis, showed that phenomenological models are not robust enough to predict the plasma body force without artificial calibration for each specific case. Moreover, there are based on erroneous assumptions. Hence, the selected approach to model the plasma body force is a scientific drift-diffusion model with four chemical species (electrons, positive ions, negative ions, and neutrals). This model was chosen because it gives consistent numerical results comparatively with experimental data. Moreover, this model has great potential to include the effect of temperature, pressure, and humidity on the plasma body force and requires only a reasonable computational time. This model was independently implemented in C++ programming language and validated with several test cases. This model was later used to simulate the effect of the plasma body force on the laminar-turbulent transition on airfoil in order to validate the performance of this model in practical CFD simulation. Numerical results show that this model gives a better prediction of the effect of the plasma on the fluid flow for a practical case in aerospace than a phenomenological model.
Modelisations et inversions tri-dimensionnelles en prospections gravimetrique et electrique
NASA Astrophysics Data System (ADS)
Boulanger, Olivier
The aim of this thesis is the application of gravity and resistivity methods for mining prospecting. The objectives of the present study are: (1) to build a fast gravity inversion method to interpret surface data; (2) to develop a tool for modelling the electrical potential acquired at surface and in boreholes when the resistivity distribution is heterogeneous; and (3) to define and implement a stochastic inversion scheme allowing the estimation of the subsurface resistivity from electrical data. The first technique concerns the elaboration of a three dimensional (3D) inversion program allowing the interpretation of gravity data using a selection of constraints such as the minimum distance, the flatness, the smoothness and the compactness. These constraints are integrated in a Lagrangian formulation. A multi-grid technique is also implemented to resolve separately large and short gravity wavelengths. The subsurface in the survey area is divided into juxtaposed rectangular prismatic blocks. The problem is solved by calculating the model parameters, i.e. the densities of each block. Weights are given to each block depending on depth, a priori information on density, and density range allowed for the region under investigation. The present code is tested on synthetic data. Advantages and behaviour of each method are compared in the 3D reconstruction. Recovery of geometry (depth, size) and density distribution of the original model is dependent on the set of constraints used. The best combination of constraints experimented for multiple bodies seems to be flatness and minimum volume for multiple bodies. The inversion method is tested on real gravity data. The second tool developed in this thesis is a three-dimensional electrical resistivity modelling code to interpret surface and subsurface data. Based on the integral equation, it calculates the charge density caused by conductivity gradients at each interface of the mesh allowing an exact estimation of the potential. Modelling generates a huge matrix made of Green's functions which is stored by using the method of pyramidal compression. The third method consists to interpret electrical potential measurements from a non-linear geostatistical approach including new constraints. This method estimates an analytical covariance model for the resistivity parameters from the potential data. (Abstract shortened by UMI.)
NASA Astrophysics Data System (ADS)
Abdellaoui, Amr
This research project presents a complete modelling process of the effects of GIC on Hydro-Quebec power system network for system planning studies. The advantage of the presented method is that it enables planning engineers to simulate the effects of geomagnetic disturbances on the Hydro-Quebec System under different conditions and contingencies within reasonable calculation time frame. This modelling method of GIC in electric power systems has been applied to the Hydro-Quebec System. An equivalent HQ DC model has been achieved. A numerical calculation method of DC sources from a non-uniform geoelectric field has been developed and implemented on HQ DC model. Harmonics and increased reactive power losses of saturated transformers have been defined as a function of GIC through a binary search algorithm using a chosen HQ magnetization curve. The evolution in time of each transformer saturation according to its effective GIC has been evaluated using analytical formulas. The reactive power losses of saturated transformers have been modeled in PSS/E[1] HQ network as constant reactive current loads assigned to the corresponding transformer buses. Finally, time domain simulations have been performed with PSS/E taking into account transformer saturation times. This has been achieved by integrating HQ DC model results and analytical calculations results of transformer saturation times into an EMTP load model. An interface has been used to link EMTP load model to HQ PSS/E network. Different aspects of GIC effects on the Hydro-Quebec system have been studied, including the influence of uniform and non-uniform geoelectric fields, the comparison of reactive power losses of the 735kV HQ system with those of Montreal network, the risks to voltage levels and the importance of reactive power dynamic reserve. This dissertation presents a new GIC modelling approach for power systems for planning and operations purposes. This methodology could be further enhanced, particularly, the aspect regarding the transformer saturation times. Hence more research remains to be pursued in this area.
Modelisation 0D/1D des emissions de particules de suie dans les turbines a gaz aeronautiques
NASA Astrophysics Data System (ADS)
Bisson, Jeremie
Because of more stringent regulations of aircraft particle emissions as well as strong uncertainties about their formation and their effects on the atmosphere, a better understanding of particle microphysical mechanisms and their interactions with the engine components is required. This thesis focuses on the development of a 0D/1D combustion model with soot production in an aeronautical gas turbine. A major objective of this study is to assess the quality of soot particle emission predictions for different flight configurations. The model should eventually allow performing parametric studies on current or future engines with a minimal computation time. The model represents the combustor as well as turbines and nozzle with a chemical reactor network (CRN) that is coupled with a detailed combustion chemistry for kerosene (Jet A-1) and a soot particle dynamics model using the method of moments. The CRN was applied to the CFM56-2C1 engine during flight configurations of the LTO cycle (Landing-Take-Off) as in the APEX-1 study on aircraft particle emissions. The model was mainly validated on gas turbine thermodynamic data and pollutant concentrations (H2O, COX, NOx, SOX) which were measured in the same study. Once the first validation completed, the model was subsequently used for the computation of mass and number-based emissions indices of the soot particulate population and average diameter. Overall, the model is representative of the thermodynamic conditions and succeeds in predicting the emissions of major pollutants, particularly at high power. Concerning soot particulate emissions, the model's ability to predict simultaneously the emission indices as well as mean diameter has been partially validated. Indeed, the mass emission indices have remained higher than experimental results particularly at high power. These differences on particulate emission index may be the result of uncertainties on thermodynamic parameters of the CRN and mass air flow distribution in the combustion chamber. The analysis of the number-based emission index profile along the CRN also highlights the need to review the nucleation model that has been used and to consider in the future the implementation of a particle aggregation mechanism.
NASA Astrophysics Data System (ADS)
Sylla, Daouda
Defined as a process that reduces the potential of soil production or the usefulness of natural resources, soil degradation is a major environmental problem which affects over 41 % of the land and, over 80 % of people affected by this phenomenon live in developing countries. The general objective of the present project is the characterisation of different types of land use and land cover and the detection of their spatio-temporal changes from radar data (ERS-1, RADARSAT-1 and ENVISAT) for a spatio-temporal modeling of environmental vulnerability to soil degradation in semi-arid area. Due to the high sensitivity of the radar signal to the observing conditions of the sensor and the target, a partition of the radar images with respect to their angular configurations (23° and [33°-35°-47°]) and to environmental conditions (wet and dry) was first performed. A good characterisation and a good temporal evolution of the four types of land use and land cover of interest are obtained with different levels of contrast depending on the incidence angles and environmental conditions. In addition to pixel-based approach used for change detection (images differences, Principal component analysis), a monitoring of land cover from an object-oriented approach which focused on two types of land cover is developed. The method allows a detailed mapping of bare soil occurrences as a function of environmental conditions. Finally, using different sources of information, a modeling of the environmental vulnerability to soil degradation is performed in the South-west of Niger from the probabilistic fusion rule of Dempster-Shafer. The resulting decision maps are statistically acceptable at 93 % and 91 % with Kappa values of 86 % and 84 %, for respectively dry and wet conditions. Besides, they are used to produce a global map of the environmental vulnerability to soil degradation in this semi-arid area. Key-words: Environmental vulnerability to soil degradation; data fusion; radar images; land use changes; semi-arid environment; South-west of Niger.
Modeling microbial processes in porous media
NASA Astrophysics Data System (ADS)
Murphy, Ellyn M.; Ginn, Timothy R.
The incorporation of microbial processes into reactive transport models has generally proceeded along two separate lines of investigation: (1) transport of bacteria as inert colloids in porous media, and (2) the biodegradation of dissolved contaminants by a stationary phase of bacteria. Research over the last decade has indicated that these processes are closely linked. This linkage may occur when a change in metabolic activity alters the attachment/detachment rates of bacteria to surfaces, either promoting or retarding bacterial transport in a groundwater-contaminant plume. Changes in metabolic activity, in turn, are controlled by the time of exposure of the microbes to electron acceptors/donor and other components affecting activity. Similarly, metabolic activity can affect the reversibility of attachment, depending on the residence time of active microbes. Thus, improvements in quantitative analysis of active subsurface biota necessitate direct linkages between substrate availability, metabolic activity, growth, and attachment/detachment rates. This linkage requires both a detailed understanding of the biological processes and robust quantitative representations of these processes that can be tested experimentally. This paper presents an overview of current approaches used to represent physicochemical and biological processes in porous media, along with new conceptual approaches that link metabolic activity with partitioning of the microorganism between the aqueous and solid phases. Résumé L'introduction des processus microbiologiques dans des modèles de transport réactif a généralement suivi deux voies différentes de recherches: (1) le transport de bactéries sous forme de colloïdes inertes en milieu poreux, et (2) la biodégradation de polluants dissous par une phase stationnaire de bactéries. Les recherches conduites au cours des dix dernières années indiquent que ces processus sont intimement liés. Cette liaison peut intervenir lorsqu'un changement dans l'activité métabolique modifie les taux de fixation/libération de bactéries des surfaces, soit en facilitant, soit en retardant le transport bactérien dans le panache de polluant de l'eau souterraine. Des changements de l'activité métabolique peuvent en retour être contrôlés par le temps d'exposition des microbes à des donneurs ou à des accepteurs d'électrons et à d'autres composés affectant cette activité. De façon similaire, l'activité métabolique peut affecter la réversibilité de la fixation, en fonction du temps de séjour des microbes actifs. Ainsi, les améliorations de l'analyse quantitative des organismes souterrains nécessitent d'établir des liens directs entre les possibilités du substrat, l'activité métabolique, la croissance et les taux de fixation/libération. Cette liaison nécessite à la fois une compréhension détaillée des processus biologiques et des représentations quantitatives robustes de ces processus qui puissent être testées expérimentalement. Cet article présente une revue des approches courantes utilisées pour représenter les processus physio-chimiques et biologiques en milieu poreux, en même temps que de nouvelles approches conceptuelles qui associent l'activité métabolique à la répartition des micro-organismes entre les phases aqueuse et solide. Resumen La incorporación de los procesos microbianos en los modelos de transporte reactivos ha procedido tradicionalmente a lo largo de dos líneas de investigación independientes: (1) el transporte de bacterias como coloides inertes en el medio poroso, y (2) la biodegradación de los contaminantes disueltos por una fase estacionaria de bacterias. En los últimos años se ha comprobado que estos dos procesos están muy interrelacionados. En concreto, un cambio en la actividad metabólica puede alterar la relación de adsorción/desorción de las bacterias, favoreciendo o retardando el transporte bacteriano en un penacho de contaminación. A su vez, los cambios en la actividad metabólica están controlados, entre otros factores, por el tiempo de exposición de los microbios a los receptores/donantes de electrones. Además, la actividad metabólica puede afectar la reversibilidad de la adsorción, en función del tiempo de residencia de los microbios activos. Así, el análisis cuantitativo de la actividad subsuperficial biótica necesita de un estudio detallado de las conexiones entre disponibilidad del substrato, actividad metabólica, crecimiento y relación de adsorción/desorción, lo que requiere tanto un conocimiento de los procesos biológicos, como una representación cuantitativa robusta de dichos procesos, comprobable experimentalmente. Este artículo presenta una revisión de los métodos actuales para representar los procesos fisioquímicos y biológicos en el medio poroso, además de nuevas metodologías para relacionar la actividad metabólica con el fraccionamiento de los microorganismos entre las fases sólida y acuosa.
NASA Astrophysics Data System (ADS)
Chafik, T.; Ouassini, A.; Verykios, X. E.
1998-07-01
The interaction of NO with Rh supported on W+6 doped TiO2 has been investigated by coupling transient diffuse reflectance Fourier transform Infrared spectroscopy and mass spectrometry. The experiments were carried out in dynamic conditions (under reactant flow and at temperature reaction) at atmospheric pressure. By comparing the results obtained with undoped Rh/TiO2 and Rh/TiO2(W6+) catalysts, the analytical approach used permitted to emphasis the effect of carrier doping, with respect to the elementary steps and surface intermediates involved in NO interaction process. It was found that W6+-doping of TiO2 promotes significantly the formation of Rh-NO- species and enhances the thermal stability of Rh-NO+ on Rh/TiO2 (W6+) surfaces. This leads to a drastic increase in the selectivity of NO decomposition reaction towards N2 formation, whereas the N2O yield decreases significantly. L'intéraction de NO sur un catalyseur à base de rhodium supporté sur TiO2 dopé par le tungstène W6+ a été étudiée en régime transitoire par couplage de la spectroscopie Infrarouge Diffuse à Transformée de Fourier (DRIFT) et la spectrométrie de masse. Ces études ont été effectuées dans des conditions dynamiques (sous flux de réactifs gazeux et à la température de la réaction) à la pression atmosphérique. La comparaison des études menées avec des catalyseurs non dopé (Rh/TiO2) et dopé (Rh/TiO2(W6+)) a permis de mettre en évidence l'influence du dopage du support catalytique sur la nature des intermédiaires superficiels et les étapes élémentaires intervenant dans le processus d'interaction de NO avec ces solides. Il a été montré que le dopage de TiO2 par W6+ accroît la formation des espèces Rh-NO- et la stabilité thermique des espèces Rh-NO+ sur Rh/TiO2(W6+). Ceci est à l'origine de l'augmentation de la sélectivité de la conversion de NO en N2 suite à la diminution considérable de la quantité N2O formée.
Reticulation des fibres lignocellulosiques
NASA Astrophysics Data System (ADS)
Landrevy, Christel
Pour faire face à la crise économique la conception de papier à valeur ajoutée est développée par les industries papetières. Le but de se projet est l'amélioration des techniques actuelles de réticulation des fibres lignocellulosiques de la pâte à papier visant à produire un papier plus résistant. En effet, lors des réactions de réticulation traditionnelles, de nombreuses liaisons intra-fibres se forment ce qui affecte négativement l'amélioration anticipée des propriétés physiques du papier ou du matériau produit. Pour éviter la formation de ces liaisons intra-fibres, un greffage sur les fibres de groupements ne pouvant pas réagir entre eux est nécessaire. La réticulation des fibres par une réaction de « click chemistry » appelée cycloaddition de Huisgen entre un azide et un alcyne vrai, catalysée par du cuivre (CuAAC) a été l'une des solutions trouvée pour remédier à ce problème. De plus, une adaptation de cette réaction en milieux aqueux pourrait favoriser son utilisation en milieu industriel. L'étude que nous désirons entreprendre lors de ce projet vise à optimiser la réaction de CuAAC et les réactions intermédiaires (propargylation, tosylation et azidation) sur la pâte kraft, en milieu aqueux. Pour cela, les réactions ont été adaptées en milieu aqueux sur la cellulose microcristalline afin de vérifier sa faisabilité, puis transférée à la pâte kraft et l'influence de différents paramètres comme le temps de réaction ou la quantité de réactifs utilisée a été étudiée. Dans un second temps, une étude des différentes propriétés conférées au papier par les réactions a été réalisée à partir d'une série de tests papetiers optiques et physiques. Mots Clés Click chemistry, Huisgen, CuAAC, propargylation, tosylation, azidation, cellulose, pâte kraft, milieu aqueux, papier.
NASA Astrophysics Data System (ADS)
Paradis, Pierre-Luc
The global energy consumption is still increasing year after year even if different initiatives are set up to decrease fossil fuel dependency. In Canada 80% of the energy is used for space heating and domestic hot water heating in residential sector. This heat could be provided by solar thermal technologies despite few difficulties originating from the cold climate. The aim of this project is to design a solar evacuated tube thermal collector using air as the working fluid. Firstly, needs and specifications of the product are established in a clear way. Then, three concepts of collector are presented. The first one relies on the standard evacuated tube. The second one uses a new technology of tubes; both sides are open. The third one uses heat pipe to extract the heat from the tubes. Based on the needs and specification as criteria, the concept involving tubes with both sides open has been selected as the best idea. In order to simulate the performances of the collector, a model of the heat exchanges in an evacuated tube was developed in 4 steps. The first step is a model in steady state intended to calculate the stagnation temperature of the tube for a fixed solar radiation, outside temperature and wind speed. As a second step, the model is generalised to transient condition in order to validate it with an experimental setup. A root mean square error of 2% is then calculated. The two remainder steps are intended to calculate the temperature of airflow leaving the tube. In the same way, a first model in steady state is developed and then generalised to the transient mode. Then, the validation with an experimental setup gave a difference of 0.2% for the root mean square error. Finally, a preindustrial prototype intended to work in open loop for preheating of fresh air is presented. During the project, explosion of the both sides open evacuated tube in overheating condition blocked the construction of a real prototype for the test. Different path for further work are also identified. One of these is in relation with CFD simulation of the uniformity of the airflow inside of the collector. Another one is the analysis of the design with a design of experiment plan.
NASA Astrophysics Data System (ADS)
Mathevet, T.; Joel, G.; Gottardi, F.; Nemoz, B.
2017-12-01
The aim of this communication is to present analyses of climate variability and change on snow water equivalent (SWE) observations, reconstructions (1900-2016) and scenarii (2020-2100) of a hundred of snow courses dissiminated within the french Alps. This issue became particularly important since a decade, in regions where snow variability had a large impact on water resources availability, poor snow conditions in ski resorts and artificial snow production. As a water resources manager in french mountainuous regions, EDF (french hydropower company) has developed and managed a hydrometeorological network since 1950. A recent data rescue research allowed to digitize long term SWE manual measurments of a hundred of snow courses within the french Alps. EDF have been operating an automatic SWE sensors network, complementary to the snow course network. Based on numerous SWE observations time-series and snow accumulation and melt model (Garavaglia et al., 2017), continuous daily historical SWE time-series have been reconstructed within the 1950-2016 period. These reconstructions have been extented to 1900 using 20 CR reanalyses (ANATEM method, Kuentz et al., 2015) and up to 2100 using GIEC Climate Change scenarii. Considering various mountainous areas within the french Alps, this communication focuses on : (1) long term (1900-2016) analyses of variability and trend of total precipitation, air temperature, snow water equivalent, snow line altitude, snow season length , (2) long term variability of hydrological regime of snow dominated watersheds and (3) future trends (2020 -2100) using GIEC Climate Change scenarii. Comparing historical period (1950-1984) to recent period (1984-2016), quantitative results within a region in the north Alps (Maurienne) shows an increase of air temperature by 1.2 °C, an increase of snow line height by 200m, a reduction of SWE by 200 mm/year and a reduction of snow season length by 15 days. These analyses will be extended from north to south of the Alps, on a region spanning 200 km. Caracterisation of the increase of snow line height and SWE reduction are particularly important at a local and watershed scale. This long term change of snow dynamics within moutainuous regions both impacts snow resorts and artificial snow production developments and multi-purposes dam reservoirs managments.
NASA Astrophysics Data System (ADS)
Aboutajeddine, Ahmed
Les modeles micromecaniques de transition d'echelles qui permettent de determiner les proprietes effectives des materiaux heterogenes a partir de la microstructure sont consideres dans ce travail. L'objectif est la prise en compte de la presence d'une interphase entre la matrice et le renforcement dans les modeles micromecaniques classiques, de meme que la reconsideration des approximations de base de ces modeles, afin de traiter les materiaux multiphasiques. Un nouveau modele micromecanique est alors propose pour tenir compte de la presence d'une interphase elastique mince lors de la determination des proprietes effectives. Ce modele a ete construit grace a l'apport de l'equation integrale, des operateurs interfaciaux de Hill et de la methode de Mori-Tanaka. Les expressions obtenues pour les modules globaux et les champs dans l'enrobage sont de nature analytique. L'approximation de base de ce modele est amelioree par la suite dans un nouveau modele qui s'interesse aux inclusions enrobees avec un enrobage mince ou epais. La resolution utilisee s'appuie sur une double homogeneisation realisee au niveau de l'inclusion enrobee et du materiau. Cette nouvelle demarche, permettra d'apprehender completement les implications des approximations de la modelisation. Les resultats obtenus sont exploites par la suite dans la solution de l'assemblage de Hashin. Ainsi, plusieurs modeles micromecaniques classiques d'origines differentes se voient unifier et rattacher, dans ce travail, a la representation geometrique de Hashin. En plus de pouvoir apprecier completement la pertinence de l'approximation de chaque modele dans cette vision unique, l'extension correcte de ces modeles aux materiaux multiphasiques est rendue possible. Plusieurs modeles analytiques et explicites sont alors proposee suivant des solutions de differents ordres de l'assemblage de Hashin. L'un des modeles explicite apparait comme une correction directe du modele de Mori-Tanaka, dans les cas ou celui ci echoue a donner de bons resultats. Finalement, ce modele de Mori-Tanaka corrige est utilise avec les operateurs de Hill pour construire un modele de transition d'echelle pour les materiaux ayant une interphase elastoplastique. La loi de comportement effective trouvee est de nature incrementale et elle est conjuguee a la relation de la plasticite de l'interphase. Des simulations d'essais mecaniques pour plusieurs proprietes de l'interphase plastique a permis de dresser des profils de l'enrobage octroyant un meilleur comportement au materiau.
EDITORIAL: Micro-pixellated LEDs for science and instrumentation
NASA Astrophysics Data System (ADS)
Dawson, Martin D.; Neil, Mark A. A.
2008-05-01
This Cluster Issue of Journal of Physics D: Applied Physics highlights micro-pixellated gallium nitride light-emitting diodes or `micro-LEDs', an emerging technology offering considerable attractions for a broad range of scientific and instrumentation applications. It showcases the results of a Research Councils UK (RCUK) Basic Technology Research programme (http://bt-onethousand.photonics.ac.uk), running from 2004-2008, which has drawn together a multi-disciplinary and multi-institutional research partnership to develop these devices and explore their potential. Images of LEDs Examples of GaN micro-pixel LEDs in operation. Images supplied courtesy of the Guest Editors. The partnership, of physicists, engineers and chemists drawn from the University of Strathclyde, Heriot-Watt University, the University of Sheffield and Imperial College London, has sought to move beyond the established mass-market uses of gallium nitride LEDs in illumination and lighting. Instead, it focuses on specialised solid-state micro-projection devices the size of a match-head, containing up to several thousand individually-addressable micro-pixel elements emitting light in the ultraviolet or visible regions of the spectrum. Such sources are pattern-programmable under computer control and can project into materials fixed or high-frame rate optical images or spatially-controllable patterns of nanosecond excitation pulses. These materials can be as diverse as biological cells and tissues, biopolymers, photoresists and organic semiconductors, leading to new developments in optical microscopy, bio-sensing and chemical sensing, mask-free lithography and direct writing, and organic electronics. Particular areas of interest are multi-modal microscopy, integrated forms of organic semiconductor lasers, lab-on-a-chip, GaN/Si optoelectronics and hybrid inorganic/organic semiconductor structures. This Cluster Issue contains four invited papers and ten contributed papers. The invited papers serve to set the work in an international context. Fan et al, who introduced the original forms of these devices in 2000, give a historical perspective as well as illustrating some recent trends in their work. Xu et al, another of the main international groups in this area, concentrate on biological imaging and detection applications. One of the most exciting prospects for this technology is its compatibility with CMOS, and Charbon reviews recent results with single-photon detection arrays which facilitate integrated optical lab-on-chip devices in conjunction with the micro-LEDs. Belton et al, from within the project partnership, overview the hybrid inorganic/organic semiconductor structures achieved by combining gallium nitride optoelectronics with organic semiconductor materials. The contributed papers cover many other aspects related to the devices themselves, their integration with polymers and CMOS, and also cover several associated developments such as UV-emitting nitride materials, new polymers, and the broader use of LEDs in microscopy. Images of LED fibres Emission patterns generated at the end of a multicore image fibre 600 μm in diameter, from article 094013 by H Xu et al of Brown University. We would like to thank Paul French for suggesting this special issue, the staff of IOP Publishing for their help and support, Dr Caroline Vance for her administration of the programme, and EPSRC (particularly Dr Lindsey Weston) for organizational and financial support.
Une nouvelle théorie de la cinétique des réactions radical-radical
NASA Astrophysics Data System (ADS)
Green, N. J. B.; Rickerby, A. G.
1999-01-01
Radical recombination reactions are of central importance in radiation chemistry. In general such reactions are slower than diffusion-controlled because of the radical spins. The rate constant is corrected by a multiplicative spin statistical factor, which represents the probability that the radicals encounter one another in a reactive state. However, this method does not account for the possibility that the reactivity of a pair may recover following an unreactive encounter, for example by spin relaxation or by a coherent evolution of the spin function. In this paper we show how the spin statistical factor can be corrected for the recovery of reactivity. The new theory covers a large range of mechanisms for the recovery of reactivity, and gives simple analytical results. Both steady-state and transient solutions are presented and the former are tested against experiment for the reaction between the hydrated electron and oxygen, and for the magnetic field effect on the rate constant of an elementary reaction. Les réactions de recombinaison entre deux radicaux libres ont une grande importance en chimie sous rayonnement. En général, du fait du spin des radicaux, de telles réactions sont moins rapides que celles qui sont contrôlées par la diffusion. Les constantes de vitesse sont corrigées par un facteur multiplicatif, le facteur statistique de spin, qui représente la probabilité pour que les radicaux se rencontrent, l'un avec l'autre, dans un état réactif. Cependant, cette méthode ne tient pas compte de la possibilité pour que la même paire se rencontre plusieurs fois en raison de rencontres non-réactives. Ensuite la réactivité de cette paire peut se rétablir par exemple par relaxation de spins, ou par évolution cohérente d'une superposition des états de spin. Dans cet article on démontre comment on peut corriger le facteur statistique de spin pour le rétablissement de la réactivité. La nouvelle théorie couvre un large domaine de mécanismes de rétablissement de la réactivité ; elle donne des résultats analytiques simples pour le facteur statistique modifié. On présente des solutions dans l'état stationnaire et des solutions transitoires; les premières sont testées pour la réaction entre l'électron hydraté et l'oxygène et également pour l'effet d'un champ magnétique sur la constante de vitesse d'une réaction élémentaire.
Les Noyaux Actifs de Galaxies en interférométrie optique à très longue base - Projet 'OHANA
NASA Astrophysics Data System (ADS)
Woillez, Julien
2003-12-01
Recent progress in sensitivity achieved by the new generation of optical long baseline interfero- meters (VLTI & Keck) allows new fields of astronomy to benefit from very high angular resolution observations at near infrared wavelength. Extragalactic astronomy, through active galactic nuclei observations, is one of those fields. As a preparation to coming active nuclei interferometric observations, I present a toolbox designed for the in- terpretation of the first data, knowing that their amount will stay small at the beginning whereas the observed objects are known to be complex. I will also present one of the two first observations of active nuclei : the Seyfert 2 nucleus NGC 1068 observed with MIDI, the newly commissioned 10 μm instrument of the VLTI. With the Seyfert 1 nucleus NGC 4151 by Keck interferometer, those two observations confirm the forecasted need of higher angular resolution to study the inner parts of the molecular torus found in active galactic nuclei. The broad line region will be one of the next components to be observed with an interferometer, provided that the extra angular resolution becomes available. In order to study the 3D structure of the region, I present an innovative tomographic technique based on reverberation mapping and interferometry : interferometric reverberation. The 'OHANA project (Optical Hawaiian Array for Nanoradion Astronomy) is the topic of the second part of this work as it will provide the extra angular resolution. The project also aims at demonstrating the use of single mode fibers in J, H and K bands to coherently combine adaptive corrected telescopes, already present on top of Mauna Kea, into a very sensitive and resolving interferometer. I present the preparatory phase of the project (Phase I) where the coupling between adaptive optics and single mode fibers is studied on CFHT, Gemini and Keck telescopes. Those tests allow me to confirm the sensitivity of the final instrument as well as to propose a diagnostic on the different adaptive optics systems. Then I present the 'OHANA beam combiner that is about to be used in the demonstration phase (phase II). This combiner is based on a new concept where the two interferometric outputs of a single mode coaxial combination are combined in a multiaxial scheme in order to obtain a single output, with only one coupler. The interferogram is then temporally coded and the photometry spatially. I present the ongoing developments of pahse II, namely a gaussian beam delay line and 2×300 m long single mode fibers, in J, H and K bands, used for the coherent transport.
NASA Astrophysics Data System (ADS)
Souchard, J.-P.; Nepveu, F.
1998-05-01
We present a method for the quantitative ESR analysis of the antioxidant properties of drugs using the acetaldhehyde/xanthine oxidase (AC/XOD) superoxide generating system and 5,5-dimethyl-l-pyrroline-N-oxide (DMPO) as spin trap. In stoichiometric conditions (AC/XOD, 60 mM/0.018 U), the resulting paramagnetic DMPO adduct disappeared with superoxide dismutase and remained when catalase or DMSO were used. That adduct was dependent only on superoxide and resulted from the trapping of a carboxyl radical by DMPO (aN = 15.2 G, aH = 18.9 G). Similar results were obtained using 4-pyridyl-l-oxide-N-t-butyl nitrone (POBN) as spin trap. The ESR signal of the DMPO-CO2- adduct was very stable and allowed quantitative analysis of the antioxidative activity of redox molecules from an IC{50} value representing the concentration causing 50% inhibition of its intensity. Among the tested compounds, manganese(II), complexes were the most effective, 25 times as active as ascorbic acid or (+)catechin and 500-fold more antioxidative than Trolox^R. Nous présentons une méthode d'analyse quantitative de l'activité antioxydante de composés d'intérêt pharmaceutique basée sur le système acétaldéhyde/xanthine oxydase (AC/XOD), l'utilisation de la RPE et du piégeage de spin avec le 5,5-diméthyl-l-pyrroline-N-oxyde (DMPO). Dans les conditions stoechiométriques {AC/XOD, 60 mM/0,018 U/ml}, l'adduit radicalaire résultant de ce système disparaît en présence de superoxyde dismutase et persiste en présence de catalase ou de DMSO. Cet adduit ne dépend que de la présence de l'anion superoxyde et provient du piégeage d'un radical carboxyle CO2- sur le DMPO (aN = 15.2 G, aH = 18.9 G). Des résultats similaires ont été obtenus avec le piégeur de spin 4-pyridyl-l-oxyde-N-t-butyl nitrone (POBN). Le signal RPE de l'adduit DMPO-CO2- est très stable et permet la quantification de l'activité antioxydante de pharmacophores redox par la détermination de la CI{50}, concentration qui diminue de 50 % son intensité. Parmi les composés testés, les complexes du manganèse sont les plus antioxydants, 25 fois plus actifs que la vitamine C ou la catéchine(+), 500 fois plus antioxydants que le Trolox^R.
Ramilitiana, Benja; Ranivoharisoa, Eliane Mikkelsen; Dodo, Mihary; Razafimandimby, Evanirina; Randriamarotia, Willy Franck
2016-01-01
L'insuffisance rénale chronique est un problème de santé publique au niveau mondial. Dans les pays développés, cette affection survient essentiellement chez les sujets âgés, mais en Afrique, elle s'installe plutôt chez les sujets jeunes actifs. C'est une affection de lourde prise en charge dans un pays à faible revenu à cause de ses coûts. Notre but est de décrire les aspects épidémiologiques des nouveaux cas d'insuffisance rénale chronique à Madagascar. Il s'agit d'une étude rétrospective descriptive de 3 ans partant du 1er janvier 2007 au 31 décembre 2009 dans le service de Médecine Interne et Néphrologie du Centre Hospitalier Universitaire d'Antananarivo portant sur 239 patients diagnostiqués comme une insuffisance rénale chronique. L'incidence était de 8,51% parmi les patients hospitalisés dans le service. L’âge moyen des patients était de 45,4 ans avec des extrêmes de 16 et 82 ans et un sex-ratio de 1,46. Le principal antécédent était l'hypertension artérielle (59,8%). L'insuffisance rénale chronique était terminale dans 75,31% des cas (n=180). Les causes de l'insuffisance rénale chronique étaient dominées par la glomérulonéphrite chronique (40,1%), la néphroangiosclérose (35,5%). L'hémodialyse était réalisée chez 3 patients (1,26%), aucun patient n’était pas programmé pour une greffe rénale. Le taux de mortalité dans le service était de 28,87%. L'insuffisance rénale chronique est une maladie de pronostic redoutable et handicapante qui affecte les sujets jeunes à Madagascar. Son traitement reste inaccessible dans la majorité des patients. L'accent doit donc être mis principalement sur la prévention notamment une bonne prise en charge précoce des infections, de l'hypertension artérielle et du diabète pour réduire ses impacts négatifs sur la santé communautaire et publique. Le projet de la transplantation rénale - donneur vivant, traitement efficace et moins coûteux par rapport à l'hémodialyse pourrait être aussi une bonne solution chez ces sujets jeunes malgaches. PMID:27279966
Magnetophotoluminescence de dyades d'azote uniques dans le gallium arsenide
NASA Astrophysics Data System (ADS)
Ouellet-Plamondon, Clauderic
On the goal to achieve an efficient quantum light source, there are many possibilities ranging from lasers to quantum dots. One of those candiate is to use a single nitrogen dyad in GaAs. This nanostructure is composed of two nitrogen atoms in nearest neigbors subsituting for two arsenic atoms. Since both of those atoms have the same valence, the combined effet of the electronegativity and the small size of the nitrogen atoms form a potential well which attracts an electron. A hole is then bound to the electron via coulomb interaction, creating a bound exciton at the dyad from which the luminescence can be studied. In this work, we present an experimental study of the fine structure of the emission from single nitrogen dyads. The photoluminescence measurements are realised using a high resolution confocal microscope and under a magnetic field of up to 7 T. The spatial resolution combined with the sample's surface density of nitrogen dyads allows studying the properties of individual dyads. Since the C2v symmetry of the dyad lifts the degeneracy of the excitonic levels without magnetic field, four or five transitions are observed, depending on the orientation of the dyad with respect to the observation axis. Using a Hamiltonian taking into account the exchange interaction, the local crystal field and the Zeeman effect, the energie of excitonic states as well as their transition probabilites are modelised. This model reproduce the linear polarization of the emmited photons and is used to determine a range of acceptable value for the g-factor of the bound electron as well as the isotropic and anisotropic factors of the interaction of the weakly-bound hole with the magnetic field. Furthermore, from the diamagnetic shift, the radius of the wavefunction of the electron is evalutated at 16.2 °A, confirming that it is strongly localized to the dyad. Of all the dyads studied, a certain number of them had an emission strickingly different from the ones usually observed. In a first case, the environment perturbed the excitonic states making only the two states at higher energy observable. In a second case, an additional depolarised transition is observed at lower energy. We show that this transition is associated to a charged exciton, indicating for the first time that these nanotructures can bind multiple charges like their larger epitaxial and colloidal counterpart. This work gives a better comprehension of excitons bound to a nitrogen dyad and opens the way to many applications.
Evaluation d'un ecosysteme pastoral sahelien: Apport de la geomatique (Oursi, Burkina Faso)
NASA Astrophysics Data System (ADS)
Kabore, Seraphine Sawadogo
L'objectif principal de cette recherche est la mise au point d'une architecture d'integration de donnees socio-bio-geographiques et de donnees satellitales dans un Systeme d'Information Geographique (SIG) en vue d'une aide a la prise de decisions dans un environnement semi-aride au nord du Burkina Faso. Elle repond a la question fondamentale de l'interpretation des effets des facteurs climatiques et socioeconomiques sur le milieu pastoral. La recherche s'est appuyee sur plusieurs hypotheses de travail: possibilite d'utilisation de modele de simulation, d'approche multicritere et de donnees de teledetection dans un cadre de systeme d'information geographique. L'evolution spatiotemporelle des parametres de productivite du milieu a ete evaluee par approche dynamique selon le modele de Wu et al. (1996) qui modelise les interactions entre le climat, le milieu physique, le vegetal et l'animal pour mieux quantifier la biomasse primaire. A ce modele, quatre parametres ont ete integres par approche floue et multicritere afin de prendre en compte la dimension socioeconomique de la productivite pastorale (apport majeur de la recherche): la sante, l'education, l'agriculture et l'eau. La teledetection (imagerie SPOT) a permis de definir la production primaire a partir de laquelle les simulations ont ete realisees sur 10 annees. Les resultats obtenus montrent une bonne correlation entre biomasse primaire in situ et celle calculee pour les deux modeles, avec toutefois une meilleure efficacite du modele modifie (4 fois plus) dans les zones de forte productivite ou l'on note un taux de surexploitation agricole eleve. A cause de la variabilite spatiale de la production primaire in situ, les erreurs des resultats de simulation (8 a 11%) sont acceptables et montrent la pertinence de l'approche grace a l'utilisation des SIG pour la spatialisation et l'integration des differents parametres des modeles. Les types de production secondaire preconises (production de lait pendant 7 mois ou de viande pendant 6 mois) sont bases sur les besoins de l'UBT et le disponible fourrager qui est de qualite mediocre en saison seche. Dans les deux cas de figure, un deficit fourrager est observe. Deux types de transhumance sont proposes afin d'assurer une production durable selon deux scenarios: exploitation rationnelle des unites pastorales selon un plan de rotation annuelle et mise en defens a moyen terme des zones degradees pour une regeneration. Les zones potentielles pour la transhumance ont ete determinees selon les limites acceptables des criteres d'exploitation durable des milieux saheliens definis par Kessler (1994) soit 0,2 UBT.ha-1.
NASA Astrophysics Data System (ADS)
Ecoffet, Robert; Maget, Vincent; Rolland, Guy; Lorfevre, Eric; Bourdarie, Sébastien; Boscher, Daniel
2016-07-01
We have developed a series of instruments for energetic particle measurements, associated with component test beds "MEX". The aim of this program is to check and improve space radiation engineering models and techniques. The first series of instruments, "ICARE" has flown on the MIR space station (SPICA mission), the ISS (SPICA-S mission) and the SAC-C low Earth polar orbiting satellite (ICARE mission 2001-2011) in cooperation with the Argentinian space agency CONAE. A second series of instruments "ICARE-NG" was and is flown as: - CARMEN-1 mission on CONAE's SAC-D, 650 km, 98°, 2011-2015, along with three "SODAD" space micro-debris detectors - CARMEN-2 mission on the JASON-2 satellite (CNES, JPL, EUMETSAT, NOAA), 1336 km, 66°, 2008-now, along with JAXA's LPT energetic particle detector - CARMEN-3 mission on the JASON-3 satellite in the same orbit as JASON-2, launched 17 January 2016, along with a plasma detector "AMBRE", and JAXA's LPT again. The ICARE-NG is spectrometer composed of a set of three fully depleted silicon solid state detectors used in single and coincident mode. The on-board measurements consist in accumulating energy loss spectra in the detectors over a programmable accumulation period. The spectra are generated through signal amplitude classification using 8 bit ADCs and resulting in 128/256 channels histograms. The discriminators reference levels, amplifier gain and accumulation time for the spectra are programmable to provide for possible on-board tuning optimization. Ground level calibrations have been made at ONERA-DESP using radioactive source emitting alpha particles in order to determine the exact correspondence between channel number and particle energy. To obtain the response functions to particles, a detailed sectoring analysis of the satellite associated with GEANT-4/MCNP-X calculations has been performed to characterize the geometrical factors of the each detector for p+ as well as for e- with different energies. The component test bed "MEX" is equipped with two different types of active dosimeters, P-MOS silicon dosimeters and OSL (optically stimulated luminescence). Those dosimeters provide independent measurements of ionizing and displacement damage doses and consolidate spectrometers' observations. The data sets obtained cover more than one solar cycle. Dynamics of the radiation belts, effects of solar particle events, coronal mass ejections and coronal holes were observed. Spectrometer measurements and dosimeter readings were used to evaluate current engineering models, and helped in developing improved ones, along with "space weather" radiation belt indices. The presentation will provide a comprehensive review of detector features and mission results.
Evaluation de la qualite osseuse par les ondes guidees ultrasonores =
NASA Astrophysics Data System (ADS)
Abid, Alexandre
La caracterisation des proprietes mecaniques de l'os cortical est un domaine d'interet pour la recherche orthopedique. En effet, cette caracterisation peut apporter des informations primordiales pour determiner le risque de fracture, la presence de microfractures ou encore depister l'osteoporose. Les deux principales techniques actuelles de caracterisation de ces proprietes sont le Dual-energy X-ray Absorptiometry (DXA) et le Quantitative Computed Tomogaphy (QCT). Ces techniques ne sont pas optimales et presentent certaines limites, ainsi l'efficacite du DXA est questionnee dans le milieu orthopedique tandis que le QCT necessite des niveaux de radiations problematiques pour en faire un outil de depistage. Les ondes guidees ultrasonores sont utilisees depuis de nombreuses annees pour detecter les fissures, la geometrie et les proprietes mecaniques de cylindres, tuyaux et autres structures dans des milieux industriels. De plus, leur utilisation est plus abordable que celle du DXA et n'engendrent pas de radiation ce qui les rendent prometteuses pour detecter les proprietes mecaniques des os. Depuis moins de dix ans, de nombreux laboratoires de recherche tentent de transposer ces techniques au monde medical, en propageant les ondes guidees ultrasonores dans les os. Le travail presente ici a pour but de demontrer le potentiel des ondes guidees ultrasonores pour determiner l'evolution des proprietes mecaniques de l'os cortical. Il commence par une introduction generale sur les ondes guidees ultrasonores et une revue de la litterature des differentes techniques relatives a l'utilisation des ondes guidees ultrasonores sur les os. L'article redige lors de ma maitrise est ensuite presente. L'objectif de cet article est d'exciter et de detecter certains modes des ondes guides presentant une sensibilite a la deterioration des proprietes mecaniques de l'os cortical. Ce travail est realise en modelisant par elements finis la propagation de ces ondes dans deux modeles osseux cylindriques. Ces deux modeles sont composes d'une couche peripherique d'os cortical et remplis soit d'os trabeculaire soit de moelle osseuse. Ces deux modeles permettent d'obtenir deux geometries, chacune propice a la propagation circonferentielle ou longitudinale des ondes guidees. Les resultats, ou trois differents modes ont pu etre identifies, sont compares avec des donnees experimentales obtenues avec des fantomes osseux et theoriques. La sensibilite de chaque mode pour les differents parametres des proprietes mecaniques est alors etudiee ce qui permet de conclure sur le potentiel de chaque mode quant a la prediction de risque de fracture ou de presence de microfractures.
NASA Astrophysics Data System (ADS)
Francoeur, Dany
Cette these de doctorat s'inscrit dans le cadre de projets CRIAQ (Consortium de recherche et d'innovation en aerospatiale du Quebec) orientes vers le developpement d'approches embarquees pour la detection de defauts dans des structures aeronautiques. L'originalite de cette these repose sur le developpement et la validation d'une nouvelle methode de detection, quantification et localisation d'une entaille dans une structure de joint a recouvrement par la propagation d'ondes vibratoires. La premiere partie expose l'etat des connaissances sur l'identification d'un defaut dans le contexte du Structural Health Monitoring (SHM), ainsi que la modelisation de joint a recouvrements. Le chapitre 3 developpe le modele de propagation d'onde d'un joint a recouvrement endommage par une entaille pour une onde de flexion dans la plage des moyennes frequences (10-50 kHz). A cette fin, un modele de transmission de ligne (TLM) est realise pour representer un joint unidimensionnel (1D). Ce modele 1D est ensuite adapte a un joint bi-dimensionnel (2D) en faisant l'hypothese d'un front d'onde plan incident et perpendiculaire au joint. Une methode d'identification parametrique est ensuite developpee pour permettre a la fois la calibration du modele du joint a recouvrement sain, la detection puis la caracterisation de l'entaille situee sur le joint. Cette methode est couplee a un algorithme qui permet une recherche exhaustive de tout l'espace parametrique. Cette technique permet d'extraire une zone d'incertitude reliee aux parametres du modele optimal. Une etude de sensibilite est egalement realisee sur l'identification. Plusieurs resultats de mesure sur des joints a recouvrements 1D et 2D sont realisees permettant ainsi l'etude de la repetabilite des resultats et la variabilite de differents cas d'endommagement. Les resultats de cette etude demontrent d'abord que la methode de detection proposee est tres efficace et permet de suivre la progression d'endommagement. De tres bons resultats de quantification et de localisation d'entailles ont ete obtenus dans les divers joints testes (1D et 2D). Il est prevu que l'utilisation d'ondes de Lamb permettraient d'etendre la plage de validite de la methode pour de plus petits dommages. Ces travaux visent d'abord la surveillance in-situ des structures de joint a recouvrements, mais d'autres types de defauts. (comme les disbond) et. de structures complexes sont egalement envisageables. Mots cles : joint a recouvrement, surveillance in situ, localisation et caracterisation de dommages
NASA Astrophysics Data System (ADS)
Elkamel, K.; Elidrissi, M.; Yacoubi, A.; Nadiri, A.; Abouarnadasse, S.
1998-11-01
Hydrodenitrogenation of pyridine has been realised, under atmospheric pressure, in the presence of oxynitride catalysts of molybdenum, nickel and their solid solutions as well as on mixed catalysts MoNi, MoPNi, AlNi and AlPNi. In all cases, the main reaction products are n-pentane and N-pentylpiperidine, at any conversion. Kinetic results suggest that the conversion of pyridine, on nickel oxynitride, proceeds through successive steps with hydrogenation as rate-limiting. Molybdenum oxynitride and Mo-Ni-N solid solutions tested in the temperature range 500 circC-450 circC, showed a good structural and catalytic stability, but a low catalytic activity. On the other hand, nickel oxynitride catalyst yielded higher activity at much lower temperatures (190 circC-250 circC). X-rays analysis indicates that the used catalyst was entirely reduced to metallic nickel, which is the active phase. Under the same experimental conditions, mixed catalysts are relatively less active but more selective than nickel oxynitride into n-pentane formation. La réaction d'hydrodésazotation de la pyridine a été réalisée, sous pression atmosphérique, en présence de catalyseurs oxynitrures de molybdène, de nickel et leurs solutions solides ainsi que sur les catalyseurs mixtes MoNi, MoPNi, AlNi et AlPNi. Dans tous les cas, les principaux produits de réaction observés sont le n-pentane et la N- pentylpipéridine, quel que soit le taux de conversion. Les résultats cinétiques obtenus en régime intégral, en présence de l'oxynitrure de nickel, suggèrent un schéma réactionnel successif où l'hydrogénation de la pyridine serait l'étape limitante. L'oxynitrure de molybdène et les solutions solides Mo-Ni-N, testés à des températures supérieures ou égales à 500 circC, ont montré une bonne stabilité catalytique et structurale mais une faible activité catalytique. En revanche, l'oxynitrure de nickel présente une activité catalytique plus importante à des températures de réaction beaucoup plus basses (190 circC 250 circC). Cependant, l'analyse aux rayons X du catalyseur usagé, indique qu'il est entièrement réduit à l'état métallique; ceci laisse supposer que le nickel métallique est la phase active. Dans les mêmes conditions expérimentales, les catalyseurs mixtes sont relativement moins actifs que l'oxynitrure de nickel, mais plus sélectifs vis-à-vis de la formation du n-pentane.
NASA Astrophysics Data System (ADS)
Popov, Andrei Vladimir
The aerospace industry is motivated to reduce fuel consumption in large transport aircraft, mainly through drag reduction. The main objective of the global project is the development of an active control system of wing airfoil geometry during flight in order to allow drag reduction. Drag reduction on a wing can be achieved through modifications in the laminar-to-turbulent flow transition point position, which should be situated as close as possible to the trailing edge of the airfoil wing. As the transition point plays a crucial part in this project, this work focuses on the control of its position on the airfoil, as an effect of controlling the deflection of a morphing wing airfoil equipped with a flexible skin. The paper presents the modeling and the experimental testing of the aerodynamic performance of a morphing wing, starting from the design concept phase all the way to the bench and wind tunnel tests phases. Several wind tunnel test runs for various Mach numbers and angles of attack were performed in the 6 x 9 ft2 wind tunnel at the Institute for Aerospace Research at the National Research Council Canada. A rectangular finite aspect ratio wing, having a morphing airfoil cross-section due to a flexible skin installed on the upper surface of the wing, was instrumented with Kulite transducers. The Mach number varied from 0.2 to 0.3 and the angle of attack between -1° and 2°. Unsteady pressure signals were recorded and analyzed and a thorough comparison, in terms of mean pressure coefficients and their standard deviations, was performed against theoretical predictions, using the XFoil computational fluid dynamics code. The acquired pressure data was analyzed through custom-made software created with Matlab/Simulink in order to detect the noise magnitude in the surface airflow and to localize the transition point position on the wing upper surface. This signal processing was necessary in order to detect the Tollmien-Schlichting waves responsible for triggering the transition from laminar to turbulent flow. The flexible skin needed to morph its shape through two actuation points in order to obtain an optimized airfoil shape for several flow conditions in the wind tunnel. The two shape memory alloy actuators, having a non-linear behavior, drove the displacement of the two control points of the flexible skin towards the optimized airfoil shape. This thesis presents the methodology used and the results obtained from designing the controller of the two shape memory actuators as well as the methods used for morphing wing control in the wind tunnel tests designed to prove the concept and validity of the system in real time. Keywords: wing, morphing, laminar, turbulent, transition, control, wind tunnel
Impact of upper-level fine-scale structures in the deepening of a Mediterranean "hurricane"
NASA Astrophysics Data System (ADS)
Claud, C.; Chaboureau, J.-P.; Argence, S.; Lambert, D.; Richard, E.; Gauthier, N.; Funatsu, B.; Arbogast, P.; Maynard, K.; Hauchecorne, A.
2009-09-01
Subsynoptic scale vortices that have been likened to tropical cyclones or polar lows (Medicanes) are occasionally observed over the Mediterranean Sea. They are usually associated with strong winds and heavy precipitation and thus can have highly destructive effects in densely-populated regions. Only a precise forecasting of such systems could mitigate these effects. In this study, the role of an approaching upper-level Potential Vorticity (PV) maximum close to the vicinity of a Medicane which appeared early in the morning of 26 September 2006 over the Ionian Sea and moved north-eastwards affecting Apulia, is evaluated using the anelastic non-hydrostatic model Méso-NH initialized with forecasts from ARPEGE, the French operational forecasting system. To this end, in a first step, high resolution PV fields have been determined using a semi-Lagrangian advection model, MIMOSA (Modelisation Isentrope du transport Meso-echelle de l'Ozone Stratospherique par Advection). MIMOSA PV fields at and around 320 K for 25 September 2006 at 1800 UTC clearly show a stratospheric intrusion under the form of a filament crossing UK, western Europe and the Tyrrhenian Sea. MIMOSA fields show a number of details that do not appear in ECMWF analysed PV fields, and in particular an area of high PV values just west of Italy over the Tyrrhenian Sea. While the overall structure of the filament is well described by ARPEGE analysis, the high PV values in the Tyrrhenian Sea close to the coast of Italy are missing. In order to take into account these differences, ARPEGE upper-level fields have been corrected after a PV inversion guided by MIMOSA fields. Modifications of PV in ARPEGE lead to a deepest system and improved rain fields (both in location and intensity), when evaluated against ground-based observations. In a second step, Meso-NH simulations coupled with corrected and non-corrected ARPEGE forecasts have been performed. The impact of the corrections on the intensity, the trajectory and the associated precipitation has been evaluated using in situ and satellite observations, in the latter case through a model to satellite approach. When the PV corrections are applied, the track of the simulated Medicane is closer to the observed one. The deepening of the low is also better reproduced, even if it is over-estimated (982 hPa instead of 986 hPa), as well as the precipitation. This study confirms the role of fine-scale upper level structures for short range forecasting of sub-synoptic vortices over the Mediterranean Sea. It also suggests that ensemble prediction models should include perturbations related to upper-level coherent structures.
Study of dehydroxylated-rehydroxylated smectites by SAXS
NASA Astrophysics Data System (ADS)
Muller, F.; Pons, C.-H.; Papin, A.
2002-07-01
Montmorillonite and beidellite are dioctahedral 2:1 phyllosilicates. The weakness of the bonding between layers allows the intercalation of water molecules (disposed in layers) in the interlayer space. The samples studied are constituted of cv layers (cv for vacant octahedral sites in cis positions). They have been dehydroxylated. This is accompanied by the migration of the octahedral cations from former trans-octahedra to empty cis-sites therefore the layers become tv (vacant site in trans position). To characterize the stacking of the layers, SAXS (Small Angle X-ray Scattering) analyses have been investigated in natural (N) and after a dehydroxylation-rehydroxylation cycle (R) states. The SAXS pattern modelisation for Na -exchanged samples in the N state shows that the layers stack in particles with well defined interlayer distances d_{001}, corresponding to 0 water layer, 1 water layers and 2 water layers. The dehydroxylation-rehydroxylation cycle increases the proportion of interlayer distances with zero water layer and the disorder in the stacking. The decreasing of the disorder parameter with the proportion of tetrahedral charge in the N and R sample shows that the distribution of the water layers depend on the localization of the deficit of charge. Les montmorillonites et les smectites sont des phyllosilicates 2:1 dioctaédriques. Les liaisons entre feuillets sont suffisamment faibles pour permettre l'insertion, dans l'espace interfoliaire, de molécules d'eau qui se disposent en couches. Les échantillons étudiés ont des feuillets cis-vacants (le site octaédrique inoccupé est en une des deux positions “cis”). Ils ont été deshydroxylés. Ceci s'accompagne d'une migration cationique, à l'intérieur des couches octaédriques, des sites trans vers les sites cis et le feuillet devient trans-vacant. Des expériences de Diffusion X aux Petits Angles (DPA) ont permis de caractériser l'empilement des feuillets. La modélisation des diagrammes de DPAX met en évidence, pour les échantillons sodique non traités, des empilements de feuillets formant des particules avec des distances interlamellaires à 0, 1 et 2 couches d'eau. Après le cycle de déshydroxylation-réhydroxylation, la proportion de feuillets avec une distance interlamellaire correspondante à zéro couche d'eau et le désordre dans l'empi lement des feuillets augmentent. La décroissance du paramètre de désordre avec la proportion de charges tetraédriques montre que l'organi sation des couches d'eau dépend de la localisation du déficit de charge.
Bentata, Yassamine; Delfosse, Catherine
2017-01-01
La motivation des étudiants est une condition essentielle à l’apprentissage et la perception qu’a l’étudiant de la valeur qu’il accorde à une activité est l’une des trois composantes majeures de cette motivation. Comment amener les étudiants à percevoir l’utilité et l’intérêt de leurs cours universitaires tout en suscitant leur motivation ? L’objectif de l’étude est de déterminer la perception de la valeur attribuée par les étudiants au cours fondamental de physiologie et d’évaluer l’impact de l’intégration de quelques méthodes d’apprentissage actif aux exposés magistraux sur la motivation des étudiants du premier cycle des études médicales dans une jeune faculté. Cette étude prospective, a concerné les étudiants de deuxième année de médecine (PCEM2). Nous avons procédé initialement à une appréciation de la perception de la motivation des étudiants pour les cours universitaires via un premier questionnaire, après nous avons intégré deux activités pédagogiques: l’étude de cas et la réalisation de carte conceptuelle aux exposés magistraux du module de physiologie et à la fin nous avons évalué via un deuxième questionnaire l’impact de ces deux activités sur la motivation des étudiants. 131 et 109 étudiants ont rempli et rendu respectivement le 1er et le 2ème questionnaire parmi les 249 étudiants inscrits en PCEM2. La motivation de nos étudiants à l’égard de leurs cours universitaires était globalement très favorable, même si la motivation pour le cours de physiologie (70,8%) était légèrement moins importante que pour l’ensemble des cours (80%). Nos étudiants avaient apprécié les deux activités proposées et seulement 13% (pour l’étude de cas) et 16,8% (pour la carte) ne se montraient pas satisfaits. 40,9% des étudiants avaient réalisé une carte conceptuelle et la qualité de ces productions, jugée sur l’identification des concepts et des liens inter concepts, était globalement satisfaisante pour une première expérience. Influencée par de multiples facteurs internes et externes, la motivation des étudiants reste une grande problématique en milieu universitaire. Dans ce contexte, une planification rigoureuse d’activités pédagogiques diversifiées et actives est l’une des principales portes offertes à l’enseignant pouvant susciter cette motivation. PMID:29721145
Nanoparticules d'or: De l'imagerie par resonance magnetique a la radiosensibilisation
NASA Astrophysics Data System (ADS)
Hebert, Etienne M.
Cette thèse approfondit l'étude de nanoparticules d'or de 5 nm de diamètre recouvertes de diamideéthanethioldiethylènetriaminepentacétate de gadolinium (DTDTPA:Gd), un agent de contraste pour l'imagerie par résonance magnétique (IRM). En guise de ciblage passif, la taille des nanoparticules a été contrôlée afin d'utiliser le réseau de néovaisseaux poreux et perméable des tumeurs. De plus les tumeurs ont un drainage lymphatique déficient qui permet aux nanoparticules de demeurer plus longtemps dans le milieu interstitiel de la tumeur. Les expériences ont été effectuées sur des souris Balb/c femelles portant des tumeurs MC7-L1. La concentration de nanoparticules a pu être mesurée à l'IRM in vivo. La concentration maximale se retrouvait à la fin de l'infusion de 10 min. La concentration s'élevait à 0.3 mM dans la tumeur et de 0.12 mM dans le muscle environnant. Les nanoparticules étaient éliminées avec une demi-vie de 22 min pour les tumeurs et de 20 min pour le muscle environnant. Les nanoparticules ont été fonctionnalisées avec le peptide Tat afin de leur conférer des propriétés de ciblage actif La rétention de ces nanoparticules a ainsi été augmentée de 1600 %, passant d'une demi-vie d'élimination de 22 min à 350 min. La survie des souris a été mesurée à l'aide de courbes Kaplan-Meier et d'un modèle mathématique évalue l'efficacité de traitements. Le modèle nous permet, à l'aide de la vitesse de croissance des tumeurs et de l'efficacité des traitements, de calculer la courbe de survie des spécimens. Un effet antagoniste a été observé au lieu de l'effet synergétique attendu entre une infusion de Au@DTDTPA:Gd et l'irradiation aux rayons X. L'absence d'effet synergétique a été attribuée à l'épaisseur du recouvrement de DTDTPA:Gd qui fait écran aux électrons produits par l'or. De plus, le moyen d'ancrage du recouvrement utilise des thiols qui peuvent s'avérer être des capteurs de radicaux. De plus, contrairement a ce qui était escompté, un effet chimiothérapeutique de ces nanoparticules a été observé in vitro et in vivo. Par contre, le mécanisme précis de cet effet est encore à être expliquer, mais on sait déjà que les nanoparticules d'or affectent les fonctions des macrophages ainsi que l'angiogenèse. MOTS-CLÉS : Radiosensibilisateur, Nanoparticules d'or, Agent de contraste pour l'IRM, Électrons de basses énergies, Kaplan-Meier, Effet chimiothérapeutique.
NASA Astrophysics Data System (ADS)
Chabot, Vincent
L'elaboration de nouveaux medicaments repose sur les etudes pharmacologiques, dont le role est d'identifier de nouveaux composes actifs ou de nouvelles cibles pharmacologiques agissant entre autres au niveau cellulaire. Recemment, la detection basee sur la resonance des plasmons de surface (SPR) a ete appliquee a l'etude de reponses cellulaires. Cette methode de detection, permettant d'observer des variations d'indice de refraction associes a de faibles changements de masse a la surface d'un metal, a l'avantage de permettre l'etude d'une population de cellules vivantes en temps reel, sans necessiter l'introduction d'agents de marquage. Pour effectuer la detection au niveau de cellules individuelles, on peut employer la microscopie SPR, qui consiste a localiser spatialement la detection par un systeme d'imagerie. Cependant, la detection basee sur la SPR est une mesure sans marquage et les signaux mesures sont attribues a une reponse moyennee des differentes sources cellulaires. Afin de mieux comprendre et identifier les composantes cellulaires generant le signal mesure en SPR, il est pertinent de combiner la microscopie SPR avec une modalite complementaire, soit l'imagerie de fluorescence. C'est dans cette problematique que s'insere ce projet de these, consistant a concevoir deux plates-formes distinctes de microscopie SPR et de fluorescence optimisees pour l'etude cellulaire, de sorte a evaluer les possibilites d'integration de ces deux modalites en un seul systeme. Des substrats adaptes pour chaque plate-forme ont ete concus et realises. Ces substrats employaient une couche d'argent passivee par l'ajout d'une mince couche d'or. La stabilite et la biocompatibilite des substrats ont ete validees pour l'etude cellulaire. Deux configurations permettant d'ameliorer la sensibilite en sondant les cellules plus profondement ont ete evaluees, soit l'emploi de plasmons de surface a longue portee et de guides d'onde a gaine metallique. La sensibilite accrue de ces configurations a aussi ete demontree pour un usage en biodetection cellulaire. Une plate-forme permettant de mesurer la spectroscopie SPR simultanement avec l'acquisition d'images de fluorescence a ete realisee. Cette plate-forme a ensuite ete validee par l'etude de reponses cellulaires suite a une stimulation pharmacologique. Puis, un systeme base sur la microscopie SPR a ete concu et caracterise. Son emploi pour l'etude de reponses au niveau de cellules individuelles a ete demontre. Finalement, les forces et faiblesses des substrats et des plates-formes realisees au cours de la these ont ete evaluees. Des possibilites d'amelioration sont mises de l'avant et l'integration des modalites de microscopie SPR et de fluorescence suite aux travaux de la these est discutee. Les realisations au cours de cette etude ont donc permis d'identifier les composantes cellulaires impliquees dans la generation du signal mesure en biodetection SPR. Mots-cles : Resonance des plasmons de surface, microscopie SPR, plasmons de surface a longue portee LRSPR, guide d'onde a gaine metallique MCWG, fluorescence exaltee par plasmons de surface SPEF, biodetection cellulaire, imagerie SPR.
Sasaki, Gordon H; Oberg, Kerby; Tucker, Barbara; Gaston, Margaret
2007-06-01
Cellulite of the upper lateral and posterior thighs and lower buttocks represents a common, physiological and unwanted condition whose etiologies and effective management are subjects of continued debate. The purpose of this controlled, double-blinded study is to evaluate the efficacy and safety of a novel phosphatidylcholine-based, cosmeceutical anti-cellulite gel combined with a light-emitting diode (LED) array at the wavelengths of red (660 nm) and near-infrared (950 nm), designed to counter the possible mechanisms that purportedly accentuate the presence of thigh cellulite. Nine healthy female volunteers with Grade II-III thigh cellulite were randomly treated twice daily with an active gel on one thigh and a placebo gel on the control thigh for 3 months. Twice weekly, each thigh was exposed for a 15-minute treatment with LED light for a total of 24 treatments. At 0, 6, and 12 weeks of the study the following clinical determinants were obtained: standardized digital photography, height and weight measurements, standardized thigh circumference tape measurements, pinch testing, body mass index (kg/m2), body fat analysis (Futrex-5500/XL near-infrared analyzer), and digital high-resolution ultrasound imaging of the dermal-adiposal border. In selected patients, full-thickness biopsies of the placebo and active-treated sites were obtained. At 18 months, repeat standardized digital photography, height and weight measurements, and body mass index measurements were obtained. At the end of 3 months, eight of nine thighs treated with the phosphatidylcholine-based, anti-cellulite gel and LED treatments were downgraded to a lower cellulite grade by clinical examination, digital photography, and pinch test assessment. Digital ultrasound at the dermal-adiposal interface demonstrated not only a statistically significant reduction of immediate hypodermal depth, but also less echo-like intrusions into the dermal layer. Three of six biopsies from thighs treated for 3 months with the active gel and LED treatments demonstrated less intrusion of subcutaneous fat into the papillary and reticular dermis. In nine placebo and LED-treated thighs and one of the actively treated thighs, minimal clinical changes were observed or measured by the clinical determinants throughout the 3-month study. At the month-18 evaluation period for the eight responsive thighs, five thighs reverted back to their original cellulite grading, while three thighs continued to maintain their improved status. Patients experienced minimal and transient side effects that included puritus, erythema and swelling. The results of this small but well-documented, randomized, double-blinded study affirms that eight of nine thighs with Grade II-III cellulite responded positively to a novel, combined 3-month treatment program of a phosphatidylcholine-based, anti-cellulite gel and LED exposure, as determined by the clinical determinants obtained. Patients experienced minimal and transient side effects. At the month-18 evaluation period (15 months after treatment), five responsive thighs reverted back to their original cellulite grading, indicating a need for maintenance treatment. Future studies are needed to verify these tentative positive observations.
NASA Astrophysics Data System (ADS)
Dolez, Patricia
Le travail de recherche effectue dans le cadre de ce projet de doctorat a permis la mise au point d'une methode de mesure des pertes ac destinee a l'etude des supraconducteurs a haute temperature critique. Pour le choix des principes de cette methode, nous nous sommes inspires de travaux anterieurs realises sur les supraconducteurs conventionnels, afin de proposer une alternative a la technique electrique, presentant lors du debut de cette these des problemes lies a la variation du resultat des mesures selon la position des contacts de tension sur la surface de l'echantillon, et de pouvoir mesurer les pertes ac dans des conditions simulant la realite des futures applications industrielles des rubans supraconducteurs: en particulier, cette methode utilise la technique calorimetrique, associee a une calibration simultanee et in situ. La validite de la methode a ete verifiee de maniere theorique et experimentale: d'une part, des mesures ont ete realisees sur des echantillons de Bi-2223 recouverts d'argent ou d'alliage d'argent-or et comparees avec les predictions theoriques donnees par Norris, nous indiquant la nature majoritairement hysteretique des pertes ac dans nos echantillons; d'autre part, une mesure electrique a ete realisee in situ dont les resultats correspondent parfaitement a ceux donnes par notre methode calorimetrique. Par ailleurs, nous avons compare la dependance en courant et en frequence des pertes ac d'un echantillon avant et apres qu'il ait ete endommage. Ces mesures semblent indiquer une relation entre la valeur du coefficient de la loi de puissance modelisant la dependance des pertes avec le courant, et les inhomogeneites longitudinales du courant critique induites par l'endommagement. De plus, la variation en frequence montre qu'au niveau des grosses fractures transverses creees par l'endommagement dans le coeur supraconducteur, le courant se partage localement de maniere a peu pres equivalente entre les quelques grains de matiere supraconductrice qui restent fixes a l'interface coeur-enveloppe, et le revetement en alliage d'argent. L'interet d'une methode calorimetrique par rapport a la technique electrique, plus rapide, plus sensible et maintenant fiable, reside dans la possibilite de realiser des mesures de pertes ac dans des environnements complexes, reproduisant la situation presente par exemple dans un cable de transport d'energie ou dans un transformateur. En particulier, la superposition d'un courant dc en plus du courant ac habituel nous a permis d'observer experimentalement, pour la premiere fois a notre connaissance, un comportement particulier des pertes ac en fonction de la valeur du courant dc decrit theoriquement par LeBlanc. Nous avons pu en deduire la presence d'un courant d'ecrantage Meissner de 16 A, ce qui nous permet de determiner les conditions dans lesquelles une reduction du niveau de pertes ac pourrait etre obtenue par application d'un courant dc, phenomene denomme "vallee de Clem".
NASA Astrophysics Data System (ADS)
Martinez, Nicolas
Actuellement le Canada et plus specialement le Quebec, comptent une multitude de sites isoles dont !'electrification est assuree essentiellement par des generatrices diesel a cause, principalement, de l'eloignement du reseau central de disuibution electrique. Bien que consideree comme une source fiable et continue, 1 'utilisation des generatrices diesel devient de plus en plus problematique d'un point de vue energetique, economique et environnemental. Dans le but d'y resoudre et de proposer une methode d'approvisionnement plus performante, mains onereuse et plus respectueuse de l'environnement, l'usage des energies renouvelables est devenu indispensable. Differents travaux ont alors demontre que le couplage de ces energies avec des generauices diesel, formant des systemes hybrides, semble etre une des meilleures solutions. Parmi elles, le systeme hybride eolien-diesel avec stockage par air comprime (SHEDAC) se presente comme une configuration optimale pour 1 'electrification des sites isoles. En effet, differentes etudes ont permis de mettre en avant l'efficacite du stockage par air comprime, par rapport a d'autres technologies de stockage, en complement d'un systeme hybride eolien-diesel. Plus precisement, ce systeme se compose de sous-systemes qui sont: des eoliennes, des generatrices diesel et une chaine de compression et de stockage d'air comprime qui est ensuite utilisee pour suralimenter les generatrices. Ce processus permet ainsi de reduire Ia consommation en carburant tout en agrandissant la part d'energie renouvelable dans Ia production electrique. A ce jour, divers travaux de recherche ont pennis de demontrer I' efficacite d 'un tel systeme et de presenter une variete de configurations possibles. A travers ce memoire, un logiciel de dimensionnement energetique y est elabore dans le but d'unifom1iser !'approche energetique de cette technologie. Cet outil se veut etre une innovation dans le domaine puisqu'il est actuellement impossible de dimensionner un SHEDAC avec les outils existants. Un etat de l'art specifique associe a une validation des resultats a ete realise dans le but de proposer un logiciel fiable et performant. Dans une logique visant !'implantation d'un SHEDAC sur un site isole du Nord-du-Quebec, le logiciel developpe a ete, ensuite, utilise pour realiser une etude energetique permettant d' en degager la solution optimale a mettre en place. Enfin, a l' aide des outils et des resultats obtenus precedemment, !'elaboration de nouvelles strategies d'operation est presentee dans le but de demontrer comment le systeme pourrait etre optimise afm de repondre a differentes contraintes techniques. Le contenu de ce memoire est presente sous forme de trois articles originaux, soumis a des joumaux scientifiques avec cornite de lecture, et d'un chapitre specifique presentant les nouvelles strategies d 'operation. Ils relatent des travaux decrits dans le paragraphe precedent et permettent d'en deduire un usage concluant et pertinent du SHEDAC dans un site isole nordique.
Le niobate de lithium a haute temperature pour les applications ultrasons =
NASA Astrophysics Data System (ADS)
De Castilla, Hector
L'objectif de ce travail de maitrise en sciences appliquees est de trouver puis etudier un materiau piezoelectrique qui est potentiellement utilisable dans les transducteurs ultrasons a haute temperature. En effet, ces derniers sont actuellement limites a des temperatures de fonctionnement en dessous de 300°C a cause de l'element piezoelectrique qui les compose. Palier a cette limitation permettrait des controles non destructifs par ultrasons a haute temperature. Avec de bonnes proprietes electromecaniques et une temperature de Curie elevee (1200°C), le niobate de lithium (LiNbO 3) est un bon candidat. Mais certaines etudes affirment que des processus chimiques tels que l'apparition de conductivite ionique ou l'emergence d'une nouvelle phase ne permettent pas son utilisation dans les transducteurs ultrasons au-dessus de 600°C. Cependant, d'autres etudes plus recentes ont montre qu'il pouvait generer des ultrasons jusqu'a 1000°C et qu'aucune conductivite n'etait visible. Une hypothese a donc emerge : une conductivite ionique est presente dans le niobate de lithium a haute temperature (>500°C) mais elle n'affecte que faiblement ses proprietes a hautes frequences (>100 kHz). Une caracterisation du niobate de lithium a haute temperature est donc necessaire afin de verifier cette hypothese. Pour cela, la methode par resonance a ete employee. Elle permet une caracterisation de la plupart des coefficients electromecaniques avec une simple spectroscopie d'impedance electrochimique et un modele reliant de facon explicite les proprietes au spectre d'impedance. Il s'agit de trouver les coefficients du modele permettant de superposer au mieux le modele avec les mesures experimentales. Un banc experimental a ete realise permettant de controler la temperature des echantillons et de mesurer leur impedance electrochimique. Malheureusement, les modeles actuellement utilises pour la methode par resonance sont imprecis en presence de couplages entre les modes de vibration. Cela implique de posseder plusieurs echantillons de differentes formes afin d'isoler chaque mode principal de vibration. De plus, ces modeles ne prennent pas bien en compte les harmoniques et modes en cisaillement. C'est pourquoi un nouveau modele analytique couvrant tout le spectre frequentiel a ete developpe afin de predire les resonances en cisaillement, les harmoniques et les couplages entre les modes. Neanmoins, certains modes de resonances et certains couplages ne sont toujours pas modelises. La caracterisation d'echantillons carres a pu etre menee jusqu'a 750°C. Les resultats confirment le caractere prometteur du niobate de lithium. Les coefficients piezoelectriques sont stables en fonction de la temperature et l'elasticite et la permittivite ont le comportement attendu. Un effet thermoelectrique ayant un effet similaire a de la conductivite ionique a ete observe ce qui ne permet pas de quantifier l'impact de ce dernier. Bien que des etudes complementaires soient necessaires, l'intensite des resonances a 750°C semble indiquer que le niobate de lithium peut etre utilise pour des applications ultrasons a hautes frequences (>100 kHz).
Modelisation de materiaux composites adaptatifs munis d'actionneurs en alliage a memoire de forme
NASA Astrophysics Data System (ADS)
Simoneau, Charles
Technological development of structures having the capabilities to adapt themselves to different operating conditions is increasing in many areas of research such as aerospace. In fact, numerous works are now oriented toward the design of adaptive aircraft wings where the goal is to enhance the aerodynamic properties of the wing. Following this approach, the work realised in the framework of this master thesis presents the steps leading to the creation of a numerical model that can be used to predict the behavior of an adaptive panel, and therefore, eventually of an adaptive aircraft wing. Foremost, the adaptive panel of this project has been designed from a carbon-epoxy composite, acting as host structure, where shape memory alloy (SMA) wires, acting as actuators, have been inserted in it. SMA actuators have also been embedded asymmetrically along the direction of the panel thickness in order to generate a bending moment when the SMA wires are activated. To achieve the modeling of such structure it has been firstly shown that a numerical model composed of only solid finite elements could be used to represent the panel. However, a second numerical model composed of shell, beam and link finite elements showed that identical results can be obtained with much less nodes (the first model was composed of more than 300 000 nodes compared with 1 000 nodes for the second). The combination of shell-beam-link elements has then been chosen. Secondly, a constitutive relation had to be used for modeling the particular behavior of SMA. For the present work, a uniaxial version of the Likhachev's model is used. Due to its fairly straightforward mathematical formulation, this material law is able to model the main functional properties of SMA including the two-way shape memory effect (TWSME) at zero stress obtained after a thermomechanical education treatment. The last step was to compare the results of the numerical simulations with those obtained with a prototype where 19 actuators were embedded in a composite panel of 425 mm x 425 mm. Various load cases were performed. However, during experimental tests, it has been found that the measured actuator temperature was systematically underestimated. Therefore, by comparing the radius of curvature (rho) of the panel as a function of the activation temperature (T) of the actuators, an offset (in temperature) between the curves numerically and experimentally obtained is observable. Aside from this technological difficulty, the experimental and numerical results are very similar and therefore, this numerical model can be used for predicting the behavior of an adaptive panel. In addition, one the main advantages of this numerical model resides in its versatility where it has been shown that a "warping" of the panel could be realized by controlling independently each actuator. Future works should now obviously focus on the temperature measurement while considering the improvement of the numerical model and the possibility to model an initially curved adaptive panel whose form could resemble an aircraft wing.
Samouda, Hanen; Ruiz-Castell, Maria; Bocquet, Valery; Kuemmerle, Andrea; Chioti, Anna; Dadoun, Frédéric; Kandala, Ngianga-Bakwin; Stranges, Saverio
2018-01-01
The analyses of geographic variations in the prevalence of major chronic conditions, such as overweight and obesity, are an important public health tool to identify "hot spots" and inform allocation of funding for policy and health promotion campaigns, yet rarely performed. Here we aimed at exploring, for the first time in Luxembourg, potential geographic patterns in overweight/obesity prevalence in the country, adjusted for several demographic, socioeconomic, behavioural and health status characteristics. Data came from 720 men and 764 women, 25-64 years old, who participated in the European Health Examination Survey in Luxembourg (2013-2015). To investigate the geographical variation, geo-additive semi-parametric mixed model and Bayesian modelisations based on Markov Chain Monte Carlo techniques for inference were performed. Large disparities in the prevalence of overweight and obesity were found between municipalities, with the highest rates of obesity found in 3 municipalities located in the South-West of the country. Bayesian approach also underlined a nonlinear effect of age on overweight and obesity in both genders (significant in men) and highlighted the following risk factors: 1. country of birth for overweight in men born in a non-European country (Posterior Odds Ratio (POR): 3.24 [1.61-8.69]) and women born in Portugal (POR: 2.44 [1.25-4.43]), 2. low educational level (secondary or below) for overweight (POR: 1.66 (1.06-2.72)] and obesity (POR:2.09 [1.05-3.65]) in men, 3. single marital status for obesity in women (POR: 2.20 [1.24-3.91]), 4.fair (men: POR: 3.19 [1.58-6.79], women: POR: 2.24 [1.33-3.73]) to very bad health perception (men: POR: 15.01 [2.16-98.09]) for obesity, 5. sleeping more than 6 hours for obesity in unemployed men (POR: 3.66 [2.02-8.03]). Protective factors highlighted were: 1. single marital status against overweight (POR: [0.60 (0.38-0.96)]) and obesity (POR: 0.39 [0.16-0.84]) in men, 2. the fact to be widowed against overweight in women (POR: [0.30 (0.07-0.86)], as well as a non European country of birth (POR: 0.49 [0.19-0.98]), tertiary level of education (POR: 0.34 [0.18-0.64]), moderate alcohol consumption (POR: 0.54 [0.36-0.90]) and aerobic physical activity practice (POR: 0.44 [0.27-0.77]) against obesity in women. A double burden of environmental exposure due to historic mining and industrial activities and past economic vulnaribility in the South-West of the country may have participated to the higher prevalence of obesity found in this region. Other demographic, socioeconomic, behavioural and health status covariates could have been involved as well.
Ecoulement et mise en structure de suspensions macroscopiques
NASA Astrophysics Data System (ADS)
Petit, L.
In this review, we report the various experimental studies performed on suspensions of solid particules in liquids, and concerning the rheological behaviour of such systems and the ordering of particules under the applied velocity fields. The number of materials which are flowing suspensions (reagents in chemical engineering, paints while spreading, blood flow, muds in oil reservoir) gave rise to a number of experimental studies, especially in the last twenty years. The results show a wide variety of behaviour, even for systems of intermediate concentration. In addition, even for identical systems, the results depend of the type of flow. Then, it is clear that, in addition of the standard parameters which are to be taken into account, it is necessary to consider the type of flow the suspension is submitted to. The flow influences the spatial distribution of the particules, leading to their ordering or migration. These ordering or motions influence the flow, and then, the rheological behaviour of the whole system. So, there is a feedback mechanism from the ordering to the flow, which explains the experimental observations. Nous reportons dans cette revue les différentes études expérimentales réalisées sur les suspensions de particules solides dans un liquide et qui concernent le comportement rhéologique de ces systèmes ainsi que les mouvements des particules sous l'effet des champs de vitesse imposés. Ces mouvements peuvent conduire soit à des mises en structure, ou encore à des migrations des particules. L'importance du nombre de matériaux qui se présentent sous forme de suspension et qui sont mis en écoulement (réactif en génie chimique, peintures lors de leur mise en place, écoulement sanguin, boues dans les forages pétroliers,...) a motivé un grand nombre de travaux expérimentaux plus fondamentaux sur le sujet, particulièrement dans les vingt dernières années. Les résultats correspondants montrent une très grande diversité des comportements même pour les systèmes moyennement concentrés. Bien plus, pour des systèmes identiques, les résultats dépendent du type d'écoulement imposé. Ceci montre clairement, qu'à côté des facteurs standards qui sont à prendre en compte pour caractériser le comportement de tels systèmes (concentration de la phase solide, taille des particules, interactions entre particules, effets de diffusion,...), il est nécessaire de tenir compte de la nature de l'écoulement auquel est soumise la suspension. Cet écoulement modifie la distribution spatiale des particules, soit directement, soit par l'intermédiaire de différents mécanismes tels que écoulements secondaires, diffusion. Ces effets se traduisent par une mise en ordre des particules, ou bien à des mouvements de migration. Les structures ou les mouvements ainsi créés agissent à leur tour sur les propriétés de l'écoulement, et de là, sur le comportement rhéologique de l'ensemble du système. Il existe ainsi un mécanisme de rétroaction de la structure sur l'écoulement qui permet d'expliquer les comportements observés expérimentalement.
Laboratory measurements of electrical resistivity versus water content on small soil cores
NASA Astrophysics Data System (ADS)
Robain, H.; Camerlynck, C.; Bellier, G.; Tabbagh, A.
2003-04-01
The assessment of soil water content variations more and more leans on geophysical methods that are non invasive and that allow a high spatial sampling. Among the different methods, DC electrical imaging is moving forward. DC Electrical resistivity shows indeed strong seasonal variations that principally depend on soil water content variations. Nevertheless, the widely used Archie's empirical law [1], that links resistivity with voids saturation and water conductivity is not well suited to soil materials with high clay content. Furthermore, the shrinking and swelling properties of soil materials have to be considered. Hence, it is relevant to develop new laboratory experiments in order to establish a relation between electrical resistivity and water content taking into account the rheological and granulometrical specificities of soil materials. The experimental device developed in IRD laboratory allows to monitor simultaneously (i) the water content, (ii) the electrical resistivity and (iii) the volume of a small cylindrical soil core (100cm3) put in a temperature controlled incubator (30°C). It provides both the shrinkage curve of the soil core (voids volume versus water content) and the electrical resistivity versus water content curve The modelisation of the shrinkage curve gives for each moisture state the water respectively contained in macro and micro voids [2], and then allows to propose a generalized Archie's like law as following : 1/Rs = 1/Fma.Rma + 1/Fmi.Rmi and Fi = Ai/(Vi^Mi.Si^Ni) with Rs : the soil resistivity. Fma and Fmi : the so called "formation factor" for macro and micro voids, respectively. Rma and Rmi : the resistivity of the water contained in macro and micro voids, respectively. Vi : the volume of macro and micro voids, respectively. Si : the saturation of macro and micro voids, respectively. Ai, Mi and Ni : adjustment coefficients. The variations of Rmi are calculated, assuming that Rma is a constant. Indeed, the rise of ionic concentration in water may be neglected during the sewage of macro voids as it corresponds to a small quantity of water for the studied samples. Soil solid components are generally electrical insulators, the conduction of electrical current only lies on two phenomenon occurring in water : (i) volume conduction controlled by the electrolyte concentration in water and the geometrical characteristics of macro voids network ; (ii) surface conduction controlled by the double diffuse layer that depends on the solid-liquid interactions, the specific surface of clay minerals and the geometry of particles contacts. For the water contained in macro voids the preeminent phenomenon seems to be volume conduction while for the water contained in micro voids, it seems to be surface conduction. This hypothesis satisfyingly explains the shape of the electrical resistivity versus water content curves obtained for three different oxisols with clayey, clayey-sandy and sandy-clayey texture. [1] Archie G.E. 1942. The electrical resistivity log as an aid in determining some reservoirs characteristics. Trans. AIME, 146, 54-67. [2] Braudeau E. et al. 1999. New device and method for soil shrinkage curve measurement and characterization. S.S.S.A.J., 63(3), 525-535.
NASA Astrophysics Data System (ADS)
Baland, Rose-Marie; Van Hoolst, Tim; Tobie, Gabriel; Dehant, Véronique
2015-04-01
Besides being the largest natural satellite known in the Solar System, Ganymede most likely also has the most differentiated internal structure of all satellites.Ganymede is thought to have an external water/ice layer subdivided into three sublayers: an outer ice shell, a global liquid water ocean, and a high pressure ice mantle. The presence of a water layer is supported by the possible detection of an induced magnetic field with the Galileo spacecraft. The metallic core is divided into a solid (inner core) and a liquid (outer core) part. Between the water/ice and the metallic layers, a rock mantle is expected. The JUpiter ICy moons Explorer (JUICE) mission led by ESA is planned to be launched in 2022. The spacecraft is expected to enter in orbit around Ganymede in september 2032. The Ganymede Tour will alternate elliptic and circular phases at different altitudes. The circular phases at altitudes of a few hundred kilometers are dedicated partly to the study of the internal structure such as the determination of the extent and composition of the ocean and of the surface ice shell. The payload of the spacecraft comprises the radio science package 3GM (Gravity and Geophysics of Jupiter and the Galilean Moons) that will be used to measure the Doppler effect on radio links between the orbiter and the Earth which will be affected by the gravity field of Ganymede. The gravity field of Ganymede is the sum of the static hydrostatic field (related to the secular Love number kf), of the periodically varying field due to tidal deformations (related to the tidal Love number k2 and the tidal dissipation factor Q), of the periodically varying field due to change in the rotation state (variations in the rotation rate and in the orientation of the rotation axis), and of the non-hydrostatic field that may be due to mass anomalies. The tidal and rotation parameters depend on the internal structure of the satellite (density, size, rheological properties of the different layers) in a non-trivial way. Our aim is to assess for which internal structure quantities of Ganymede information can be retrieved from Doppler effect measurements. The Doppler effect is modelled by the relative radial velocity between the orbiter and the terrestrial observer, considering the tides and the rotation state of Ganymede, together with the strong attraction exerted directly by Jupiter on the orbiter. The modelisation neglects some effects such as a possible atmospheric drag and a possible non-hydrostatic part of the gravity field. We aim to answer questions as 'Is it possible to separate the tidal and rotational signals?', 'What is the optimal orbital configuration?'. The inversion of the simulated noised data is done by the least square method. An interesting configuration has to maximise the effect of the tides and of the rotation on the Doppler signal, in order to maximise the constraints inferred on the internal stucture of Ganymede. It also has to correspond to a quite stable quasi-circular orbit as required for the circular phases of the Ganymede tour.
In-flight calibration/validation of the ENVISAT/MWR
NASA Astrophysics Data System (ADS)
Tran, N.; Obligis, E.; Eymard, L.
2003-04-01
Retrieval algorithms for wet tropospheric correction, integrated vapor and liquid water contents, atmospheric attenuations of backscattering coefficients in Ku and S band, have been developed using a database of geophysical parameters from global analyses from a meteorological model and corresponding simulated brightness temperatures and backscattering cross-sections by a radiative transfer model. Meteorological data correspond to 12 hours predictions from the European Center for Medium range Weather Forecasts (ECMWF) model. Relationships between satellite measurements and geophysical parameters are determined using a statistical method. The quality of the retrieval algorithms depends therefore on the representativity of the database, the accuracy of the radiative transfer model used for the simulations and finally on the quality of the inversion model. The database has been built using the latest version of the ECMWF forecast model, which has been operationally run since November 2000. The 60 levels in the model allow a complete description of the troposphere/stratosphere profiles and the horizontal resolution is now half of a degree. The radiative transfer model is the emissivity model developed at the Université Catholique de Louvain [Lemaire, 1998], coupled to an atmospheric model [Liebe et al, 1993] for gaseous absorption. For the inversion, we have replaced the classical log-linear regression with a neural networks inversion. For Envisat, the backscattering coefficient in Ku band is used in the different algorithms to take into account the surface roughness as it is done with the 18 GHz channel for the TOPEX algorithms or an additional term in wind speed for ERS2 algorithms. The in-flight calibration/validation of the Envisat radiometer has been performed with the tuning of 3 internal parameters (the transmission coefficient of the reflector, the sky horn feed transmission coefficient and the main antenna transmission coefficient). First an adjustment of the ERS2 brightness temperatures to the simulations for the 2000/2001 version of the ECMWF model has been applied. Then, Envisat brightness temperatures have been calibrated on these adjusted ERS2 values. The advantages of this calibration approach are that : i) such a method provides the relative discrepancy with respect to the simulation chain. The results, obtained simultaneously for several radiometers (we repeat the same analyze with TOPEX and JASON radiometers), can be used to detect significant calibration problems, more than 2 3 K). ii) the retrieval algorithms have been developed using the same meteorological model (2000/2001 version of the ECMWF model), and the same radiative transfer model than the calibration process, insuring the consistency between calibration and retrieval processing. Retrieval parameters are then optimized. iii) the calibration of the Envisat brightness temperatures over the 2000/2001 version of the ECMWF model, as well as the recommendation to use the same model as a reference to correct ERS2 brightness temperatures, allow the use of the same retrieval algorithms for the two missions, providing the continuity between the two. iv) by comparison with other calibration methods (such as systematic calibration of an instrument or products by using respectively the ones from previous mission), this method is more satisfactory since improvements in terms of technology, modelisation, retrieval processing are taken into account. For the validation of the brightness temperatures, we use either a direct comparison with measurements provided by other instruments in similar channel, or the monitoring over stable areas (coldest ocean points, stable continental areas). The validation of the wet tropospheric correction can be also provided by comparison with other radiometer products, but the only real validation rely on the comparison between in-situ measurements (performed by radiosonding) and retrieved products in coincidence.
Transport de paires EPR dans des structures mesoscopiques
NASA Astrophysics Data System (ADS)
Dupont, Emilie
Dans cette these, nous nous sommes particulierement interesses a la propagation de paires EPR1 delocalisees et localisees, et a l'influence d'un supraconducteur sur le transport de ces paires. Apres une introduction de cette etude, ainsi que du cadre scientifique qu'est l'informatique quantique dans lequel elle s'inscrit, nous allons dans le chapitre 1 faire un rappel sur le systeme constitue de deux points quantiques normaux entoures de deux fils supraconducteurs. Cela nous permettra d'introduire une methode de calcul qui sera reutilisee par la suite, et de trouver egalement le courant Josephson produit par ce systeme transforme en SQUID-dc par l'ajout d'une jonction auxiliaire. Le SQUID permet de mesurer l'etat de spin (singulet ou triplet), et peut etre forme a partir d'autres systemes que nous etudierons ensuite. Dans le chapitre 2, nous rappellerons l'etude detaillee d'un intricateur d'Andreev faite par un groupe de Bale. La matrice T, permettant d'obtenir le courant dans les cas ou les electrons sont separes spatialement ou non, sera etudiee en detail afin d'en faire usage au chapitre suivant. Le chapitre 3 est consacre a l'etude de l'influence du bruit sur le fonctionnement de l'intricateur d'Andreev. Ce bruit modifie la forme du courant jusqu'a aboutir a d'autres conditions de fonctionnement de l'intricateur. En effet, le bruit present sur les points quantiques peut perturber le transport des paires EPR par l'intermediaire des degres de liberte. Nous montrerons que, du fait de l'"intrication" entre la charge de la paire et le bruit, la paire est detruite pour des temps longs. Cependant, le resultat le plus important sera que le bruit perturbe plus le transport des paires delocalisees, qui implique une resonance de Breit-Wigner a deux particules. Le transport parasite n'implique pour sa part qu'une resonance de Breit-Wigner a une particule. Dans le chapitre 4, nous reviendrons au systeme constitue de deux points quantiques entoures de deux fils supraconducteurs, mais ici, les deux points quantiques seront aussi supraconducteurs. On obtiendra alors l'hamiltonien effectif de la meme maniere que precedemment ainsi que la forme du courant. Dans le cas ou la tension entre les deux fils est nulle, nous ferons une comparaison avec l'experience et nous verrons que les resultats obtenus sont plus en accord avec celle-ci si on fait l'hypothese de la presence d'un bain, qui va modeliser le bruit sur l'un des fils. Enfin, dans le dernier chapitre, nous utiliserons a la fois un qubit de charge et un qubit de spin entoures par deux fils supraconducteurs. Nous pourrons alors mesurer l'influence du supraconducteur et voir s'il est possible de creer ici des paires d'electrons intriques et d'aboutir a un pendule quantique. 1Il existe des systemes qui produisent des paires de particules ejectees simultanement dans des directions opposees et qui permettent de tester le paradoxe d' Einstein, Podolsky, Rosen. Chaque particule de la paire est dans un etat indetermine. Si on mesure les etats respectifs des deux particules, on obtient systematiquement des resultats complementaires, soit de facon aleatoire: 0-1 ou 1-0. La mecanique quantique explique que les deux particules ainsi produites constituent un seul systeme, une paire EPR.
Determination des Parametres Atmospheriques des Etoiles Naines Blanches de Type DB
NASA Astrophysics Data System (ADS)
Beauchamp, Alain
1995-01-01
Les etoiles naines blanches dont les spectres visibles sont domines par des raies fortes d'helium neutre sont subdivisees en trois classes, DB (raies d'helium neutre seulement), DBA (raies d'helium neutre et d'hydrogene) et DBZ (raies d'helium neutre et d'elements lourds). Nous analysons trois echantillons de spectres observes de ces types de naines blanches. Les echantillons consistent, respectivement, de 48 spectres dans le domaine du visible (3700-5100 A). 24 dans l'ultraviolet (1200-3100 A) et quatre dans la partie rouge du visible (5100-6900) A). Parmi les objets de l'echantillon visible, nous identifions quatre nouvelles DBA, ainsi que deux nouvelles DBZ, auparavant classees DB. L'analyse nous permet de determiner spectroscopiquement les parametres atmospheriques, soit la temperature effective, la gravite de surface, ainsi que l'abondance relative de l'hydrogene, N(H)/N(He), dans le cas des DBA. Pour les objets plus chauds que ~15,000 K, la gravite de surface determinee est fiable, et nous obtenons les masses stellaires avec une relation masse -rayon theorique. Les exigences propres a l'analyse de ces objets ont requis d'importantes ameliorations dans la modelisation de leurs atmospheres et distributions de flux de radiation emis par ces derniers. Nous avons inclus dans les modeles d'atmospheres, pour la premiere fois a notre connaissance, les effets dus a la molecule He_sp{2 }{+}, ainsi que l'equation d'etat de Hummer et Mihalas (1988), qui tient compte des perturbations entre particules dans le calcul des populations des differents niveaux atomiques. Nous traitons la convection dans le cadre de la theorie de la longueur de melange. Trois grilles de modeles d'atmospheres a l'ETL (equilibre thermodynamique local) ont ete produites, pour un ensemble de temperatures effectives, gravites de surface et abondances d'hydrogene couvrant les proprietes des etoiles de nos echantillons; elles sont caracterisees par differentes parametrisations appelees, respectivement, ML1, ML2 et ML3, de la theorie de longueur de melange. Nous avons calcule une grille de spectres synthetiques avec les memes parametrisations que la grille de modeles d'atmospheres. Notre traitement de l'elargissement des raies de l'helium neutre a ete ameliore de facon significative par rapport aux etudes precedentes. D'une part, nous tenons compte de l'elargissement des raies produit par les interactions entre l'emetteur et les particules neutres (elargissements par resonance et de van der Waals) en plus de celui par les particules chargees (elargissement Stark). D'autre part, nous avons calcule nous-memes les profils Stark avec les meilleures theories d'elargissement disponibles pour la majorite des raies observees; ces profils depassent en qualite ce qui a ete publie jusqu'a ce jour. Nous avons calcule la distribution de masse des etoiles DB plus chaudes que 15,000 K. La distribution de masse des DB est tres etroite, avec environ les trois quarts des etoiles incluses dans l'intervalle 0.55-0.65 Modot. La masse moyenne des etoiles DB est de 0.58 M_⊙ avec sigma = 0.07. La difference principale entre les distributions de masse des DB et DA est la faible proportion de DB dans les ailes de la distribution, ce qui implique que les DA moins massives que ~0.4 M odot et plus massives que ~0.8 M_⊙ ne se convertissent pas en DB. Les objets les plus massifs de notre echantillon sont de type DBA, ce qui suggere que la masse elevee favorise la visibilite de l'hydrogene. (Abstract shortened by UMI.).
[Therapeutic monitoring: analytic, pharmacokinetic and clinical aspects].
Marquet, P
1999-01-01
This paper gives an overview of present aspects and future prospects of therapeutic drug monitoring (TDM). The main aims of TDM are to avoid therapeutic failures due to bad compliance or too low dose of a given drug, as well as adverse or toxic effects due to an excessive dose. The therapeutic drugs frequently monitored depend on the country, but are generally few. For some of these drugs or for others, only patients at risk or belonging to particular sub-populations for a given drug, need TDM. A pre-analytical management is necessary, comprising a correct information of the physician, concerning the nature of the sample to collect and the clinical data necessary to the interpretation, as well as their recording; the control of the sample routing and storing conditions. Nowadays, drug analyses are essentially performed using immunochemical techniques, rapid and easy to operate but limited to a small number of drugs, and chromatographic methods, more specific and adaptable to almost any therapeutic drug and financially and technically more and more accessible. The interpretation of analytical results is a most important part of TDM, which requires knowledge of clinical data, precise collection time, co-administered treatments, and to dispose of a previously defined therapeutic range or target concentration, adapted to the population to which the patient belongs; the limitations of the analytical technique used must also be considered. Clinical pharmacokinetics is a further step in the use of analytical results, allowing the prediction of an efficient dose and administration schedule in one step, using a limited number of blood samples and generally a Bayesian estimation algorithm, readily available through commercial software dedicated to a few drugs in different reference populations. The pharmacokinetic characteristics of different populations and the validation of bayesian estimation have also been published for a number of drugs, sometimes by pharmaceutical companies following phase I and II clinical trials, even taking into account various physiopathological co-variables, but mostly by independent researchers using smaller populations. The efficiency and cost of routine TDM are questionable when it is prescribed with no clinical information or even no indication of administration and sampling times. On the contrary, several studies reported that clinical pharmacokinetics significantly improved patient outcome and were cost-saving, particularly in terms of duration of hospitalisation. The author's opinion is that TDM, in the near future, will be mainly dedicated to drugs used to treat life-threatening diseases, such as anti-HIV, anticancer and immunosuppressive drugs, and maybe also biotechnological peptides or proteins, because of cost considerations. TDM will probably also be used preferentially in target populations, characterised by higher risk or pharmacokinetic variability. Very sensitive, specific and partly automated separative techniques, such as liquid chromatography-tandem mass spectrometry, might become more common than immunochemical methods, owing to a higher flexibility and improved sample throughout. Clinical pharmacokinetics may spread to a larger number of drugs and patients, due to larger reference populations available, taking into account a number of co-variables, computerised data collection and simplified modelisation. Therefore, TDM will mainly be performed in hospitals, with an essentially clinical role for the pharmacists or pharmacologists involved and routine use of recent and efficient technologies for the TDM laboratory technical staff.
NASA Astrophysics Data System (ADS)
Maurice, Elsa
Fossil fuels are a scarce energy resource. Since the industrial revolution, mankind uses and abuses of non-renewable energies. They are responsible for many environmental damages. The production of energy is one of the main challenges for a global sustainable development. In our society, we can witness an exponential increase of the usage of the systems of Information and Communication Technologies (ICT) such as Internet, phone calls, etc. The ICT development allows the creation and optimization of many smart systems, the pooling of services, and it also helps damping the climate change. However, because of their electric consumption, the ICT are also responsible for some green house gases (GHG) emissions: 3% in total. This fact gives them the willingness to change in order to limit their GHG emissions. In order to properly evaluate and optimize the ICT services, it is necessary to use some methods of evaluation that comply with the specificity of these systems. Currently, the methods used to evaluate the GHG emissions are not adapted to dynamic systems, which include the ICT systems. The variations of the production of electricity in a day or even a month are not yet taken into account. This problem is far from being restricted to the modelling of GHG emissions, it widens to the global variation in production and consumption of electricity. The Life Cycle Assessment (LCA) method grants useful and complete tools to analyse their environmental impacts, but, as with the GHG computation methods, it should be dynamically adapted. In the ICT framework, the first step to solve this LCA problem is to be able to model the variations in time of the electricity production. This master thesis introduces a new way to include the variation in time of the consumption and production of electricity in LCA methods. First, it generates an historical hourly database of the electricity production and import-export of three Canadian states: Alberta, Ontario and Quebec. Then it develops a model in function of time to predict their electricity consumption. This study is done for a project implementing a " cloud computing " service in between these states. The consumption model then provides information to optimize the best place and time to make use of ICT services such as Internet messaging or server maintenance. This first-ever implementation of time parameter allows more precision and vision in LCA data. The disintegration of electrical inventory flows in LCA refines the effects of the electricity production both historically and in real time. Some short-term predictions for the state of Quebec electrical exportations and importations were also computed in this thesis. The goal is to foresee and optimize in real time the ICT services use. The origin of a kilowatt-hour consumed in Quebec depends on the import-export variable with its surrounding states. This parameter relies mainly on the price of the electricity, the weather and the need for the state of Quebec in energy. This allows to plot a time-varying estimate of the environmental consequences for the consumption of a kilowatt-hour in Quebec. This can then be used to limit the GHG emission of ICT services like " cloud-computing " or " smart-grids ". A smart trade-off between electricity consumption and environmental issues will lead to a more efficient sustainable development.
NASA Astrophysics Data System (ADS)
Lasri, Abdel-Halim
Dans cette recherche-developpement, nous avons concu, developpe et mis a l'essai un simulateur interactif pour favoriser l'apprentissage des lois probabilistes impliqees dans la genetique mendelienne. Cet environnement informatise devra permettre aux etudiants de mener des experiences simulees, utilisant les statistiques et les probebilites comme outils mathematiques pour modeliser le phenomene de la transmission des caracteres hereditaires. L'approche didactique est essentiellement orientee vers l'utilisation des methodes quantitatives impliquees dans l'experimentation des facteurs hereditaires. En incorporant au simulateur le principe de la "Lunette cognitive" de Nonnon (1986), l'etudiant fut place dans une situation ou il a pu synchroniser la perception de la representation iconique (concrete) et symbolique (abstraite) des lois probabilistes de Mendel. A l'aide de cet environnement, nous avons amene l'etudiant a identifier le(s) caractere(s) hereditaire(s) des parents a croiser, a predire les frequences phenotypiques probables de la descendance issue du croisement, a observer les resultats statistiques et leur fluctuation au niveau de l'histogramme des frequences, a comparer ces resultats aux predictions anticipees, a interpreter les donnees et a selectionner en consequence d'autres experiences a realiser. Les etapes de l'approche inductive sont privilegiees du debut a la fin des activites proposees. L'elaboration, du simulateur et des documents d'accompagnement, a ete concue a partir d'une vingtaine de principes directeurs et d'un modele d'action. Ces principes directeurs et le modele d'action decoulent de considerations theoriques psychologiques, didactiques et technologiques. La recherche decrit la structure des differentes parties composant le simulateur. L'architecture de celui-ci est construite autour d'une unite centrale, la "Principale", dont les liens et les ramifications avec les autres unites confere a l'ensemble du simulateur sa souplesse et sa facilite d'utilisation. Le simulateur "Genetique", a l'etat de prototype, et la documentation qui lui est afferente ont ete soumis a deux mises a l'essai: l'une fonctionnelle, l'autre empirique. La mise a l'essai fonctionnelle, menee aupres d'un groupe d'enseignants experts, a permis d'identifier les lacunes du materiel elabore afin de lui apporter les reajustements qui s'imposaient. La mise a l'essai empirique, conduite par un groupe de onze (11) etudiants de niveau secondaire, avait pour but, d'une part, de tester la facilite d'utilisation du simulateur "Genetique" ainsi que les documents d'accompagnement et, d'autre part, de verifier si les participants retiraient des avantages pedagogiques de cet environnement. Trois techniques furent exploitees pour recolter les donnees de la mise a l'essai empirique. L'analyse des resultats a permis de faire un retour critique sur les productions concretes de cette recherche et d'apporter les modifications necessaires tant au simulateur qu'aux documents d'accompagnement. Cette analyse a permis egalement de conclure que notre simulateur interactif favorise une approche inductive permettant aux etudiants de s'approprier les lois probabilistes de Mendel. Enfin, la conclusion degage des pistes de recherches destinees aux etudes ulterieures, plus particulierement celles qui s'interessent a developper des simulateurs, afin d'integrer a ceux-ci des representations concretes et abstraites presentees en temps reel. Les disquettes du simulateur "Genetique" et les documents d'accompagnement sont annexes a la presente recherche.
Etude aerodynamique d'un jet turbulent impactant une paroi concave
NASA Astrophysics Data System (ADS)
LeBlanc, Benoit
Etant donne la demande croissante de temperatures elevees dans des chambres de combustion de systemes de propulsions en aerospatiale (turbomoteurs, moteur a reaction, etc.), l'interet dans le refroidissement par jets impactant s'est vu croitre. Le refroidissement des aubes de turbine permet une augmentation de temperature de combustion, ce qui se traduit en une augmentation de l'efficacite de combustion et donc une meilleure economie de carburant. Le transfert de chaleur dans les au bages est influence par les aspects aerodynamiques du refroidissement a jet, particulierement dans le cas d'ecoulements turbulents. Un manque de comprehension de l'aerodynamique a l'interieur de ces espaces confinees peut mener a des changements de transfert thermique qui sont inattendus, ce qui augmente le risque de fluage. Il est donc d'interet pour l'industrie aerospatiale et l'academie de poursuivre la recherche dans l'aerodynamique des jets turbulents impactant les parois courbes. Les jets impactant les surfaces courbes ont deja fait l'objet de nombreuses etudes. Par contre des conditions oscillatoires observees en laboratoire se sont averees difficiles a reproduire en numerique, puisque les structures d'ecoulements impactants des parois concaves sont fortement dependantes de la turbulence et des effets instationnaires. Une etude experimentale fut realisee a l'institut PPRIME a l'Universite de Poitiers afin d'observer le phenomene d'oscillation dans le jet. Une serie d'essais ont verifie les conditions d'ecoulement laminaires et turbulentes, toutefois le cout des essais experimentaux a seulement permis d'avoir un apercu du phenomene global. Une deuxieme serie d'essais fut realisee numeriquement a l'Universite de Moncton avec l'outil OpenFOAM pour des conditions d'ecoulement laminaire et bidimensionnel. Cette etude a donc comme but de poursuivre l'enquete de l'aerodynamique oscillatoire des jets impactant des parois courbes, mais pour un regime d'ecoulement transitoire, turbulent, tridimensionnel. Les nombres de Reynolds utilises dans l'etude numerique, bases sur le diametre du jet lineaire observe, sont de Red = 3333 et 6667, consideres comme etant en transition vers la turbulence. Dans cette etude, un montage numerique est construit. Le maillage, le schema numerique, les conditions frontiere et la discretisation sont discutes et choisis. Les resultats sont ensuite valides avec des donnees turbulentes experimentales. En modelisation numerique de turbulence, les modeles de Moyennage Reynolds des Equations Naviers Stokes (RANS) presentent des difficultes avec des ecoulements instationnaires en regime transitionnel. La Simulation des Grandes Echelles (LES) presente une solution plus precise, mais au cout encore hors de portee pour cette etude. La methode employee pour cette etude est la Simulation des Tourbillons Detaches (DES), qui est un hybride des deux methodes (RANS et LES). Pour analyser la topologie de l'ecoulement, la decomposition des modes propres (POD) a ete egalement ete effectuee sur les resultats numeriques. L'etude a demontre d'abord le temps de calcul relativement eleve associe a des essais DES pour garder le nombre de Courant faible. Les resultats numeriques ont cependant reussi a reproduire correctement le basculement asynchrone observe dans les essais experimentaux. Le basculement observe semble etre cause par des effets transitionnels, ce qui expliquerait la difficulte des modeles RANS a correctement reproduire l'aerodynamique de l'ecoulement. L'ecoulement du jet, a son tour, est pour la plupart du temps tridimensionnel et turbulent sauf pour de courtes periodes de temps stable et independant de la troisieme dimension. L'etude topologique de l'ecoulement a egalement permit la reconaissances de structures principales sousjacentes qui etaient brouillees par la turbulence. Mots cles : jet impactant, paroi concave, turbulence, transitionnel, simulation des tourbillons detaches (DES), OpenFOAM.
NASA Astrophysics Data System (ADS)
Pollender-Moreau, Olivier
Ce document présente, dans le cadre d'un contexte conceptuel, une méthode d'enchaînement servant à faire le lien entre les différentes étapes qui permettent de réaliser la simulation d'un aéronef à partir de ses données géométriques et de ses propriétés massiques. En utilisant le cas de l'avion d'affaires Hawker 800XP de la compagnie Hawker Beechcraft, on démontre, via des données, un processus de traitement par lots et une plate-forme de simulation, comment (1) modéliser la géométrie d'un aéronef en plusieurs surfaces, (2) calculer les forces aérodynamiques selon une technique connue sous le nom de
NASA Astrophysics Data System (ADS)
Vazquez Rascon, Maria de Lourdes
This thesis focuses on the implementation of a participatory and transparent decision making tool about the wind farm projects. This tool is based on an (argumentative) framework that reflects the stakeholder's values systems involved in these projects and it employs two multicriteria methods: the multicriteria decision aide and the participatory geographical information systems, making it possible to represent this value systems by criteria and indicators to be evaluated. The stakeholder's values systems will allow the inclusion of environmental, economic and social-cultural aspects of wind energy projects and, thus, a sustainable development wind projects vision. This vision will be analyzed using the 16 sustainable principles included in the Quebec's Sustainable Development Act. Four specific objectives have been instrumented to favor a logical completion work, and to ensure the development of a successfultool : designing a methodology to couple the MCDA and participatory GIS, testing the developed methodology by a case study, making a robustness analysis to address strategic issues and analyzing the strengths, weaknesses, opportunities and threads of the developed methodology. Achieving the first goal allowed us to obtain a decision-making tool called Territorial Intelligence Modeling for Energy Development (TIMED approach). The TIMED approach is visually represented by a figure expressing the idea of a co-construction decision and where ail stakeholders are the focus of this methodology. TIMED is composed of four modules: Multi-Criteria decision analysis, participatory geographic Information systems, active involvement of the stakeholders and scientific knowledge/local knowledge. The integration of these four modules allows for the analysis of different implementation scenarios of wind turbines in order to choose the best one based on a participatory and transparent decision-making process that takes into account stakeholders' concerns. The second objective enabled the testing of TIMED in an ex-post experience of a wind farm in operation since 2006. In this test, II people participated representing four stakeholder' categories: the private sector, the public sector, experts and civil society. This test allowed us to analyze the current situation in which wind projects are currently developed in Quebec. The concerns of some stakeholders regarding situations that are not considered in the current context were explored through a third goal. This third objective allowed us to make simulations taking into account the assumptions of strategic levels. Examples of the strategic level are the communication tools used to approach the host community and the park property type. Finally, the fourth objective, a SWOT analysis with the participation of eight experts, allowed us to verify the extent to which TIMED approach succeeded in constructing four fields for participatory decision-making: physical, intellectual, emotional and procedural. From these facts, 116 strengths, 28 weaknesses, 32 constraints and 54 opportunities were identified. Contributions, applications, limitations and extensions of this research are based on giving a participatory decision-making methodology taking into account socio-cultural, environmental and economic variables; making reflection sessions on a wind farm in operation; acquiring MCDA knowledge for participants involved in testing the proposed methodology; taking into account the physical, intellectual, emotional and procedural spaces to al1iculate a participatory decision; using the proposed methodology in renewable energy sources other than wind; the need to an interdisciplinary team for the methodology application; access to quality data; access to information technologies; the right to public participation; the neutrality of experts; the relationships between experts and non-experts; cultural constraints; improvement of designed indicators; the implementation of a Web platform for participatory decision-making and writing a manual on the use of the developed methodology. Keywords: wind farm, multicriteria decision, geographic information systems, TIMED approach, sustainable wind energy projects development, renewable energy, social participation, robustness concern, SWOT analysis.
NASA Astrophysics Data System (ADS)
Miquel, Benjamin
The dynamic or seismic behavior of hydraulic structures is, as for conventional structures, essential to assure protection of human lives. These types of analyses also aim at limiting structural damage caused by an earthquake to prevent rupture or collapse of the structure. The particularity of these hydraulic structures is that not only the internal displacements are caused by the earthquake, but also by the hydrodynamic loads resulting from fluid-structure interaction. This thesis reviews the existing complex and simplified methods to perform such dynamic analysis for hydraulic structures. For the complex existing methods, attention is placed on the difficulties arising from their use. Particularly, interest is given in this work on the use of transmitting boundary conditions to simulate the semi infinity of reservoirs. A procedure has been developed to estimate the error that these boundary conditions can introduce in finite element dynamic analysis. Depending on their formulation and location, we showed that they can considerably affect the response of such fluid-structure systems. For practical engineering applications, simplified procedures are still needed to evaluate the dynamic behavior of structures in contact with water. A review of the existing simplified procedures showed that these methods are based on numerous simplifications that can affect the prediction of the dynamic behavior of such systems. One of the main objectives of this thesis has been to develop new simplified methods that are more accurate than those existing. First, a new spectral analysis method has been proposed. Expressions for the fundamental frequency of fluid-structure systems, key parameter of spectral analysis, have been developed. We show that this new technique can easily be implemented in a spreadsheet or program, and that its calculation time is near instantaneous. When compared to more complex analytical or numerical method, this new procedure yields excellent prediction of the dynamic behavior of fluid-structure systems. Spectral analyses ignore the transient and oscillatory nature of vibrations. When such dynamic analyses show that some areas of the studied structure undergo excessive stresses, time history analyses allow a better estimate of the extent of these zones as well as a time notion of these excessive stresses. Furthermore, the existing spectral analyses methods for fluid-structure systems account only for the static effect of higher modes. Thought this can generally be sufficient for dams, for flexible structures the dynamic effect of these modes should be accounted for. New methods have been developed for fluid-structure systems to account for these observations as well as the flexibility of foundations. A first method was developed to study structures in contact with one or two finite or infinite water domains. This new technique includes flexibility of structures and foundations as well as the dynamic effect of higher vibration modes and variations of the levels of the water domains. Extension of this method was performed to study beam structures in contact with fluids. These new developments have also allowed extending existing analytical formulations of the dynamic properties of a dry beam to a new formulation that includes effect of fluid-structure interaction. The method yields a very good estimate of the dynamic behavior of beam-fluid systems or beam like structures in contact with fluid. Finally, a Modified Accelerogram Method (MAM) has been developed to modify the design earthquake into a new accelerogram that directly accounts for the effect of fluid-structure interaction. This new accelerogram can therefore be applied directly to the dry structure (i.e. without water) in order to calculate the dynamic response of the fluid-structure system. This original technique can include numerous parameters that influence the dynamic response of such systems and allows to treat analytically the fluid-structure interaction while keeping the advantages of finite element modeling.
NASA Astrophysics Data System (ADS)
Desrosiers, Marc
La Gaspésie, région péninsulaire à l'extrême est du Québec, possède un héritage archéologique préhistorique riche qui s'étend de 9 000 ans jusqu'à 450 ans avant aujourd'hui. L'archéologie a livré de nombreux sites préhistoriques dans la région, surtout dans le nord de la péninsule, un constat en partie attribuable à la présence de sources de matières premières lithiques, d'axes de circulation potentielles, mais aussi à la répartition spatiale inégale des efforts de recherche. L'étude du potentiel archéologique préhistorique gaspésien, c'est la première étape de la démarche archéologique, est donc nécessaire pour orienter les travaux futurs dans cette région. Trois secteurs représentatifs de la Gaspésie ont été étudiés pour développer une nouvelle approche d'étude de potentiel : Sainte-Anne-des-Monts, le lac Sainte-Anne et New Richmond. Ensemble, ces secteurs s'étirent au travers de la péninsule sur un axe nord-sud et correspondent à un possible axe de circulation préhistorique. L'évaluation du potentiel archéologique de ces aires d'étude dépend notamment de contexte géographique gaspésien. Celui-ci est complexe, particulièrement depuis la déglaciation qui a engendré une succession de transformations du paysage. Les variations du niveau marin relatif, le passage de la toundra à un milieu forestier et d'autres changements environnementaux ont conditionné la façon dont les populations préhistoriques se sont adaptées au territoire. L'étude de potentiel dépend également des connaissances archéologiques existantes pour la région, car elles conditionnent la sélection de variables environnementales représentatives des sites connus. À partir de la confrontation des données géographiques et archéologiques, nous avons proposé des schèmes d'établissement pour les périodes chronoculturelles de la préhistoire gaspésienne. Ces patrons informationnels permettent d'illustrer la façon dont les populations préhistoriques occupaient le territoire gaspésien. C'est en appliquant ces schèmes d'établissement dans un SIG (Système d'Information Géographique) qu'il est alors possible de modéliser l'occupation potentielle du territoire au cours des périodes de la préhistoire gaspésienne. Les résultats de la modélisation sont prometteurs car les sites archéologiques connus dans le secteur de Sainte-Anne-des-Monts correspondent aux secteurs à potentiel élevé proposés par la modélisation, bien qu'une validation géomorphologique de la modélisation soit nécessaire à une étape ultérieure. Les deux autres secteurs ne présentaient pas de sites archéologiques datés qui permettaient de valider la modélisation à ces endroits. L'outil proposé est d'autant plus intéressant qu'il permet d'étudier rapidement de vastes territoires au potentiel archéologique mal évalué, comme c'est le cas de la Gaspésie.
NASA Astrophysics Data System (ADS)
Sawadogo, Teguewinde
This study focuses on the modeling of fluidelastic instability induced by two-phase cross-flow in tube bundles of steam generators. The steam generators in CANDU type nuclear power plants for e.g., designed in Canada by AECL and exploited worldwide, have thousands of tubes assembled in bundles that ensure the heat exchange between the internal circuit of heated heavy water coming from the reactor core and the external circuit of light water evaporated and directed toward the turbines. The main objective of this research project is to extend the theoretical models for fluidelastic instability to two-phase flow, validate the models and develop a computer program for simulating flow induced vibrations in tube bundles. The quasi-steady model has been investigated in scope of this research project. The time delay between the structure motion and the fluid forces generated thereby has been extensively studied in two-phase flow. The study was conducted for a rotated triangular tube array. Firstly, experimental measurements of unsteady and quasi-static fluid forces (in the lift direction) acting on a tube subject to two-phase flow were conducted. Quasi-static fluid force coefficients were measured at the same Reynolds number, Re = 2.8x104, for void fractions ranging from 0% to 80%. The derivative of the lift coefficient with respect to the quasi-static dimensionless displacement in the lift direction was deduced from the experimental measurements. This derivative is one of the most important parameters of the quasi-steady model because this parameter, in addition to the time delay, generates the fluid negative damping that causes the instability. This derivative was found to be positive in liquid flow and negative in two-phase flow. It seemed to vanish at 5% of void fraction, challenging the ability of the quasi-steady model to predict fluidelastic instability in this case. However, stability tests conducted at 5% void fraction clearly showed fluidelastic instability. Stability tests were conducted in the second stage of the project to validate the theoretical model. The two phase damping, the added mass and the critical velocity for fluidelastic instability were measured in two-phase flow. A viscoelastic damper was designed to vary the damping of the flexible tube and thus measure the critical velocity for a certain range of the mass-damping parameter. A new formulation of the added mass as a function of the void fraction was proposed. This formulation has a better agreement with the experimental results because it takes into account the reduction of the void fraction in the vicinity of the tubes in a rotated triangular tube array. The experimental data were used to validate the theoretical results of the quasi-steady model. The validity of the quasi-steady model for two-phase flow was confirmed by the good agreement between its results and the experimental data. The time delay parameter determined in the first stage of the project has improved significantly the theoretical results, especially for high void fractions (90%). However, the model could not be verified for void fractions lower or equal to 50% because of the limitation of the water pump capability. Further studies are consequently required to clarify this point. However, this model can be used to simulate the flow induced vibrations in steam generators' tube bundles as their most critical parts operate at high void fractions (≥ 60%). Having verified the quasi-steady model for high void fractions in two-phase flow, the third and final stage of the project was devoted to the development of a computer code for simulating flow induced vibrations of a steam generator tube subjected to fluidelastic and turbulence forces. This code was based on the ABAQUS finite elements code for solving the equation of motion of the fluid-structure system, and a development of a subroutine in which the fluid forces are calculated and applied to the tube. (Abstract shortened by UMI.)
Modelisation et simulation d'une liaison HVDC de type VSC-MMC
NASA Astrophysics Data System (ADS)
Saad, Hani Aziz
High-voltage direct current transmission systems (HVDC) are rapidly expanding in the world. Two main factors are responsible for this expansion. The first is related to the difficulty of building new overhead lines to ensure the development of high-voltage AC grids, which makes the usage of underground cables more common. However, the use of such cables is limited in length to a few tens of km because of the capacitive current generated by the cable itself. Beyond this length limit, the solution is usually to transmit in DC. The second factor is related to the development of offshore wind power plants that require connecting powers of several hundred of MW to the mainland grid by cables whose lengths can reach several hundreds of km and consequently require HVDC transmission system. Several HVDC projects are currently planned and developed by the French transmission system operator RTE. One of such projects is the INELFE interconnection project, with a capacity of 2,000 MW, between France and Spain. This thesis has been funded by RTE, in order to model and simulate in off-line and real time modes, modern HVDC interconnections. The delivered simulation means are used to examine targeted HVDC system performances and risks of abnormal interactions with surrounding power systems. The particularity of the INELFE HVDC system is the usage of a dedicated control system that will largely determine the dynamic behaviour of the system for both large disturbances (faults on the network) and small perturbations (power step changes). Various VSC topologies, including the conventional two-level, multi-level diode-clamped and floating capacitor multi-level converters, have been proposed and reported in the literature. However, due to the complexity of controls and practical limitations, the VSC-HVDC system installations have been limited to the two-level and three-level diode-clamped converters. Recently, the development of modular technology called MMC (Modular Multilevel Converter [Siemens] - [Alstom]) or CTL (Cascaded Two Level topology [ABB]) has allowed to overcome existing limitations. This topology consists of several sub-modules connected in series. Each sub-module contains two IGBTs with antiparallel diodes and a capacitor that act as energy storage. The control of these IGBTs allows connecting and disconnecting the capacitor on the network. The grouping of several sub-modules in series forms an arm. From the AC side, each phase consists of two arms. Reactors are included in series with each arm in order to limit the fault current. The large number of IGBTs in MMCs creates complicated computation problems in electromagnetic transient type (EMT-type) simulation tools. Detailed MMC models include the representation of thousands of IGBT (Insulated Gate Bipolar Transistor) switches and must use small numerical integration time steps to accurately represent fast and multiple simultaneous switching events. This becomes particularly more complex for performing real-time simulations. The computational burden introduced by such models highlights the need to develop more efficient models. A current trend is based on simplified models capable of delivering sufficient accuracy for EMT-type simulations, however the validity range of such models must be carefully evaluated. The first objective of this thesis is to model HVDC-MMC transmission systems in EMT-type programs for off-line and real-time simulations. To fulfill this objective, different modelling approaches are presented, then the control system used for HVDC-MMC links is developed and finally the implementations of MMC models using both CPU (Central Processing Unit) and FPGA (Field-Programmable Gate Array) technologies for real-time simulations, are presented. The contributions are useful for researchers and engineers using transient simulation tools for modelling and analysis of power systems including HVDC-MMC. The HVDC links currently planned or constructed in France, are embedded in highly meshed networks and may have significant impact on their operations and performance. Therefore, the second objective of this thesis is to perform modal analysis and parametric studies to assess the risks of abnormal interactions between several HVDC links inserted in meshed AC networks.
NASA Astrophysics Data System (ADS)
Gemme, Frederic
The aim of the present research project is to increase the amount of fundamental knowledge regarding the process by getting a better understanding of the physical phenomena involved in friction stir welding (FSW). Such knowledge is required to improve the process in the context of industrial applications. In order to do so, the first part of the project is dedicated to a theoretical study of the process, while the microstructure and the mechanical properties of welded joints obtained in different welding conditions are measured and analyzed in the second part. The combination of the tool rotating and translating movements induces plastic deformation and heat generation of the welded material. The material thermomechanical history is responsible for metallurgical phenomena occurring during FSW such as recrystallization and precipitate dissolution and coarsening. Process modelling is used to reproduce this thermomechanical history in order to predict the influence of welding on the material microstructure. It is helpful to study heat generation and heat conduction mechanisms and to understand how joint properties are related to them. In the current work, a finite element numerical model based on solid mechanics has been developed to compute the thermomechanical history of the welded material. The computation results were compared to reference experimental data in order to validate the model and to calibrate unknown physical parameters. The model was used to study the effect of the friction coefficient on the thermomechanical history. Results showed that contact conditions at the workpiece/tool interface have a strong effect on relative amounts of heat generated by friction and by plastic deformation. The comparison with the experimental torque applied by the tool for different rotational speeds has shown that the friction coefficient decreases when the rotational speed increases. Consequently, heat generation is far more important near the material/tool interface and the material deformation is shallower, increasing the lack of penetration probability. The variation of thermomechanical conditions with regards to the rotational speed is responsible for the variation of the nugget shape, as recrystallization conditions are not reached in the same volume of material. The second part of the research project was dedicated to a characterization of the welded joints microstructure and mechanical properties. Sound joints were obtained by using a manufacturing procedure involving process parameters optimization and quality control of the joint integrity. Five different combinations of rotational and advancing speeds were studied. Microstructure observations have shown that the rotational speed has an effect on recrystallization conditions because of the variation of the contact conditions at the material/tool interface. On the other hand, the advancing speed has a strong effect on the precipitation state in the heat affected zone (HAZ). The heat input increases when the advancing speed decreases. The material softening in the HAZ is then more pronounced. Mechanical testing of the welded joints showed that the fatigue resistance increases when the rotational speed increases and the advancing speed decreases. The fatigue resistance of FSW joints mainly depends on the ratio of the advancing speed on the rotational speed, called the welding pitch k. When the welding pitch is high (k ≥ 0,66 mm/rev), the fatigue resistance depends on crack initiation at the root of circular grooves left by the tool on the weld surface. The size of these grooves is directly related to the welding pitch. When the welding pitch is low (k ≤ 0,2 mm/rev), the heat input is high and the fatigue resistance is limited by the HAZ softening. The fatigue resistance is optimized when k stands in the 0,25-0,30 mm/rev range. Outside that range, the presence of small lateral lips is critical. The results of the characterization part of the project showed that the effects of the applied vertical force on the formation of lateral lips should be submitted to further investigations. The elimination of the lateral lip, which could be achieved with a more precise adjustment of the vertical force, could lead to an improved fatigue resistance. The elimination of lateral lips, but also the circular grooves left by the tool, may be obtained by developing an appropriate surfacing technique and could lead to an improved fatigue resistance without reducing the advancing speed. (Abstract shortened by UMI.)
NASA Astrophysics Data System (ADS)
Savard, Stephane
Les premieres etudes d'antennes a base de supraconducteurs a haute temperature critique emettant une impulsion electromagnetique dont le contenu en frequence se situe dans le domaine terahertz remontent a 1996. Une antenne supraconductrice est formee d'un micro-pont d'une couche mince supraconductrice sur lequel un courant continu est applique. Un faisceau laser dans le visible est focalise sur le micro-pont et place le supraconducteur dans un etat hors-equilibre ou des paires sont brisees. Grace a la relaxation des quasiparticules en surplus et eventuellement de la reformation des paires supraconductrices, nous pouvons etudier la nature de la supraconductivite. L'analyse de la cinetique temporelle du champ electromagnetique emis par une telle antenne terahertz supraconductrice s'est averee utile pour decrire qualitativement les caracteristiques de celle-ci en fonction des parametres d'operation tels que le courant applique, la temperature et la puissance d'excitation. La comprehension de l'etat hors-equilibre est la cle pour comprendre le fonctionnement des antennes terahertz supraconductrices a haute temperature critique. Dans le but de comprendre ultimement cet etat hors-equilibre, nous avions besoin d'une methode et d'un modele pour extraire de facon plus systematique les proprietes intrinseques du materiau qui compose l'antenne terahertz a partir des caracteristiques d'emission de celle-ci. Nous avons developpe une procedure pour calibrer le spectrometre dans le domaine temporel en utilisant des antennes terahertz de GaAs bombarde aux protons H+ comme emetteur et detecteur. Une fois le montage calibre, nous y avons insere une antenne emettrice dipolaire de YBa 2Cu3O7-delta . Un modele avec des fonctions exponentielles de montee et de descente du signal est utilise pour lisser le spectre du champ electromagnetique de l'antenne de YBa 2Cu3O7-delta, ce qui nous permet d'extraire les proprietes intrinseques de ce dernier. Pour confirmer la validite du modele choisi, nous avons mesure les proprietes intrinseques du meme echantillon de YBa2Cu3O7- delta avec la technique pompe-visible et sonde-terahertz donnant, elle aussi, acces aux temps caracteristiques regissant l'evolution hors-equilibre de ce materiau. Dans le meilleur scenario, ces temps caracteristiques devraient correspondre a ceux evalues grace a la modelisation des antennes. Un bon controle des parametres de croissance des couches minces supraconductrices et de fabrication du dispositif nous a permis de realiser des antennes d'emission terahertz possedant d'excellentes caracteristiques en terme de largeur de bande d'emission (typiquement 3 THz) exploitables pour des applications de spectroscopie resolue dans le domaine temporel. Le modele developpe et retenu pour le lissage du spectre terahertz decrit bien les caracteristiques de l'antenne supraconductrice pour tous les parametres d'operation. Toutefois, le lien avec la technique pompe-sonde lors de la comparaison des proprietes intrinseques n'est pas direct malgre que les deux techniques montrent que le temps de relaxation des porteurs augmente pres de la temperature critique. Les donnees en pompe-sonde indiquent que la mesure du temps de relaxation depend de la frequence de la sonde, ce qui complique la correspondance des proprietes intrinseques entre les deux techniques. De meme, le temps de relaxation extrait a partir du spectre de l'antenne terahertz augmente en s'approchant de la temperature critique (T c) de YBa2Cu 3O7-delta. Le comportement en temperature du temps de relaxation correspond a une loi de puissance qui est fonction de l'inverse du gap supraconducteur avec un exposant 5 soit 1/Delta 5(T). Le travail presente dans cette these permet de mieux decrire les caracteristiques des antennes supraconductrices a haute temperature critique et de les relier aux proprietes intrinseques du materiau qui les compose. De plus, cette these presente les parametres a ajuster comme le courant applique, la puissance de la pompe, la temperature d'operation, etc, afin d'optimiser l'emission et les performances de ces antennes supraconductrices entre autres pour maximiser leur etendue en frequence dans une perspective d'application en spectroscopie terahertz. Cependant, plusieurs des resultats obtenus soulevent la difficulte de decrire l'etat hors-equilibre et la necessite de developper une theorie pour le supraconducteur YBa2 Cu3O7-delta
NASA Astrophysics Data System (ADS)
Custodio, Emilio; Llamas, M.-Ramón; Villarroya, Fermín
Spain is a relatively large European country (ca. 500,000km2) with extensive semiarid areas in which there exists a large number of good aquifers. In some areas, these aquifers are intensively developed and are the most important sources of fresh water. Nevertheless, groundwater development and protection has rarely been duly considered by the Spanish Water Administration, despite the pressure to remedy this situation by various groups of experts, some of them members of the Water Administration. The Spanish Committee of the International Association of Hydrogeologists (IAH) has been very active during the last decade in promoting activities to spread groundwater science, technology, and management in Spain and outside, mostly in Latin America, and in trying to orient water policy toward issues of groundwater. These activities include mainly the organization of technical and scientific meetings on current topics such as groundwater in the new Water Act, overexploitation, groundwater in water-resources planning, groundwater pollution, natural-recharge estimation and others. The impact of these activities on the recent water policy of Spain seems significant, and the experience gained may be applicable to other countries. Résumé L'Espagne est un pays européen assez étendu (500,000km2 environ), où existent des zones semi-arides possédant de nombreux aquifères intéressants. Dans certaines régions, ces aquifères sont intensivement exploités et constituent les sources essentielles d'eau douce. Cependant, l'exploitation et la protection des eaux souterraines ont rarement été prises en compte de façon correcte par l'Administration Espagnole de l'Eau, malgré les pressions exercées pour remédier à la situation par différents groupes d'experts, dont certains sont membres de l'Administration de l'Eau. Le Comité Espagnol de l'Association Internationale des Hydrogéologues (AIH) a été particulièrement actif au cours de ces dix dernières années pour promouvoir des activités de diffusion des sciences, de la technologie et de la gestion de l'eau en Espagne et à l'étranger, surtout en Amérique latine, et pour tenter d'orienter la politique de l'eau à l'égard des eaux souterraines. Ces activités incluent principalement l'organisation de réunions techniques et scientifiques sur des sujets classiques tels que l'eau souterraine dans la nouvelle Loi sur l'Eau, la surexploitation, l'eau souterraine dans la gestion des ressources en eau, la pollution de l'eau souterraine, l'estimation des écoulements naturels, entre autres. Les retombées de ces activités sur la récente politique de l'eau en Espagne paraissent significatives et l'expérience acquise peut être appliquée à d'autres pays. Resumen España es un país relativamente grande (unos 500,000km2) con áreas extensas en las que existe un elevado número de buenos acuíferos. En algunas zonas estos acuíferos son intensamente aprovechados y constituyen el recurso más importante de agua dulce. Sin embargo, el aprovechamiento y la protección de las aguas subterráneas pocas veces han sido debidamente considerados por la Administración hidráulica española, a pesar de la presión ejercida por distintos grupos y por algunos miembros responsables de la propia Administración hidráulica para corregir esta situación. Durante el último decenio el Comité Español de la Asociación Internacional de Hidrogeólogos (AIH) ha sido muy activo en promover reuniones para difundir la ciencia, la tecnología y la adecuada gestión del agua subterránea en España y en el extranjero, especialmente en Ibero-América. También ha intentado que los temas referentes al agua subterránea tuviesen la oportuna consideración en la política hidrológica general. Estas actividades han consistido principalmente en la organización de reuniones científicas y técnicas sobre temas actuales tales como el agua subterránea en la planificación hidrológica, contaminación del agua subterránea, estimación de la recarga natural y otros. El impacto de estas actividades en la reciente política hidráulica española parece significativo. La experiencia general puede ser aplicable a otros países.
NASA Astrophysics Data System (ADS)
Dim, J. R.; Sakura, Y.; Fukami, H.; Miyakoshi, A.
2002-03-01
In porous sediments of the Ishikari Lowland, there is a gradual increase in the background geothermal gradient from the Ishikari River (3-4 °C 100 m-1) to the southwest highland area (10 °C 100 m-1). However, the geothermal gradient at shallow depths differs in detail from the background distribution. In spite of convective heat-flow loss generally associated with groundwater flow, heat flow remains high (100 mW m-2) in the recharge area in the southwestern part of the Ishikari basin, which is part of an active geothermal field. In the northeastern part of the lowland, heat flow locally reaches 140 mW m-2, probably due to upward water flow from the deep geothermal field. Between the two areas the heat flow is much lower. To examine the role of hydraulic flow in the distortion of the isotherms in this area, thermal gradient vs. temperature analyses were made, and they helped to define the major components of the groundwater-flow system of the region. Two-dimensional simulation modeling aided in understanding not only the cause of horizontal heat-flow variations in this field but also the contrast between thermal properties of shallow and deep groundwater reservoirs. Résumé. Dans les sédiments poreux des basses terres d'Ishikari, on observe une augmentation graduelle du gradient géothermal général depuis la rivière Ishikari (3-4 °C 100 m-1) vers la zone élevée située au sud-ouest (10 °C 100 m-1). Toutefois, le gradient géothermal aux faibles profondeurs diffère dans le détail de la distribution générale. Malgré la perte de flux de chaleur par convection, généralement associée aux écoulements souterrains, le flux de chaleur reste élevé (100 mW m-2) dans la zone de recharge de la partie sud-ouest du bassin de l'Ishikari, qui appartient à un champ géothermal actif. Dans la partie nord-est des basses terres, le flux de chaleur atteint localement 140 mW m-2, probablement à cause d'un écoulement souterrain ascendant depuis le champ géothermal profond. Entre les deux zones, le flux de chaleur est beaucoup plus faible. Afin de déterminer le rôle du flux d'eau souterraine dans la distorsion des isothermes dans cette zone, des analyses du gradient thermal en fonction de la température ont été réalisées elles ont permis de définir les composantes majeures du système aquifère régional. Une modélisation deux-dimensionnelle pour la simulation a ensuite contribué à la compréhension non seulement de la cause des variations horizontales du flux de chaleur dans cette région, mais également du contraste entre les propriétés des réservoirs superficiel et profond. Resumen. En los sedimentos porosos de las tierras bajas de Ishikari, hay un incremento gradual en el gradiente geotérmico desde el río Ishikari (3-4 °C 100 m-1) hacia la zona elevada del sudoeste (10 °C 100 m-1). Sin embargo, el gradiente geotérmico a profundidades someras difiere de la distribución de fondo. A pesar de las pérdidas por el flujo convectivo de calor asociadas generalmente al flujo de aguas subterráneas, el flujo de calor permanece elevado (100 mW m-2) en el área de recarga, hacia el sudoeste de la cuenca del Ishikari, la cual pertenece a un campo geotérmico activo. Al nordeste de las tierras bajas, el flujo de calor alcanza 140 mW m-2, probablemente por el flujo ascendente de agua procedente del campo geotérmico profundo. Entre ambas áreas, el flujo de calor es mucho menor. Para examinar el papel del flujo hidráulico en la distorsión de las isotermas de esta región, se ha comparado el gradiente térmico con la temperatura, con lo cual se ha podido definir los componentes mayoritarios del sistema de flujo de las aguas subterráneas. El uso de modelos bidimensionales ha servido para comprender no sólo del origen de las variaciones horizontales del flujo de calor en este campo, sino también el contraste entre las propiedades térmicas de los reservorios someros y profundos de aguas subterráneas.
NASA Astrophysics Data System (ADS)
Mijiyawa, Faycal
Cette etude permet d'adapter des materiaux composites thermoplastiques a fibres de bois aux engrenages, de fabriquer de nouvelles generations d'engrenages et de predire le comportement thermique de ces engrenages. Apres une large revue de la litterature sur les materiaux thermoplastiques (polyethylene et polypropylene) renforces par les fibres de bois (bouleau et tremble), sur la formulation et l'etude du comportement thermomecanique des engrenages en plastique-composite; une relation a ete etablie avec notre presente these de doctorat. En effet, beaucoup d'etudes sur la formulation et la caracterisation des materiaux composites a fibres de bois ont ete deja realisees, mais aucune ne s'est interessee a la fabrication des engrenages. Les differentes techniques de formulation tirees de la litterature ont facilite l'obtention d'un materiau composite ayant presque les memes proprietes que les materiaux plastiques (nylon, acetal...) utilises dans la conception des engrenages. La formulation des materiaux thermoplastiques renforces par les fibres de bois a ete effectuee au Centre de recherche en materiaux lignocellulosiques (CRML) de l'Universite du Quebec a Trois-Rivieres (UQTR), en collaboration avec le departement de Genie Mecanique, en melangeant les composites avec deux rouleaux sur une machine de type Thermotron-C.W. Brabender (modele T-303, Allemand) ; puis des pieces ont ete fabriquees par thermocompression. Les thermoplastiques utilises dans le cadre de cette these sont le polypropylene (PP) et le polyethylene haute densite (HDPE), avec comme renfort des fibres de bouleau et de tremble. A cause de l'incompatibilite entre la fibre de bois et le thermoplastique, un traitement chimique a l'aide d'un agent de couplage a ete realise pour augmenter les proprietes mecaniques des materiaux composites. Pour les composites polypropylene/bois : (1) Les modules elastiques et les contraintes a la rupture en traction des composites PP/bouleau et PP/tremble evoluent lineairement en fonction du taux de fibres, avec ou sans agent de couplage (Maleate de polypropylene MAPP). De plus, l'adherence entre les fibres de bois et le plastique est amelioree en utilisant seulement 3 % MAPP, entrainant donc une augmentation de la contrainte maximale bien qu'aucun effet significatif ne soit observe sur le module d'elasticite. (2) Les resultats obtenus montrent que, en general, les proprietes en traction des composites polypropylene/bouleau, polypropylene/tremble et polypropylene/bouleau/ tremble sont tres semblables. Les composites plastique-bois (WPCs), en particulier ceux contenant 30 % et 40 % de fibres, ont des modules elastiques plus eleves que certains plastiques utilises dans l'application des engrenages (ex. Nylon). Pour les composites polyethylene/bois, avec 3%Maleate de polyethylene (MAPE): (1) Tests de traction : le module elastique passe de 1.34 GPa a 4.19 GPa pour le composite HDPE/bouleau, alors qu'il passe de 1.34 GPa a 3.86 GPa pour le composite HDPE/tremble. La contrainte maximale passe de 22 MPa a 42.65 MPa pour le composite HDPE/bouleau, alors qu'elle passe de 22 MPa a 43.48 MPa pour le composite HDPE/tremble. (2) Tests de flexion : le module elastique passe de 1.04 GPa a 3.47 GPa pour le composite HDPE/bouleau et a 3.64 GPa pour le composite HDPE/tremble. La contrainte maximale passe de 23.90 MPa a 66.70 MPa pour le composite HDPE/bouleau, alors qu'elle passe a 59.51 MPa pour le composite HDPE/tremble. (3) Le coefficient de Poisson determine par impulsion acoustique est autour de 0.35 pour tous les composites HDPE/bois. (4) Le test de degradation thermique TGA nous revele que les materiaux composites presentent une stabilite thermique intermediaire entre les fibres de bois et la matrice HDPE. (5) Le test de mouillabilite (angle de contact) revele que l'ajout de fibres de bois ne diminue pas de facon significative les angles de contact avec de l'eau parce que les fibres de bois (bouleau ou tremble) semblent etre enveloppees par la matrice sur la surface des composites, comme le montrent des images prises au microscope electronique a balayage MEB. (6) Le modele de Lavengoof-Goettler predit mieux le module elastique du composite thermoplastique/bois. (7) Le HDPE renforce par 40 % de bouleau est mieux adapte pour la fabrication des engrenages, car le retrait est moins important lors du refroidissement au moulage. La simulation numerique semble mieux predire la temperature d'equilibre a la vitesse de 500 tr/min; alors qu'a 1000 tr/min, on remarque une divergence du modele. (Abstract shortened by ProQuest.). None None None None None None None None
NASA Astrophysics Data System (ADS)
Harvey, Jean-Philippe
In this work, the possibility to calculate and evaluate with a high degree of precision the Gibbs energy of complex multiphase equilibria for which chemical ordering is explicitly and simultaneously considered in the thermodynamic description of solid (short range order and long range order) and liquid (short range order) metallic phases is studied. The cluster site approximation (CSA) and the cluster variation method (CVM) are implemented in a new minimization technique of the Gibbs energy of multicomponent and multiphase systems to describe the thermodynamic behaviour of metallic solid solutions showing strong chemical ordering. The modified quasichemical model in the pair approximation (MQMPA) is also implemented in the new minimization algorithm presented in this work to describe the thermodynamic behaviour of metallic liquid solutions. The constrained minimization technique implemented in this work consists of a sequential quadratic programming technique based on an exact Newton’s method (i.e. the use of exact second derivatives in the determination of the Hessian of the objective function) combined to a line search method to identify a direction of sufficient decrease of the merit function. The implementation of a new algorithm to perform the constrained minimization of the Gibbs energy is justified by the difficulty to identify, in specific cases, the correct multiphase assemblage of a system where the thermodynamic behaviour of the equilibrium phases is described by one of the previously quoted models using the FactSage software (ex.: solid_CSA+liquid_MQMPA; solid1_CSA+solid2_CSA). After a rigorous validation of the constrained Gibbs energy minimization algorithm using several assessed binary and ternary systems found in the literature, the CVM and the CSA models used to describe the energetic behaviour of metallic solid solutions present in systems with key industrial applications such as the Cu-Zr and the Al-Zr systems are parameterized using fully consistent thermodynamic an structural data generated from a Monte Carlo (MC) simulator also implemented in the framework of this project. In this MC simulator, the modified embedded atom model in the second nearest neighbour formalism (MEAM-2NN) is used to describe the cohesive energy of each studied structure. A new Al-Zr MEAM-2NN interatomic potential needed to evaluate the cohesive energy of the condensed phases of this system is presented in this work. The thermodynamic integration (TI) method implemented in the MC simulator allows the evaluation of the absolute Gibbs energy of the considered solid or liquid structures. The original implementation of the TI method allowed us to evaluate theoretically for the first time all the thermodynamic mixing contributions (i.e., mixing enthalpy and mixing entropy contributions) of a metallic liquid (Cu-Zr and Al-Zr) and of a solid solution (face-centered cubic (FCC) Al-Zr solid solution) described by the MEAM-2NN. Thermodynamic and structural data obtained from MC and molecular dynamic simulations are then used to parameterize the CVM for the Al-Zr FCC solid solution and the MQMPA for the Al-Zr and the Cu-Zr liquid phase respectively. The extended thermodynamic study of these systems allow the introduction of a new type of configuration-dependent excess parameters in the definition of the thermodynamic function of solid solutions described by the CVM or the CSA. These parameters greatly improve the precision of these thermodynamic models based on experimental evidences found in the literature. A new parameterization approach of the MQMPA model of metallic liquid solutions is presented throughout this work. In this new approach, calculated pair fractions obtained from MC/MD simulations are taken into account as well as configuration-independent volumetric relaxation effects (regular like excess parameters) in order to parameterize precisely the Gibbs energy function of metallic melts. The generation of a complete set of fully consistent thermodynamic, physical and structural data for solid, liquid, and stoichiometric compounds and the subsequent parameterization of their respective thermodynamic model lead to the first description of the complete Al-Zr phase diagram in the range of composition [0 ≤ XZr ≤ 5 / 9] based on theoretical and fully consistent thermodynamic properties. MC and MD simulations are performed for the Al-Zr system to define for the first time the precise thermodynamic behaviour of the amorphous phase for its entire range of composition. Finally, all the thermodynamic models for the liquid phase, the FCC solid solution and the amorphous phase are used to define conditions based on thermodynamic and volumetric considerations that favor the amorphization of Al-Zr alloys.
NASA Astrophysics Data System (ADS)
Altamirano, Felipe Ignacio Castro
This dissertation focuses on the problem of designing rates in the utility sector. It is motivated by recent developments in the electricity industry, where renewable generation technologies and distributed energy resources are becoming increasingly relevant. Both technologies disrupt the sector in unique ways. While renewables make grid operations more complex, and potentially more expensive, distributed energy resources enable consumers to interact two-ways with the grid. Both developments present challenges and opportunities for regulators, who must adapt their techniques for evaluating policies to the emerging technological conditions. The first two chapters of this work make the case for updating existing techniques to evaluate tariff structures. They also propose new methods which are more appropriate given the prospective technological characteristics of the sector. The first chapter constructs an analytic tool based on a model that captures the interaction between pricing and investment. In contrast to previous approaches, this technique allows consistently comparing portfolios of rates while enabling researchers to model with a significantly greater level of detail the supply side of the sector. A key theoretical implication of the model that underlies this technique is that, by properly updating the portfolio of tariffs, a regulator could induce the welfare maximizing adoption of distributed energy resources and enrollment in rate structures. We develop an algorithm to find globally optimal solutions of this model, which is a nonlinear mathematical program. The results of a computational experiment show that the performance of the algorithm dominates that of commercial nonlinear solvers. In addition, to illustrate the practical relevance of the method, we conduct a cost benefit analysis of implementing time-variant tariffs in two electricity systems, California and Denmark. Although portfolios with time-varying rates create value in both systems, these improvements differ enough to advise very different policies. While in Denmark time-varying tariffs appear unattractive, they at least deserve further revision in California. This conclusion is beyond the reach of previous techniques to analyze rates, as they do not capture the interplay between an intermittent supply and a price-responsive demand. While useful, the method we develop in the first chapter has two important limitations. One is the lack of transparency of the parameters that determine demand substitution patterns, and demand heterogeneity; the other is the narrow range of rate structures that could be studied with the technique. Both limitations stem from taking as a primitive a demand function. Following an alternative path, in the second chapter we develop a technique based on a pricing model that has as a fundamental building block the consumer utility maximization problem. Because researchers do not have to limit themselves to problems with unique solutions, this approach significantly increases the flexibility of the model and, in particular, addresses the limitations of the technique we develop in the first chapter. This gain in flexibility decreases the practicality of our method since the underlying model becomes a Bilevel Problem. To be able to handle realistic instances, we develop a decomposition method based on a non-linear variant of the Alternating Direction Method of Multipliers, which combines Conic and Mixed Integer Programming. A numerical experiment shows that the performance of the solution technique is robust to instance sizes and a wide combination of parameters. We illustrate the relevance of the new method with another applied analysis of rate structures. Our results highlight the value of being able to model in detail distributed energy resources. They also show that ignoring transmission constraints can have meaningful impacts on the analysis of rate structures. In addition, we conduct a distributional analysis, which portrays how our method permits regulators and policy makers to study impacts of a rate update on a heterogeneous population. While a switch in rates could have a positive impact on the aggregate of households, it could benefit some more than others, and even harm some customers. Our technique permits to anticipate these impacts, letting regulators decide among rate structures with considerably more information than what would be available with alternative approaches. In the third chapter, we conduct an empirical analysis of rate structures in California, which is currently undergoing a rate reform. To contribute to the ongoing regulatory debate about the future of rates, we analyze in depth a set of plausible tariff alternatives. In our analysis, we focus on a scenario in which advanced metering infrastructure and home energy management systems are widely adopted. Our modeling approach allows us to capture a wide variety of temporal and spatial demand substitution patterns without the need of estimating a large number of parameters. (Abstract shortened by ProQuest.).
NASA Astrophysics Data System (ADS)
Zidane, Shems
This study is based on data acquired with an airborne multi-altitude sensor on July 2004 during a nonstandard atmospheric event in the region of Saint-Jean-sur-Richelieu, Quebec. By non-standard atmospheric event we mean an aerosol atmosphere that does not obey the typical monotonic, scale height variation employed in virtually all atmospheric correction codes. The surfaces imaged during this field campaign included a diverse variety of targets : agricultural land, water bodies, urban areas and forests. The multi-altitude approach employed in this campaign allowed us to better understand the altitude dependent influence of the atmosphere over the array of ground targets and thus to better characterize the perturbation induced by a non-standard (smoke) plume. The transformation of the apparent radiance at 3 different altitudes into apparent reflectance and the insertion of the plume optics into an atmospheric correction model permitted an atmospheric correction of the apparent reflectance at the two higher altitudes. The results showed consistency with the apparent validation reflectances derived from the lowest altitude radiances. This approach effectively confirmed the accuracy of our non-standard atmospheric correction approach. This test was particularly relevant at the highest altitude of 3.17 km : the apparent reflectances at this altitude were above most of the plume and therefore represented a good test of our ability to adequately correct for the influence of the perturbation. Standard atmospheric disturbances are obviously taken into account in most atmospheric correction models, but these are based on monotonically decreasing aerosol variations with increasing altitude. When the atmospheric radiation is affected by a plume or a local, non-standard pollution event, one must adapt the existing models to the radiative transfer constraints of the local perturbation and to the reality of the measurable parameters available for ingestion into the model. The main inputs of this study were those normally used in an atmospheric correction : apparent at-sensor radiance and the aerosol optical depth (AOD) acquired using ground-based sunphotometry. The procedure we employed made use of a standard atmospheric correction code (CAM5S, for Canadian Modified 5S, which comes from the 5S radiative transfer model in the visible and near infrared) : however, we also used other parameters and data to adapt and correctly model the special atmospheric situation which affected the multi-altitude images acquired during the St. Jean field campaign. We then developed a modeling protocol for these atmospheric perturbations where auxiliary data was employed to complement our main data-set. This allowed for the development of a robust and simple methodology adapted to this atmospheric situation. The auxiliary data, i.e. meteorological data, LIDAR profiles, various satellite images and sun photometer retrievals of the scattering phase function, were sufficient to accurately model the observed plume in terms of a unusual, vertical distribution. This distribution was transformed into an aerosol optical depth profile that replaced the standard aerosol optical depth profile employed in the CAM5S atmospheric correction model. Based on this model, a comparison between the apparent ground reflectances obtained after atmospheric corrections and validation values of R*(0) obtained from the lowest altitude data showed that the error between the two was less than 0.01 rms. This correction was shown to be a significantly better estimation of the surface reflectance than that obtained using the atmospheric correction model. Significant differences were nevertheless observed in the non-standard solution : these were mainly caused by the difficulties brought about by the acquisition conditions, significant disparities attributable to inconsistencies in the co-sampling / co-registration of different targets from three different altitudes, and possibly modeling errors and / or calibration. There is accordingly room for improvement in our approach to dealing with such conditions. The modeling and forecasting of such a disturbance is explicitly described in this document: our goal in so doing is to permit the establishment of a better protocol for the acquisition of more suitable supporting data. The originality of this study stems from a new approach for incorporating a plume structure into an operational atmospheric correction model and then demonstrating that the approach was a significant improvement over an approach that ignored the perturbations in the vertical profile while employing the correct overall AOD. The profile model we employed was simple and robust but captured sufficient plume detail to achieve significant improvements in atmospheric correction accuracy. The overall process of addressing all the problems encountered in the analysis of our aerosol perturbation helped us to build an appropriate methodology for characterizing such events based on data availability, distributed freely and accessible to the scientific community. This makes our study adaptable and exportable to other types of non-standard atmospheric events. Keywords : non-standard atmospheric perturbation, multi-altitude apparent radiances, smoke plume, Gaussian plume modelization, radiance fit, AOD, CASI
Reframing HIV care: putting people at the centre of antiretroviral delivery
Duncombe, Chris; Rosenblum, Scott; Hellmann, Nicholas; Holmes, Charles; Wilkinson, Lynne; Biot, Marc; Bygrave, Helen; Hoos, David; Garnett, Geoff
2015-01-01
The delivery of HIV care in the initial rapid scale-up of HIV care and treatment was based on existing clinic-based models, which are common in highly resourced settings and largely undifferentiated for individual needs. A new framework for treatment based on variable intensities of care tailored to the specific needs of different groups of individuals across the cascade of care is proposed here. Service intensity is characterised by four delivery components: (i) types of services delivered, (ii) location of service delivery, (iii) provider of health services and (iv) frequency of health services. How these components are developed into a service delivery framework will vary across countries and populations, with the intention being to improve acceptability and care outcomes. The goal of getting more people on treatment before they become ill will necessitate innovative models of delivering both testing and care. As HIV programmes expand treatment eligibility, many people entering care will not be ‘patients’ but healthy, active and productive members of society 1. To take the framework to scale, it will be important to: (i) define which individuals can be served by an alternative delivery framework; (ii) strengthen health systems that support decentralisation, integration and task shifting; (iii) make the supply chain more robust; and (iv) invest in data systems for patient tracking and for programme monitoring and evaluation. La délivrance des soins du VIH dans le déploiement initial rapide des soins et du traitement du VIH a été basée sur des modèles existants dans les cliniques, qui sont courants dans les régions bénéficiant d’importantes ressources et largement indifférenciées pour les besoins individuels. Un nouveau cadre est proposé ici pour le traitement basé selon les intensités variables de soins, adaptés aux besoins spécifiques des différents groupes de personnes à travers la cascade de soins. L’intensité des services est caractérisée par quatre éléments de délivrance: (1) les types de services délivrés, (2) l’emplacement de la délivrance des services, (3) Les prestataires des services de santé et (4) la fréquence des services de santé. La façon dont ces éléments sont développés dans un cadre de prestation de services peut varier selon les pays et les populations, l’intention étant d’améliorer les résultats d’acceptabilité et des soins. Le but d’obtenir plus de personnes sous traitement avant qu’ils ne tombent malades nécessitera des modèles innovateurs de prestation à la fois pour dépistage et pour les soins. Comme les programmes VIH étendent l’éligibilité au traitement, beaucoup de gens qui entrent dans les soins ne seront pas des “malades- mais des éléments sains de la société, actifs et productifs. Afin de tenir le cadre à l’échelle, il sera important de: (1) définir les individus qui peuvent être traités par un cadre alternatif de prestation, (2) renforcer les systèmes de santé qui soutiennent la décentralisation, l’intégration et le transfert des tâches; (3) rendre la chaîne d’approvisionnement plus robuste et (4) investir dans des systèmes de données pour le suivi des patients et pour le suivi et l’évaluation du programme. Los servicios de atención del VIH durante el inicio de la primera etapa de rápida expansión del tratamiento y cuidados del VIH estaban basados en modelos clínicos existentes, comunes en lugares con abundancia de recursos y poco diferenciados en cuanto a necesidades individuales. Aquí se propone un nuevo marco para el tratamiento basado en intensidades variables de cuidados, hecho a medida según las necesidades específicas de los diferentes grupos de individuos a lo largo del tratamiento. La intensidad del servicio se caracteriza por cuatro componentes de entrega: (1) tipología de los servicios ofrecidos, (2) lugar de entrega de los servicios, (3) proveedor de los servicios sanitarios, y (4) frecuencia de los servicios sanitarios. El cómo estos componentes conforman un marco de entrega de servicios variará según el país y la población, con la intención de mejorar la aceptabilidad y los resultados de los cuidados. El objetivo de conseguir que más personas reciban tratamiento antes de que enfermen requerirá de modelos innovadores en la oferta tanto de pruebas para detección como de los cuidados. A medida que los programas para el VIH expandan los criterios de elegibilidad para el tratamiento, muchas de las personas que comiencen a recibir cuidados no serán “pacientes- sino miembros sanos, activos y productivos de la sociedad. Con el fin de expandir la escala de esta estructura, sería importante: (1) definir cuales individuos pueden ser atendidos dentro de un marco de entrega de servicios alternativo; (2) fortalecer los sistemas sanitarios que apoyan la descentralización, integración y delegación de funciones; (3) robustecer la cadena de proveedores; e (4) invertir en sistemas de datos para el seguimiento de pacientes y para la monitorización y evaluación de programas. PMID:25583302
Constraints on planetary formation from the discovery & study of transiting Extrasolar Planets
NASA Astrophysics Data System (ADS)
Triaud, A. H. M. J.
2011-08-01
After centuries of wondering about the presence of other worlds outside our Solar System, the first extrasolar planets were discovered about fifteen years ago. Since the quest continued. The greatest discovery of our new line of research, exoplanetology, has probably been the large diversity that those new worlds have brought forward; a diversity in mass, in size, in orbital periods, as well as in the architecture of the systems we discover. Planets very different from those composing our system have been detected. As such, we found hot Jupiters, gas giants which orbital period is only of a few days, mini-Neptunes, bodies five to ten time the mass of the Earth but covered by a thick gas layer, super-Earths of similar masses but rocky, lava worlds, and more recently, maybe the first ocean planet. Many more surprises probably await us. This thesis has for subject this very particular planet class: the hot Jupiters. Those astonishing worlds are still badly understood. Yet, thanks to the evolution of observational techniques and of the treatment of their signals, we probably have gathered as much knowledge from these worlds, than what was known of our own gas giants prior to their visit by probes. They are laboratories for a series of intense physical phenomena caused by their proximity to their star. Notably, these planets are found in average much larger than expected. In addition to these curiosities, their presence so close to their star is abnormal, the necessary conditions for the formation of such massive bodies, this close, not being plausible. Thus it is more reasonable to explain their current orbits by a formation far from their star, followed by an orbital migration. It is on this last subject that this thesis is on: the origin of hot Jupiters. The laws of physics are universal. Therefore, using the same physical phenomena, we need to explain the existence of hot Jupiters, while explaining why the Jupiter within our Solar System is found five times the Earth-Sun distance. In Astronomy, we cannot do experiments; we are a part of it. Instead, we search and characterise several similar objects in order to extract information out of them statistically. To answer our question, we needed to find several objects and detect the clues from their past history bringing us back to the processes that led to their formation. There are several manners with which one can find planets. For this thesis, the so-called transit method was used. It consists in detecting a periodic loss of light from a star in front of which a planet passes: a transit. This method is particularly sensitive to the presence of hot Jupiters. During this thesis, about fifty planets of such type have been discovered, about a third of the known hot Jupiters. Those planets are confirmed thanks to radial velocity measurements, the same technique that led to the discovery of the first extrasolar planet, around the star 51 Pegasi. The analysis of the stellar light affected by the presence of a planet around it, notably the light received during transit, allows us to know about the mass, the size of the planet, its orbital period, the shape of its orbit, its temperature, even the chemical composition of its atmosphere. Furthermore, these observations give us the occasion to study the star around which is found the planet, such as its mass, its size, its rotation speed, as well as give estimates on its age. One type of observations was employed in particular: the Rossiter-McLaughlin effect. During transit, this effect creates an anomaly compared to the expected radial velocities. Through a modelisation of this anomaly, it is possible to measure the projection of the angle between the orbital plane of the planet and the equatorial plane of the star, on the sky. In our System, all planets are located more or less in a same plane : the ecliptic. The equatorial plane of the Sun is also almost aligned with the ecliptic. This observation led Kant and Laplace to postulate on the formation of planets from matter spread in the form of a primordial disc around the Sun; such discs are nowadays observed around young stars. This angle was measured for the newly discovered planets, and, surprisingly, instead of observing planets in orbit above the equator of their star, a wide variety was found. Some planets are even in orbit in the direction counter to that which was expected. Those observations, combined with others of similar type, as well as with those already known parameters from that astonishing planet population, allow us to explore the phenomena that occurred probably soon after their formation. Those hot Jupiters have had an eventful history. When the disc in which they formed dissipated, gravitational interactions with other planets in the same system, or caused by the presence of another star in the system, have led those gas giants on inclined, some retrograde, and very elliptic orbits. During their regular passage at the closest point with their star, the dissipation of tidal forces within the planet and the star induced a circularisation and a reduction of their orbital periods, on which we observe them nowadays.
NASA Astrophysics Data System (ADS)
Rioux, David
Metallic nanoparticles (NPs) constitute a research area that has been booming in the recent decades. Among them the plasmonic NPs, which are composed of noble metals such as gold and silver, are the best known and possess extraordinary optical properties. Their ability to strongly absorb and scatter light on a specific band in the visible wavelengths gives them a very intense coloration. Moreover, these structures strongly concentrate the light near their surface upon illumination. These properties can be exploited in a variety of applications from biomedical imaging to detection and even for improving the performance of solar cells. Although gold and silver are the most widely used materials for plasmonic NPs, it has long been known that their alloys have optical properties equally interesting with the added benefit that their color can be controlled by the gold-silver ratio of the alloy. Nevertheless, the gold-silver alloy NPs are not frequently used in different applications. The main reason is probably that the synthesis of these NPs with good size control has not been demonstrated yet. Many applications, including imaging, require NPs which strongly scatter light. Large NPs (50 nm and more) are often required since they scatter light more efficiently. However, the different synthesis methods used until now to produce gold-silver alloy NPs result in sizes smaller than 30 nm or very polydisperse samples, making them unattractive for these applications. The potential to use gold-silver alloy NPs is therefore based on the ability to manufacture them with a sufficiently large diameter and with good size control. It is also important to be able to predict in advance the optical properties of gold-silver alloy nanostructures, to help guide the design of these structures depending on the intended properties. This requires knowledge of the dielectric function of the alloys according to their composition. Although the dielectric function was measured experimentally several times, tabular data are often limited to a few specific compositions and an analytical model would be more interesting. This thesis focuses on the study and modeling of the optical properties of gold-silver alloy NPs, on their synthesis as well as an application example; using these NPs as cell markers for multiplexed scattering imaging. The first part of this thesis deals with a study of the dielectric function of gold-silver alloys in order to develop an analytical model to calculate the dielectric function for an arbitrary composition of the alloy. This model considers the contribution of the free and bound electrons of the metal to the dielectric function. The contribution of free electrons is calculated using the Drude model while the contribution of bound electrons was modeled by studying the shape of the interband transitions from the study of the gold and silver band structures. A parameterized model incorporating these two contributions was developed and composition dependence comes from the evolution of these parameters depending on the composition. The model was validated by comparing the spectra of experimental extinctions alloy NPs with the spectra calculated by the Mie theory using the dielectric functions determined from this model. This model has also been very useful to predict the optical properties and characterize NPs produced by a new synthesis method developed during this PhD project. This method allowed the synthesis of spherical gold-silver alloy NPs with controlled size and composition while maintaining a small size distribution. This technique relies on the combination of two known methods. The first, being used for the synthesis of small alloy NPs, is based on the chemical co-reduction of gold and silver salts in aqueous solution. The second, used for the synthesis of gold or silver NPs of controlled size, is the seed-mediated growth method. Using this new approach, the synthesis sized gold-silver alloy NPs with sizes controlled between 30 and 150 nm has been demonstrated. The synthesized NPs do not have a homogeneous composition with a gold-rich core and a silver-rich surface. This non-homogeneous composition affects the optical properties for the smallest particles (˜ 30 nm) by broadening the plasmon peak and making it asymmetrical, but its effect is considerably less important for larger particles (˜ 60 nm and more) where the measured plasmon peak is similar to that predicted for a homogeneous particle. This new synthesis method thus provides the ability to synthesize high quality alloy NPs for applications requiring controlled size and a precise plasmon peak position. These NPs were used in scattering imaging and their potential as cell markers was studied. It has been shown that the darkfield imaging, a standard technique for scattering imaging, is not optimal for the observation of NPs on cells because of the strong scattering signal of the latter. An alternative approach based on the detection of the backscattering of the NPs was proposed. This approach provides better contrast for the NPs as their backscatter signal is much stronger than that of the cells. In this thesis, a semi-quantitative study of the contrast of the NPs relative to cells explain why the backscattering approach is more promising than the darkfield imaging for cell labeling. Overall, this thesis covers many aspects of the gold-silver alloy NPs, either theoretical understanding of the optical properties, the development of the synthesis method and an application example. It also paves the way for many other avenues of research in the optimization of the method of synthesis of the particles as well as in their use in imaging applications and others.
NASA Astrophysics Data System (ADS)
Benadja, Mounir
Dans ce travail est presente un systeme de generation d'energie d'un parc eolien offshore et un systeme de transport utilisant les stations VSC-HVDC connectees au reseau principal AC onshore. Trois configurations ont ete etudiees, modelisees et validees par simulation. Dans chacune des configurations, des contributions ameliorant les cotes techniques et economiques sont decrites ci-dessous : La premiere contribution concerne un nouvel algorithme MPPT (Maximum Power Point Tracking) utilise pour l'extraction de la puissance maximale disponible dans les eoliennes des parcs offshores. Cette technique d'extraction du MPPT ameliore le rendement energetique de la chaine de conversion des energies renouvelables notamment l'energie eolienne a petite et a grande echelles (parc eolien offshore) qui constitue un probleme pour les constructeurs qui se trouvent confrontes a developper des dispositifs MPPT simples, moins couteux, robustes, fiables et capable d'obtenir un rendement energetique maximal. La deuxieme contribution concerne la reduction de la taille, du cout et de l'impact des defauts electriques (AC et DC) dans le systeme construit pour transporter l'energie d'un parc eolien offshore (OWF) vers le reseau principal AC onshore via deux stations 3L-NPC VSCHVDC. La solution developpee utilise des observateurs non-lineaires bases sur le filtre de Kalman etendu (EKF). Ce filtre permet d'estimer la vitesse de rotation et la position du rotor de chacune des generatrices du parc eolien offshore et de la tension du bus DC de l'onduleur DC-AC offshore et des deux stations 3L-NPC-VSC-HVDC (offshore et onshore). De plus, ce developpement du filtre de Kalman etendu a permis de reduire l'impact des defauts AC et DC. Deux commandes ont ete utilisees, l'une (commande indirect dans le plan abc) avec EKF integre destinee pour controler le convertisseur DC-AC offshore et l'autre (commande d-q) avec EKF integre pour controler les convertisseurs des deux stations AC-DC et DC-AC tout en tenant compte des entrees de chacune des stations. L'integration des observateurs non-lineaires (EKF) dans le controle des convertisseurs permet de resoudre le probleme des incertitudes de mesure, des incertitudes dans la modelisation, en cas du dysfonctionnement ou de panne des capteurs de mesure ainsi que le probleme de l'impact des defauts (AC et DC) sur la qualite d'energie dans les systemes de transmission. Ces estimations contribuent a rendre le cout global du systeme moins cher et sa taille moins encombrante ainsi que la reduction de l'impact des defauts (AC et DC) sur le systeme. La troisieme contribution concerne la reduction de la taille, du cout et de l'impact des defauts electriques (AC et DC) dans le systeme construit pour transporter l'energie d'un parc eolien offshore (OWF) vers le reseau principal AC onshore via deux stations VSC-HVDC. La solution developpee utilise des observateurs non-lineaires bases sur le filtre de Kalman etendu (EKF). Ce filtre permet d'estimer la vitesse de rotation et la position du rotor de chacune des generatrices du parc eolien et de la tension du bus DC de l'onduleur DC-AC offshore. La contribution porte surtout sur le developpement des deux commandes des deux stations. La premiere, la commande non-lineaire modifiee pour controler le premier convertisseur de la station VSC-HVDC offshore assurant le transfert de la puissance generee par le parc eolien vers la station VSC-HVDC onshore. La deuxieme commande non-lineaire modifiee avec integration de la regulation de la tension du bus DC et de la commande a modele de reference adaptative (MRAC) pour la compensation des surintensites et surtensions durant les defauts AC et DC. On peut constater que lors d'un defaut AC au PCC (Point of Common Coupling) du cote reseau onshore, la profondeur de l'impact du defaut AC sur l'amplitude des courants du reseau principal AC onshore qui etait reduit a 60% par les travaux de recherche (Erlich, Feltes et Shewarega, 2014), comparativement a la nouvelle commande proposee MRAC qui reduit la profondeur de l'impact a 35%. Lors de l'apparition des defauts AC et DC, une reduction de l'impact des defauts sur l'amplitude des courants de reseau AC terrestre et du temps de reponse a ete observee et la stabilite du systeme a ete renforcee par l'utilisation de la commande adaptative basee sur le modele de reference MRAC. La quatrieme contribution concerne une nouvelle commande basee sur le mode de glissement (SM) appliquee pour la station VSC-HVDC qui relie le parc eolien offshore (OWF) au reseau principal AC. Ce parc est compose de dix eoliennes basees sur des generatrices synchrones a aimant permanent (VSWT/PMSGs) connectees en parallele et chacune est controlee par son propre convertisseur DC-DC. Une comparaison des performances entre la commande SM et de la commande non-lineaire avec des controleurs PI pour les deux conditions (presence et absence de defaut DC) a ete analysee et montre la superiorite de la commande par SM. Un prototype du systeme etudie a echelle reduite a ete realise et teste au laboratoire GREPCI en utilisant la carte dSPACE-DS1104 pour la validation experimentale. L'analyse et la simulation des systemes etudies sont developpees sous l'environnement Matlab/Simulink/Simpowersystem. Les resultats obtenus a partir des configurations developpees sont valides par simulation et par experimentation. Les performances sont tres satisfaisantes du point de vue reponse dynamique, reponse en regime permanent, stabilite du systeme et qualite de l'energie.
NASA Astrophysics Data System (ADS)
Vekemans, Odile Geraldine
Coal supplies around 28% of the world's energy needs and produces some 40% of the world's electricity. In the United States, close to 650 coal power plants currently produce electricity from coal, the majority of witch are equipped with pulverized coal boilers build in the 80's. Due to coal's intrinsic content in nitrogen and sulfur, its combustion is associated with high levels of NOx and SO2 emissions, that are responsible, among other thing, for acid rains. In order to help reduce SO2 emissions of coal power plant, this thesis focuses on the behaviour of a novel feedstock called ReEF(TM) or ReEngineered Feedstock(TM), developed by the company Accordant Energy LLCRTM, that combines non recyclable waste and alkaline sorbent. Since waste have a high calorific value and do not contain sulfur, and since alkaline sorbents (such as limestone) are able to react with SO2 and capture it in solid state, co-combustion of ReEF(TM) and coal could reduce SO2 emissions inside the furnace chamber itself. This technology easy to implement, as it requires a limited initial investment and limited additional space, could help avoid the construction of costly flue gas treatment unit downstream from the furnace. However, careless combustion of this engineered fuel could have disastrous consequences for the coal power plant owners. This thesis, then, deliver one among the first experimental study of co-combustion of coal and ReEF(TM) in conditions characteristic of pulverized coal boilers. As a first step, in order to get familiarize with the feedstock under study, the thermal degradation of a ReEF(TM) without sorbent and of its components is analyzed by thermogravimetry. With the analysis of more than 70 samples at heating rates ranging from 5°C/min to 400°C/min we are able to conclude that ReEF(TM) thermal degradation can be seen as the independent thermal degradation of its components, as long as heat transfer limitations are taken into account. Thus, no substantial chemical interactions between ReEF(TM) components take place during its devolatilization. During the second step of this study, performances of the co-firing of coal and sorbent are compared to that of co-combustion of coal and ReEF(TM) without sorbent. This is carried out in a reactor specially build for this study, capable of reproducing the contact mode between gas and particles, the concentrations, the temperature gradient and the pressure typical of pulverized coal boiler. SO2 emissions reduction around 20% are observed in presence of CaCO3 and of Ca(OH)2 compared to the coal baseline, reduction that generally increased with the increase of sorbent molar ratio compared to sulfur (also called stoic). As for the co-combustion of 20%th of ReEF(TM) and coal, a SO2 emission reduction around 20% is also measured, with no clear effect of ReEF(TM) composition (fiber to plastic ratio). On the other hand, the HCl level that is negligible during coal combustion with and without sorbent, reaches around 20ppm in presence of ReEF(TM), and increases proportionally with the ReEF(TM) plastic content. The first step of this work consists in the study of the co-combustion of coal and ReEF(TM) containing limestone (CaCO3), a mix of sodium bicarbonate (NaHCO3) and limestone, as well as a mix of trona (Na2CO3.NaHCO3.H2O) and limestone. The amount of sorbent in the ReEF(TM) as well as the feeding parameters are adjusted to reach a 20%th feeding of ReEF(TM) compared to coal, to inject sorbents at a stoic of 1, 2 and 2.5 and to obtain Na/Ca molar ratios of 0, 0.1 with trona and NaHCO3, and 0.5 with NaHCO 3 only. Globally, as in the case of sorbent alone, the increase of the total stoic of the feed leads to increased SO2 capture. For a given stoic, to combine waste and limestone in the ReEF(TM), compared to using limestone alone, allows to reach higher levels of SO2 emissions reduction. The combination of sodium-based and calcium-based sorbent even leads to record SO2 emissions reduction of more than 50% with trona, and more than 40% with NaHCO3, at gas residence time in the reactor four time smaller than typical residence time of PCB. Furthermore, the lower fuel-N content of the ReEF(TM), compared to coal, also leads to lower NOx emissions. Combustion of ReEF(TM) with trona is even associated with NOx emissions reduction of more than 50%, possibly due to sodium induced NO reduction. Finally, regarding HCl emissions, chlorine capture by the sorbents leads to HCl levels comparable to that of coal alone. Even if, from the point of view of pollutant emissions, the results are promising, co-feeding ReEF(TM) with sorbent was nonetheless associated with heavy formation of melted ash deposits in the reactor. Deposition probes are used to compare the magnitude of the deposition in function of the ReEF(TM) sorbent composition. With those probes, we are able to figure out that slag formation is quite severe in presence of NaHCO3, and all the more that the Na/Ca ratio is high, but is less severe in presence of limestone alone, and isn't at all problematic in presence of trona. Those results all seem to indicate that co-combustion of coal and 20%th ReEF(TM) containing limestone and trona at a Na/Ca ratio of 0.1 and at a total stoic of 2 is the most adequate composition for application in existing PCB. In all those experiments a single measure of the emissions at the exit of the reactor is conducted, the emissions being associated with a federate of gas and solid and a temperature profile along the reactor. In order to gain insight regarding the behaviour of the gas and the particles inside the reactor, a phenomenological model combining more than 30 reaction kinetics is developed. This model allows us, without any fitting parameter, to predict the CO2, SO2 and NOx emissions measured at the outlet of the reactor. This model is easily adapted to the different ReEF(TM) compositions and was able to take into account the various particle sizes. The model is then used to evaluate potential SO2 emissions reduction that could be obtain with ReEF(TM) co-combustion for a residence time and a temperature profile measured in an existing pulverized coal boiler. Those simulations indicate that SO2 emissions reduction up to 85% could be obtain at the exit of the furnace chamber with a 20%th coal feed substitution by ReEF(TM) containing limestone and trona. Co-combustion of ReEF(TM) in pulverized coal boiler is therefore sensible from the point of view of pulverized coal boiler environmental performances, as long as the ReEF(TM) composition is chosen wisely and is tested beforehand in conditions similar to that of PCB. Furthermore, since ReEF(TM) co-combustion allows electricity production at high efficiency from waste, it is also sensible in terms of waste energetic valorization.
NASA Astrophysics Data System (ADS)
Aspect, Alain
2004-11-01
COLOQ est une conférence regroupant, tous les deux ans, la communauté scientifique et industrielle nationale travaillant dans les domaines des lasers, de l'optique non-linéaire et de l'optique quantique. Elle s'est tenue pour sa huitième édition à Toulouse, du 3 au 5 septembre 2004, sur le campus de I'INSA. Comme il est de tradition tous les quatre ans, COLOQ était couplé avec Horizons de l'optique, avec en particulier une journée commune dont le programme avait été préparé en concertation par les deux comités scientifiques. Depuis sa création, COLOQ a pour but de favoriser les rencontres entre les chercheurs des différents laboratoires nationaux publics ou privés travaillant sur les lasers et l'optique quantique au sens large. C'est un moyen privilégié de resserrer les liens de cette communauté et d'y intégrer les jeunes chercheurs. Ces derniers y trouvent l'occasion de se connaître, de se faire connaître, de découvrir la communauté à laquelle ils appartiennent et d'élargir leurs connaissances des thèmes qui la structurent. La participation de 230 chercheurs et d'une vingtaine d'exposants de matériels spécialisés dans les lasers et l'optoélectronique témoigne de la vitalité de COLOQ et de son audience dans les laboratoires et chez les industriels de l'optique. Le programme de COLOQ 8 comportait d'une vingtaine de conférences générales données par des chercheurs de renom international, et des séances de communications par affiches, occasions privilégiées de rencontres et d'échanges. Les exposés ont porté sur des sujets particulièrement actifs au niveau national et international, avec un accent sur des thèmes importants pour la région toulousaine : contrôle cohérent, optique et nanosciences, optique et astronomie, sans oublier la traditionnelle rubrique phénomènes fondamentaux, éclectique pour ne pas dire hétéroclite, mais si représentative d'une des ambitions de COLOQ qui est d'offrir à ses participants une ouverture sur les recherches de base d'aujourd'hui qui seront peut-être les outils quotidiens de l'optique de demain. Quant aux 169 communications par affiches elles ont, suivant la règle, couvert sans restriction tous les sujets de l'optique actuelle. Ce volume spécial du Journal de Physique IV regroupe la majorité des conférences invitées et des communications par affiches. Profitant de la participation des mondes académique et industriel, un forum sur “innovation et nouveaux débouchés pour l'optique” a permis de dégager des raisons d'espoir pour l'emploi des chercheurs en optique. Enfin, renouvelant l'expérience d'éditions précédentes, la dernière demi journée a été consacrée à deux conférences qui étaient ouvertes à un public élargi, notamment les étudiants de l'université et des classes préparatoires ainsi que leurs enseignants. Si Antoine Labeyrie nous a laissés sans voix avec ses projets “hyperfuturistes” d'hypertélescopes à l'échelle du million de kilomètres, Pierre Lena nous a donné un moment de vrai bonheur en célébrant le mariage sans cesse renouvelé du toujours jeune couple que sont l'optique et l'astronomie : qu'il soit remercié aussi pour le magnifique teste publié dans ce volume. COLOQ se devait d'honorer la mémoire de deux personnalités hors du commun de l'optique, Jean Brossel et Gilbert Grynberg. Tous ceux qui avaient connu l'un ou l'autre ont pu apprécier la justesse des évocations, par d'anciens collaborateurs, de l'oeuvre scientifique mais aussi des personnalités de ces deux grands physiciens. On trouvera les textes de ces interventions émouvantes dans ce recueil. La réussite de COLOQ 8 est évidemment due; avant tout, à la qualité scientifique des présentations, mais elle repose aussi sur l'action conjuguée des comités d'organisation national et local. Au niveau local, Françoise Lozes et Jacques Vigué ont mobilisé les membres du LCAR-IRSAMC et du LAAS pour l'organisation conjointe - particulièrement réussie - de COLOQ et Horizons de l'Optique, qui ont pu bénéficier de l'aide de I'INSA pour les locaux. COLOQ ne serait pas ce qu'il est sans le généreux soutien des diverses instances publiques nationales, régionales, locales, et à la forte participation des sociétés industrielles du secteur optoélectronique et laser qui nous ont permis de maintenir les frais d'inscription à un niveau particulièrement raisonnable, en particulier pour les jeunes. Que tous ces donateurs, dont on trouvera la liste dans ce volume soient ici remerciés ! Une mention spéciale à la Société Française d'Optique qui facilite tellement l'organisation de COLOQ depuis de nombreuses années. Au moment de quitter la présidence du comité scientifique national de COLOQ, après quatre éditions m'ayant permis de parcourir l'hexagone du nord an sud et de l'est à l'ouest, je tiens à témoigner de la richesse et de la vitalité de la communauté française de l'optique, que j'ai pu apprécier aussi bien au sein du comité scientifique national que des divers comités locaux de Strasbourg, Bordeaux, Rennes, Toulouse. C'est aussi l'occasion de dire mon émerveillement renouvelé devant la vitalité de notre discipline, qui ne cesse d'ouvrir de nouveaux champs de recherche, et où des sujets très “amonts”, parfois exotiques, donnent régulièrement lieu à des développements techniques et industriels qui ont un impact sur toute la société. Je ne vois pas que cette vitalité donne le moindre signe d'essoufflement, bien au contraire - je suis sûr que les prochaines éditions de COLOQ en témoigneront, et je souhaite que ce message soit entendu par les plus jeunes qui s'interrogent sur leur avenir professionnel. Alain Aspect Orsay, printemps 2004
NASA Astrophysics Data System (ADS)
Lanteigne, Jean-Remi
The present thesis covers an applied study on tire pyrolysis. The main objective is to develop tools to allow predicting the production and the quality of oil from tire pyrolysis. The first research objective consisted in modelling the kinetics of tires pyrolysis in a reactor, namely an industrial rotary drum operating in batch mode. A literature review performed later demonstrated that almost all kinetics models developed to represent tire pyrolysis could not represent the actual industrial process with enough accuracy. Among the families of kinetics models for pyrolysis, three have been identified: models with one single global reaction, models with multiple combined parallel reactions, and models with multiple parallel and series reactions. It was observed that these models show limitations. In the models with one single global reaction and with multiple parallels reactions, the production of each individual pyrolytic product cannot be predicted, but only for combined volatiles. Morevoer, the mass term in the kinetics refers to the final char weight (Winfinity) that varies with pyrolysis conditions, which yields less robust models. Also, despite the fact that models with multiple parallels and series reactions can predict the rate of production for each pyrolysis product, the selectivities are determined for operating temperatures instead of real mass temperatures, giving models for which parameters tuning is not adequate when used at the industrial scale. A new kinetics model has been developed, allowing predicting the rate of production of noncondensable gas, oil, and char from tire pyrolysis. The novelty of this model is the consideration of intrinsic selectivities for each product as a function of temperature. This hypothesis has been assumed valid considering that in the industrial pyrolysis process, pyrolysis kinetics is limiting. The developed model considers individual kinetics for each of the three pyrolytic products proportional to the global decomposition kinetics of pyrolysables. The simulation with data obtained in industrial operation showed the robustness of the model to predict with accuracy in transient regime, tires pyrolysis, with the help of model parameters obtained at laboratory scale, namely in regards of the trigger of production, the residence time of tires (dynamic production) and the amount of oil produced (cumulative yield). It is a novel way to model pyrolysis that could be extrapolated to new waste materials. The second objective of this doctoral research was to determine the evolution of specific tires specific heat during pyrolysis and the enthalpy of pyrolysis. The origin of this objective comes from a primary contradiction. With few exceptions, it is acknowledged that organic materials pyrolysis is globally an endothermic phenomenon. At the opposite, all experiments led with laboratory apparatuses such as DSC (Differential Scanning Calorimetry) showed exothermic peaks during dynamic experiments (constant heating rate). It has been confirmed by results obtained at the industrial scale, where no sign of exothermicity has been observed. The Hess Law has also confirmed these results, that globally, pyrolysis is indeed a completely endothermic process. An accurate energy balance is required to predict mass temperature during pyrolysis, this parameter being unbindable from kinetics. An advanced investigation of char first allowed demonstrating that specific heat of solids during pyrolysis decreases with increasing temperature until the weight loss peak is reached, around 400°C, and then starts increasing again. This observation, combined with the fact that the sample loses weight during pyrolysis is considered as the major cause of the apparition of an exothermic peak in laboratory scale experiments. That is, the control system of these apparatuses generates a bias and an unavoidable overheat of the samples producing this exothermic behavior. It would thus be an artifact. On the base of new data on the evolution of global specific heat during pyrolysis, a model of the energy balance has been developed at the industrial scale to determine the enthalpy of pyrolysis. The simulation has shown that a major part of the heat transferred to the pyrolized mass would make its temperature increase. Next, an enthalpy of pyrolysis dependent of weight loss was obtained. Finally, two other terms of enthalpy have been found, namely an enthalpy for the breakage of sulfur bridges and an enthalpy for the stabilization of char when conversion approaches completion. This research will have allowed establishing a novel general methodology to determine the enthalpy of pyrolysis. More particularly, new clarifications hasve been obtained in regards to the evolution of specific heat of solids during pyrolysis and new enthalpies of pyrolysis, all endothermic, could be obtained, in agreement with the theoretical expectations. The third research objective concerned the behavior of sulfur during tires pyrolysis. With as a premise that sulfur is an intrinsic contaminant of many types of waste, it is critical to clarify its fate during pyrolysis, in the present case for waste tires. It has been observed in the literature that some quantitative analyses had been presented, but generally, the mechanisms for the distribution of sulfur within the pyrolytic products remain unclear. Thus, it was then not possible to predict the transfer of sulfur to each of the tire pyrolysis products. The results taken form literature have been complemented with a series of TGA experiments followed by complete elemental analyses of the residual solids. Mass balances have been performed in order to characterize the distribution of elements within the three products (noncondensable gas, oil, and char). A novel parameter has been created during this research: the sulfur loss selectivity. This intrinsic selectivity is a prediction of the distribution of sulfur within the pyrolysis products as a function of temperature. Three phenomena has been identified that could affect the sulfur loss selectivity. First, the natural devolatilization of sulfur due to pyrolysis. Next, the sulfur devolatilization due to the desulfurization of the solid matrix by hydrogen and finally, the clustering of sulfur in the solid state due to metal sulfidation (zinc and iron). The results have shown that this selectivity reach a limit value of 1 when pyrolysis is limited by the kinetics and in the absence of metal. When the mass transfer is limiting at low temperature (<500°C) the selectivity will be greater than 1. At a temperature over 350°C with the presence of metals, the selectivity will be lower than 1. It is a useful tool for industrial pyrolysis processes, being a novel indicator for the distribution of contaminants during the pyrolysis of waste. A better comprehension of these mechanisms allows elaborating a better strategy when designing these industrial processes. For example, in light of this research, it could be preferable to pre-treat the tires at lower temperature to eliminate a significant part of sulfur before pyrolyzing them at high temperature. The resulting pyrolytic products would then necessitate a lighter purification post-treatment, being more efficient and more economical.
Bletter, Nathaniel
2007-01-01
Background Although ethnomedically and taxonomically guided searches for new medicinal plants can improve the percentage of plants found containing active compounds when compared to random sampling, ethnobotany has fulfilled little of its promise in the last few decades to deliver a bounty of new, laboratory-proven medicinal plants and compounds. It is quite difficult to test, isolate, and elucidate the structure and mechanism of compounds from the plethora of new medicinal plant uses described each year with limited laboratory time and resources and the high cost of clinical trials of new drug candidates. Methods A new quantitative theoretical framework of mathematical formulas called "relational efficacy" is proposed that should narrow down this search for new plant-derived medicines based on the hypothesis that closely related plants used to treat closely related diseases in distantly related cultures have a higher probability of being effective because they are more likely to be independent discoveries of similar plant compounds and disease mechanisms. A prerequisite to this hypothesis, the idea that empirical testing in traditional medicine will lead to choosing similar medicinal plants and therefore the medicinal flora of two distant cultures will prove to be more similar than their general flora, is tested using resampling statistics on cross-cultural field data of the plants used by the Malinké of Mali and the Asháninka of Peru to treat the diseases malaria, African sleeping sickness, Chagas' disease, leishmaniasis, diabetes, eczema, asthma, and uterine fibroids. Results In this case, the similarity of the medicinal floras is found to be significantly greater than the similarity of the general floras, but only when the diseases in question are grouped into the categories of parasitic and autoimmune diseases. Conclusion If the central theoretical framework of this hypothesis is shown to be true, it will allow the synthesis of medicinal plant information from around the world to pinpoint the species with the highest potential efficacy to take into the laboratory and analyze further, ultimately saving much field and laboratory time and resources. Spanish abstract Las búsquedas que utilizan la etnomedicina y la taxonomía para descubrir nuevas plantas medicinales, pueden aumentar la probabilidad de éxito de encontrar compuestos químicos activos en plantas, en comparación con las búsquedas aleatorias. A pesar de lo anterior, en las últimas décadas, la etnobotánica no ha cumplido con las expectativas de proveer numerosas plantas medicinales y químicos nuevos una vez examinados en el laboratorio. Cada año se describen una plétora de plantas medicinales y sus usos, sin embargo las limitaciones de tiempo y recursos en los laboratorios, unidos al alto coste de los ensayos clínicos de las drogas potenciales, hacen muy difícil probar, aislar, y elucidar la estructura y el mecanismo de los compuestos de estas plantas. Se propone un nuevo marco teórico cuantitativo cuyo fin es focalizar la búsqueda de nueva plantas medicinales. Este marco teórico está basado en la hipótesis que las plantas cercanamente relacionadas, usadas para tratar enfermedades cercanamente relacionadas en culturas distantemente relacionadas, tienen una eficacia potencial más alta, debido a que es más probable que estos hallazgos sean descubrimientos independientes de compuestos químicos similares. Parte de esta hipótesis, que las escogencias racionales se hacen para elegir plantas medicinales similares y que la flora medicinal de dos culturas distantes es más similar que su flora general, se probó usando métodos estadísticos de remuestreo con datos de campo de la comunidad Malinké de Malí y de la Asháninka de Perú, y las enfermedades de paludismo, enfermedad africana del sueño, enfermedad de Chagas, leishmania, diabetes, eczema, asma, y fibromas uterinos. Se encontró, en este caso, que la similitud de las floras medicinales es significativamente mayor a la similitud de las floras generales, solamente cuando las enfermedades analizadas se agruparon en las categorías de enfermedades parasitarias y enfermedades autoinmunes. Si se demostrara que las otras partes de esta hipótesis son ciertas, se podría sintetizar la información sobre plantas medicinales alrededor del mundo, para establecer así las plantas potencialmente más eficaces para llevarlas al laboratorio y analizarlas más profundamente. French abstract Par rapport aux recherches menées de façon aléatoire, les recherches effectuées par des critères ethnobotaniques et taxonomiques ont de meilleures chances à découvrir de nouvelles plantes médicinales à produit chimique actifs. Pendant les dernières décennies pourtant, l'ethnobotanique a réalisé peu de ces promesses à révéler un grand nombre de plantes médicinales et de nouveaux produits chimiques, testés au laboratoire. Avec les ressources limitées pour la recherche au laboratoire et le coût élevé des épreuves cliniques pour trouver de nouveaux candidats aux médicaments, il est difficile d'étudier, d'isoler et d'élucider la structure et le mécanisme des produits chimiques de chacune des nombreuses plantes médicinales (et les utilisations de ces plantes) décrites chaque année. Nous proposons une nouvelle technique théorique et quantitative pour préciser la recherche de nouvelles plantes médicinales; elle est basée sur l'hypothèse que les plantes étroitement apparentées, employées pour traiter les maladies étroitement apparentées dans les cultures très éloignées les unes des autres, ont une potentialité d'efficacité supérieure parce qu'elles représentent la découverte indépendante des propriétés chimiques semblables des plantes. Une partie de cette hypothèse-qui démontre que la sélection des plantes médicinales semblables est un choix rationnel et qu'il y a davantage de ressemblance dans la flore médicinale de deux cultures éloignées que dans leur flore générale-est examinée par un re-échantillonnage des données de recherches effectuées parmi les Malinké au Mali et les Asháninka au Pérou, en particulier sur la malaria, la maladie africaine du sommeil, la maladie de Chagas, la leishmania, le diabète, l'eczéma, l'asthme et les fibromes utérins. Dans ces cas précis, la similitude de la flore médicinale s'avère sensiblement plus grande que la similitude de la flore générale, mais seulement quand les maladies en question sont regroupées ensemble comme maladies parasitaires et auto-immunitaires. Si cette hypothèse est prouvée, elle permettra la synthèse des informations recueillies sur les plantes médicinales du monde entier pour en sélectionner de façon plus précise celles qui sont les plus efficaces et qui méritent analyse plus approfondie au laboratoire. Asháninka abstract Aayiantyarori iròpero aavintane, ontzimatye ancovacovatero ayotero ovaqueraripaye incashi iyoyetziri ashaninka, ayotzityaro aajatzi iyotane viracocha paitachari "quimica" ancantero aaca oshintsinka inchashipaye. Atziri yotacotzirori cametsa, ishtoriajacotzirori iyotane ashaninkapaye te iroñàrantero maaroni ocaratzi yamenacotaqueri laboratorioki. Aaviantyarori cametsa, ayotacotero aavintarontsiyetatsiri osamani antzimaventero ishtoriatacotaro, aajatzi osheki opinata ampinaventero aparopaye inchashi, acoviriqui ayotacotero, osaretsikipaye. Tzimatsi ovaquerari quenquishiriantsitatsiri ero opinata osheki ashitoriatacotero aparopaye inchashi, asampiyetatyrey pashinipaye atziri saicatsiri intaina puitarika inchasshi yavintari, ajatzirica oshiyaro ayotzi aaca, quemetachari atziri saikatsiri nampitsiki malinke aajatzi ishiyari ashaninka saicatsiri peruki, tzimatsi inchashi aajatzi yaavintari osheki okamètsatzi aririka anteri mantsiyarentsi icantaitziri ompetarentsi catsirentsi, pochokirentsi, patsarontsi(matatsi) ashipetate maaroni, ampochavathate, ancainikentsite, oncatsithakite tsinani. Aririka añaker aajatzi ahiyaro inchashi yaavintayetari pashinipaye atziri intainasatzi irdotake ahitoriatacoperoteri anàashityard aavintarontsi ovamairiri shithanentsi, onàshitaavintarontsi tzicaacoventairi ero antane mantsiyarentsi. Omanperotatyarica iròperotzi avintarontsi, oshitovake laboratorioki aritaque iyoitanaquero maaroni quipatsiki iroperori avintarontsi. PMID:18053260
Some current methods to represent the heterogeneity of natural media in hydrogeology
NASA Astrophysics Data System (ADS)
de Marsily, G.; Delay, F.; Teles, V.; Schafmeister, M. T.
We have known for a long time that the material properties of the subsurface are highly variable in space. We have learned that this variability is due to the extreme complexity and variation with time of processes responsible for the formation of the earth's crust, from plate tectonics to erosion, sediment transport, and deposition, as well as to mechanical, climatic, and diagenetic effects. As geologists, we learned how to "read" this complex history in the rocks and how to try to extrapolate in space what we have understood. As physicists, we then learned that to study flow processes in such media we must apply the laws of continuum mechanics. As mathematicians using analytical methods, we learned that we must simplify by dividing this complex continuum into a small number of units, such as aquifers and aquitards, and describe their properties by (constant) equivalent values. In recent years, as numerical modelers, we learned that we now have the freedom to "discretize" this complex reality and describe it as an ensemble of small homogeneous boxes of continuous media, each of which can have different properties. How do we use this freedom? Is there a need for it? If the answer is "yes," how can we assign different rock-property values to thousands or even millions of such little boxes in our models, to best represent reality, and include confidence levels for each selected rock property? As a tribute to Professor Eugene S. Simpson, with whom the first author of this paper often discussed these questions, we present an overview of three techniques that focus on one property, the rock permeability. We explain the motivation for describing spatial variability and illustrate how to do so by the geostatistical method, the Boolean method, and the genetic method. We discuss their advantages and disadvantages and indicate their present state of development. This is an active field of research and space is limited, so the review is certain to be incomplete, but we hope that it will encourage the development of new ideas and approaches. Résumé On sait depuis longtemps que les propriétés des roches en profondeur sont éminemment variables dans l'espace. On sait que cette variabilité est due à la complexité extrême et à la variation au cours du temps des processus responsables de la formation de la croûte terrestre, de la tectonique des plaques à l'érosion, au transport sédimentaire et au dépôt, sans oublier les effets mécaniques, climatiques et de diagenèse. En tant que géologues, nous avons appris a "lire" cette histoire complexe au sein des roches, et à tenter d'extrapoler dans l'espace notre compréhension. En tant que physiciens, nous avons ensuite appris que pour étudier les écoulements dans de tels milieux, nous devions appliquer les concepts de la mécanique des milieux continus. En tant que mathématiciens utilisant des méthodes analytiques pour résoudre les problèmes d'écoulement, nous avons de plus appris que nous devions simplifier cette réalité complexe en un très petit nombre d'unités, tels que les aquifères et les aquitards, dont chacune est décrite par des propriétés équivalentes constantes. Enfin, dans les années récentes, en tant que numériciens, nous avons appris que nous avions désormais la liberté de "discrétiser" cette réalité complexe, et de la décrire comme un ensemble de petites "boîtes" homogènes de milieu continu, chacune d'entre elles pouvant avoir des propriétés différentes. Comment utilisons nous cette liberté nouvellement acquise? En avons-nous réellement besoin? Si la réponse est "oui", comment pouvons nous attribuer des propriétés différentes aux roches des milliers ou même millions de petites "boîtes" dans nos modèles, pour représenter au mieux la réalité, et comment déterminer les intervalles de confiance des propriétés choisies pour chaque roche? En hommage au Professeur Eugène S. Simpson, avec lequel le premier auteur de cet article a eu souvent l'occasion de discuter de ces questions, nous présentons ici un survol général de quelques techniques de génération de telles propriétés se focalisant sur une seule d'entre elles, la perméabilité des roches. Nous expliquons d'abord quels sont les raisons qui engagent à tenter de décrire la variabilité spatiale, puis nous illustrons trois méthodes pour le faire, la méthode géostatistique, la méthode Booléenne et la méthode génétique. Nous présentons leurs avantages et inconvénients respectifs, et donnons l'état actuel de leur développement. Ces méthodes constituant un domaine de recherche actif, et la place étant ici limitée, ce survol est nécessairement incomplet, mais nous espérons qu'il encouragera l'essor de nouvelles idées et de nouvelles approches. Resumen Sabemos desde hace tiempo que las propiedades del subsuelo son altamente variables espacialmente. Hemos aprendido que esta variabilidad es debida a la extrema complejidad y variabilidad temporal de los procesos responsables de la formación de la corteza terrestre, desde la tectónica de placas a la erosión, transporte de sedimentos y deposición, así como a efectos mecánicos, climáticos y diagenéticos. Como geólogos, hemos aprendido a "leer" esta compleja historia en las rocas y a cómo tratar de extrapolar en el espacio lo que ya sabemos. Como físicos, aprendimos después que para estudiar los procesos en este tipo de medios debemos aplicar las leyes de la mecánica de los medios continuos. Como matemáticos que usan métodos analíticos, hemos aprendido que debemos simplificar el medio dividiéndolo en un número menor de unidades, como serían los acuíferos y acuitardos, y describiendo sus propiedades mediante valores equivalentes (constantes). En los últimos años, como modelistas, también hemos aprendido que tenemos la libertad de "discretizar" esta realidad compleja y describirla como un conjunto de pequeñas cajas homogéneas de medio continuo, cada una con propiedades diferentes. ¿Cómo usamos esta libertad?¿Tenemos necesidad de ella? Si la respuesta es "sí", ¿cómo podemos asignar valores de las distintas propiedades de las rocas a miles e incluso millones de estas pequeñas cajas en nuestros modelos, con la pretensión de representar la realidad, y a la vez dar intervalos de confianza para cada propiedad seleccionada? Como un tributo al Profesor Eugene S. Simpson, con quien el autor de este artículo a menudo discutió sobre estas cuestiones, se presenta una recopilación de tres técnicas que se centran en una propiedad, la permeabilidad de la roca. Se explica la motivación para describir la variabilidad espacial y se ilustra cómo hacerlo mediante el método geoestadístico Booleano y mediante el método genético. Para cada método se discuten sus ventajas e inconvenientes y se indica su estado actual de desarrollo. Se trata éste de un campo activo de investigación y el espacio es limitado, por lo que la revisión es incompleta, pero esperamos que pueda servir para animar el desarrollo de nuevas ideas.
Physics Computing '92: Proceedings of the 4th International Conference
NASA Astrophysics Data System (ADS)
de Groot, Robert A.; Nadrchal, Jaroslav
1993-04-01
The Table of Contents for the book is as follows: * Preface * INVITED PAPERS * Ab Initio Theoretical Approaches to the Structural, Electronic and Vibrational Properties of Small Clusters and Fullerenes: The State of the Art * Neural Multigrid Methods for Gauge Theories and Other Disordered Systems * Multicanonical Monte Carlo Simulations * On the Use of the Symbolic Language Maple in Physics and Chemistry: Several Examples * Nonequilibrium Phase Transitions in Catalysis and Population Models * Computer Algebra, Symmetry Analysis and Integrability of Nonlinear Evolution Equations * The Path-Integral Quantum Simulation of Hydrogen in Metals * Digital Optical Computing: A New Approach of Systolic Arrays Based on Coherence Modulation of Light and Integrated Optics Technology * Molecular Dynamics Simulations of Granular Materials * Numerical Implementation of a K.A.M. Algorithm * Quasi-Monte Carlo, Quasi-Random Numbers and Quasi-Error Estimates * What Can We Learn from QMC Simulations * Physics of Fluctuating Membranes * Plato, Apollonius, and Klein: Playing with Spheres * Steady States in Nonequilibrium Lattice Systems * CONVODE: A REDUCE Package for Differential Equations * Chaos in Coupled Rotators * Symplectic Numerical Methods for Hamiltonian Problems * Computer Simulations of Surfactant Self Assembly * High-dimensional and Very Large Cellular Automata for Immunological Shape Space * A Review of the Lattice Boltzmann Method * Electronic Structure of Solids in the Self-interaction Corrected Local-spin-density Approximation * Dedicated Computers for Lattice Gauge Theory Simulations * Physics Education: A Survey of Problems and Possible Solutions * Parallel Computing and Electronic-Structure Theory * High Precision Simulation Techniques for Lattice Field Theory * CONTRIBUTED PAPERS * Case Study of Microscale Hydrodynamics Using Molecular Dynamics and Lattice Gas Methods * Computer Modelling of the Structural and Electronic Properties of the Supported Metal Catalysis * Ordered Particle Simulations for Serial and MIMD Parallel Computers * "NOLP" -- Program Package for Laser Plasma Nonlinear Optics * Algorithms to Solve Nonlinear Least Square Problems * Distribution of Hydrogen Atoms in Pd-H Computed by Molecular Dynamics * A Ray Tracing of Optical System for Protein Crystallography Beamline at Storage Ring-SIBERIA-2 * Vibrational Properties of a Pseudobinary Linear Chain with Correlated Substitutional Disorder * Application of the Software Package Mathematica in Generalized Master Equation Method * Linelist: An Interactive Program for Analysing Beam-foil Spectra * GROMACS: A Parallel Computer for Molecular Dynamics Simulations * GROMACS Method of Virial Calculation Using a Single Sum * The Interactive Program for the Solution of the Laplace Equation with the Elimination of Singularities for Boundary Functions * Random-Number Generators: Testing Procedures and Comparison of RNG Algorithms * Micro-TOPIC: A Tokamak Plasma Impurities Code * Rotational Molecular Scattering Calculations * Orthonormal Polynomial Method for Calibrating of Cryogenic Temperature Sensors * Frame-based System Representing Basis of Physics * The Role of Massively Data-parallel Computers in Large Scale Molecular Dynamics Simulations * Short-range Molecular Dynamics on a Network of Processors and Workstations * An Algorithm for Higher-order Perturbation Theory in Radiative Transfer Computations * Hydrostochastics: The Master Equation Formulation of Fluid Dynamics * HPP Lattice Gas on Transputers and Networked Workstations * Study on the Hysteresis Cycle Simulation Using Modeling with Different Functions on Intervals * Refined Pruning Techniques for Feed-forward Neural Networks * Random Walk Simulation of the Motion of Transient Charges in Photoconductors * The Optical Hysteresis in Hydrogenated Amorphous Silicon * Diffusion Monte Carlo Analysis of Modern Interatomic Potentials for He * A Parallel Strategy for Molecular Dynamics Simulations of Polar Liquids on Transputer Arrays * Distribution of Ions Reflected on Rough Surfaces * The Study of Step Density Distribution During Molecular Beam Epitaxy Growth: Monte Carlo Computer Simulation * Towards a Formal Approach to the Construction of Large-scale Scientific Applications Software * Correlated Random Walk and Discrete Modelling of Propagation through Inhomogeneous Media * Teaching Plasma Physics Simulation * A Theoretical Determination of the Au-Ni Phase Diagram * Boson and Fermion Kinetics in One-dimensional Lattices * Computational Physics Course on the Technical University * Symbolic Computations in Simulation Code Development and Femtosecond-pulse Laser-plasma Interaction Studies * Computer Algebra and Integrated Computing Systems in Education of Physical Sciences * Coordinated System of Programs for Undergraduate Physics Instruction * Program Package MIRIAM and Atomic Physics of Extreme Systems * High Energy Physics Simulation on the T_Node * The Chapman-Kolmogorov Equation as Representation of Huygens' Principle and the Monolithic Self-consistent Numerical Modelling of Lasers * Authoring System for Simulation Developments * Molecular Dynamics Study of Ion Charge Effects in the Structure of Ionic Crystals * A Computational Physics Introductory Course * Computer Calculation of Substrate Temperature Field in MBE System * Multimagnetical Simulation of the Ising Model in Two and Three Dimensions * Failure of the CTRW Treatment of the Quasicoherent Excitation Transfer * Implementation of a Parallel Conjugate Gradient Method for Simulation of Elastic Light Scattering * Algorithms for Study of Thin Film Growth * Algorithms and Programs for Physics Teaching in Romanian Technical Universities * Multicanonical Simulation of 1st order Transitions: Interface Tension of the 2D 7-State Potts Model * Two Numerical Methods for the Calculation of Periodic Orbits in Hamiltonian Systems * Chaotic Behavior in a Probabilistic Cellular Automata? * Wave Optics Computing by a Networked-based Vector Wave Automaton * Tensor Manipulation Package in REDUCE * Propagation of Electromagnetic Pulses in Stratified Media * The Simple Molecular Dynamics Model for the Study of Thermalization of the Hot Nucleon Gas * Electron Spin Polarization in PdCo Alloys Calculated by KKR-CPA-LSD Method * Simulation Studies of Microscopic Droplet Spreading * A Vectorizable Algorithm for the Multicolor Successive Overrelaxation Method * Tetragonality of the CuAu I Lattice and Its Relation to Electronic Specific Heat and Spin Susceptibility * Computer Simulation of the Formation of Metallic Aggregates Produced by Chemical Reactions in Aqueous Solution * Scaling in Growth Models with Diffusion: A Monte Carlo Study * The Nucleus as the Mesoscopic System * Neural Network Computation as Dynamic System Simulation * First-principles Theory of Surface Segregation in Binary Alloys * Data Smooth Approximation Algorithm for Estimating the Temperature Dependence of the Ice Nucleation Rate * Genetic Algorithms in Optical Design * Application of 2D-FFT in the Study of Molecular Exchange Processes by NMR * Advanced Mobility Model for Electron Transport in P-Si Inversion Layers * Computer Simulation for Film Surfaces and its Fractal Dimension * Parallel Computation Techniques and the Structure of Catalyst Surfaces * Educational SW to Teach Digital Electronics and the Corresponding Text Book * Primitive Trinomials (Mod 2) Whose Degree is a Mersenne Exponent * Stochastic Modelisation and Parallel Computing * Remarks on the Hybrid Monte Carlo Algorithm for the ∫4 Model * An Experimental Computer Assisted Workbench for Physics Teaching * A Fully Implicit Code to Model Tokamak Plasma Edge Transport * EXPFIT: An Interactive Program for Automatic Beam-foil Decay Curve Analysis * Mapping Technique for Solving General, 1-D Hamiltonian Systems * Freeway Traffic, Cellular Automata, and Some (Self-Organizing) Criticality * Photonuclear Yield Analysis by Dynamic Programming * Incremental Representation of the Simply Connected Planar Curves * Self-convergence in Monte Carlo Methods * Adaptive Mesh Technique for Shock Wave Propagation * Simulation of Supersonic Coronal Streams and Their Interaction with the Solar Wind * The Nature of Chaos in Two Systems of Ordinary Nonlinear Differential Equations * Considerations of a Window-shopper * Interpretation of Data Obtained by RTP 4-Channel Pulsed Radar Reflectometer Using a Multi Layer Perceptron * Statistics of Lattice Bosons for Finite Systems * Fractal Based Image Compression with Affine Transformations * Algorithmic Studies on Simulation Codes for Heavy-ion Reactions * An Energy-Wise Computer Simulation of DNA-Ion-Water Interactions Explains the Abnormal Structure of Poly[d(A)]:Poly[d(T)] * Computer Simulation Study of Kosterlitz-Thouless-Like Transitions * Problem-oriented Software Package GUN-EBT for Computer Simulation of Beam Formation and Transport in Technological Electron-Optical Systems * Parallelization of a Boundary Value Solver and its Application in Nonlinear Dynamics * The Symbolic Classification of Real Four-dimensional Lie Algebras * Short, Singular Pulses Generation by a Dye Laser at Two Wavelengths Simultaneously * Quantum Monte Carlo Simulations of the Apex-Oxygen-Model * Approximation Procedures for the Axial Symmetric Static Einstein-Maxwell-Higgs Theory * Crystallization on a Sphere: Parallel Simulation on a Transputer Network * FAMULUS: A Software Product (also) for Physics Education * MathCAD vs. FAMULUS -- A Brief Comparison * First-principles Dynamics Used to Study Dissociative Chemisorption * A Computer Controlled System for Crystal Growth from Melt * A Time Resolved Spectroscopic Method for Short Pulsed Particle Emission * Green's Function Computation in Radiative Transfer Theory * Random Search Optimization Technique for One-criteria and Multi-criteria Problems * Hartley Transform Applications to Thermal Drift Elimination in Scanning Tunneling Microscopy * Algorithms of Measuring, Processing and Interpretation of Experimental Data Obtained with Scanning Tunneling Microscope * Time-dependent Atom-surface Interactions * Local and Global Minima on Molecular Potential Energy Surfaces: An Example of N3 Radical * Computation of Bifurcation Surfaces * Symbolic Computations in Quantum Mechanics: Energies in Next-to-solvable Systems * A Tool for RTP Reactor and Lamp Field Design * Modelling of Particle Spectra for the Analysis of Solid State Surface * List of Participants
NASA Astrophysics Data System (ADS)
Ouerdane, Youcef; Laporte, Pierre
2005-06-01
L'objectif de la série de colloques UVX est de réunir, au rythme d'une fois tous les deux ans, les scientifiques et industriels travaillant dans le domaine du développement des sources de photon de grande énergie (UV, VUV, et X) et de leurs applications. En particulier cette manifestation est l'occasion de faire se rencontrer une communauté très pluridisciplinaire (physique, chimie, biologie, sciences de l'univers) liée à des domaines en forte évolution technologique (lasers et rayonnement synchrotron notamment). Le colloque UVX 2004 s'est tenu au Palais des Congrès de Saint-Étienne (42000) du 7 au 11 juin 2004. La période écoulée depuis l'édition précédente (Oléron 2002) a été particulièrement active dans tous les domaines concernés : grands projets de sources, méthodes de diagnostic au sens large. Une nouvelle fois on constate que le bref et l'ultra-bref ont une place privilégiée, qu'il s'agisse du travail sur les accélérateurs ou sur les lasers qui, bien sûr, dans la course aux temps courts remportent la palme avec la présence de spécialistes du domaine attoseconde. La communauté représentée a la chance d'être en prise directe avec de très grands projets en phase active de réalisation comme le Laser Megajoule (LMJ), la source SOLEIL, et un projet d'ampleur plus modeste mais remarquable dans son domaine : la source LASERIX d'Orsay/Palaiseau. On pourra citer aussi le projet Arc en Ciel qui, lui, est encore au stade de sa définition. - SOLEIL, source de nouvelle génération de rayonnement synchrotron (plateau de Saclay) est dans une phase active de réalisation : achèvement de l'infrastructure en 2005 et injection du 1o faisceau dans l'anneau de stockage prévu également en 2005. Cette source devrait être la meilleure au monde dans le domaine VUV/X mous, tout en restant très polyvalente (brillance, accordabilité, structure temporelle, polarisation) et complémentaire de l'ESRF. Au final on disposera de 21 lignes de lumière sur onduleurs et 22 sur aimants de courbure. Les premiers “utilisateurs” sont prévus au printemps 2006 avec couverture de l'IR jusqu'aux X durs pour des études variées notamment dans le domaine de la matière condensée. - La LIL (ligne d'intégration laser) du LMJ fonctionne avec 4 faisceaux (de 30 kJ à 351 nm) et un ensemble de diagnostics plasma est en cours de validation (énergie, imagerie X, spectrométrie X). Un souci d'ouverture collaborative (France et étranger) est affiché. - LASERIX (LIXAM, LOA) a pour but de doter les scientifiques français d'un laser émettant en “quasi-routine” de l'émission laser X à 6 tirs/mn basée sur différents schémas collisionnels et donc différentes longueurs d'ondes, et mettant en oeuvre un laser saphir-titane ultra bref de 40 J pour la génération plasma. - Le projet Arc en Ciel (CEA, LOA) se penche sur la possibilité de mise en oeuvre d'une source de “4^ogénération”. Ces sources se veulent à la fois brillantes, cohérentes, dans la gamme des 100 femtosecondes, ce qui conduit à tourner le dos aux anneaux de stockage pour se focaliser sur la combinaison accélérateur linéaire/onduleur, complétée par un laser saphir-titane (génération d'harmoniques UV/X dans des gaz). - Une avancée particulièrement intéressante a été récemment réalisée, notamment au LOA, par injection d'un laser X (plasma) par un faisceau X de bonne qualité (polarisation, divergence, temps, contraste...) issu de la génération d'harmoniques élevées par une chaîne saphir-titane femto. - On notera aussi les avancées réalisées dans le domaine des sources incohérentes de forte intensité dans le domaine des X par interaction optimisée de l'interaction laser de puissance-agrégats (GPS-Paris 6 et 7, CEA Saclay), ainsi que par techniques X-pinch à fils à foyer de 10 microns (LPTP-École Polytechnique). - La génération d'harmoniques d'ordres élevés à partir de chaînes laser amplifiées a continué à faire l'objet de très belles études, d'une part par génération dans les gaz et l'obtention bien maîtrisée et caractérisée de rayonnement attoseconde utilisé maintenant pour des mesures effectives de processus électroniques au sein des atomes, et d'autre part par focalisation sur cible solide. Ces derniers travaux (CEA et LOA), par mise en oeuvre du concept de “miroir plasma” qui combat l'ASE, ont permis de monter que la génération d'harmoniques cohérents sur solide était effective. - Dans le domaine des sources UV deux exposés ont présenté l'état de l'art des sources diodes ellesmêmes (LED et Lasers), ainsi que le développement des sources laser ps haute cadence (multikHz/MHz) avec génération d'harmoniques, de puissance moyenne élevée adaptée à de nombreux secteurs applicatifs (traitement des matériaux, biologie, microscopie...). L'aspect “sources”, au sens large était, on le voit, particulièrement représenté avec de belles perspectives pour les années qui viennent. Au delà de ces développements, les sources X ont été utilisées pour des réalisations instrumentales intéressantes dans le domaine de la microscopie X, de la microscopie interférentielle, et de la reconstruction 3D. De tels travaux sont susceptibles de rapides transferts en direction du secteur bio/santé. On notera également l'avancée que représente la réalisation d'un spectromètre à transformée de Fourier pour VUV/XUV (LCFIO/LPPM/SOLEIL). Le domaine du diagnostic, de la mesure, et de la modélisation dans les plasmas est, lui aussi, très actif avec des outils expérimentaux et théoriques très conséquents : modélisation des propriétés spectrales des ions multichargés (CEA-DAM) ; coefficients d'absorption de plasmas lasers (CEA-DSM, LULI, CEA-DAM) ; spectres d'absorption X dans les plasmas femtosecondes incluant des expériences type “pompe-sonde” résolues spatialement et spectralement (LULI, CEA-DAM, CELIA) ; interaction laseratome/molécule en régime UVX ultra-bref (CELIA)... Dans le domaine que l'on peut appeler, au sens large, “travail des matériaux”, on distinguera particulièrement les avancées dans le domaine de la microlithographie “prévues” par road map, avec l'arrivée semble-t-il inéluctable des technologies UVX à 13,5 nm. Les enjeux économiques favorisent des avancées technologiques multiples (optiques multicouches en réflexion, sources...). Par ailleurs l'aptitude des technologies femto pour l'ablation quasi athermique (micro-usinage) et le dépôt de couches minces spécifiques se confirme tout à fait. Enfin, à fluence plus faible, l'outil laser reste un instrument de choix pour l'étude de l'interaction photon-surface : désorption sous illumination laser à excimères à 157 nm et photoémission/photoconductivité du diamant sous éclairement ultra-bref de l'infrarouge à l'UVX. Nous tenons à remercier les membres du comité d'organisation, le comité scientifique et les différents partenaires, institutionnels et industriels, qui par leur soutien ont permis que le colloque UVX puisse se dérouler. Ce colloque a été parrainé par plusieurs départements du CNRS, la Délégation Générale de l'Armement (DGA), le CEA DRECAM, le CEA DAM, le Conseil Général de la Loire, l'Université Jean MONNET de Saint-Étienne, Saint-Étienne Métropole, la ville de Saint-Étienne, Le Pôle Optique Rhône-Alpes, la Société Française d'Optique et le Groupement de Recherche “SAXO” du CNRS. À tous, nous donnons rendez-vous à Caen pour UVX-2006. Youcef OUERDANE Pierre LAPORTE
Aquifer overexploitation: what does it mean?
NASA Astrophysics Data System (ADS)
Custodio, Emilio
2002-02-01
Groundwater overexploitation and aquifer overexploitation are terms that are becoming common in water-resources management. Hydrologists, managers and journalists use them when talking about stressed aquifers or some groundwater conflict. Overexploitation may be defined as the situation in which, for some years, average aquifer ion rate is greater than, or close to the average recharge rate. But rate and extent of recharge areas are often very uncertain. Besides, they may be modified by human activities and aquifer development. In practice, however, an aquifer is often considered as overexploited when some persistent negative results of aquifer development are felt or perceived, such as a continuous water-level drawdown, progressive water-quality deterioration, increase of ion cost, or ecological damage. But negative results do not necessarily imply that ion is greater than recharge. They may be simply due to well interferences and the long transient period that follow changes in the aquifer water balance. Groundwater storage is depleted to some extent during the transient period after ion is increased. Its duration depends on aquifer size, specific storage and permeability. Which level of "aquifer overexploitation" is advisable or bearable, depends on the detailed and updated consideration of aquifer-development effects and the measures implemented for correction. This should not be the result of applying general rules based on some indirect data. Monitoring, sound aquifer knowledge, and calculation or modelling of behaviour are needed in the framework of a set of objectives and policies. They should be established by a management institution, with the involvement of groundwater stakeholders, and take into account the environmental and social constraints. Aquifer overexploitation, which often is perceived to be associated with something ethically bad, is not necessarily detrimental if it is not permanent. It may be a step towards sustainable development. Actually, the term aquifer overexploitation is mostly a qualifier that intends to point to a concern about the evolution of the aquifer-flow system in some specific, restricted points of view, but without a precise hydrodynamic meaning. Implementing groundwater management and protection measures needs quantitative appraisal of aquifer evolution and effects based on detailed multidisciplinary studies, which have to be supported by reliable data. Resumé. La surexploitation de l'eau souterraine et la surexploitation des nappes sont des termes qui deviennent d'usage commun en gestion de l'eau. Plusieurs hydrologues, aménageurs et journalistes en font usage quand on parle d'une nappe exploitée intensivement et qui présente des situations conflictives. On peut définir la surexploitation comme étant la situation dans laquelle l'extraction moyenne d'eau souterraine est plus grande ou proche de la recharge moyenne pendant quelques années. Mais le taux ansi que la surface de cette recharge sont souvent tres incertains et peuvent changer dûs a des activitées humaines et à l'exploitation de la nappe elle-méme. Du point de vue pratique on souvent considère qu'il y a surexploitation quand on observe or on s'aperçoit de certains résultats négatifs de l'exploitation, tels qu'une diminution continue du niveau de l'eau, une detérioration de sa qualité, une augmentation du coût d' extraction, ou dommages écologiques. Mais ces effets négatifs n' impliquent pas nécessairement que l'extraction soit plus grande que la recharge. Ils peuvent étre simplement le résultat d'interférences ou d'une longue période transitoire qui suivent les changements dans les termes du bilan hydrique. Cette période transitoire a une durée que dépend de la taille de la nappe, et de son coefficient d' emmagasinement et de sa perméabilité. Les extractions d'eau de la nappe comportent une diminution de l'emmagasinement d'eau souterraine pendant le période transitoire. A fin de pouvoir décider du degré de "surexploitation de la nappe" conseillé ou admisible on a besoin de la description detaillée et à jour des effets de l'exploitation et des mesures de correction adoptées. Cette décision ne peut pas étre prise uniquement à partir de regles générales et l'appui de quelques observations indirectes. On a besoin de controle, d'une bonne connaissance de la nappe, et de calculer ou modeliser le comportement, en faisant appel à l'ensemble des objectifs et politiques établies par une institution de gestion, avec l'implication des personnes qui sont intéressées par l'eau souterraine, et tenant compte des conditions environmentales et sociales. La surexploitation de nappes, qui souvent est associée a quelque chose éthiquement nocive, n'est pas necessairement ainsi pendant un certain temps, et peut être une étape dans l'évolution vers un développement durable. Réellement la designation de surexploitation de nappes est surtout un adjectif que a pour but de qualifier une évolution préoccupante sous certains points de vue, mais sans une signification hydrodynamique précise. Pour adopter des mesures de gestion et protection, on a besoin de l'évaluation quantitative de l'évolution de la nappe et de ses effets, ce qui doit déboucher sur des études detaillées dans un contexte multidisciplinaire, et sur de bonnes données. Resumen. La sobreexpolotación del agua subterránea y la sobreexplotacion de acuíferos son conceptos que se están convirtiendo en términos de uso común en gestión hídrica. Muchos hidrólogos, gestores y periodistas las usan para referirse a un acuífero explotado intensamente o que presenta situaciones conflictivas. La sobreexplotación se puede definir como la situación en la que durante varios años la extracción media de agua subterránea de un acuífero supera o se aproxima a la recarga media. Pero la tasa y también la superficie sobre la que se realiza esta recarga son a menudo muy inciertas, y pueden cambiar por actividades humanas y por la propia explotación del acuífero. Sin embargo, en la práctica se suele considerar que hay sobreexplotación cuando se observan o se perciben ciertos resultados negativos de la explotación, tales como un descenso continuado del nivel del agua, un deterioro de su calidad, un encarecimiento del agua extraída, o daños ecológicos. Pero estos efectos no están necesariamente relacionados con el hecho de que la extracción sea mayor que la recarga, puesto que pueden ser simplemente el resultado de interferencias o del dilatado período transitorio que sigue a los cambios en los términos del balance de agua, y cuya duración depende del tamaño del acuífero, y de su permeabilidad y coeficiente de almacenamiento. Las extracciones del acuífero suponen una disminución del almacenamiento de agua subterránea durante este periodo transitorio. Para decidir que grado de "sobreexplotación del acuífero" es aconsejable o admisible hace falta la consideración detallada y actualizada de los efectos de la explotación y las medidas de corrección que se adopten. Para esa decisión no basta con reglas generales y el apoyo de algunas observaciones indirectas. Se necesitan observaciones de control, buen conocimiento del acuífero y cálculos o modelación del comportamiento, y todo ello en el marco de un conjunto de objetivos y políticas establecidas por una institución de gestión, con la implicación de aquellos que tienen un interés en el agua subterránea, y teniendo en cuenta los condicionantes ambientales y sociales. La sobreexplotación de acuíferos, que con frecuencia suele asociarse a algo éticamente malo, no tiene por qué ser necesariamente así durante cierto tiempo, sino una etapa en la evolución hacia un desarrollo sustentable. En la realidad la designación de sobreexplotación de acuíferos es principalmente un adjetivo que trata de calificar a una evolución preocupante bajo determinados puntos de vista, sin que tenga una significación hidrodinámica precisa. Para adoptar medidas de gestión y de protección se necesita la evaluación cuantitativa de la evolución del acuífero y sus efectos, que se derivan de estudios de detalle en un contexto multidisciplinar y de datos fiables.
NASA Astrophysics Data System (ADS)
Liger-Belair, G.
2002-07-01
People have long been fascinated by bubbles and foams dynamics, and since the pioneering work of Leonardo da Vinci in the early 16th century, this subject has generated a huge bibliography. However, only very recently, much interest was devoted to bubbles in Champagne wines. Small bubbles rising through the liquid, as well as a bubble ring (the so-called collar) at the periphery of a flute poured with champagne are the hallmark of this traditionally festive wine, and even there is no scientific evidence yet to connect the quality of a champagne with its effervescence, people nevertheless often make a connection between them. Therefore, since the last few years, a better understanding of the numerous parameters involved in the bubbling process has become an important stake in the champagne research area. Otherwise, in addition to these strictly enological reasons, we also feel that the area of bubble dynamics could benefit from the simple but close observation of a glass poured with champagne. In this study, our first results concerning the close observation of the three main steps of a champagne bubble's life are presented, that is, the bubble nucleation on tiny particles stuck on the glass wall (Chap. 2), the bubble ascent through the liquid (Chap. 3), and the bursting of bubbles at the free surface, which constitutes the most intriguing and visually appealing step (Chap. 4). Our results were obtained in real consuming conditions, that is, in a classical crystal flute poured with a standard commercial champagne wine. Champagne bubble nucleation proved to be a fantastic everyday example to illustrate the non-classical heterogeneous bubble nucleation process in a weakly supersaturated liquid. Contrary to a generally accepted idea, nucleation sites are not located on irregularities of the glass itself. Most of nucleation sites are located on tiny hollow and roughly cylindrical exogenous fibres coming from the surrounding air or remaining from the wiping process. Because of their geometry and hydrophobic properties, such particles are able to entrap gas pockets during the filling of a flute and to start up the bubble production process. Such particles are responsible for the clockwork and repetitive production of bubbles that rise in-line into the form of elegant bubble trains. This cycle of bubble production at a given nucleation site is characterised by its bubbling frequency. The time needed to reach the moment of bubble detachment depends on the kinetics of the CO2 molecules transfer from the champagne to the gas pocket, but also on the geometrical properties of the given nucleation site. Now, since a collection of particle shapes and sizes exists on the glass wall, the bubbling frequency may also vary from one site to another. Three minutes after pouring, we measured bubbling frequencies ranging from less than 1 Hz up to almost 30 Hz, which means that the most active nucleation sites emit up to 30 bubbles per second. After their detachment from nucleation sites, champagne bubbles rise in-line through the liquid into the form of elegant bubble trains. Since they collect dissolved carbon dioxide molecules, champagne bubbles expand during ascent and therefore constitute an original tool to investigate the dynamics of rising and expanding bubbles. Hydrodynamically speaking, champagne bubbles were found to reach a quasi-stationary stage intermediate between that of a rigid and that a fluid sphere (but nevertheless closer to that of a fluid sphere). This result drastically differs from the result classically observed with bubbles of fixed radii rising in surfactant solutions. Since surfactants progressively adsorb at the bubble surface during the rise, the drag coefficient of a rising bubble of fixed radius progressively increases, and finally reaches the rigid sphere limit when the bubble interface gets completely contaminated. In the case of champagne, since a bubble expands during its rise through the supersaturated liquid, the bubble interface continuously increases and therefore continuously offers newly created surface to the adsorbed surface-active materials (around 5 mg/l, mostly composed of proteins and glycoproteins). Champagne bubbles experience an interesting competition between two opposing effects. Our results suggest that the bubble growth during ascent approximately balance the adsorption rate of surface-active compounds on the rising bubble. We also compared the behaviour of champagne bubbles with that of beer bubbles. It was found that beer bubbles showed a behaviour, very close to that of rigid spheres. This is not a surprising result, since beer contains much higher amounts of surface-active molecules (of order of several hundreds mg/l) likely to be adsorbed at a bubble interface. Furthermore, since the gas content is lower in beer, growth rates of beer bubbles are lower than those of champagne. As a result, the dilution effect due to the rate of dilatation of the bubble area may be too weak to avoid the rigidification of the beer bubble interface. In a third set of experiments, we used instantaneous high-speed photography techniques to freeze the dynamics of bubbles collapsing at the free surface of a glass poured with champagne. The process following bubble collapse and leading to the projection of a high-speed liquid jet above the free surface was captured. A structural analogy between the liquid jet following a bubble collapse and the liquid jet following a drop impact was presented. By drawing a parallel between the fizz in champagne wines and the “fizz of the ocean", we also suggested that droplets issued from champagne bursting bubbles contain much higher amounts of surface-active and potentially aromatic materials than the liquid bulk. The bursting of champagne bubbles is thus expected to play a major role in flavour release. Otherwise, since the first photographic investigation were published about fifty years ago, numerous experiments have been conducted with single bubbles collapsing at a free surface. But, to the best of our knowledge, and surprising as it may seem, no results concerning the collateral effects on adjoining bubbles of bubbles collapsing in a bubble monolayer have been reported up to now. Actually, effervescence in a glass of champagne ideally lends to a preliminary work with bubbles collapsing in a bubble monolayer. For a few seconds after pouring, the free surface is completely covered with a monolayer composed of quite monodisperse millimetric bubbles collapsing close to each others. We took high-speed photographs of the situation which immediately follows the rupture of a bubble cap in a bubble monolayer. Adjoining bubbles were found to be literally sucked and strongly stretched toward the lowest part of the cavity left by the bursting bubble, leading to unexpected and short-lived flower-shaped structures. Stresses in distorted bubbles (petals of the flower-shaped structure) were evaluated and found to be, at least, one order of magnitude higher than stresses numerically calculated in the boundary layer around an isolated single millimetric collapsing bubble. This is a brand-new and slightly counter-intuitive result. While absorbing the energy released during collapse, as an air-bag would do, adjoining bubble caps store this energy into their thin liquid film, leading finally to stresses much higher than those observed in the boundary layer around single millimetric collapsing bubbles. Further investigation should be conducted now, and especially numerically, in order to better understand the relative influence of each pertinent parameters (bubble size, liquid density and viscosity, effect of surfactant...) on bubble deformation. L'objectif général de cet ouvrage consacré à l'étude des processus physico- chimiques de l'effervescence des vins de Champagne était de décortiquer les différentes étapes de la vie d'une bulle de champagne en conditions réelles de consommation, dans une flûte. Nous résumons ci-après les principaux résultats obtenus pour chacune des étapes de la vie de la bulle, depuis sa naissance sur les parois d'une flûte, jusqu'à son éclatement en surface. Naissance de la bulle À l'aide d'une caméra munie d'un objectif de microscope, nous avons pu mettre en évidence les particules qui jouent le rôle de sites de nucléation des bulles sur les parois d'une flûte à champagne. Dans la très grande majorité des cas, ce sont des fibres creuses et allongées, de quelques dizaines à quelques centaines de microns, qui assurent la production répétitive de bulles par nucléation hétérogène non classique (de type IV). Cette production répétitive de bulles au niveau des sites de nucléation est caractérisée par une gamme de fréquences de bullage assez large. Au sein d'une même flûte, immédiatement après le versement, nous avons mesuré des fréquences qui varient de moins de 1 Hz à presque 30 Hz. C'est donc jusqu'à 30 bulles qui sont émises chaque seconde par les sites de nucléation les plus actifs. Vitesse ascensionnelle d'une bulle Pour mesurer la vitesse d'une bulle tout au long de son trajet vers la surface libre du champagne, nous avons tiré profit de la production répétitive de bulles au niveau des sites de nucléation. Par la mise en place d'un dispositif expérimental simple qui associe une lumière stroboscopique et un appareil photographique muni de bagues macros, nous avons pu accéder à l'observation fine des trains de bulles ainsi qu'à la détermination de la vitesse ascensionnelle des bulles. Les mesures expérimentales du rayon et de la vitesse d'une bulle nous ont permis de déterminer le coefficient de traînée d'une bulle montante qui constitue une mesure indirecte de son état de surface en terme de mobilité interfaciale. Ces mesures nous ont montré que l'interface d'une bulle de champagne conserve une grande mobilité pendant sa phase ascensionnelle. C'est la faible dilution du champagne en macromolécules tensioactives et le grossissement continu des bulles pendant l'ascension qui assurent aux bulles une faible contamination de leur interface en molécules tensioactives. Pour comparaison, nous avons réalisé le même type de mesures sur des bulles de bière. Le contenu en macromolécules tensioactives étant beaucoup plus important dans une bière, l'effet de dilution du matériel tensioactif à la surface des bulles lié à l'accroissement de la surface des bulles ne compense plus l'adsorption massive des tensioactifs à la surface des bulles. Contrairement aux bulles du champagne, les bulles de bière adoptent vite un comportement de type sphère rigide. Éclatement d'une bulle en surface Nous avons obtenu des images de la situation qui suit immédiatement la rupture du mince film liquide qui constitue la partie émergée d'une bulle en surface. Nous avons ainsi pu mettre en évidence l'existence des jets de liquide engendrés par les éclatements de bulle. En faisant un parallèle légitime entre le pétillement des bulles à la surface du champagne et le "pétillement de l'océan", nous avons émis l'idée que les gouttelettes de jet étaient beaucoup plus concentrées en matériel tensioactif (et potentiellement aromatique) que le cœur de phase du liquide. Il semble donc que les éclatements de bulles jouent un rôle essentiel dans l'effet exhausteur d'arôme au cours de la dégustation d'un champagne. Pendant les quelques secondes qui suivent le versement du champagne dans la flûte, nous avons également réalisé des clichés d'éclatement de bulles en monocouche. Les premiers résultats de ces observations font apparaître des déformations spectaculaires dans le film liquide des bulles premières voisines. Ces premières images suggèrent des contraintes, dans le mince film des bulles déformées, très supérieures à celles qui existent dans le sillage d'une bulle isolée qui éclate.