Hybrid LES RANS technique based on a one-equation near-wall model
NASA Astrophysics Data System (ADS)
Breuer, M.; Jaffrézic, B.; Arora, K.
2008-05-01
In order to reduce the high computational effort of wall-resolved large-eddy simulations (LES), the present paper suggests a hybrid LES RANS approach which splits up the simulation into a near-wall RANS part and an outer LES part. Generally, RANS is adequate for attached boundary layers requiring reasonable CPU-time and memory, where LES can also be applied but demands extremely large resources. Contrarily, RANS often fails in flows with massive separation or large-scale vortical structures. Here, LES is without a doubt the best choice. The basic concept of hybrid methods is to combine the advantages of both approaches yielding a prediction method, which, on the one hand, assures reliable results for complex turbulent flows, including large-scale flow phenomena and massive separation, but, on the other hand, consumes much fewer resources than LES, especially for high Reynolds number flows encountered in technical applications. In the present study, a non-zonal hybrid technique is considered (according to the signification retained by the authors concerning the terms zonal and non-zonal), which leads to an approach where the suitable simulation technique is chosen more or less automatically. For this purpose the hybrid approach proposed relies on a unique modeling concept. In the LES mode a subgrid-scale model based on a one-equation model for the subgrid-scale turbulent kinetic energy is applied, where the length scale is defined by the filter width. For the viscosity-affected near-wall RANS mode the one-equation model proposed by Rodi et al. (J Fluids Eng 115:196 205, 1993) is used, which is based on the wall-normal velocity fluctuations as the velocity scale and algebraic relations for the length scales. Although the idea of combined LES RANS methods is not new, a variety of open questions still has to be answered. This includes, in particular, the demand for appropriate coupling techniques between LES and RANS, adaptive control mechanisms, and proper subgrid-scale and RANS models. Here, in addition to the study on the behavior of the suggested hybrid LES RANS approach, special emphasis is put on the investigation of suitable interface criteria and the adjustment of the RANS model. To investigate these issues, two different test cases are considered. Besides the standard plane channel flow test case, the flow over a periodic arrangement of hills is studied in detail. This test case includes a pressure-induced flow separation and subsequent reattachment. In comparison with a wall-resolved LES prediction encouraging results are achieved.
Development of a Hybrid RANS/LES Method for Compressible Mixing Layer Simulations
NASA Technical Reports Server (NTRS)
Georgiadis, Nicholas J.; Alexander, J. Iwan D.; Reshotko, Eli
2001-01-01
A hybrid method has been developed for simulations of compressible turbulent mixing layers. Such mixing layers dominate the flows in exhaust systems of modem day aircraft and also those of hypersonic vehicles currently under development. The hybrid method uses a Reynolds-averaged Navier-Stokes (RANS) procedure to calculate wall bounded regions entering a mixing section, and a Large Eddy Simulation (LES) procedure to calculate the mixing dominated regions. A numerical technique was developed to enable the use of the hybrid RANS/LES method on stretched, non-Cartesian grids. The hybrid RANS/LES method is applied to a benchmark compressible mixing layer experiment. Preliminary two-dimensional calculations are used to investigate the effects of axial grid density and boundary conditions. Actual LES calculations, performed in three spatial directions, indicated an initial vortex shedding followed by rapid transition to turbulence, which is in agreement with experimental observations.
A Sub-filter Scale Noise Equation far Hybrid LES Simulations
NASA Technical Reports Server (NTRS)
Goldstein, Marvin E.
2006-01-01
Hybrid LES/subscale modeling approaches have an important advantage over the current noise prediction methods in that they only involve modeling of the relatively universal subscale motion and not the configuration dependent larger scale turbulence . Previous hybrid approaches use approximate statistical techniques or extrapolation methods to obtain the requisite information about the sub-filter scale motion. An alternative approach would be to adopt the modeling techniques used in the current noise prediction methods and determine the unknown stresses from experimental data. The present paper derives an equation for predicting the sub scale sound from information that can be obtained with currently available experimental procedures. The resulting prediction method would then be intermediate between the current noise prediction codes and previously proposed hybrid techniques.
NASA Astrophysics Data System (ADS)
Wang, Qing; Zhao, Xinyu; Ihme, Matthias
2017-11-01
Particle-laden turbulent flows are important in numerous industrial applications, such as spray combustion engines, solar energy collectors etc. It is of interests to study this type of flows numerically, especially using large-eddy simulations (LES). However, capturing the turbulence-particle interaction in LES remains challenging due to the insufficient representation of the effect of sub-grid scale (SGS) dispersion. In the present work, a closure technique for the SGS dispersion using regularized deconvolution method (RDM) is assessed. RDM was proposed as the closure for the SGS dispersion in a counterflow spray that is studied numerically using finite difference method on a structured mesh. A presumed form of LES filter is used in the simulations. In the present study, this technique has been extended to finite volume method with an unstructured mesh, where no presumption on the filter form is required. The method is applied to a series of particle-laden turbulent jets. Parametric analyses of the model performance are conducted for flows with different Stokes numbers and Reynolds numbers. The results from LES will be compared against experiments and direct numerical simulations (DNS).
A multivariate quadrature based moment method for LES based modeling of supersonic combustion
NASA Astrophysics Data System (ADS)
Donde, Pratik; Koo, Heeseok; Raman, Venkat
2012-07-01
The transported probability density function (PDF) approach is a powerful technique for large eddy simulation (LES) based modeling of scramjet combustors. In this approach, a high-dimensional transport equation for the joint composition-enthalpy PDF needs to be solved. Quadrature based approaches provide deterministic Eulerian methods for solving the joint-PDF transport equation. In this work, it is first demonstrated that the numerical errors associated with LES require special care in the development of PDF solution algorithms. The direct quadrature method of moments (DQMOM) is one quadrature-based approach developed for supersonic combustion modeling. This approach is shown to generate inconsistent evolution of the scalar moments. Further, gradient-based source terms that appear in the DQMOM transport equations are severely underpredicted in LES leading to artificial mixing of fuel and oxidizer. To overcome these numerical issues, a semi-discrete quadrature method of moments (SeQMOM) is formulated. The performance of the new technique is compared with the DQMOM approach in canonical flow configurations as well as a three-dimensional supersonic cavity stabilized flame configuration. The SeQMOM approach is shown to predict subfilter statistics accurately compared to the DQMOM approach.
Xu, Haotong; Li, Xiaoxiao; Zhang, Zhengzhi; Qiu, Mingguo; Mu, Qiwen; Wu, Yi; Tan, Liwen; Zhang, Shaoxiang; Zhang, Xiaoming
2011-01-01
Background The major hindrance to multidetector CT imaging of the left extraperitoneal space (LES), and the detailed spatial relationships to its related spaces, is that there is no obvious density difference between them. Traditional gross anatomy and thick-slice sectional anatomy imagery are also insufficient to show the anatomic features of this narrow space in three-dimensions (3D). To overcome these obstacles, we used a new method to visualize the anatomic features of the LES and its spatial associations with related spaces, in random sections and in 3D. Methods In conjunction with Mimics® and Amira® software, we used thin-slice cross-sectional images of the upper abdomen, retrieved from the Chinese and American Visible Human dataset and the Chinese Virtual Human dataset, to display anatomic features of the LES and spatial relationships of the LES to its related spaces, especially the gastric bare area. The anatomic location of the LES was presented on 3D sections reconstructed from CVH2 images and CT images. Principal Findings What calls for special attention of our results is the LES consists of the left sub-diaphragmatic fat space and gastric bare area. The appearance of the fat pad at the cardiac notch contributes to converting the shape of the anteroexternal surface of the LES from triangular to trapezoidal. Moreover, the LES is adjacent to the lesser omentum and the hepatic bare area in the anterointernal and right rear direction, respectively. Conclusion The LES and its related spaces were imaged in 3D using visualization technique for the first time. This technique is a promising new method for exploring detailed communication relationships among other abdominal spaces, and will promote research on the dynamic extension of abdominal diseases, such as acute pancreatitis and intra-abdominal carcinomatosis. PMID:22087259
Developpement de techniques de diagnostic non intrusif par tomographie optique
NASA Astrophysics Data System (ADS)
Dubot, Fabien
Que ce soit dans les domaines des procedes industriels ou de l'imagerie medicale, on a assiste ces deux dernieres decennies a un developpement croissant des techniques optiques de diagnostic. L'engouement pour ces methodes repose principalement sur le fait qu'elles sont totalement non invasives, qu'elle utilisent des sources de rayonnement non nocives pour l'homme et l'environnement et qu'elles sont relativement peu couteuses et faciles a mettre en oeuvre comparees aux autres techniques d'imagerie. Une de ces techniques est la Tomographie Optique Diffuse (TOD). Cette methode d'imagerie tridimensionnelle consiste a caracteriser les proprietes radiatives d'un Milieu Semi-Transparent (MST) a partir de mesures optiques dans le proche infrarouge obtenues a l'aide d'un ensemble de sources et detecteurs situes sur la frontiere du domaine sonde. Elle repose notamment sur un modele direct de propagation de la lumiere dans le MST, fournissant les predictions, et un algorithme de minimisation d'une fonction de cout integrant les predictions et les mesures, permettant la reconstruction des parametres d'interet. Dans ce travail, le modele direct est l'approximation diffuse de l'equation de transfert radiatif dans le regime frequentiel tandis que les parametres d'interet sont les distributions spatiales des coefficients d'absorption et de diffusion reduit. Cette these est consacree au developpement d'une methode inverse robuste pour la resolution du probleme de TOD dans le domaine frequentiel. Pour repondre a cet objectif, ce travail est structure en trois parties qui constituent les principaux axes de la these. Premierement, une comparaison des algorithmes de Gauss-Newton amorti et de Broyden- Fletcher-Goldfarb-Shanno (BFGS) est proposee dans le cas bidimensionnel. Deux methodes de regularisation sont combinees pour chacun des deux algorithmes, a savoir la reduction de la dimension de l'espace de controle basee sur le maillage et la regularisation par penalisation de Tikhonov pour l'algorithme de Gauss-Newton amorti, et les regularisations basees sur le maillage et l'utilisation des gradients de Sobolev, uniformes ou spatialement dependants, lors de l'extraction du gradient de la fonction cout, pour la methode BFGS. Les resultats numeriques indiquent que l'algorithme de BFGS surpasse celui de Gauss-Newton amorti en ce qui concerne la qualite des reconstructions obtenues, le temps de calcul ou encore la facilite de selection du parametre de regularisation. Deuxiemement, une etude sur la quasi-independance du parametre de penalisation de Tikhonov optimal par rapport a la dimension de l'espace de controle dans les problemes inverses d'estimation de fonctions spatialement dependantes est menee. Cette etude fait suite a une observation realisee lors de la premiere partie de ce travail ou le parametre de Tikhonov, determine par la methode " L-curve ", se trouve etre independant de la dimension de l'espace de controle dans le cas sous-determine. Cette hypothese est demontree theoriquement puis verifiee numeriquement sur un probleme inverse lineaire de conduction de la chaleur puis sur le probleme inverse non-lineaire de TOD. La verification numerique repose sur la determination d'un parametre de Tikhonov optimal, defini comme etant celui qui minimise les ecarts entre les cibles et les reconstructions. La demonstration theorique repose sur le principe de Morozov (discrepancy principle) dans le cas lineaire, tandis qu'elle repose essentiellement sur l'hypothese que les fonctions radiatives a reconstruire sont des variables aleatoires suivant une loi normale dans le cas non-lineaire. En conclusion, la these demontre que le parametre de Tikhonov peut etre determine en utilisant une parametrisation des variables de controle associee a un maillage lâche afin de reduire les temps de calcul. Troisiemement, une methode inverse multi-echelle basee sur les ondelettes associee a l'algorithme de BFGS est developpee. Cette methode, qui s'appuie sur une reformulation du probleme inverse original en une suite de sous-problemes inverses de la plus grande echelle a la plus petite, a l'aide de la transformee en ondelettes, permet de faire face a la propriete de convergence locale de l'optimiseur et a la presence de nombreux minima locaux dans la fonction cout. Les resultats numeriques montrent que la methode proposee est plus stable vis-a-vis de l'estimation initiale des proprietes radiatives et fournit des reconstructions finales plus precises que l'algorithme de BFGS ordinaire tout en necessitant des temps de calcul semblables. Les resultats de ces travaux sont presentes dans cette these sous forme de quatre articles. Le premier article a ete accepte dans l'International Journal of Thermal Sciences, le deuxieme est accepte dans la revue Inverse Problems in Science and Engineering, le troisieme est accepte dans le Journal of Computational and Applied Mathematics et le quatrieme a ete soumis au Journal of Quantitative Spectroscopy & Radiative Transfer. Dix autres articles ont ete publies dans des comptes-rendus de conferences avec comite de lecture. Ces articles sont disponibles en format pdf sur le site de la Chaire de recherche t3e (www.t3e.info).
A locally p-adaptive approach for Large Eddy Simulation of compressible flows in a DG framework
NASA Astrophysics Data System (ADS)
Tugnoli, Matteo; Abbà, Antonella; Bonaventura, Luca; Restelli, Marco
2017-11-01
We investigate the possibility of reducing the computational burden of LES models by employing local polynomial degree adaptivity in the framework of a high-order DG method. A novel degree adaptation technique especially featured to be effective for LES applications is proposed and its effectiveness is compared to that of other criteria already employed in the literature. The resulting locally adaptive approach allows to achieve significant reductions in computational cost of representative LES computations.
Miroirs multicouches C/SI a incidence normale pour la region spectrale 25-40 nanometres
NASA Astrophysics Data System (ADS)
Grigonis, Marius
Nous avons propose la nouvelle combinaison de materiaux, C/Si, pour la fabrication de miroirs multicouches a incidence normale dans la region spectrale 25-40 nm. Les resultats experimentaux montrent que cette combinaison possede une reflectivite d'environ ~25% dans la region spectrale 25-33 nm et une reflectivite d'environ ~23% dans la region spectrale 33-40 nm. Ces valeurs de reflectivite sont les plus grandes obtenues jusqu'a maintenant dans la region spectrale 25-40 nm. Les miroirs multicouches ont ete par la suite caracterises par microscopie electronique a transmission, par diverses techniques de diffraction des rayons X et par spectroscopies d'electrons AES et ESCA. La resistance des miroirs aux temperatures elevees a ete egalement etudiee. Les resultats fournis par les methodes de caracterisation indiquent que cette combinaison possede des caracteristiques tres prometteuses pour son application comme miroir pour les rayons X mous.
A Hybrid Numerical Method for Turbulent Mixing Layers. Degree awarded by Case Western Reserve Univ.
NASA Technical Reports Server (NTRS)
Georgiadis, Nicholas J.
2001-01-01
A hybrid method has been developed for simulations of compressible turbulent mixing layers. Such mixing layers dominate the flows in exhaust systems of modern day aircraft and also those of hypersonic vehicles currently under development. The method configurations in which a dominant structural feature provides an unsteady mechanism to drive the turbulent development in the mixing layer. The hybrid method uses a Reynolds-averaged Navier-Stokes (RANS) procedure to calculate wall bounded regions entering a mixing section, and a Large Eddy Simulation (LES) procedure to calculate the mixing dominated regions. A numerical technique was developed to enable the use of the hybrid RANS-LES method on stretched, non-Cartesian grids. Closure for the RANS equations was obtained using the Cebeci-Smith algebraic turbulence model in conjunction with the wall-function approach of Ota and Goldberg. The wall-function approach enabled a continuous computational grid from the RANS regions to the LES region. The LES equations were closed using the Smagorinsky subgrid scale model. The hybrid RANS-LES method is applied to a benchmark compressible mixing layer experiment. Preliminary two dimensional calculations are used to investigate the effects of axial grid density and boundary conditions. Vortex shedding from the base region of a splitter plate separating the upstream flows was observed to eventually transition to turbulence. The location of the transition, however, was much further downstream than indicated by experiments. Actual LES calculations, performed in three spatial directions, also indicated vortex shedding, but the transition to turbulence was found to occur much closer to the beginning of the mixing section. which is in agreement with experimental observations. These calculations demonstrated that LES simulations must be performed in three dimensions. Comparisons of time-averaged axial velocities and turbulence intensities indicated reasonable agreement with experimental data.
DOE Office of Scientific and Technical Information (OSTI.GOV)
Lacaze, Guilhem; Oefelein, Joseph
Large-eddy-simulation (LES) is quickly becoming a method of choice for studying complex thermo-physics in a wide range of propulsion and power systems. It provides a means to study coupled turbulent combustion and flow processes in parameter spaces that are unattainable using direct-numerical-simulation (DNS), with a degree of fidelity that can be far more accurate than conventional engineering methods such as the Reynolds-averaged Navier-Stokes (RANS) approx- imation. However, development of predictive LES is complicated by the complex interdependence of different type of errors coming from numerical methods, algorithms, models and boundary con- ditions. On the other hand, control of accuracy hasmore » become a critical aspect in the development of predictive LES for design. The objective of this project is to create a framework of metrics aimed at quantifying the quality and accuracy of state-of-the-art LES in a manner that addresses the myriad of competing interdependencies. In a typical simulation cycle, only 20% of the computational time is actually usable. The rest is spent in case preparation, assessment, and validation, because of the lack of guidelines. This work increases confidence in the accuracy of a given solution while min- imizing the time obtaining the solution. The approach facilitates control of the tradeoffs between cost, accuracy, and uncertainties as a function of fidelity and methods employed. The analysis is coupled with advanced Uncertainty Quantification techniques employed to estimate confidence in model predictions and calibrate model's parameters. This work has provided positive conse- quences on the accuracy of the results delivered by LES and will soon have a broad impact on research supported both by the DOE and elsewhere.« less
NASA Astrophysics Data System (ADS)
Rebaine, Ali
1997-08-01
Ce travail consiste en la simulation numerique des ecoulements internes compressibles bidimensionnels laminaires et turbulents. On s'interesse, particulierement, aux ecoulements dans les ejecteurs supersoniques. Les equations de Navier-Stokes sont formulees sous forme conservative et utilisent, comme variables independantes, les variables dites enthalpiques a savoir: la pression statique, la quantite de mouvement et l'enthalpie totale specifique. Une formulation variationnelle stable des equations de Navier-Stokes est utilisee. Elle est base sur la methode SUPG (Streamline Upwinding Petrov Galerkin) et utilise un operateur de capture des forts gradients. Un modele de turbulence, pour la simulation des ecoulements dans les ejecteurs, est mis au point. Il consiste a separer deux regions distinctes: une region proche de la paroi solide, ou le modele de Baldwin et Lomax est utilise et l'autre, loin de la paroi, ou une formulation nouvelle, basee sur le modele de Schlichting pour les jets, est proposee. Une technique de calcul de la viscosite turbulente, sur un maillage non structure, est implementee. La discretisation dans l'espace de la forme variationnelle est faite a l'aide de la methode des elements finis en utilisant une approximation mixte: quadratique pour les composantes de la quantite de mouvement et de la vitesse et lineaire pour le reste des variables. La discretisation temporelle est effectuee par une methode de differences finies en utilisant le schema d'Euler implicite. Le systeme matriciel, resultant de la discretisation spatio-temporelle, est resolu a l'aide de l'algorithme GMRES en utilisant un preconditionneur diagonal. Les validations numeriques ont ete menees sur plusieurs types de tuyeres et ejecteurs. La principale validation consiste en la simulation de l'ecoulement dans l'ejecteur teste au centre de recherche NASA Lewis. Les resultats obtenus sont tres comparables avec ceux des travaux anterieurs et sont nettement superieurs concernant les ecoulements turbulents dans les ejecteurs.
NASA Astrophysics Data System (ADS)
Comot, Pierre
L'industrie aeronautique, cherche a etudier la possibilite d'utiliser de maniere structurelle des joints brases, dans une optique de reduction de poids et de cout. Le developpement d'une methode d'evaluation rapide, fiable et peu couteuse pour evaluer l'integrite structurelle des joints apparait donc indispensable. La resistance mecanique d'un joint brase dependant principalement de la quantite de phase fragile dans sa microstructure. Les ondes guidees ultrasonores permettent de detecter ce type de phase lorsqu'elles sont couplees a une mesure spatio-temporelle. De plus la nature de ce type d'ondes permet l'inspection de joints ayant des formes complexes. Ce memoire se concentre donc sur le developpement d'une technique basee sur l'utilisation d'ondes guidees ultrasonores pour l'inspection de joints brases a recouvrement d'Inconel 625 avec comme metal d'apport du BNi-2. Dans un premiers temps un modele elements finis du joint a ete utilise pour simuler la propagation des ultrasons et optimiser les parametres d'inspection, la simulation a permis egalement de demontrer la faisabilite de la technique pour la detection de la quantite de phase fragile dans ce type de joints. Les parametres optimises sont la forme de signal d'excitation, sa frequence centrale et la direction d'excitation. Les simulations ont montre que l'energie de l'onde ultrasonore transmise a travers le joint aussi bien que celle reflechie, toutes deux extraites des courbes de dispersion, etaient proportionnelles a la quantite de phase fragile presente dans le joint et donc cette methode permet d'identifier la presence ou non d'une phase fragile dans ce type de joint. Ensuite des experimentations ont ete menees sur trois echantillons typiques presentant differentes quantites de phase fragile dans le joint, pour obtenir ce type d'echantillons differents temps de brasage ont ete utilises (1, 60 et 180 min). Pour cela un banc d'essai automatise a ete developpe permettant d'effectuer une analyse similaire a celle utilisee en simulation. Les parametres experimentaux ayant ete choisis en accord avec l'optimisation effectuee lors des simulations et apres une premiere optimisation du procede experimental. Finalement les resultats experimentaux confirment les resultats obtenus en simulation, et demontrent le potentiel de la methode developpee.
Large eddy simulation of flows in industrial compressors: a path from 2015 to 2035
Gourdain, N.; Sicot, F.; Duchaine, F.; Gicquel, L.
2014-01-01
A better understanding of turbulent unsteady flows is a necessary step towards a breakthrough in the design of modern compressors. Owing to high Reynolds numbers and very complex geometry, the flow that develops in such industrial machines is extremely hard to predict. At this time, the most popular method to simulate these flows is still based on a Reynolds-averaged Navier–Stokes approach. However, there is some evidence that this formalism is not accurate for these components, especially when a description of time-dependent turbulent flows is desired. With the increase in computing power, large eddy simulation (LES) emerges as a promising technique to improve both knowledge of complex physics and reliability of flow solver predictions. The objective of the paper is thus to give an overview of the current status of LES for industrial compressor flows as well as to propose future research axes regarding the use of LES for compressor design. While the use of wall-resolved LES for industrial multistage compressors at realistic Reynolds number should not be ready before 2035, some possibilities exist to reduce the cost of LES, such as wall modelling and the adaptation of the phase-lag condition. This paper also points out the necessity to combine LES to techniques able to tackle complex geometries. Indeed LES alone, i.e. without prior knowledge of such flows for grid construction or the prohibitive yet ideal use of fully homogeneous meshes to predict compressor flows, is quite limited today. PMID:25024422
NASA Astrophysics Data System (ADS)
Dolez, Patricia
Le travail de recherche effectue dans le cadre de ce projet de doctorat a permis la mise au point d'une methode de mesure des pertes ac destinee a l'etude des supraconducteurs a haute temperature critique. Pour le choix des principes de cette methode, nous nous sommes inspires de travaux anterieurs realises sur les supraconducteurs conventionnels, afin de proposer une alternative a la technique electrique, presentant lors du debut de cette these des problemes lies a la variation du resultat des mesures selon la position des contacts de tension sur la surface de l'echantillon, et de pouvoir mesurer les pertes ac dans des conditions simulant la realite des futures applications industrielles des rubans supraconducteurs: en particulier, cette methode utilise la technique calorimetrique, associee a une calibration simultanee et in situ. La validite de la methode a ete verifiee de maniere theorique et experimentale: d'une part, des mesures ont ete realisees sur des echantillons de Bi-2223 recouverts d'argent ou d'alliage d'argent-or et comparees avec les predictions theoriques donnees par Norris, nous indiquant la nature majoritairement hysteretique des pertes ac dans nos echantillons; d'autre part, une mesure electrique a ete realisee in situ dont les resultats correspondent parfaitement a ceux donnes par notre methode calorimetrique. Par ailleurs, nous avons compare la dependance en courant et en frequence des pertes ac d'un echantillon avant et apres qu'il ait ete endommage. Ces mesures semblent indiquer une relation entre la valeur du coefficient de la loi de puissance modelisant la dependance des pertes avec le courant, et les inhomogeneites longitudinales du courant critique induites par l'endommagement. De plus, la variation en frequence montre qu'au niveau des grosses fractures transverses creees par l'endommagement dans le coeur supraconducteur, le courant se partage localement de maniere a peu pres equivalente entre les quelques grains de matiere supraconductrice qui restent fixes a l'interface coeur-enveloppe, et le revetement en alliage d'argent. L'interet d'une methode calorimetrique par rapport a la technique electrique, plus rapide, plus sensible et maintenant fiable, reside dans la possibilite de realiser des mesures de pertes ac dans des environnements complexes, reproduisant la situation presente par exemple dans un cable de transport d'energie ou dans un transformateur. En particulier, la superposition d'un courant dc en plus du courant ac habituel nous a permis d'observer experimentalement, pour la premiere fois a notre connaissance, un comportement particulier des pertes ac en fonction de la valeur du courant dc decrit theoriquement par LeBlanc. Nous avons pu en deduire la presence d'un courant d'ecrantage Meissner de 16 A, ce qui nous permet de determiner les conditions dans lesquelles une reduction du niveau de pertes ac pourrait etre obtenue par application d'un courant dc, phenomene denomme "vallee de Clem".
Development of a Hybrid RANS/LES Method for Turbulent Mixing Layers
NASA Technical Reports Server (NTRS)
Georgiadis, Nicholas J.; Alexander, J. Iwan D.; Reshotko, Eli
2001-01-01
Significant research has been underway for several years in NASA Glenn Research Center's nozzle branch to develop advanced computational methods for simulating turbulent flows in exhaust nozzles. The primary efforts of this research have concentrated on improving our ability to calculate the turbulent mixing layers that dominate flows both in the exhaust systems of modern-day aircraft and in those of hypersonic vehicles under development. As part of these efforts, a hybrid numerical method was recently developed to simulate such turbulent mixing layers. The method developed here is intended for configurations in which a dominant structural feature provides an unsteady mechanism to drive the turbulent development in the mixing layer. Interest in Large Eddy Simulation (LES) methods have increased in recent years, but applying an LES method to calculate the wide range of turbulent scales from small eddies in the wall-bounded regions to large eddies in the mixing region is not yet possible with current computers. As a result, the hybrid method developed here uses a Reynolds-averaged Navier-Stokes (RANS) procedure to calculate wall-bounded regions entering a mixing section and uses a LES procedure to calculate the mixing-dominated regions. A numerical technique was developed to enable the use of the hybrid RANS-LES method on stretched, non-Cartesian grids. With this technique, closure for the RANS equations is obtained by using the Cebeci-Smith algebraic turbulence model in conjunction with the wall-function approach of Ota and Goldberg. The LES equations are closed using the Smagorinsky subgrid scale model. Although the function of the Cebeci-Smith model to replace all of the turbulent stresses is quite different from that of the Smagorinsky subgrid model, which only replaces the small subgrid turbulent stresses, both are eddy viscosity models and both are derived at least in part from mixing-length theory. The similar formulation of these two models enables the RANS and LES equations to be solved with a single solution scheme and computational grid. The hybrid RANS-LES method has been applied to a benchmark compressible mixing layer experiment in which two isolated supersonic streams, separated by a splitter plate, provide the flows to a constant-area mixing section. Although the configuration is largely two dimensional in nature, three-dimensional calculations were found to be necessary to enable disturbances to develop in three spatial directions and to transition to turbulence. The flow in the initial part of the mixing section consists of a periodic vortex shedding downstream of the splitter plate trailing edge. This organized vortex shedding then rapidly transitions to a turbulent structure, which is very similar to the flow development observed in the experiments. Although the qualitative nature of the large-scale turbulent development in the entire mixing section is captured well by the LES part of the current hybrid method, further efforts are planned to directly calculate a greater portion of the turbulence spectrum and to limit the subgrid scale modeling to only the very small scales. This will be accomplished by the use of higher accuracy solution schemes and more powerful computers, measured both in speed and memory capabilities.
Numerical methods for large eddy simulation of acoustic combustion instabilities
NASA Astrophysics Data System (ADS)
Wall, Clifton T.
Acoustic combustion instabilities occur when interaction between the combustion process and acoustic modes in a combustor results in periodic oscillations in pressure, velocity, and heat release. If sufficiently large in amplitude, these instabilities can cause operational difficulties or the failure of combustor hardware. In many situations, the dominant instability is the result of the interaction between a low frequency acoustic mode of the combustor and the large scale hydrodynamics. Large eddy simulation (LES), therefore, is a promising tool for the prediction of these instabilities, since both the low frequency acoustic modes and the large scale hydrodynamics are well resolved in LES. Problems with the tractability of such simulations arise, however, due to the difficulty of solving the compressible Navier-Stokes equations efficiently at low Mach number and due to the large number of acoustic periods that are often required for such instabilities to reach limit cycles. An implicit numerical method for the solution of the compressible Navier-Stokes equations has been developed which avoids the acoustic CFL restriction, allowing for significant efficiency gains at low Mach number, while still resolving the low frequency acoustic modes of interest. In the limit of a uniform grid the numerical method causes no artificial damping of acoustic waves. New, non-reflecting boundary conditions have also been developed for use with the characteristic-based approach of Poinsot and Lele (1992). The new boundary conditions are implemented in a manner which allows for significant reduction of the computational domain of an LES by eliminating the need to perform LES in regions where one-dimensional acoustics significantly affect the instability but details of the hydrodynamics do not. These new numerical techniques have been demonstrated in an LES of an experimental combustor. The new techniques are shown to be an efficient means of performing LES of acoustic combustion instabilities and are shown to accurately predict the occurrence and frequency of the dominant mode of the instability observed in the experiment.
NASA Astrophysics Data System (ADS)
Miller, D. J.; Zhang, Z.; Ackerman, A. S.; Platnick, S. E.; Cornet, C.
2016-12-01
A remote sensing cloud retrieval simulator, created by coupling an LES cloud model with vector radiative transfer (RT) models is the ideal framework for assessing cloud remote sensing techniques. This simulator serves as a tool for understanding bi-spectral and polarimetric retrievals by comparing them directly to LES cloud properties (retrieval closure comparison) and for comparing the retrieval techniques to one another. Our simulator utilizes the DHARMA LES [Ackerman et al., 2004] with cloud properties based on marine boundary layer (MBL) clouds observed during the DYCOMS-II and ATEX field campaigns. The cloud reflectances are produced by the vectorized RT models based on polarized doubling adding and monte carlo techniques (PDA, MCPOL). Retrievals are performed utilizing techniques as similar as possible to those implemented on their corresponding well known instruments; polarimetric retrievals are based on techniques implemented for polarimeters (POLDER, AirMSPI, and RSP) and bi-spectral retrievals are performed using the Nakajima-King LUT method utilized on a number of spectral instruments (MODIS and VIIRS). Retrieval comparisons focus on cloud droplet effective radius (re), effective variance (ve), and cloud optical thickness (τ). This work explores the sensitivities of these two retrieval techniques to various observation limitations, such as spatial resolution/cloud inhomogeneity, impact of 3D radiative effects, and angular resolution requirements. With future remote sensing missions like NASA's Aerosols/Clouds/Ecosystems (ACE) planning to feature advanced polarimetric instruments it is important to understand how these retrieval techniques compare to one another. The cloud retrieval simulator we've developed allows us to probe these important questions in a realistically relevant test bed.
Numerical investigation of airflow in an idealised human extra-thoracic airway: a comparison study
Chen, Jie; Gutmark, Ephraim
2013-01-01
Large eddy simulation (LES) technique is employed to numerically investigate the airflow through an idealised human extra-thoracic airway under different breathing conditions, 10 l/min, 30 l/min, and 120 l/min. The computational results are compared with single and cross hot-wire measurements, and with time-averaged flow field computed by standard k-ω and k-ω-SST Reynolds averaged Navier-Stokes (RANS) models and the Lattice-Boltzmann method (LBM). The LES results are also compared to root-mean-square (RMS) flow field computed by the Reynolds stress model (RSM) and LBM. LES generally gives better prediction of the time-averaged flow field than RANS models and LBM. LES also provides better estimation of the RMS flow field than both the RSM and the LBM. PMID:23619907
Effets thermoelectrique et thermomagnetique du yttrium barium copper oxide monocristallin
NASA Astrophysics Data System (ADS)
Ghamlouche, Hassan
1998-09-01
Des la decouverte des supraconducteurs a haute temperature critique, les recherches se sont intensifiees afin de comprendre les mecanismes qui sont a l'origine des proprietes de ces materiaux L'etat mixte, tout comme l'etat supraconducteur pur et l'etat normal, a fait l'objet de nombreux travaux de recherche. En particulier, la structure des vortex a l'etat mixte, et leur mouvement sous l'effet d'une force quelconque, etaient et restent le centre de preoccupation. Les effets thermoelectrique (Seebeck) et thermomagnetique (Nernst) sont parmi les differentes mesures qui peuvent donner de l'information sur les etats des vortex a l'etat mixte. L'avantage essentiel de ces deux effets est l'absence d'un courant electrique applique. Ce dernier peut donner des perturbations indesirables durant les mesures. D'autre pari, nous avons utilise la methode CA (Courant Alternatif) pour effectuer nos mesures. Cette methode est caracterisee par une meilleure resolution par rapport a la methode CC (Courant Continu) conventionnelle. Nous avons etudie autant des echantillons macles que des echantillons sans macles. D'abord nous avons teste notre montage a champ magnetique nul. Nous avons alors montre que le pic rapporte par certains dans l'effet Seebeck a la transition supraconductrice ne correspond pas a une realite physique mais a un artefact experimental. On avait associe ce pic aux fluctuations. Par la suite, nous avons mis en evidence et etudie pour la premiere fois avec les effets Seebeck et Nernst le phenomene de la fusion du reseau de vortex grace a des mesures sur les echantillons sans macles. Cette etude s'est faite pour deux concentrations d'oxygene differentes et pour un gradient de temperature parallele, consecutivement, aux deux axes cristallographiques dans le plan ab. Finalement, nous avons etudie l'effet des plans de maclage sur le mouvement des vortex. Ceci a ete realise en appliquant le gradient de temperature selon trois directions differentes (0, 45 et 90°) avec les plans de maclage. Nous avons observe, pour le premier angle un mouvement libre du vortex, pour le second angle une contribution de l'effet Nernst a l'effet Seebeck et pour la troisieme direction un phenomene d'activation. Dans ce dernier cas, les plans de maclage font un obstacle qui s'oppose au mouvement des vortex. De ce qui precede, nous concluons qu'avec la bonne resolution de notre technique nous sommes capables d'observer des phenomenes que la technique CC ne met pas en relief. D'autre part, la variete d'echantillons que nous avons etudies et les phenomenes que nous avons observes valorisent la presente etude.
Micro Blowing Simulations Using a Coupled Finite-Volume Lattice-Boltzman n L ES Approach
NASA Technical Reports Server (NTRS)
Menon, S.; Feiz, H.
1990-01-01
Three dimensional large-eddy simulations (LES) of single and multiple jet-in-cross-flow (JICF) are conducted using the 19-bit Lattice Boltzmann Equation (LBE) method coupled with a conventional finite-volume (FV) scheme. In this coupled LBE-FV approach, the LBE-LES is employed to simulate the flow inside the jet nozzles while the FV-LES is used to simulate the crossflow. The key application area is the use of this technique is to study the micro blowing technique (MBT) for drag control similar to the recent experiments at NASA/GRC. It is necessary to resolve the flow inside the micro-blowing and suction holes with high resolution without being restricted by the FV time-step restriction. The coupled LBE-FV-LES approach achieves this objectives in a computationally efficient manner. A single jet in crossflow case is used for validation purpose and the results are compared with experimental data and full LBE-LES simulation. Good agreement with data is obtained. Subsequently, MBT over a flat plate with porosity of 25% is simulated using 9 jets in a compressible cross flow at a Mach number of 0.4. It is shown that MBT suppresses the near-wall vortices and reduces the skin friction by up to 50 percent. This is in good agreement with experimental data.
La réparation sphinctérienne directe: points techniques, indications et résultats
Laalim, Said Ait; Hrora, Abdelmalek; Raiss, Mohammed; Ibnmejdoub, Karim; Toughai, Imane; Ahallat, Mohammed; Mazaz, Khalid
2013-01-01
L'incontinence anale est un handicap physique, psychique et social majeur qui a de nombreuses causes différentes. Les méthodes actuellement disponibles pour améliorer les symptômes de cette incontinence sont les méthodes médicales et de rééducation d'une part et les méthodes chirurgicales d'autre part. Quatre techniques chirurgicales répondent à ces objectifs pour la plupart des malades: la sphinctérorraphie, la neuromodulation des racines sacrées, et les deux techniques de substitution que sont le sphincter artificiel et la graciloplastie dynamisée. La réparation sphinctérienne directe est la technique la plus utilisée dans le traitement chirurgical de l'incontinence anale (IA) par lésion sphinctérienne. Cette technique est envisageable chez les malades ayant une incontinence fécale en rapport avec des lésions limitées du sphincter anal externe. La technique chirurgicale est simple (myorraphie par suture directe ou en paletot) et bien codifiée. Les résultats fonctionnels sont imparfaits et se dégradent avec la durée du suivi. Une continence parfaite après réparation sphinctérienne est rarement acquise de façon durable: le malade candidat à cette approche thérapeutique doit en être averti. PMID:23504542
Croissance epitaxiale de GaAs sur substrats de Ge par epitaxie par faisceaux chimiques
NASA Astrophysics Data System (ADS)
Belanger, Simon
La situation energetique et les enjeux environnementaux auxquels la societe est confrontee entrainent un interet grandissant pour la production d'electricite a partir de l'energie solaire. Parmi les technologies actuellement disponibles, la filiere du photovoltaique a concentrateur solaire (CPV pour concentrator photovoltaics) possede un rendement superieur et mi potentiel interessant a condition que ses couts de production soient competitifs. La methode d'epitaxie par faisceaux chimiques (CBE pour chemical beam epitaxy) possede plusieurs caracteristiques qui la rendent interessante pour la production a grande echelle de cellules photovoltaiques a jonctions multiples a base de semi-conducteurs III-V. Ce type de cellule possede la meilleure efficacite atteinte a ce jour et est utilise sur les satellites et les systemes photovoltaiques a concentrateur solaire (CPV) les plus efficaces. Une des principales forces de la technique CBE se trouve dans son potentiel d'efficacite d'utilisation des materiaux source qui est superieur a celui de la technique d'epitaxie qui est couramment utilisee pour la production a grande echelle de ces cellules. Ce memoire de maitrise presente les travaux effectues dans le but d'evaluer le potentiel de la technique CBE pour realiser la croissance de couches de GaAs sur des substrats de Ge. Cette croissance constitue la premiere etape de fabrication de nombreux modeles de cellules solaires a haute performance decrites plus haut. La realisation de ce projet a necessite le developpement d'un procede de preparation de surface pour les substrats de germanium, la realisation de nombreuses sceances de croissance epitaxiale et la caracterisation des materiaux obtenus par microscopie optique, microscopie a force atomique (AFM), diffraction des rayons-X a haute resolution (HRXRD), microscopie electronique a transmission (TEM), photoluminescence a basse temperature (LTPL) et spectrometrie de masse des ions secondaires (SIMS). Les experiences ont permis de confirmer l'efficacite du procede de preparation de surface et d'identifier les conditions de croissance optimales. Les resultats de caracterisation indiquent que les materiaux obtenus presentent une tres faible rugosite de surface, une bonne qualite cristalline et un dopage residuel relativement important. De plus, l'interface GaAs/Ge possede une faible densite de defauts. Finalement, la diffusion d'arsenic dans le substrat de germanium est comparable aux valeurs trouvees dans la litterature pour la croissance a basse temperature avec les autres procedes d'epitaxie courants. Ces resultats confirment que la technique d'epitaxie par faisceaux chimiques (CBE) permet de produire des couches de GaAs sur Ge de qualite adequate pour la fabrication de cellules solaires a haute performance. L'apport a la communaute scientifique a ete maximise par le biais de la redaction d'un article soumis a la revue Journal of Crystal Growth et la presentation des travaux a la conference Photovoltaics Canada 2010 . Mots-cles : Epitaxie par jets chimiques, Chemical beam epitaxy, CBE, MOMBE, Germanium, GaAs, Ge
Methodes de calcul des forces aerodynamiques pour les etudes des interactions aeroservoelastiques
NASA Astrophysics Data System (ADS)
Biskri, Djallel Eddine
L'aeroservoelasticite est un domaine ou interagissent la structure flexible d'un avion, l'aerodynamique et la commande de vol. De son cote, la commande du vol considere l'avion comme une structure rigide et etudie l'influence du systeme de commande sur la dynamique de vol. Dans cette these, nous avons code trois nouvelles methodes d'approximation de forces aerodynamiques: Moindres carres corriges, Etat minimal corrige et Etats combines. Dans les deux premieres methodes, les erreurs d'approximation entre les forces aerodynamiques approximees par les methodes classiques et celles obtenues par les nouvelles methodes ont les memes formes analytiques que celles des forces aerodynamiques calculees par LS ou MS. Quant a la troisieme methode, celle-ci combine les formulations des forces approximees avec les methodes standards LS et MS. Les vitesses et frequences de battement et les temps d'executions calcules par les nouvelles methodes versus ceux calcules par les methodes classiques ont ete analyses.
A priori and a posteriori analysis of the flow around a rectangular cylinder
NASA Astrophysics Data System (ADS)
Cimarelli, A.; Leonforte, A.; Franciolini, M.; De Angelis, E.; Angeli, D.; Crivellini, A.
2017-11-01
The definition of a correct mesh resolution and modelling approach for the Large Eddy Simulation (LES) of the flow around a rectangular cylinder is recognized to be a rather elusive problem as shown by the large scatter of LES results present in the literature. In the present work, we aim at assessing this issue by performing an a priori analysis of Direct Numerical Simulation (DNS) data of the flow. This approach allows us to measure the ability of the LES field on reproducing the main flow features as a function of the resolution employed. Based on these results, we define a mesh resolution which maximize the opposite needs of reducing the computational costs and of adequately resolving the flow dynamics. The effectiveness of the resolution method proposed is then verified by means of an a posteriori analysis of actual LES data obtained by means of the implicit LES approach given by the numerical properties of the Discontinuous Galerkin spatial discretization technique. The present work represents a first step towards a best practice for LES of separating and reattaching flows.
2001-04-01
divisée en un certain nombre de sessions. SESSION I – SYSTEMES ET TECHNIQUES DE TRAITEMENT DE L’INFORMATION (I) Les deux premières sessions étaient...établissant des paramètres et en jetant les bases théoriques/mathématiques de futurs systèmes d’information. Il s’agit d’un domaine pour lequel la...transfert de données et de renseignements se fait de plus en plus sentir. Ce symposium couvrira un grand domaine opérationnel qui est d’une grande
Les Protheses d'Expansion dans le Traitement des Sequelles de Brulures
Tourabi, K.; Ribag, Y.; Arrob, A.; Moussaoui, A.; Ihrai, H.
2010-01-01
Summary Les Auteurs présentent leur protocole pour l'expansion cutanée et rapportent quatre cas colligés au service des brûlures de leur hôpital au Maroc. Ils décrivent leur technique opératoire et les résultats obtenus. L'expansion cutanée reste la méthode de choix pour la couverture des pertes de substance étendues et la correction des séquelles de brûlure, et l'expérience rapportée par les Auteurs confirme les bons résultats que l'on peut obtenir avec cette technique, y compris les résultats esthétiques. PMID:21991194
NASA Astrophysics Data System (ADS)
Sovardi, Carlo; Jaensch, Stefan; Polifke, Wolfgang
2016-09-01
A numerical method to concurrently characterize both aeroacoustic scattering and noise sources at a duct singularity is presented. This approach combines Large Eddy Simulation (LES) with techniques of System Identification (SI): In a first step, a highly resolved LES with external broadband acoustic excitation is carried out. Subsequently, time series data extracted from the LES are post-processed by means of SI to model both acoustic propagation and noise generation. The present work studies the aero-acoustic characteristics of an orifice placed in a duct at low flow Mach numbers with the "LES-SI" method. Parametric SI based on the Box-Jenkins mathematical structure is employed, with a prediction error approach that utilizes correlation analysis of the output residuals to avoid overfitting. Uncertainties of model parameters due to the finite length of times series are quantified in terms of confidence intervals. Numerical results for acoustic scattering matrices and power spectral densities of broad-band noise are validated against experimental measurements over a wide range of frequencies below the cut-off frequency of the duct.
Generation of (F+2)_AH Centres in Sodium Ion Doped KCl:CO^{2-3}
NASA Astrophysics Data System (ADS)
Diaf, M.; Chihi, I.; Hamaïdia, A.; Akrmi, El.
1996-01-01
We demonstrate that (F+2)AH centres of KCl may be obtained from crystals doped with K{2}CO{3} and NaCl, grown by the Czochralski method in open atmosphere. The optical properties of (F+2)AH centres thus produced are exactly the same as those of (F+2)AH centres prepared by the usual technique, which involves superoxide doping and a controlled atmosphere. Nous montrons que les centres (F+2)AH de KCl peuvent être obtenus à partir de cristaux dopés par K{2}CO{3} et NaCl, fabriqués par la méthode de Czochralski à l'air libre. Les propriétés optiques des centres (F+2)AH ainsi produits sont exactement les mêmes que celles des centres (F+2)AH préparés par la technique habituelle, qui comporte le dopage par un superoxyde et l'emploi d'une atmosphère contrôlée.
Simulation of supersonic turbulent flow in the vicinity of an inclined backward-facing step
NASA Astrophysics Data System (ADS)
El-Askary, W. A.
2011-08-01
Large eddy simulation (LES) is a viable and powerful tool to analyse unsteady three-dimensional turbulent flows. In this article, the method of LES is used to compute a plane turbulent supersonic boundary layer subjected to different pressure gradients. The pressure gradients are generated by allowing the flow to pass in the vicinity of an expansion-compression ramp (inclined backward-facing step with leeward-face angle of 25°) for an upstream Mach number of 2.9. The inflow boundary condition is the main problem for all turbulent wall-bounded flows. An approach to solve this problem is to extract instantaneous velocities, temperature and density data from an auxiliary simulation (inflow generator). To generate an appropriate realistic inflow condition to the inflow generator itself the rescaling technique for compressible flows is used. In this method, Morkovin's hypothesis, in which the total temperature fluctuations are neglected compared with the static temperature fluctuations, is applied to rescale and generate the temperature profile at inlet. This technique was successfully developed and applied by the present author for an LES of subsonic three-dimensional boundary layer of a smooth curved ramp. The present LES results are compared with the available experimental data as well as numerical data. The positive impact of the rescaling formulation of the temperature is proven by the convincing agreement of the obtained results with the experimental data compared with published numerical work and sheds light on the quality of the developed compressible inflow generator.
[Tissue expanders in the treatment of burn injuries].
Tourabi, K; Ribag, Y; Arrob, A; Moussaoui, A; Ihrai, H
2010-03-31
Les Auteurs présentent leur protocole pour l'expansion cutanée et rapportent quatre cas colligés au service des brûlures de leur hôpital au Maroc. Ils décrivent leur technique opératoire et les résultats obtenus. L'expansion cutanée reste la méthode de choix pour la couverture des pertes de substance étendues et la correction des séquelles de brûlure, et l'expérience rapportée par les Auteurs confirme les bons résultats que l'on peut obtenir avec cette technique, y compris les résultats esthétiques.
Cystostomie percutanée à la pince de Kelly: indications, technique et résultats
Diabaté, Ibrahima; Ouédraogo, Bouréima; Sow, Ibrahima; Bâ, Aliou
2015-01-01
Introduction La dérivation urinaire sus-pubienne est pratiquée dans différentes circonstances. Cette étude vise à décrire la technique de cystostomie percutanée (CPC) pratiquée à l'aide d'une pince de Kelly pour la pose d'une sonde de Foley, à définir les indications de cette technique et à rapporter les résultats. Méthodes Du 1er janvier 2005 au 31 décembre 2014, il a été réalisé 194 CPC à la pince de Kelly dans notre service, en urgence, sous anesthésie locale, chez des patients en rétention vésicale. Cette technique, dérivée de la cystostomie par ponction au trocart vise à placer dans la vessie une sonde de Foley après incision cutanée et aponévrotique (de 1 cm sur la ligne médiane, à 1,5 - 2 cm au-dessus de la symphyse pubienne) et la ponction vésicale à la pince de Kelly à travers cette incision. Résultats Les 194 patients étaient tous de sexe masculin, âgés en moyenne de 50 ans ± 21 (extrêmes de 17 ans et 86 ans). Les pathologies à l'origine des rétentions vésicales étaient: les rétrécissements urétraux (n=119), les hypertrophies bénignes de la prostate (n=47), les cancers de prostate (n=21), les traumatismes de l'urètre (n=7). Tous les patients ont été opérés avec succès par cette méthode et les suites ont été simples. Le temps de réalisation était de 6 minutes ± 1. Les sondes de Foley mises en place étaient de charrière 16 (n=59), charrière 18 (n=116) et charrière 20 (n=19). La cicatrisation du trajet de la CPC après l'ablation de la sonde de Foley n'a posée aucun problème chez 146 patients suivis, les 48 autres ayant été perdus de vue. Conclusion La CPC à la pince de Kelly est une technique simple, rapide et pas onéreuse. Ses indications sont les mêmes que pour toute CPC et elle représente une alternative à la cystostomie par chirurgie ouverte. PMID:26893798
Large eddy simulation for aerodynamics: status and perspectives.
Sagaut, Pierre; Deck, Sébastien
2009-07-28
The present paper provides an up-to-date survey of the use of large eddy simulation (LES) and sequels for engineering applications related to aerodynamics. Most recent landmark achievements are presented. Two categories of problem may be distinguished whether the location of separation is triggered by the geometry or not. In the first case, LES can be considered as a mature technique and recent hybrid Reynolds-averaged Navier-Stokes (RANS)-LES methods do not allow for a significant increase in terms of geometrical complexity and/or Reynolds number with respect to classical LES. When attached boundary layers have a significant impact on the global flow dynamics, the use of hybrid RANS-LES remains the principal strategy to reduce computational cost compared to LES. Another striking observation is that the level of validation is most of the time restricted to time-averaged global quantities, a detailed analysis of the flow unsteadiness being missing. Therefore, a clear need for detailed validation in the near future is identified. To this end, new issues, such as uncertainty and error quantification and modelling, will be of major importance. First results dealing with uncertainty modelling in unsteady turbulent flow simulation are presented.
Prediction du profil de durete de l'acier AISI 4340 traite thermiquement au laser
NASA Astrophysics Data System (ADS)
Maamri, Ilyes
Les traitements thermiques de surfaces sont des procedes qui visent a conferer au coeur et a la surface des pieces mecaniques des proprietes differentes. Ils permettent d'ameliorer la resistance a l'usure et a la fatigue en durcissant les zones critiques superficielles par des apports thermiques courts et localises. Parmi les procedes qui se distinguent par leur capacite en terme de puissance surfacique, le traitement thermique de surface au laser offre des cycles thermiques rapides, localises et precis tout en limitant les risques de deformations indesirables. Les proprietes mecaniques de la zone durcie obtenue par ce procede dependent des proprietes physicochimiques du materiau a traiter et de plusieurs parametres du procede. Pour etre en mesure d'exploiter adequatement les ressources qu'offre ce procede, il est necessaire de developper des strategies permettant de controler et regler les parametres de maniere a produire avec precision les caracteristiques desirees pour la surface durcie sans recourir au classique long et couteux processus essai-erreur. L'objectif du projet consiste donc a developper des modeles pour predire le profil de durete dans le cas de traitement thermique de pieces en acier AISI 4340. Pour comprendre le comportement du procede et evaluer les effets des differents parametres sur la qualite du traitement, une etude de sensibilite a ete menee en se basant sur une planification experimentale structuree combinee a des techniques d'analyse statistiques eprouvees. Les resultats de cette etude ont permis l'identification des variables les plus pertinentes a exploiter pour la modelisation. Suite a cette analyse et dans le but d'elaborer un premier modele, deux techniques de modelisation ont ete considerees, soient la regression multiple et les reseaux de neurones. Les deux techniques ont conduit a des modeles de qualite acceptable avec une precision d'environ 90%. Pour ameliorer les performances des modeles a base de reseaux de neurones, deux nouvelles approches basees sur la caracterisation geometrique du profil de durete ont ete considerees. Contrairement aux premiers modeles predisant le profil de durete en fonction des parametres du procede, les nouveaux modeles combinent les memes parametres avec les attributs geometriques du profil de durete pour refleter la qualite du traitement. Les modeles obtenus montrent que cette strategie conduit a des resultats tres prometteurs.
NASA Astrophysics Data System (ADS)
Jaensch, Stefan; Merk, Malte; Emmert, Thomas; Polifke, Wolfgang
2018-05-01
The Large Eddy Simulation/System Identification (LES/SI) approach is a general and efficient numerical method for deducing a Flame Transfer Function (FTF) from the LES of turbulent reacting flow. The method may be summarised as follows: a simulated flame is forced with a broadband excitation signal. The resulting fluctuations of the reference velocity and of the global heat release rate are post-processed via SI techniques in order to estimate a low-order model of the flame dynamics. The FTF is readily deduced from the low-order model. The SI method most frequently applied in aero- and thermo-acoustics has been Wiener-Hopf Inversion (WHI). This method is known to yield biased estimates in situations with feedback, thus it was assumed that non-reflective boundary conditions are required to generate accurate results with the LES/SI approach. Recent research has shown that the FTF is part of the so-called Intrinsic ThermoAcoustic (ITA) feedback loop. Hence, identifying an FTF from a compressible LES is always a closed-loop problem, and consequently one should expect that the WHI would yield biased results. However, several studies proved that WHI results compare favourably with validation data. To resolve this apparent contradiction, a variety of identification methods are compared against each other, including models designed for closed-loop identification. In agreement with theory, we show that the estimate given by WHI does not converge to the actual FTF. Fortunately, the error made is small if excitation amplitudes can be set such that the signal-to-noise ratio is large, but not large enough to trigger nonlinear flame dynamics. Furthermore, we conclude that non-reflective boundary conditions are not essentially necessary to apply the LES/SI approach.
An In-Depth Analysis of the Cold Boot Attack: Can It Be Used for Sound Forensic Memory Acquisition?
2011-01-01
technique, les auteurs font ressortir ses avantages et inconvénients, son applicabilité et sa pertinence pour l’acquisition du contenu de la mémoire...Les auteurs croient qu’une compréhension approfondie de ce phénomène habilitera les enquêteurs en informatique judiciaire à en tirer profit lorsque...individu. Comme l’équipe de Princeton n’a pas spécifiquement examiné l’applicabilité de leur technique à l’informatique judiciaire, les auteurs de la
Lagrangian analysis. Modern tool of the dynamics of solids
NASA Astrophysics Data System (ADS)
Cagnoux, J.; Chartagnac, P.; Hereil, P.; Perez, M.; Seaman, L.
Explosive metal-working, material synthesis under shock loading, terminal ballistics, and explosive rock-blasting, are some of the civil and military fields of activity that call for a wider knowledge about the behavior of materials subjected to strong dynamic pressures. It is in these fields that Lagrangian analysis methods, the subject of this work, prove to be a useful investigative tool for the physicist. Lagrangian analysis was developed around 1970 by Fowles and Williams. The idea is based on the integration of the conservation equations of mechanics using stress or particle velocity records obtained by means of transducers placed in the path of a stress wave. In this way, all the kinematical and mechanical quantities contained in the conservation equations are obtained. In the first chapter the authors introduce the mathematical tools used to analyze plane and spherical one-dimensional motions. For plane motion, they describe the mathematical analysis methods pertinent to the three regimes of wave propagation encountered : the non-attenuating unsteady wave, the simple wave, and the attenuating unsteady wave. In each of these regimes, cases are treated for which either stress or particle velocity records are initially available. The authors insist that one or the other groups of data (stress and particle velocity) are sufficient to integrate the conservation equations in the case of the plane motion when both groups of data are necessary in the case of the spherical motion. However, in spite of this additional difficulty, Lagrangian analysis of the spherical motion remains particularly interesting for the physicist because it allows access to the behavior of the material under deformation processes other than that imposed by plane one-dimensional motion. The methods expounded in the first chapter are based on Lagrangian measurement of particle velocity and stress in relation to time in a material compressed by a plane or spherical dilatational wave. The Lagrangian specificity of the required measurements is assured by the fact that a transducer enclosed within a solid material is necessarily linked in motion to the particles of the material which surround it. This Lagrangian instrumentation is described in the second chapter. The authors are concerned with the techniques considered today to be the most effective. These are, for stress : piezoresistive gauges (50 Ω and low impedance) and piezoelectric techniques (PVF2 gauges, quartz transducers) ; and for particle velocity : electromagnetic gauges, VISAR and IDL Doppler laser interferometers. In each case both the physical principles as well as techniques of use are set out in detail. For the most part, the authors use their own experience to describe the calibration of these instrumentation systems and to compare their characteristics : measurement range, response time, accuracy, useful recording time, detection area... These characteristics should be taken into account by the physicist when he has to choose the instrumentation systems best adapted to the Lagrangian analysis he intends to apply to any given material. The discussion at the end of chapter 2 should guide his choice both for plane and spherical one-dimensional motions. The third chapter examines to what extent the accuracy of Lagrangian analysis is affected by the accuracies of the numerical analysis methods and experimental techniques. By means of a discussion of different cases of analysis, the authors want to make the reader aware of the different kinds of sources of errors that may be encountered. This work brings up to date the state of studies on Lagrangian analysis methods based on a wide review of bibliographical sources together with the contribution made to research in this field by the four authors themselves in the course of the last ten years. Le formage des métaux par explosif, la consolidation dynamique des poudres, la balistique terminale, l'abattage des roches par explosif, sont autant d'applications, dans les domaines civil et militaire, qui exigent d'approfondir les connaissances que l'on a des comportements des matériaux chargés par des ondes de contrainte de forte intensité. C'est dans ce domaine que les méthodes d'analyse lagrangienne, sujets de cet ouvrage, seront un outil d'investigation intéressant pour le mécanicien du solide. L'analyse lagrangienne a été développée autour des années 1970 par Fowles et Williams. L'idée de base repose sur l'intégration des équations de la mécanique en utilisant l'histoire des contraintes ou des vitesses matérielles obtenues au moyen de capteurs minces sur le trajet d'une onde de contrainte. Sont ainsi obtenues toutes les grandeurs cinématiques et mécaniques contenues dans les équations de conservation. Dans le premier chapitre, les auteurs introduisent les outils mathématiques destinés à analyser les mouvements monodimensionnels plan et sphérique. Pour le premier de ces mouvements, sont décrites les méthodes mathématiques d'analyse propres aux trois régimes de propagation d'onde rencontrés: l'onde instationnaire non amortie, l'onde simple et l'onde instationnaire amortie. Par ailleurs, pour chacun de ces régimes sont traités les cas où l'on dispose initialement des profils des contraintes ou des vitesses matérielles. Les auteurs insistent sur le fait que l'une ou l'autre des deux collections de données (contraintes et vitesses matérielles) sont suffisantes pour intégrer les équations de conservation dans le cas du mouvement plan, alors que les deux collections de données sont indispensables dans le cas de mouvement sphérique. Cependant, malgré cette difficulté supplémentaire, l'analyse lagrangienne du mouvement sphérique reste particulièrement intéressante pour le mécanicien puisqu'elle permet d'accéder au comportement du matériau pour des processus de déformation différents de celui imposé par le mouvement plan. Les méthodes exposées dans le premier chapitre reposent sur la mesure lagrangienne de la vitesse matérielle et de la contrainte, en fonction du temps dans le matériau comprimé par une onde longitudinale plane ou sphérique. La spécificité lagrangienne des mesures requises est assurec par le fait qu'un capteur inclus dans un matériau solide est lié dans le mouvement aux particules du matériau qui l'entourent. Cette métrologie lagrangienne est décrite dans le deuxième chapitre. Les auteurs se sont intéressés aux techniques considérées aujourd'hui comme les plus performantes ; elles se rapportent d'une part à la vitesse matérielle: jauges électromagnétiques, interféromètres Doppler laser de types VISAR et IDL ; d'autre part à la contrainte : jauges piézorésistives (50 Ω et basse impédance) et techniques piézoélectriques (jauges PVF2-capteurs à quartz). Dans chacun des cas les principes de fonctionnement ainsi que les techniques de mise en œuvre sont détaillés. Les auteurs utilisent largement leurs propres résultats pour décrire l'étalonnage de ces moyens métrologiques et comparer leurs performances : étendue de mesure, temps de réponse, précision, durée maximale d'utilisation, surface visée... Ce sont ces performances que devra prendre en compte le mécanicien lorsqu'il devra choisir parmi les différents moyens métrologiques la technique la mieux adaptée à l'analyse lagrangienne qu'il se proposera d'effectuer dans un matériau donné. Les arguments développés à la fin du chapitre 2 devraient lui permettre de guider son choix aussi bien dans le cas du mouvement monodimensionnel plan que dans le cas du mouvement monodimensionnel sphérique. Dans le troisième chapitre la précision de l'analyse lagrangienne est examinée sous l'aspect de l'influence des précisions des méthodes d'analyse numérique d'une part et des techniques expérimentales d'autre part. A partir du traitement de différents cas concrets d'analyse, les auteurs cherchent à sensibiliser le lecteur aux différentes sources d'erreurs rencontrées. Cet ouvrage constitue un état de l'art sur les méthodes d'analyse lagrangienne à partir d'une large étude bibliographique et de la contribution apportée dans ce domaine par les quatre auteurs depuis une dizaine d'années.
2010-04-01
Aerothermodynamic Design, Review on Ground Testing and CFD (RTO-EN-AVT-186) Executive Summary The Lecture Series focus on the presentation of...impulsions ITAM et les tubes à choc DLR HEG. Les sondes à réponse rapide et les techniques de mesures instables ont été présentées ainsi que les outils de
Algorithmes de couplage RANS et ecoulement potentiel
NASA Astrophysics Data System (ADS)
Gallay, Sylvain
Dans le processus de developpement d'avion, la solution retenue doit satisfaire de nombreux criteres dans de nombreux domaines, comme par exemple le domaine de la structure, de l'aerodynamique, de la stabilite et controle, de la performance ou encore de la securite, tout en respectant des echeanciers precis et minimisant les couts. Les geometries candidates sont nombreuses dans les premieres etapes de definition du produit et de design preliminaire, et des environnements d'optimisations multidisciplinaires sont developpes par les differentes industries aeronautiques. Differentes methodes impliquant differents niveaux de modelisations sont necessaires pour les differentes phases de developpement du projet. Lors des phases de definition et de design preliminaires, des methodes rapides sont necessaires afin d'etudier les candidats efficacement. Le developpement de methodes ameliorant la precision des methodes existantes tout en gardant un cout de calcul faible permet d'obtenir un niveau de fidelite plus eleve dans les premieres phases de developpement du projet et ainsi grandement diminuer les risques associes. Dans le domaine de l'aerodynamisme, les developpements des algorithmes de couplage visqueux/non visqueux permettent d'ameliorer les methodes de calcul lineaires non visqueuses en methodes non lineaires prenant en compte les effets visqueux. Ces methodes permettent ainsi de caracteriser l'ecoulement visqueux sur les configurations et predire entre autre les mecanismes de decrochage ou encore la position des ondes de chocs sur les surfaces portantes. Cette these se focalise sur le couplage entre une methode d'ecoulement potentiel tridimensionnelle et des donnees de section bidimensionnelles visqueuses. Les methodes existantes sont implementees et leurs limites identifiees. Une methode originale est ensuite developpee et validee. Les resultats sur une aile elliptique demontrent la capacite de l'algorithme a de grands angles d'attaques et dans la region post-decrochage. L'algorithme de couplage a ete compare a des donnees de plus haute fidelite sur des configurations issues de la litterature. Un modele de fuselage base sur des relations empiriques et des simulations RANS a ete teste et valide. Les coefficients de portance, de trainee et de moment de tangage ainsi que les coefficients de pression extraits le long de l'envergure ont montre un bon accord avec les donnees de soufflerie et les modeles RANS pour des configurations transsoniques. Une configuration a geometrie hypersustentatoire a permis d'etudier la modelisation des surfaces hypersustentees de la methode d'ecoulement potentiel, demontrant que la cambrure peut etre prise en compte uniquement dans les donnees visqueuses.
Dynamique moléculaire et canaux ioniques
NASA Astrophysics Data System (ADS)
Crouzy, S.
2005-11-01
Diffusion de neutrons et Dynamique Moléculaire (DM) sont deux techniques intimement liées car elles portent sur les mêmes échelles de temps: la première apporte des informations structurales ou dynamiques sur le système physique ou biologique, la seconde permet de décoder ces informations à travers un modèle facilitant l'interprétation des résultats. Au delà de l'intérêt que la technique de DM peut avoir en relation directe avec les neutrons, il est intéressant de comprendre comment les modèles sont construits et comment les techniques de simulation peuvent aller beaucoup plus loin que de simples modélisations. Nous décrirons brièvement, dans la suite de cet exposé, la technique de DM et les méthodes plus sophistiquées de calculs d'énergie libre et de potentiels de force moyenne à partir des simulations de DM. Puis nous verrons avec deux exemples tirés de nos travaux théoriques sur les canaux ioniques comment ces calculs peuvent nous donner accès à des vitesses de réaction ou des constantes d'affinité ou de liaison. La première étude porte sur un analogue de la gramicidine A qui forme un canal conducteur d'ions interrompus par le basculement d'un cycle dioxolane [1]. La seconde concerne le canal potassique KcsA dont nous avons étudié le blocage du coté extracellulaire par l'ion Tetra Ethyl Ammonium [2].
Nesting large-eddy simulations within mesoscale simulations for wind energy applications
DOE Office of Scientific and Technical Information (OSTI.GOV)
Lundquist, J K; Mirocha, J D; Chow, F K
2008-09-08
With increasing demand for more accurate atmospheric simulations for wind turbine micrositing, for operational wind power forecasting, and for more reliable turbine design, simulations of atmospheric flow with resolution of tens of meters or higher are required. These time-dependent large-eddy simulations (LES), which resolve individual atmospheric eddies on length scales smaller than turbine blades and account for complex terrain, are possible with a range of commercial and open-source software, including the Weather Research and Forecasting (WRF) model. In addition to 'local' sources of turbulence within an LES domain, changing weather conditions outside the domain can also affect flow, suggesting thatmore » a mesoscale model provide boundary conditions to the large-eddy simulations. Nesting a large-eddy simulation within a mesoscale model requires nuanced representations of turbulence. Our group has improved the Weather and Research Forecasting model's (WRF) LES capability by implementing the Nonlinear Backscatter and Anisotropy (NBA) subfilter stress model following Kosovic (1997) and an explicit filtering and reconstruction technique to compute the Resolvable Subfilter-Scale (RSFS) stresses (following Chow et al, 2005). We have also implemented an immersed boundary method (IBM) in WRF to accommodate complex terrain. These new models improve WRF's LES capabilities over complex terrain and in stable atmospheric conditions. We demonstrate approaches to nesting LES within a mesoscale simulation for farms of wind turbines in hilly regions. Results are sensitive to the nesting method, indicating that care must be taken to provide appropriate boundary conditions, and to allow adequate spin-up of turbulence in the LES domain.« less
A Hybrid RANS/LES Approach for Predicting Jet Noise
NASA Technical Reports Server (NTRS)
Goldstein, Marvin E.
2006-01-01
Hybrid acoustic prediction methods have an important advantage over the current Reynolds averaged Navier-Stokes (RANS) based methods in that they only involve modeling of the relatively universal subscale motion and not the configuration dependent larger scale turbulence. Unfortunately, they are unable to account for the high frequency sound generated by the turbulence in the initial mixing layers. This paper introduces an alternative approach that directly calculates the sound from a hybrid RANS/LES flow model (which can resolve the steep gradients in the initial mixing layers near the nozzle lip) and adopts modeling techniques similar to those used in current RANS based noise prediction methods to determine the unknown sources in the equations for the remaining unresolved components of the sound field. The resulting prediction method would then be intermediate between the current noise prediction codes and previously proposed hybrid noise prediction methods.
Evaluation de la qualite osseuse par les ondes guidees ultrasonores =
NASA Astrophysics Data System (ADS)
Abid, Alexandre
La caracterisation des proprietes mecaniques de l'os cortical est un domaine d'interet pour la recherche orthopedique. En effet, cette caracterisation peut apporter des informations primordiales pour determiner le risque de fracture, la presence de microfractures ou encore depister l'osteoporose. Les deux principales techniques actuelles de caracterisation de ces proprietes sont le Dual-energy X-ray Absorptiometry (DXA) et le Quantitative Computed Tomogaphy (QCT). Ces techniques ne sont pas optimales et presentent certaines limites, ainsi l'efficacite du DXA est questionnee dans le milieu orthopedique tandis que le QCT necessite des niveaux de radiations problematiques pour en faire un outil de depistage. Les ondes guidees ultrasonores sont utilisees depuis de nombreuses annees pour detecter les fissures, la geometrie et les proprietes mecaniques de cylindres, tuyaux et autres structures dans des milieux industriels. De plus, leur utilisation est plus abordable que celle du DXA et n'engendrent pas de radiation ce qui les rendent prometteuses pour detecter les proprietes mecaniques des os. Depuis moins de dix ans, de nombreux laboratoires de recherche tentent de transposer ces techniques au monde medical, en propageant les ondes guidees ultrasonores dans les os. Le travail presente ici a pour but de demontrer le potentiel des ondes guidees ultrasonores pour determiner l'evolution des proprietes mecaniques de l'os cortical. Il commence par une introduction generale sur les ondes guidees ultrasonores et une revue de la litterature des differentes techniques relatives a l'utilisation des ondes guidees ultrasonores sur les os. L'article redige lors de ma maitrise est ensuite presente. L'objectif de cet article est d'exciter et de detecter certains modes des ondes guides presentant une sensibilite a la deterioration des proprietes mecaniques de l'os cortical. Ce travail est realise en modelisant par elements finis la propagation de ces ondes dans deux modeles osseux cylindriques. Ces deux modeles sont composes d'une couche peripherique d'os cortical et remplis soit d'os trabeculaire soit de moelle osseuse. Ces deux modeles permettent d'obtenir deux geometries, chacune propice a la propagation circonferentielle ou longitudinale des ondes guidees. Les resultats, ou trois differents modes ont pu etre identifies, sont compares avec des donnees experimentales obtenues avec des fantomes osseux et theoriques. La sensibilite de chaque mode pour les differents parametres des proprietes mecaniques est alors etudiee ce qui permet de conclure sur le potentiel de chaque mode quant a la prediction de risque de fracture ou de presence de microfractures.
DOE Office of Scientific and Technical Information (OSTI.GOV)
Lecoq, J.J.; Bigotte, G.; Hinault, J.
1959-10-31
Since 1946 the Commissariat a l'Energie Atomique has supported explorations for uranium and thorium deposits in the French territorial possessions of French territorial possessions of French Africa, Madagascar, and French Guiana. A lange part of this territory is desert, equatorial forest, or savannah regions. The particular difficulties of prospecting for radioactive minerals in these territories include the geographic character of the region, the climate, and the lack of access and skilled labor. The different methods of prospecting in the desert and equatorial forests include photogeology, aerial and ground prospecting, geochemical and geophysical techniques, and the training of local labor formore » prospecting. These techniques are described, and the results obtained are discussed. Three examples of prospecting in countries with extreme climates are given. (J.S.R.)« less
Parametrisation D'effets Non-Standard EN Phenomenologie Electrofaible
NASA Astrophysics Data System (ADS)
Maksymyk, Ivan
Cette these pat articles porte sur la parametrisation d'effets non standard en physique electrofaible. Dans chaque analyse, nous avons ajoute plusieurs operateurs non standard au lagrangien du modele standard electrofaible. Les operateurs non standard decrivent les nouveaux effets decoulant d'un modele sous-jacent non-specefie. D'emblee, le nombre d'operateurs non standard que l'on peut inclure dans une telle analyse est illimite. Mais pour une classe specifique de modeles sous-jacents, les effets non standard peuvent etre decrits par un nombre raisonnable d'operateurs. Dans chaque analyse nous avons developpe des expressions pour des observables electrofaibles, en fonction des coefficients des operateurs nouveaux. En effectuant un "fit" statistique sur un ensemble de donnees experimentales precises, nous avons obtenu des contraintes phenomenologiques sur ces coefficients. Dans "Model-Independent Global Constraints on New Physics", nous avons adopte des hypotheses tres peu contraignantes relatives aux modeles sous-jacents. Nous avons tronque le lagrangien effectif a la dimension cinq (inclusivement). Visant la plus grande generalite possible, nous avons admis des interactions qui ne respectent pas les symetries discretes (soit C, P et CP) ainsi que des interactions qui ne conservent pas la saveur. Le lagrangien effectif contient une quarantaine d'operateurs nouveaux. Nous avons determine que, pour la plupart des coefficients des nouveaux operateurs, les contraintes sont assez serrees (2 ou 3%), mais il y a des exceptions interessantes. Dans "Bounding Anomalous Three-Gauge-Boson Couplings", nous avons determine des contraintes phenomenologiques sur les deviations des couplages a trois bosons de jauge par rapport aux interactions prescrites par le modele standard. Pour ce faire, nous avons calcule les contributions indirectes des CTBJ non standard aux observables de basse energie. Puisque le lagrangien effectif est non-renormalisable, certaines difficultes techniques se posent: pour regulariser les integrales de Feynman les chercheurs se sont generalement servi de la methode de coupure, mais cette methode peut mener a des resultats incorrects. Nous avons opte pour une technique alternative: la regularisation dimensionnelle et la "soustraction minimale avec decouplage". Dans "Beyond S, T and U" nous presentons le formalisme STUVWX, qui est une extension du formalisme STU de Peskin et Takeuchi. Ces formalismes sont bases sur l'hypothese que la theorie sous-jacente se manifeste au moyen de self -energies de bosons de jauge. Ce type d'effet s'appelle 'oblique'. A la base du formalisme STU se trouve la supposition que l'echelle de la nouvelle physique, M, est beaucoup plus grande que q, l'echelle a laquelle on effectue des mesures. Il en resulte que les effets obliques se parametrisent par les trois variables S, T et U. Par contre, dans le formalisme STUVWX, nous avons admis la possibilite que M~ q. Dans "A Global Fit to Extended Oblique Parameters", nous avons effectue deux fits statistiques sur un ensemble de mesures electrofaibles de haute precision. Dans le premier fit, nous avons pose V=W=X=0, obtenant ainsi des contraintes pour l'ensemble {S,T,U}. Dans le second fit, nous avons inclus tous les six parametres.
Effets des electrons secondaires sur l'ADN
NASA Astrophysics Data System (ADS)
Boudaiffa, Badia
Les interactions des electrons de basse energie (EBE) representent un element important en sciences des radiations, particulierement, les sequences se produisant immediatement apres l'interaction de la radiation ionisante avec le milieu biologique. Il est bien connu que lorsque ces radiations deposent leur energie dans la cellule, elles produisent un grand nombre d'electrons secondaires (4 x 104/MeV), qui sont crees le long de la trace avec des energies cinetiques initiales bien inferieures a 20 eV. Cependant, il n'y a jamais eu de mesures directes demontrant l'interaction de ces electrons de tres basse energie avec l'ADN, du principalement aux difficultes experimentales imposees par la complexite du milieu biologique. Dans notre laboratoire, les dernieres annees ont ete consacrees a l'etude des phenomenes fondamentaux induits par impact des EBE sur differentes molecules simples (e.g., N2, CO, O2, H2O, NO, C2H 4, C6H6, C2H12) et quelques molecules complexes dans leur phase solide. D'autres travaux effectues recemment sur des bases de l'ADN et des oligonucleotides ont montre que les EBE produisent des bris moleculaires sur les biomolecules. Ces travaux nous ont permis d'elaborer des techniques pour mettre en evidence et comprendre les interactions fondamentales des EBE avec des molecules d'interet biologique, afin d'atteindre notre objectif majeur d'etudier l'effet direct de ces particules sur la molecule d'ADN. Les techniques de sciences des surfaces developpees et utilisees dans les etudes precitees peuvent etre etendues et combinees avec des methodes classiques de biologie pour etudier les dommages de l'ADN induits par l'impact des EBE. Nos experiences ont montre l'efficacite des electrons de 3--20 eV a induire des coupures simple et double brins dans l'ADN. Pour des energies inferieures a 15 eV, ces coupures sont induites par la localisation temporaire d'un electron sur une unite moleculaire de l'ADN, ce qui engendre la formation d'un ion negatif transitoire dans un etat electronique dissociatif, cette localisation est suivie d'une fragmentation. A plus haute energie, la dissociation dipolaire (i.e., la formation simultanee d'un ion positif et negatif) et l'ionisation jouent un role important dans le dommage de l'ADN. L'ensemble de nos resultats permet d'expliquer les mecanismes de degradation de l'ADN par les EBE et d'obtenir des sections efficaces effectives des differents types de dommages.
Hybrid LES/RANS Simulation of Transverse Sonic Injection into a Mach 2 Flow
NASA Technical Reports Server (NTRS)
Boles, John A.; Edwards, Jack R.; Baurle, Robert A.
2008-01-01
A computational study of transverse sonic injection of air and helium into a Mach 1.98 cross-flow is presented. A hybrid large-eddy simulation / Reynolds-averaged Navier-Stokes (LES/RANS) turbulence model is used, with the two-equation Menter baseline (Menter-BSL) closure for the RANS part of the flow and a Smagorinsky-type model for the LES part of the flow. A time-dependent blending function, dependent on modeled turbulence variables, is used to shift the closure from RANS to LES. Turbulent structures are initiated and sustained through the use of a recycling / rescaling technique. Two higher-order discretizations, the Piecewise Parabolic Method (PPM) of Colella and Woodward, and the SONIC-A ENO scheme of Suresh and Huyhn are used in the study. The results using the hybrid model show reasonably good agreement with time-averaged Mie scattering data and with experimental surface pressure distributions, even though the penetration of the jet into the cross-flow is slightly over-predicted. The LES/RANS results are used to examine the validity of commonly-used assumptions of constant Schmidt and Prandtl numbers in the intense mixing zone downstream of the injection location.
Contandriopoulos, D.; Hudon, Raymond; Martin, Elisabeth; Thompson, Daniel
2013-01-01
Sommaire L’objet de cet article est constitué par les processus décisionnels entourant la mise en œuvre de la Loi sur les agences de développement de réseaux locaux de services de santé et de services sociaux (Loi 25). Nous entendons mettre en lumière les stratégies des groupes ou institutions de diverses natures qui ont fait valoir leurs préférences et ont tenté, avec un succès inégal, d’influencer les décisions relatives à cette réforme majeure de la structure du système de santé québécois. Au plan théorique, nous nous appuyons principalement sur les modèles d’analyse du lobbying qui, depuis les travaux fondateurs de Milbrath (1960, 1963), présentent cette pratique comme un processus fondamental d’échange d’information. Selon les données colligées dans les retranscriptions d’entrevues, les stratégies observées correspondent effectivement aux caractéristiques constitutives du lobbying et, dans quelques situations, à celles du patronage. La combinaison de ces divers éléments révèle que la mise en œuvre de la Loi 25 s’avère être avant tout un processus proprement politique. Ainsi, furent relégués au second plan les arguments techniques qui composaient initialement les objectifs de la Loi. PMID:23509412
A simple method for simulating wind profiles in the boundary layer of tropical cyclones
Bryan, George H.; Worsnop, Rochelle P.; Lundquist, Julie K.; ...
2016-11-01
A method to simulate characteristics of wind speed in the boundary layer of tropical cyclones in an idealized manner is developed and evaluated. The method can be used in a single-column modelling set-up with a planetary boundary-layer parametrization, or within large-eddy simulations (LES). The key step is to include terms in the horizontal velocity equations representing advection and centrifugal acceleration in tropical cyclones that occurs on scales larger than the domain size. Compared to other recently developed methods, which require two input parameters (a reference wind speed, and radius from the centre of a tropical cyclone) this new method alsomore » requires a third input parameter: the radial gradient of reference wind speed. With the new method, simulated wind profiles are similar to composite profiles from dropsonde observations; in contrast, a classic Ekman-type method tends to overpredict inflow-layer depth and magnitude, and two recently developed methods for tropical cyclone environments tend to overpredict near-surface wind speed. When used in LES, the new technique produces vertical profiles of total turbulent stress and estimated eddy viscosity that are similar to values determined from low-level aircraft flights in tropical cyclones. Lastly, temporal spectra from LES produce an inertial subrange for frequencies ≳0.1 Hz, but only when the horizontal grid spacing ≲20 m.« less
A Simple Method for Simulating Wind Profiles in the Boundary Layer of Tropical Cyclones
NASA Astrophysics Data System (ADS)
Bryan, George H.; Worsnop, Rochelle P.; Lundquist, Julie K.; Zhang, Jun A.
2017-03-01
A method to simulate characteristics of wind speed in the boundary layer of tropical cyclones in an idealized manner is developed and evaluated. The method can be used in a single-column modelling set-up with a planetary boundary-layer parametrization, or within large-eddy simulations (LES). The key step is to include terms in the horizontal velocity equations representing advection and centrifugal acceleration in tropical cyclones that occurs on scales larger than the domain size. Compared to other recently developed methods, which require two input parameters (a reference wind speed, and radius from the centre of a tropical cyclone) this new method also requires a third input parameter: the radial gradient of reference wind speed. With the new method, simulated wind profiles are similar to composite profiles from dropsonde observations; in contrast, a classic Ekman-type method tends to overpredict inflow-layer depth and magnitude, and two recently developed methods for tropical cyclone environments tend to overpredict near-surface wind speed. When used in LES, the new technique produces vertical profiles of total turbulent stress and estimated eddy viscosity that are similar to values determined from low-level aircraft flights in tropical cyclones. Temporal spectra from LES produce an inertial subrange for frequencies ≳ 0.1 Hz, but only when the horizontal grid spacing ≲ 20 m.
La plastie tricuspide: annuloplastie de Carpentier versus technique de De VEGA
Charfeddine, Salma; Hammami, Rania; Triki, Faten; Abid, Leila; Hentati, Mourad; Frikha, Imed; Kammoun, Samir
2017-01-01
L'atteinte de la valve tricuspide a été longtemps négligée aussi bien par cardiologue que par le chirurgien, mais depuis quelques années, la fuite tricuspidienne a été démontrée comme un facteur pronostic dans l'évolution des patients opérés d'une valvulopathie du c'ur gauche. Plusieurs techniques de plastie tricuspide ont été développées et les études publiées divergent sur les résultats de ces techniques; Nous avons mené ce travail afin d'évaluer les résultats de plastie tricuspide dans une population caractérisée par une forte prévalence de la maladie rhumatismale et de comparer les techniques d'annuloplastie de carpentier versus la plastie de DeVEGA. Etude rétrospective menée sur une période de 25 ans ayant inclus les patients traités par plastie tricuspide dans le service de cardiologie de SFAX. Nous avons comparé les résultats de groupe 1 (annuloplastie de Carpentier) vs groupe 2 (plastie de DeVEGA) 91 patients étaient inclus dans notre étude, avec 45 patients dans le groupe 1et 46 patients dans le groupe 2. La plupart des patients avaient une IT moyenne ou importante (83%) avant la chirurgie, une dilatation de l'anneau a été observée chez 90% des patients sans qu'il y ait une différence significatives entre le groupe 1 et 2. Les résultats immédiats étaient comparables entre les deux techniques mais au cours de suivi une insuffisance récurrente au moins moyenne a été plus significativement fréquente dans le groupe de plastie de DeVEGA. Les facteurs prédictifs d'IT récurrente significative au long cours étaient en étude multivariée la technique de DeVEGA (OR=3.26 (1.12-9.28)) et la pression artérielle pulmonaire systolique préoperatoire (OR=1.06 (1.01-1.12)). La plastie tricuspide avec anneau de Carpentier semble garantir de meilleurs résultats que la plastie de DeVEGA, par contre une PAPS préopératoire élevée est prédictive de récurrence de la fuite tricuspidienne même après plastie d'où l'intérêt d'opérer les malades à un stade précoce. PMID:28819539
Prototypage virtuel pour les programmes navals (Virtual Prototyping in Naval Ships)
2003-03-01
Par ailleurs, I’am~nagement int~rieur 6tant repr~sent, il est facile d’examiner les aspects facteurs humains : - ergonomie - accessibilit6...techniques de r~alit6 virtuelle en prenant en compte les aspects facteurs humains (accessibilit6, ergonomie , maintenabilit6, validation de procedures
2000-04-01
18 Flight Testing of Radio Navigation Systems (les Essais en vol des systemes de radionavigation) This AGARDograph has been sponsored by the Systems...Techniques Series - Volume 18 Flight Testing of Radio Navigation Systems (les Essais en vol des syst~mes de radionavigation) Edited by H. Bothe H.J...Landing Test and Other Short-Range 19853 Applications by P. de Benquoe D’Agut, H. Rieheek and A. Pool 17. Analogue Signal Conditioning for Flight Test
Validation de modeles d'eclairement incident a la surface de l'eau en Arctique
NASA Astrophysics Data System (ADS)
Julien, Laliberte
Dans ce memoire, deux methodes d'estimation d'eclairement incident a la surface de l'Arctique sont evaluees. Une base de donnees in situ a ete constituee a partir de 16 campagnes oceanographiques en Arctique. Pour les dates ou l'eclairement est mesure, les estimations d'eclairement journalier incident a la surface obtenues a partir des satellites de la couleur de l'eau (Frouin et al. 2003) et a partir des satellites meteorologiques (Belanger et al. 2013) sont produites. De meme, un exercise de comparaison entre les estimations satellitaires est produit pour l'annee 2004 sur tout le territoire Arctique. La comparaison entre les donnees observees et les donnees estimees a partir des satellites meteorologiques donnent un biais de 6% et une quadratique moyenne 33%. La comparaison entre les observations et les satellites de la couleur de l'eau donnent un biais de 2% et 20%. Finalement, la difference moyenne entre les estimations des 2 methodes d'estimation satellitaires pour tout l'Arctique pour l'annee 2004 est de 0,29 Einstein/m2/jour avec un ecart-type de 6,78 Einstein/m2/jour. Les resultats montrent entre autres que la methode qui utilise les satellites de la couleur de l'eau est plus precise pour estimer l'eclairement sur une petite superficie puisqu'elle rend mieux les variations locales dans l'eclairement. La methode qui utilise les satellites meteorologique est plus precise pour estimer l'eclairement sur une grande superficie, puisqu'elle est moins restreinte dans les conditions qui permettent de fournir une estimation. Ainsi, la methode qui utilise les satellites meteorologiques montre qu'un eclairement annuel de l'Arctique de 38% n'est pas prise en compte par les satellites de la couleur de l'eau.
NASA Astrophysics Data System (ADS)
Boyer, Sylvain
On estime que sur les 3,7 millions des travailleurs au Quebec, plus de 500 000 sont exposes quotidiennement a des niveaux de bruits pouvant causer des lesions de l'appareil auditif. Lorsqu'il n'est pas possible de diminuer le niveau de bruit environnant, en modifiant les sources de bruits, ou en limitant la propagation du son, le port de protecteurs auditifs individualises, telles que les coquilles, demeure l'ultime solution. Bien que vue comme une solution a court terme, elle est communement employee, du fait de son caractere peu dispendieux, de sa facilite d'implantation et de son adaptabilite a la plupart des operations en environnement bruyant. Cependant les protecteurs auditifs peuvent etre a la fois inadaptes aux travailleurs et a leur environnement et inconfortables ce qui limite leur temps de port, reduisant leur protection effective. Afin de palier a ces difficultes, un projet de recherche sur la protection auditive intitule : " Developpement d'outils et de methodes pour ameliorer et mieux evaluer la protection auditive individuelle des travailleur ", a ete mis sur pied en 2010, associant l'Ecole de technologie superieure (ETS) et l'Institut de recherche Robert-Sauve en sante et en securite du travail (IRSST). S'inscrivant dans ce programme de recherche, le present travail de doctorat s'interesse specifiquement a la protection auditive au moyen de protecteurs auditifs " passifs " de type coquille, dont l'usage presente trois problematiques specifiques presentees dans les paragraphes suivants. La premiere problematique specifique concerne l'inconfort cause par exemple par la pression statique induite par la force de serrage de l'arceau, qui peut reduire le temps de port recommande pour limiter l'exposition au bruit. Il convient alors de pouvoir donner a l'utilisateur un protecteur confortable, adapte a son environnement de travail et a son activite. La seconde problematique specifique est l'evaluation de la protection reelle apportee par le protecteur. La methode des seuils auditifs REAT (Real Ear Attenuation Threshold) aussi vu comme un "golden standard" est utilise pour quantifier la reduction du bruit mais surestime generalement la performance des protecteurs. Les techniques de mesure terrains, telles que la F-MIRE (Field Measurement in Real Ear) peuvent etre a l'avenir de meilleurs outils pour evaluer l'attenuation individuelle. Si ces techniques existent pour des bouchons d'oreilles, elles doivent etre adaptees et ameliorees pour le cas des coquilles, en determinant l'emplacement optimal des capteurs acoustiques et les facteurs de compensation individuels qui lient la mesure microphonique a la mesure qui aurait ete prise au tympan. La troisieme problematique specifique est l'optimisation de l'attenuation des coquilles pour les adapter a l'individu et a son environnement de travail. En effet, le design des coquilles est generalement base sur des concepts empiriques et des methodes essais/erreurs sur des prototypes. La piste des outils predictifs a ete tres peu etudiee jusqu'a present et meriterait d'etre approfondie. L'utilisation du prototypage virtuel, permettrait a la fois d'optimiser le design avant production, d'accelerer la phase de developpement produit et d'en reduire les couts. L'objectif general de cette these est de repondre a ces differentes problematiques par le developpement d'un modele de l'attenuation sonore d'un protecteur auditif de type coquille. A cause de la complexite de la geometrie de ces protecteurs, la methode principale de modelisation retenue a priori est la methode des elements finis (FEM). Pour atteindre cet objectif general, trois objectifs specifiques ont ete etablis et sont presentes dans les trois paragraphes suivants. (Abstract shortened by ProQuest.).
Numerical simulation of sloshing with large deforming free surface by MPS-LES method
NASA Astrophysics Data System (ADS)
Pan, Xu-jie; Zhang, Huai-xin; Sun, Xue-yao
2012-12-01
Moving particle semi-implicit (MPS) method is a fully Lagrangian particle method which can easily solve problems with violent free surface. Although it has demonstrated its advantage in ocean engineering applications, it still has some defects to be improved. In this paper, MPS method is extended to the large eddy simulation (LES) by coupling with a sub-particle-scale (SPS) turbulence model. The SPS turbulence model turns into the Reynolds stress terms in the filtered momentum equation, and the Smagorinsky model is introduced to describe the Reynolds stress terms. Although MPS method has the advantage in the simulation of the free surface flow, a lot of non-free surface particles are treated as free surface particles in the original MPS model. In this paper, we use a new free surface tracing method and the key point is "neighbor particle". In this new method, the zone around each particle is divided into eight parts, and the particle will be treated as a free surface particle as long as there are no "neighbor particles" in any two parts of the zone. As the number density parameter judging method has a high efficiency for the free surface particles tracing, we combine it with the neighbor detected method. First, we select out the particles which may be mistreated with high probabilities by using the number density parameter judging method. And then we deal with these particles with the neighbor detected method. By doing this, the new mixed free surface tracing method can reduce the mistreatment problem efficiently. The serious pressure fluctuation is an obvious defect in MPS method, and therefore an area-time average technique is used in this paper to remove the pressure fluctuation with a quite good result. With these improvements, the modified MPS-LES method is applied to simulate liquid sloshing problems with large deforming free surface. Results show that the modified MPS-LES method can simulate the large deforming free surface easily. It can not only capture the large impact pressure accurately on rolling tank wall but also can generate all physical phenomena successfully. The good agreement between numerical and experimental results proves that the modified MPS-LES method is a good CFD methodology in free surface flow simulations.
NASA Astrophysics Data System (ADS)
Savard, Stephane
Les premieres etudes d'antennes a base de supraconducteurs a haute temperature critique emettant une impulsion electromagnetique dont le contenu en frequence se situe dans le domaine terahertz remontent a 1996. Une antenne supraconductrice est formee d'un micro-pont d'une couche mince supraconductrice sur lequel un courant continu est applique. Un faisceau laser dans le visible est focalise sur le micro-pont et place le supraconducteur dans un etat hors-equilibre ou des paires sont brisees. Grace a la relaxation des quasiparticules en surplus et eventuellement de la reformation des paires supraconductrices, nous pouvons etudier la nature de la supraconductivite. L'analyse de la cinetique temporelle du champ electromagnetique emis par une telle antenne terahertz supraconductrice s'est averee utile pour decrire qualitativement les caracteristiques de celle-ci en fonction des parametres d'operation tels que le courant applique, la temperature et la puissance d'excitation. La comprehension de l'etat hors-equilibre est la cle pour comprendre le fonctionnement des antennes terahertz supraconductrices a haute temperature critique. Dans le but de comprendre ultimement cet etat hors-equilibre, nous avions besoin d'une methode et d'un modele pour extraire de facon plus systematique les proprietes intrinseques du materiau qui compose l'antenne terahertz a partir des caracteristiques d'emission de celle-ci. Nous avons developpe une procedure pour calibrer le spectrometre dans le domaine temporel en utilisant des antennes terahertz de GaAs bombarde aux protons H+ comme emetteur et detecteur. Une fois le montage calibre, nous y avons insere une antenne emettrice dipolaire de YBa 2Cu3O7-delta . Un modele avec des fonctions exponentielles de montee et de descente du signal est utilise pour lisser le spectre du champ electromagnetique de l'antenne de YBa 2Cu3O7-delta, ce qui nous permet d'extraire les proprietes intrinseques de ce dernier. Pour confirmer la validite du modele choisi, nous avons mesure les proprietes intrinseques du meme echantillon de YBa2Cu3O7- delta avec la technique pompe-visible et sonde-terahertz donnant, elle aussi, acces aux temps caracteristiques regissant l'evolution hors-equilibre de ce materiau. Dans le meilleur scenario, ces temps caracteristiques devraient correspondre a ceux evalues grace a la modelisation des antennes. Un bon controle des parametres de croissance des couches minces supraconductrices et de fabrication du dispositif nous a permis de realiser des antennes d'emission terahertz possedant d'excellentes caracteristiques en terme de largeur de bande d'emission (typiquement 3 THz) exploitables pour des applications de spectroscopie resolue dans le domaine temporel. Le modele developpe et retenu pour le lissage du spectre terahertz decrit bien les caracteristiques de l'antenne supraconductrice pour tous les parametres d'operation. Toutefois, le lien avec la technique pompe-sonde lors de la comparaison des proprietes intrinseques n'est pas direct malgre que les deux techniques montrent que le temps de relaxation des porteurs augmente pres de la temperature critique. Les donnees en pompe-sonde indiquent que la mesure du temps de relaxation depend de la frequence de la sonde, ce qui complique la correspondance des proprietes intrinseques entre les deux techniques. De meme, le temps de relaxation extrait a partir du spectre de l'antenne terahertz augmente en s'approchant de la temperature critique (T c) de YBa2Cu 3O7-delta. Le comportement en temperature du temps de relaxation correspond a une loi de puissance qui est fonction de l'inverse du gap supraconducteur avec un exposant 5 soit 1/Delta 5(T). Le travail presente dans cette these permet de mieux decrire les caracteristiques des antennes supraconductrices a haute temperature critique et de les relier aux proprietes intrinseques du materiau qui les compose. De plus, cette these presente les parametres a ajuster comme le courant applique, la puissance de la pompe, la temperature d'operation, etc, afin d'optimiser l'emission et les performances de ces antennes supraconductrices entre autres pour maximiser leur etendue en frequence dans une perspective d'application en spectroscopie terahertz. Cependant, plusieurs des resultats obtenus soulevent la difficulte de decrire l'etat hors-equilibre et la necessite de developper une theorie pour le supraconducteur YBa2 Cu3O7-delta
2005-04-01
niveau des entreprises et de la nation, et comment les leçons apprises et les meilleures pratiques techniques laissent entrevoir un avenir brillant pour...le domaine de la sécurité publique . Ce rapport S&T conjoints documente les normes et les outils M&S/ES liés à JSMARTS, les données expérimentales...synthétique répartie dans le MDN, en même temps que chez les partenaires de sécurité publique , supportant divers outils, de ce fait embrassant efficacement
NASA Astrophysics Data System (ADS)
Sacchi, Elisa; Michelot, Jean-Luc; Pitsch, Helmut; Lalieux, Philippe; Aranyossy, Jean-François
2001-01-01
This paper summarises the results of a comprehensive critical review, initiated by the OECD/NEA "Clay Club," of the extraction techniques available to obtain water and solutes from argillaceous rocks. The paper focuses on the mechanisms involved in the extraction processes, the consequences on the isotopic and chemical composition of the extracted pore water and the attempts made to reconstruct its original composition. Finally, it provides some examples of reliable techniques and information, as a function of the purpose of the geochemical study. Résumé. Cet article résume les résultats d'une synthèse critique d'ensemble, lancée par le OECD/NEA "Clay Club", sur les techniques d'extraction disponibles pour obtenir l'eau et les solutés de roches argileuses. L'article est consacré aux mécanismes impliqués dans les processus d'extraction, aux conséquences sur la composition isotopique et chimique de l'eau porale extraite et aux tentatives faites pour reconstituer sa composition originelle. Finalement, il donne quelques exemples de techniques fiables et d'informations, en fonction du but de l'étude géochimique. Resúmen. Este artículo resume los resultados de una revisión crítica exhaustiva (iniciada por el "Clay Club" OECD/NEA) de las técnicas de extracción disponibles para obtener agua y solutos en rocas arcillosas. El artículo se centra en los mecanismos involucrados en los procesos extractivos, las consecuencias en la composición isotópica y química del agua intersticial extraída, y en los intentos realizados para reconstruir su composición original. Finalmente, se presentan algunos ejemplos de técnicas fiables e información, en función del propósito del estudio geoquímico.
Large Eddy/Reynolds-Averaged Navier-Stokes Simulations of CUBRC Base Heating Experiments
NASA Technical Reports Server (NTRS)
Salazar, Giovanni; Edwards, Jack R.; Amar, Adam J.
2012-01-01
ven with great advances in computational techniques and computing power during recent decades, the modeling of unsteady separated flows, such as those encountered in the wake of a re-entry vehicle, continues to be one of the most challenging problems in CFD. Of most interest to the aerothermodynamics community is accurately predicting transient heating loads on the base of a blunt body, which would result in reduced uncertainties and safety margins when designing a re-entry vehicle. However, the prediction of heat transfer can vary widely depending on the turbulence model employed. Therefore, selecting a turbulence model which realistically captures as much of the flow physics as possible will result in improved results. Reynolds Averaged Navier Stokes (RANS) models have become increasingly popular due to their good performance with attached flows, and the relatively quick turnaround time to obtain results. However, RANS methods cannot accurately simulate unsteady separated wake flows, and running direct numerical simulation (DNS) on such complex flows is currently too computationally expensive. Large Eddy Simulation (LES) techniques allow for the computation of the large eddies, which contain most of the Reynolds stress, while modeling the smaller (subgrid) eddies. This results in models which are more computationally expensive than RANS methods, but not as prohibitive as DNS. By complimenting an LES approach with a RANS model, a hybrid LES/RANS method resolves the larger turbulent scales away from surfaces with LES, and switches to a RANS model inside boundary layers. As pointed out by Bertin et al., this type of hybrid approach has shown a lot of promise for predicting turbulent flows, but work is needed to verify that these models work well in hypersonic flows. The very limited amounts of flight and experimental data available presents an additional challenge for researchers. Recently, a joint study by NASA and CUBRC has focused on collecting heat transfer data on the backshell of a scaled model of the Orion Multi-Purpose Crew Vehicle (MPCV). Heat augmentation effects due to the presence of cavities and RCS jet firings were also investigated. The high quality data produced by this effort presents a new set of data which can be used to assess the performance of CFD methods. In this work, a hybrid LES/RANS model developed at North Carolina State University (NCSU) is used to simulate several runs from these experiments, and evaluate the performance of high fidelity methods as compared to more typical RANS models. .
NASA Astrophysics Data System (ADS)
Creasey, C. L.; Flegal, A. R.
The combined use of both (1) low-flow purging and sampling and (2) trace-metal clean techniques provides more representative measurements of trace-element concentrations in groundwater than results derived with standard techniques. The use of low-flow purging and sampling provides relatively undisturbed groundwater samples that are more representative of in situ conditions, and the use of trace-element clean techniques limits the inadvertent introduction of contaminants during sampling, storage, and analysis. When these techniques are applied, resultant trace-element concentrations are likely to be markedly lower than results based on standard sampling techniques. In a comparison of data derived from contaminated and control groundwater wells at a site in California, USA, trace-element concentrations from this study were 2-1000 times lower than those determined by the conventional techniques used in sampling of the same wells prior to (5months) and subsequent to (1month) the collections for this study. Specifically, the cadmium and chromium concentrations derived using standard sampling techniques exceed the California Maximum Contaminant Levels (MCL), whereas in this investigation concentrations of both of those elements are substantially below their MCLs. Consequently, the combined use of low-flow and trace-metal clean techniques may preclude erroneous reports of trace-element contamination in groundwater. Résumé L'utilisation simultanée de la purge et de l'échantillonnage à faible débit et des techniques sans traces de métaux permet d'obtenir des mesures de concentrations en éléments en traces dans les eaux souterraines plus représentatives que les résultats fournis par les techniques classiques. L'utilisation de la purge et de l'échantillonnage à faible débit donne des échantillons d'eau souterraine relativement peu perturbés qui sont plus représentatifs des conditions in situ, et le recours aux techniques sans éléments en traces limite l'introduction accidentelle de contaminants au cours de l'échantillonnage, du stockage et de l'analyse. Lorsque ces techniques sont appliquées, les concentrations résultantes en éléments en traces sont nettement plus faibles que les résultats obtenus par les techniques d'échantillonnage classique. Dans une comparaison de données concernant des puits contaminés et des puits de contrôle d'un site de Californie (États-Unis), les concentrations en éléments en traces de cette étude ont été de 2 à 1000 fois plus faibles que celles déterminées par les techniques conventionnelles utilisées pour l'échantillonnage des mêmes puits cinq mois auparavant et un mois après ces prélèvements. En particulier, les concentrations en cadmium et en chrome obtenues par les techniques classiques de prélèvements dépassent les teneurs maximales admises en Californie, alors que les concentrations obtenues pour ces deux éléments dans cette étude sont nettement au-dessous de ces teneurs maximales. Par conséquent, le recours à des techniques à faible débit et sans traces de métal peut faire apparaître que la publication de contamination d'eaux souterraines par des éléments en traces était erronée. Resumen El uso combinado del purgado y muestreo a bajo caudal con las técnicas limpias de metales traza proporcionan medidas de la concentración de elementos traza en las aguas subterráneas que son más representativas que las obtenidas con técnicas tradicionales. El purgado y muestreo a bajo caudal proporciona muestras de agua prácticamente inalteradas, representativas de las condiciones en el terreno. Las técnicas limpias de metales traza limitan la no deseada introducción de contaminantes durante el muestreo, almacenamiento y análisis. Las concentraciones de elementos traza resultantes suelen ser bastante menores que las obtenidas por técnicas tradicionales. En una comparación entre los datos procedentes de pozos en California, las concentraciones obtenidas con el nuevo método fueron entre 2-1000 menores que las obtenidas mediante técnicas tradicionales en campañas anteriores (5 meses) y posteriores (1 mes) llevadas a cabo en los mismos pozos. Específicamente, las concentraciones de cadmio y cromo obtenidas mediante técnicas tradicionales superaban los Límites Máximos de Concentración en California (LMC), mientras que los valores obtenidos en este estudio estaban claramente por debajo de estos límites para ambos elementos. Esto demuestra la utilidad del método combinado.
Large Eddy Simulation of High Reynolds Number Complex Flows
NASA Astrophysics Data System (ADS)
Verma, Aman
Marine configurations are subject to a variety of complex hydrodynamic phenomena affecting the overall performance of the vessel. The turbulent flow affects the hydrodynamic drag, propulsor performance and structural integrity, control-surface effectiveness, and acoustic signature of the marine vessel. Due to advances in massively parallel computers and numerical techniques, an unsteady numerical simulation methodology such as Large Eddy Simulation (LES) is well suited to study such complex turbulent flows whose Reynolds numbers (Re) are typically on the order of 10. 6. LES also promises increasedaccuracy over RANS based methods in predicting unsteady phenomena such as cavitation and noise production. This dissertation develops the capability to enable LES of high Re flows in complex geometries (e.g. a marine vessel) on unstructured grids and provide physical insight into the turbulent flow. LES is performed to investigate the geometry induced separated flow past a marine propeller attached to a hull, in an off-design condition called crashback. LES shows good quantitative agreement with experiments and provides a physical mechanism to explain the increase in side-force on the propeller blades below an advance ratio of J=-0.7. Fundamental developments in the dynamic subgrid-scale model for LES are pursued to improve the LES predictions, especially for complex flows on unstructured grids. A dynamic procedure is proposed to estimate a Lagrangian time scale based on a surrogate correlation without any adjustable parameter. The proposed model is applied to turbulent channel, cylinder and marine propeller flows and predicts improved results over other model variants due to a physically consistent Lagrangian time scale. A wall model is proposed for application to LES of high Reynolds number wall-bounded flows. The wall model is formulated as the minimization of a generalized constraint in the dynamic model for LES and applied to LES of turbulent channel flow at various Reynolds numbers up to Reτ=10000 and coarse grid resolutions to obtain significant improvement.
A Split Forcing Technique to Reduce Log-layer Mismatch in Wall-modeled Turbulent Channel Flows
NASA Astrophysics Data System (ADS)
Deleon, Rey; Senocak, Inanc
2016-11-01
The conventional approach to sustain a flow field in a periodic channel flow seems to be the culprit behind the log-law mismatch problem that has been reported in many studies hybridizing Reynolds-averaged Navier-Stokes (RANS) and large-eddy simulation (LES) techniques, commonly referred to as hybrid RANS-LES. To address this issue, we propose a split-forcing approach that relies only on the conservation of mass principle. We adopt a basic hybrid RANS-LES technique on a coarse mesh with wall-stress boundary conditions to simulate turbulent channel flows at friction Reynolds numbers of 2000 and 5200 and demonstrate good agreement with benchmark data. We also report a duality in velocity scale that is a specific consequence of the split forcing framework applied to hybrid RANS-LES. The first scale is the friction velocity derived from the wall shear stress. The second scale arises in the core LES region, a value different than at the wall. Second-order turbulence statistics agree well with the benchmark data when normalized by the core friction velocity, whereas the friction velocity at the wall remains the appropriate scale for the mean velocity profile. Based on our findings, we suggest reevaluating more sophisticated hybrid RANS-LES approaches within the split-forcing framework. Work funded by National Science Foundation under Grant No. 1056110 and 1229709. First author acknowledges the University of Idaho President's Doctoral Scholars Award.
Water vapour tomography using GPS phase observations: Results from the ESCOMPTE experiment
NASA Astrophysics Data System (ADS)
Nilsson, T.; Gradinarsky, L.; Elgered, G.
2007-10-01
Global Positioning System (GPS) tomography is a technique for estimating the 3-D structure of the atmospheric water vapour using data from a dense local network of GPS receivers. Several current methods utilize estimates of slant wet delays between the GPS satellites and the receivers on the ground, which are difficult to obtain with millimetre accuracy from the GPS observations. We present results of applying a new tomographic method to GPS data from the Expériance sur site pour contraindre les modèles de pollution atmosphérique et de transport d'emissions (ESCOMPTE) experiment in southern France. This method does not rely on any slant wet delay estimates, instead it uses the GPS phase observations directly. We show that the estimated wet refractivity profiles estimated by this method is on the same accuracy level or better compared to other tomographic methods. The results are in agreement with earlier simulations, for example the profile information is limited above 4 km.
da Silva, R C V; de Sá, C C; Pascual-Vaca, Á O; de Souza Fontes, L H; Herbella Fernandes, F A M; Dib, R A; Blanco, C R; Queiroz, R A; Navarro-Rodriguez, T
2013-07-01
The treatment of gastroesophageal reflux disease may be clinical or surgical. The clinical consists basically of the use of drugs; however, there are new techniques to complement this treatment, osteopathic intervention in the diaphragmatic muscle is one these. The objective of the study is to compare pressure values in the examination of esophageal manometry of the lower esophageal sphincter (LES) before and immediately after osteopathic intervention in the diaphragm muscle. Thirty-eight patients with gastroesophageal reflux disease - 16 submitted to sham technique and 22 submitted osteopathic technique - were randomly selected. The average respiratory pressure (ARP) and the maximum expiratory pressure (MEP) of the LES were measured by manometry before and after osteopathic technique at the point of highest pressure. Statistical analysis was performed using the Student's t-test and Mann-Whitney, and magnitude of the technique proposed was measured using the Cohen's index. Statistically significant difference in the osteopathic technique was found in three out of four in relation to the group of patients who performed the sham technique for the following measures of LES pressure: ARP with P= 0.027. The MEP had no statistical difference (P= 0.146). The values of Cohen d for the same measures were: ARP with d= 0.80 and MEP d= 0.52. Osteopathic manipulative technique produces a positive increment in the LES region soon after its performance. © 2012 Copyright the Authors. Journal compilation © 2012, Wiley Periodicals, Inc. and the International Society for Diseases of the Esophagus.
NASA Astrophysics Data System (ADS)
Amrani, Salah
La fabrication de l'aluminium est realisee dans une cellule d'electrolyse, et cette operation utilise des anodes en carbone. L'evaluation de la qualite de ces anodes reste indispensable avant leur utilisation. La presence des fissures dans les anodes provoque une perturbation du procede l'electrolyse et une diminution de sa performance. Ce projet a ete entrepris pour determiner l'impact des differents parametres de procedes de fabrication des anodes sur la fissuration des anodes denses. Ces parametres incluent ceux de la fabrication des anodes crues, des proprietes des matieres premieres et de la cuisson. Une recherche bibliographique a ete effectuee sur tous les aspects de la fissuration des anodes en carbone pour compiler les travaux anterieurs. Une methodologie detaillee a ete mise au point pour faciliter le deroulement des travaux et atteindre les objectifs vises. La majorite de ce document est reservee pour la discussion des resultats obtenus au laboratoire de l'UQAC et au niveau industriel. Concernant les etudes realisees a l'UQAC, une partie des travaux experimentaux est reservee a la recherche des differents mecanismes de fissuration dans les anodes denses utilisees dans l'industrie d'aluminium. L'approche etait d'abord basee sur la caracterisation qualitative du mecanisme de la fissuration en surface et en profondeur. Puis, une caracterisation quantitative a ete realisee pour la determination de la distribution de la largeur de la fissure sur toute sa longueur, ainsi que le pourcentage de sa surface par rapport a la surface totale de l'echantillon. Cette etude a ete realisee par le biais de la technique d'analyse d'image utilisee pour caracteriser la fissuration d'un echantillon d'anode cuite. L'analyse surfacique et en profondeur de cet echantillon a permis de voir clairement la formation des fissures sur une grande partie de la surface analysee. L'autre partie des travaux est basee sur la caracterisation des defauts dans des echantillons d'anodes crues fabriquees industriellement. Cette technique a consiste a determiner le profil des differentes proprietes physiques. En effet, la methode basee sur la mesure de la distribution de la resistivite electrique sur la totalite de l'echantillon est la technique qui a ete utilisee pour localiser la fissuration et les macro-pores. La microscopie optique et l'analyse d'image ont, quant a elles, permis de caracteriser les zones fissurees tout en determinant la structure des echantillons analyses a l'echelle microscopique. D'autres tests ont ete menes, et ils ont consiste a etudier des echantillons cylindriques d'anodes de 50 mm de diametre et de 130 mm de longueur. Ces derniers ont ete cuits dans un four a UQAC a differents taux de chauffage dans le but de pouvoir determiner l'influence des parametres de cuisson sur la formation de la fissuration dans ce genre de carottes. La caracterisation des echantillons d'anodes cuites a ete faite a l'aide de la microscopie electronique a balayage et de l'ultrason. La derniere partie des travaux realises a l'UQAC contient une etude sur la caracterisation des anodes fabriquees au laboratoire sous differentes conditions d'operation. L'evolution de la qualite de ces anodes a ete faite par l'utilisation de plusieurs techniques. L'evolution de la temperature de refroidissement des anodes crues de laboratoire a ete mesuree; et un modele mathematique a ete developpe et valide avec les donnees experimentales. Cela a pour objectif d'estimer la vitesse de refroidissement ainsi que le stress thermique. Toutes les anodes fabriquees ont ete caracterisees avant la cuisson par la determination de certaines proprietes physiques (resistivite electrique, densite apparente, densite optique et pourcentage de defauts). La tomographie et la distribution de la resistivite electrique, qui sont des techniques non destructives, ont ete employees pour evaluer les defauts internes des anodes. Pendant la cuisson des anodes de laboratoire, l'evolution de la resistivite electrique a ete suivie et l'etape de devolatilisation a ete identifiee. Certaines anodes ont ete cuites a differents taux de chauffage (bas, moyen, eleve et un autre combine) dans l'objectif de trouver les meilleures conditions de cuisson en vue de minimiser la fissuration. D'autres anodes ont ete cuites a differents niveaux de cuisson, cela dans le but d'identifier a quelle etape de l'operation de cuisson la fissuration commence a se developper. Apres la cuisson, les anodes ont ete recuperees pour, a nouveau, faire leur caracterisation par les memes techniques utilisees precedemment. L'objectif principal de cette partie etait de reveler l'impact de differents parametres sur le probleme de fissuration, qui sont repartis sur toute la chaine de production des anodes. Le pourcentage de megots, la quantite de brai et la distribution des particules sont des facteurs importants a considerer pour etudier l'effet de la matiere premiere sur le probleme de la fissuration. Concernant l'effet des parametres du procede de fabrication sur le meme probleme, le temps de vibration, la pression de compaction et le procede de refroidissement ont ete a la base de cette etude. Finalement, l'influence de la phase de cuisson sur l'apparition de la fissuration a ete prise en consideration par l'intermediaire du taux de chauffage et du niveau de cuisson. Les travaux realises au niveau industriel ont ete faits lors d'une campagne de mesure dans le but d'evaluer la qualite des anodes de carbone en general et l'investigation du probleme de fissuration en particulier. Ensuite, il s'agissait de reveler les effets de differents parametres sur le probleme de la fissuration. Vingt-quatre anodes cuites ont ete utilisees. Elles ont ete fabriquees avec differentes matieres premieres (brai, coke, megots) et sous diverses conditions (pression, temps de vibration). Le parametre de la densite de fissuration a ete calcule en se basant sur l'inspection visuelle de la fissuration des carottes. Cela permet de classifier les differentes fissurations en plusieurs categories en se basant sur certains criteres tels que le type de fissures (horizontale, verticale et inclinee), leurs localisations longitudinales (bas, milieu et haut de l'anode) et transversales (gauche, centrale et droite). Les effets de la matiere premiere, les parametres de fabrication des anodes crues ainsi que les conditions de cuisson sur la fissuration ont ete etudies. La fissuration des anodes denses en carbones cause un serieux probleme pour l'industrie d'aluminium primaire. La realisation de ce projet a permis la revelation de differents mecanismes de fissuration, la classification de fissuration par plusieurs criteres (position, types localisation) et l'evaluation de l'impact de differents parametres sur la fissuration. Les etudes effectuees dans le domaine de cuisson ont donne la possibilite d'ameliorer l'operation et reduire la fissuration des anodes. Le travail consiste aussi a identifier des techniques capables d'evaluer la qualite d'anodes (l'ultrason, la tomographie et la distribution de la resistivite electrique). La fissuration des anodes en carbone est consideree comme un probleme complexe, car son apparition depend de plusieurs parametres repartis sur toute la chaine de production. Dans ce projet, plusieurs nouvelles etudes ont ete realisees, et elles permettent de donner de l'originalite aux travaux de recherches faits dans le domaine de la fissuration des anodes de carbone pour l'industrie de l'aluminium primaire. Les etudes realisees dans ce projet permettent d'ajouter d'un cote, une valeur scientifique pour mieux comprendre le probleme de fissuration des anodes et d'un autre cote, d'essayer de proposer des methodes qui peuvent reduire ce probleme a l'echelle industrielle.
A large eddy simulation scheme for turbulent reacting flows
NASA Technical Reports Server (NTRS)
Gao, Feng
1993-01-01
The recent development of the dynamic subgrid-scale (SGS) model has provided a consistent method for generating localized turbulent mixing models and has opened up great possibilities for applying the large eddy simulation (LES) technique to real world problems. Given the fact that the direct numerical simulation (DNS) can not solve for engineering flow problems in the foreseeable future (Reynolds 1989), the LES is certainly an attractive alternative. It seems only natural to bring this new development in SGS modeling to bear on the reacting flows. The major stumbling block for introducing LES to reacting flow problems has been the proper modeling of the reaction source terms. Various models have been proposed, but none of them has a wide range of applicability. For example, some of the models in combustion have been based on the flamelet assumption which is only valid for relatively fast reactions. Some other models have neglected the effects of chemical reactions on the turbulent mixing time scale, which is certainly not valid for fast and non-isothermal reactions. The probability density function (PDF) method can be usefully employed to deal with the modeling of the reaction source terms. In order to fit into the framework of LES, a new PDF, the large eddy PDF (LEPDF), is introduced. This PDF provides an accurate representation for the filtered chemical source terms and can be readily calculated in the simulations. The details of this scheme are described.
A New LES/PDF Method for Computational Modeling of Turbulent Reacting Flows
NASA Astrophysics Data System (ADS)
Turkeri, Hasret; Muradoglu, Metin; Pope, Stephen B.
2013-11-01
A new LES/PDF method is developed for computational modeling of turbulent reacting flows. The open source package, OpenFOAM, is adopted as the LES solver and combined with the particle-based Monte Carlo method to solve the LES/PDF model equations. The dynamic Smagorinsky model is employed to account for the subgrid-scale motions. The LES solver is first validated for the Sandia Flame D using a steady flamelet method in which the chemical compositions, density and temperature fields are parameterized by the mean mixture fraction and its variance. In this approach, the modeled transport equations for the mean mixture fraction and the square of the mixture fraction are solved and the variance is then computed from its definition. The results are found to be in a good agreement with the experimental data. Then the LES solver is combined with the particle-based Monte Carlo algorithm to form a complete solver for the LES/PDF model equations. The in situ adaptive tabulation (ISAT) algorithm is incorporated into the LES/PDF method for efficient implementation of detailed chemical kinetics. The LES/PDF method is also applied to the Sandia Flame D using the GRI-Mech 3.0 chemical mechanism and the results are compared with the experimental data and the earlier PDF simulations. The Scientific and Technical Research Council of Turkey (TUBITAK), Grant No. 111M067.
Characterization of III-V materials by optical interferometry
NASA Astrophysics Data System (ADS)
Montgomery, P. C.; Vabre, P.; Montaner, D.; Fillard, J. P.
1993-09-01
Digital interference microscopy is a new measuring technique with submicron horizontal resolution and nanometric vertical resolution, that can be used for the three-dimensional analysis of surface defects and device features in many microelectronics applications on bulk materials and epitaxial layers. In this paper we show how certain defects can be analysed on III-V materials and devices using two different interferometric techniques. The choice of the technique depends on the height and the slope of the surface features to be measured. We show that small defects less than λ/2 in height, or surfaces with shallow continuous slopes upto one or two microns high are best profiled with the phase stepping technique (PSM) because of the high vertical resolution of 1 nm and the higher speed and precision. This is illustrated by studies of the surface polish of InP wafers, defects after chemical etching of tin doped InP, defects on an epitaxial layer of GaAs on InP and quantum dot structures on GaAs. For measuring devices which contain mesas and grooves with step heights greater than λ/2, the peak fringe scanning (PFSM) method is the better choice. The vertical resolution is slightly less (4 nm), but the vertical range is higher (upto 15 μm) as demonstrated with the measurement of an etched groove in a laser/detector device on a quaternary layer on InP, and a MESFET device on GaAs. Compared with electron microscopy and the new near field scanning techniques, digital interference microscopy has the advantages of ease of use and speed of analysis and being able to resolve certain problems that are difficult or not possible by other means, such as profiling deep narrow etched grooves, or measuring the relief of a surface hidden under a transparent layer. The main disadvantages are that the horizontal resolution is limited to the resolving power of the objective and that errors due to variations in the optical properties of the sample need to be taken into account. La microscopie interférentielle numérique est une nouvelle méthode de mesure qui a une résolution latérale micronique et une résolution verticale nanométrique. Ceci est utile pour l'analyse tri-dimensionnelle des défauts de surface et de la forme des composants dans beaucoup d'applications sur les matériaux massifs et épitaxiés. Dans cet article nous démontrons comment certains défauts peuvent être analysés sur les matériaux et les composants III-V avec deux méthodes interférométriques différentes. La microscopie à saut de phase est mieux adaptée, avec sa résolution de 1 nm et sa meilleure précision, à la mesure des petits défauts de moins de λ/2 en hauteur, ou des surfaces avec des pentes douces et continues, jusqu'à une altitude de 1 ou 2 μm. Ceci est illustré par les études du polissage de plaquettes d'InP, des défauts sur une couche épitaxiée de GaAs sur InP et des boîtes quantiques sur GaAs. Pour mesurer les motifs, les mésas et les sillons qui ont des marches de plus que λ/2, la microscopie à glissement de franges est le meilleur choix. La résolution verticale est un peu moins bonne que celle de la PSM (4 nm) mais la dynamique verticale est plus grande (15 μm). Ceci est démontré par les mesures d'un sillon gravé dans une structure laser/détecteur sur une couche quaternaire sur InP et d'un MESFET sur GaAs. En comparaison avec la microscopie électronique et les méthodes de champ proche, la microscopie interférentielle numérique a les avantages de la facilité d'utilisation et de la rapidité. Elle est également capable de résoudre certains problèmes difficiles ou insolubles avec les autres techniques, comme par exemple le profil des sillons étroits, ou la mesure des reliefs enterrés sous une couche transparente. Les inconvénients sont la résolution latérale qui est limitée au pouvoir résolutif de l'objectif et l'introduction d'erreurs liées aux variations des propriétés optiques de l'échantillon qui doivent être prises en compte.
Grabow, W O; du Preez, M
1979-01-01
Total coliform counts obtained by means of standard membrane filtration techniques, using MacConkey agar, m-Endo LES agar, Teepol agar, and pads saturated with Teepol broth as growth media, were compared. Various combinations of these media were used in tests on 490 samples of river water and city wastewater after different stages of conventional purification and reclamation processes including lime treatment, and filtration, active carbon treatment, ozonation, and chlorination. Endo agar yielded the highest average counts for all these samples. Teepol agar generally had higher counts then Teepol broth, whereas MacConkey agar had the lowest average counts. Identification of 871 positive isolates showed that Aeromonas hydrophila was the species most commonly detected. Species of Escherichia, Citrobacter, Klebsiella, and Enterobacter represented 55% of isolates which conformed to the definition of total coliforms on Endo agar, 54% on Teepol agar, and 45% on MacConkey agar. Selection for species on the media differed considerably. Evaluation of these data and literature on alternative tests, including most probable number methods, indicated that the technique of choice for routine analysis of total coliform bacteria in drinking water is membrane filtration using m-Endo LES agar as growth medium without enrichment procedures or a cytochrome oxidase restriction. PMID:394678
NASA Astrophysics Data System (ADS)
Toureille, A.; Reboul, J.-P.; Merle, P.
1991-01-01
A non-destructive method for the measurement of space charge densities in solid insulating materials is described. This method called “ the thermal step technique ” is concerned with the diffusion of a step of heat applied to one side of the sample and with the resulting nonuniform thermal expansion. From the solution of the equation of heat, we have set up the relations between the measured current and the space charge densities. The deconvolution procedure leading to these charge densities is presented. Some results obtained with this method on XLPE and polypropylene slabs are given. Une nouvelle méthode non destructive, pour la mesure des densités de charges d'espace dans les isolants solides, est décrite. Cette méthode, dite de “ l'onde thermique ” est basée sur la diffusion d'un front de chaleur appliqué à une des faces de l'éprouvette et sur la dilatation non uniforme qui en résulte. A partir de la résolution de l'équation de la chaleur, nous avons établi les relations entre le courant mesuré et les densités de charges. Nous indiquons ensuite un procédé de déconvolution permettant de calculer ces densités de charge. Quelques résultats obtenus par cette méthode, sur des plaques de polyéthylène réticulé et polypropylène sont donnés.
NASA Astrophysics Data System (ADS)
Behmand, Behnaz
Les mecanismes qui menent a la supraconductivite dans les supraconducteurs a haute temperature critique sont encore aujourd'hui mal compris contrairement a ceux dans les supraconducteurs conventionnels. Dans les hauts-Tc, certaines modulations de la densite d'etats electroniques coexistant avec la phase supraconductrice ont ete observees, ce qui engendre des questionnements sur leur role dans la supraconductivite. En fait, plusieurs types de modulation de la densite d'etats electroniques existent, comme par exemple l'onde de densite de charge et l'onde de densite de paires. Ces deux modulations, d'origines differentes et mesurables avec la technique de spectroscopie par effet tunnel, peuvent etre differenciees avec une etude de leur symetrie. Ce memoire consistera donc a presenter l'etude de la symetrie de l'onde de densite de charge dans le 2H-NbSe2 qui est presente dans la phase supraconductrice a 300 mK. Par contre, certaines difficultes liees au principe de mesure, soit l'effet de normalisation, nuisent a l'identification de cette symetrie. La methode, pour contourner ce probleme sera alors l'element clef de ce travail.
Synchronized LES for acoustic near-field analysis of a supersonic jet
NASA Astrophysics Data System (ADS)
S, Unnikrishnan; Gaitonde, Datta; The Ohio State University Team
2014-11-01
We develop a novel method using simultaneous, synchronized Large Eddy Simulations (LES) to examine the manner in which the plume of a supersonic jet generates the near acoustic field. Starting from a statistically stationary state, at each time-step, the first LES (Baseline) is used to obtain native perturbations, which are then localized in space, scaled to small values and injected into the second LES (Twin). At any subsequent time, the difference between the two simulations can be processed to discern how disturbances from any particular zone in the jet are modulated and filtered by the non-linear core to form the combined hydrodynamic and acoustic near field and the fully acoustic farfield. Unlike inverse techniques that use correlations between jet turbulence and far-field signals to infer causality, the current forward analysis effectively tags and tracks native perturbations as they are processed by the jet. Results are presented for a Mach 1.3 cold jet. Statistical analysis of the baseline and perturbation boost provides insight into different mechanisms of disturbance propagation, amplification, directivity, generation of intermittent wave-packet like events and the direct and indirect effect of different parts of the jet on the acoustic field. Office of Naval Research.
NASA Astrophysics Data System (ADS)
Verma, Siddhartha; Blanquart, Guillaume; P. K. Yeung Collaboration
2011-11-01
Accurate simulation of high Schmidt number scalar transport in turbulent flows is essential to studying pollutant dispersion, weather, and several oceanic phenomena. Batchelor's theory governs scalar transport in such flows, but requires further validation at high Schmidt and high Reynolds numbers. To this end, we use a new approach with the velocity field fully resolved, but the scalar field only partially resolved. The grid used is fine enough to resolve scales up to the viscous-convective subrange where the decaying slope of the scalar spectrum becomes constant. This places the cutoff wavenumber between the Kolmogorov scale and the Batchelor scale. The subgrid scale terms, which affect transport at the supergrid scales, are modeled under the assumption that velocity fluctuations are negligible beyond this cutoff wavenumber. To ascertain the validity of this technique, we performed a-priori testing on existing DNS data. This Velocity-Resolved LES (VR-LES) technique significantly reduces the computational cost of turbulent simulations of high Schmidt number scalars, and yet provides valuable information of the scalar spectrum in the viscous-convective subrange.
Le contrôle des infections au cabinet du pédiatre
2008-01-01
RÉSUMÉ La transmission des infections au cabinet du pédiatre est de plus en plus préoccupante. Le présent document expose les voies de transmission des infections et les principes sous-jacents aux mesures actuelles pour contrôler les infections. Pour prévenir les infections, il faut bien concevoir le cabinet et adopter des politiques administratives et de triage convenables, de même que des pratiques de base pour les soins de tous les patients (p. ex., hygiène des mains, port de gants, de masques, de lunettes de protection et d’une blouse d’hôpital pour des interventions précises; nettoyage, désinfection et stérilisation convenables des surfaces et du matériel, y compris les jouets, et techniques d’asepsie en cas d’interventions effractives) et des précautions additionnelles en cas d’infections précises. Le personnel doit avoir reçu les vaccins pertinents, et les personnes infectées doivent respecter les politiques de restriction au travail.
Towards Large Eddy Simulation of gas turbine compressors
NASA Astrophysics Data System (ADS)
McMullan, W. A.; Page, G. J.
2012-07-01
With increasing computing power, Large Eddy Simulation could be a useful simulation tool for gas turbine axial compressor design. This paper outlines a series of simulations performed on compressor geometries, ranging from a Controlled Diffusion Cascade stator blade to the periodic sector of a stage in a 3.5 stage axial compressor. The simulation results show that LES may offer advantages over traditional RANS methods when off-design conditions are considered - flow regimes where RANS models often fail to converge. The time-dependent nature of LES permits the resolution of transient flow structures, and can elucidate new mechanisms of vorticity generation on blade surfaces. It is shown that accurate LES is heavily reliant on both the near-wall mesh fidelity and the ability of the imposed inflow condition to recreate the conditions found in the reference experiment. For components embedded in a compressor this requires the generation of turbulence fluctuations at the inlet plane. A recycling method is developed that improves the quality of the flow in a single stage calculation of an axial compressor, and indicates that future developments in both the recycling technique and computing power will bring simulations of axial compressors within reach of industry in the coming years.
Compactification de la Supergravite 10-D Sur les Varietes de Calabi-Yau
NASA Astrophysics Data System (ADS)
Gagnon, Michel
Les varietes de Calabi-Yau permettent une description relativement simple et assez juste de la realite. Recemment, de nombreuses equipes de recherche s'y sont interessees, en particulier P. Candelas, A. M. Dale, C. A. Lutken et R. Schimmrigk (13) qui ont propose une liste de 7868 configurations distinctes. Toutefois, nous croyons que certaines des techniques qui sont exploitees pour construire cette liste ne sont pas suffisamment justifiees et ont pour effet de soustraire a nos investigations bon nombre de configurations potentiellement interessantes. Ainsi, nous produisons, sans utiliser ces techniques simplificatrices, une liste de 97360 configurations. Ensuite, dans le cadre des modeles a 4 generations, nous appliquons un ensemble de criteres, fondes sur les symetries discretes, pour delimiter le domaine des configurations phenomenologiquement viables. Finalement, apres avoir fixe notre choix sur une configuration particuliere, nous essayons de montrer tout l'interet physique des varietes de Calabi-Yau en exposant certains aspects de la phenomenologie a basse energie, notamment les nombres quantiques, les spectres fermioniques, la brisure intermediaire du groupe de jauge et la duree de vie du proton.
Analyse de plomb dans les peintures
NASA Astrophysics Data System (ADS)
Broll, N.; Frezouls, J.-M.
2002-07-01
The analysis of lead in paints was previously used for the characterisation of pigments. In this way, the analysis is able to specify the century of the painting of a work of art. Recently this technique was also used to determine the toxicity of lead paints in building. This paper compared the result of several X-ray fluorescence spectrometer, either wave length/energy dispersion laboratory apparatus or X-ray microtube/radioactive source portable equipment's. L'analyse du plomb dans les peintures a jusqu'à présent été appliquée essentiellement pour caractériser les pigments lors de leur fabrication et pour identifier des rouvres d'art. Récemment cette technique est également utilisée pour déterminer la toxicité des peintures au plomb dans les bâtiments. Nous avons comparé les performances de plusieurs spectromètres de fluorescence X, soit de laboratoire à dispersion en longueur d'onde ou à dispersion en énergie (avec tube à rayonsX), soit portable avec source radioactive ou tube à rayons X.
Sondes radicalaires pour l'imagerie RPE et PDN stables dans les fluides biologiques
NASA Astrophysics Data System (ADS)
Guiberteau, T.; Marx, L.; Rassat, A.; Grucker, D.
1999-10-01
Electron paramagnetic resonance and dynamic nuclear polarisation are two techniques that allow the detection of free radicals. They can also be used for in vivo studies for oximetry in blood or tissues. One of the main problems for the development of these techniques is the need of free radicals that are stable in biological media. We present in this communication a study by EPR and DNP of two free radicals that can be suitable for in vivo applications. La résonance paramagnétique électronique et la polarisation dynamique nucléaire sont deux techniques qui permettent de détecter les radicaux libres dans divers systèmes. Elles peuvent également être utilisées in vivo et permettre ainsi de mesurer la concentration en oxygène dans le sang ou dans les tissus. Un des problèmes de ces techniques est l'utilisation de sondes radicalaires suffisamment stables dans les milieux biologiques. Nous présentons une étude comparative par RPE et PDN de deux radicaux libres de type nitroxydes dérivés de l'isoindoline. Un des radicaux possédant quatre groupements éthyle semble être intéressant pour le développement de la RPE et la PDN in vivo.
Modelisation frequentielle de la permittivite du beton pour le controle non destructif par georadar
NASA Astrophysics Data System (ADS)
Bourdi, Taoufik
Le georadar (Ground Penetrating Radar (GPR)) constitue une technique de controle non destructif (CND) interessante pour la mesure des epaisseurs des dalles de beton et la caracterisation des fractures, en raison de ses caracteristiques de resolution et de profondeur de penetration. Les equipements georadar sont de plus en plus faciles a utiliser et les logiciels d'interpretation sont en train de devenir plus aisement accessibles. Cependant, il est ressorti dans plusieurs conferences et ateliers sur l'application du georadar en genie civil qu'il fallait poursuivre les recherches, en particulier sur la modelisation et les techniques de mesure des proprietes electriques du beton. En obtenant de meilleures informations sur les proprietes electriques du beton aux frequences du georadar, l'instrumentation et les techniques d'interpretation pourraient etre perfectionnees plus efficacement. Le modele de Jonscher est un modele qui a montre son efficacite dans le domaine geophysique. Pour la premiere fois, son utilisation dans le domaine genie civil est presentee. Dans un premier temps, nous avons valide l'application du modele de Jonscher pour la caracterisation de la permittivite dielectrique du beton. Les resultats ont montre clairement que ce modele est capable de reproduire fidelement la variation de la permittivite de differents types de beton sur la bande de frequence georadar (100 MHz-2 GHz). Dans un deuxieme temps, nous avons montre l'interet du modele de Jonscher en le comparant a d'autres modeles (Debye et Debye-etendu) deja utilises dans le domaine genie civil. Nous avons montre aussi comment le modele de Jonscher peut presenter une aide a la prediction de l'efficacite de blindage et a l'interpretation des ondes de la technique GPR. Il a ete determine que le modele de Jonscher permet de donner une bonne presentation de la variation de la permittivite du beton dans la gamme de frequence georadar consideree. De plus, cette modelisation est valable pour differents types de beton et a differentes teneurs en eau. Dans une derniere partie, nous avons presente l'utilisation du modele de Jonscher pour l'estimation de l'epaisseur d'une dalle de beton par la technique GPR dans le domaine frequentiel. Mots-cles : CND, beton, georadar , permittivite, Jonscher
Method of moments comparison for soot population modeling in turbulent combustion
NASA Astrophysics Data System (ADS)
Chong, Shao Teng; Im, Hong; Raman, Venkat
2017-11-01
Representation of soot population is an important component in the efficient computational prediction of particulate emissions. However, there are a number of moments-based techniques with varying numerical complexity. In the past, development of such methods has been principally carried out on canonical laminar and 0-D flows. However, their applications in realistic solvers developed for turbulent combustion may face challenges from turbulence closure to selection of moment sets. In this work, the accuracy and relative computational expense of a few common soot method of moments are tested in canonical turbulent flames for different configurations. Large eddy simulation (LES) will be used as the turbulence modeling framework. In grid-filtered LES, the interaction of numerical and modeling errors is a first-order problem that can undermine the accuracy of soot predictions. In the past, special moments-based methods for solvers that transport high frequency content fluid with ability to reconstruct particle size distribution have been developed. Here, a similar analysis will be carried out for the moment-based soot modeling approaches above. Specifically, realizability of moments methods with nonlinear advection schemes will be discussed.
Synthese de champs sonores adaptative
NASA Astrophysics Data System (ADS)
Gauthier, Philippe-Aubert
La reproduction de champs acoustiques est une approche physique au probleme technologique de la spatialisation sonore. Cette these concerne l'aspect physique de la reproduction de champs acoustiques. L'objectif principal est l'amelioration de la reproduction de champs acoustiques par "synthese de champs acoustiques" ("Wave Field Synthesis", WFS), une approche connue, basee sur des hypotheses de champ libre, a l'aide du controle actif par l'ajout de capteurs de l'erreur de reproduction et d'une boucle fermee. Un premier chapitre technique (chapitre 4) expose les resultats d'appreciation objective de la WFS par simulations et mesures experimentales. L'effet indesirable de la salle de reproduction sur les qualites objectives de la WFS fut illustre. Une premiere question de recherche fut ensuite abordee (chapitre 5), a savoir s'il est possible de reproduire des champs progressifs en salle dans un paradigme physique de controle actif: cette possibilite fut prouvee. L'approche technique privilegiee, "synthese de champs adaptative" ("Adaptive Wave Field Synthesis" [AWFS]), fut definie, puis simulee (chapitre 6). Cette approche d'AWFS comporte une originalite en controle actif et en reproduction de champs acoustiques: la fonction cout quadratique representant la minimisation des erreurs de reproduction inclut une regularisation de Tikhonov avec solution a priori qui vient de la WFS. L'etude de l'AWFS a l'aide de la decomposition en valeurs singulieres (chapitre 7) a permis de comprendre les mecanismes propres a l'AWFS. C'est la deuxieme principale originalite de la these. L'algorithme FXLMS (LMS et reference filtree) est modifie pour l'AWFS (chapitre 8). Le decouplage du systeme par decomposition en valeurs singulieres est illustre dans le domaine du traitement de signal et l'AWFS basee sur le controle independant des modes de rayonnement est simulee (chapitre 8). Ce qui constitue la troisieme originalite principale de cette these. Ces simulations du traitement de signal montrent l'efficacite des algorithmes et la capacite de l'AWFS a attenuer les erreurs attribuables a des reflexions acoustiques. Le neuvieme chapitre presente des resultats experimentaux d'AWFS. L'objectif etait de valider la methode et d'evaluer les performances de l'AWFS. Un autre algorithme prometteur est aussi teste. Les resultats demontrent la bonne marche de l'AWFS et des algorithmes testes. Autant dans le cas de la reproduction de champs harmoniques que dans le cas de la reproduction de champs a large bande, l'AWFS reduit l'erreur de reproduction de la WFS et les effets indesirables causes par les lieux de reproduction.
El Omari, Mounia; El Mazouz, Samir; Gharib, Noureddine; EL Abbassi, Abdallah
2015-01-01
Les sourcils jouent un rôle important dans l’équilibre esthétique du visage. Leur reconstruction ou ophriopoïése, après séquelle de brûlure fait partie intégrante du programme de réhabilitation de la face brûlée. Plusieurs techniques ont été décrites. Nous insistons ici sur l'intérêt d'une technique simple, à la portée de tous les chirurgiens, et dont la méthode et les résultats peuvent être améliorés par un dessin bien planifié des zones donneuse et receveuse: la greffe composite prélevée au niveau du cuir chevelu dessinée à l'aide d'un calque du sourcil controlatéral. PMID:26401195
NASA Astrophysics Data System (ADS)
Nicolas, M.; Guyen van Huong, C. N.; Burger, J. P.; Dubon, A.; Fitoussi, J. P.; Laval, J. Y.
1991-11-01
a.c. susceptibility measurements and 3D electronic microscopy observation were carried out on three Bi-compounds (2212 and 2223). Depending on the annealing conditions, one observes lamellar-type materials organized either in a more or less dense structure of fine particles or in very large slabs. The a.c. susceptibility signals allow to separate the intergranular from the intragranular effects. The combined results obtained by both techniques lead us to conclude that the intergranular and the intragranular decoupling, induced by magnetic fields are of same nature, i.e. occur at the (BiO)2 slab. Nous avons couplé des mesures de susceptibilité altemative et d'observation au microscope électronique en 3D sur trois échantillons supraconducteurs au bismuth (2212 et 2223). Selon les conditions de recuit, on observe des matériaux de type lamellaire, organisés soit en une structure plus ou moins dense de fines particules, soit en larges plaquettes. L'étude des signaux de susceptibilité alternative χ' et χ'' permet de séparer les effets intergranulaires des effets intragranulaires. les résultats combinés des deux techniques nous ont conduit à conclure que les deux types de découplage (inter et intragranulaires), induits par les champs magnétiques sont de même nature, c'est-à-dire se produisent au niveau des bicouches (BiO)2.
NASA Astrophysics Data System (ADS)
Schober, Helmut; Fischer, Henry; Leclercq-Hugeux, Françoise
2003-09-01
L'École Thématique “Structure et Dynamique des Systèmes Désordonnés” [1] s'inscrit dans le cadre des écoles organisées sous l'impulsion de la Société Française de la Neutronique (SFN). Elle s'est deroulée en mai 2002 sur la Presqu'île de Giens (Var) en première partie des 11émes Journées de la Diffusion Neutronique. L'Édition de ces cours constitue ainsi le cinquième ouvrage introduisant les techniques neutroniques et leurs apports à differentes thématiques [2]. Le désordre est un facteur déterminant pour pratiquement toutes les propriétés des matériaux. Il est inhérent dans les matériaux amorphes ou liquides, mais il détermine également les propriétés mécaniques et électroniques d'autres composés d'importance technologique comme les matériaux métalliques, dont l'aspect “désordonné” est moins évident. Le désordre enfin joue un rôle essentiel dans tout ce que touche à la vie. En fait, il est difficile d'imaginer des systèmes, à part quelques exceptions rares comme l'hélium ou le silicium de haute pureté, où il n'y ait pas de désordre. En dehors de cet aspect pratique, la description scientifique du désordre atomique pose toujours des problèmes fondamentaux faute de concepts pertinents. Une des tâches importantes du scientifique ou de l'ingenieur est de préciser quel genre de désordre existe à une échelle d'espace et de temps donnée. Un materiau peut très bien être homogène à l'échelle atomique et présenter des défauts ou des hétrogéneité visibles à l'œil et inversement. De même, un système désordonné à un instant donné, peut apparaître ordonné si on moyenne dans le temps. Les techniques de diffusion des neutrons sont idéales pour aborder ces questions. Les neutrons sondent directement les noyaux et ont à la fois des longueurs d'ondes proches des distances inter atomiques et des énergies avoisinant celles des excitations élémentaires de la matière condensée. Ils permettent ainsi une observation directe et non-destructive des positions et des mouvements atomiques. La gamme des distances et des temps sondés par les neutrons autorisent aussi bien de suivre le mouvement des atomes à l'échelle inter atomique que l'évolution d'une structure soit mésoscopique soit macroscopique sur des temps de moins d'une picoseconde à plusieurs heures. La gamme des techniques de diffusion utilisées pour couvrir un tel champ d'application est naturellement très large : différents types de diffractomètres permettent des études de structure atomique trés pointue et résolue dans le temps. Les spectromètres nous donnent accès à la dynamique d'une dizaine de femto- à plusieurs nanosecondes. La diffusion aux petits angles, la reflectomètrie et finalement la tomographie nous permettent de regarder la structure et la dynamique d'objets plus grands. Il était illusoire de prétendre couvrir la totalité des systèmes désordonnés et l'ensemble des techniques de diffusion neutronique pertinentes au cours d'une école de 3 jours. Nous avons donc été amené à nous concentrer sur les liquides, les verres, les cristaux plastiques et les polymères. Ce choix s'est imposé par le souhait d'introduire les concepts de base, en acceptant de sacrifier certains domaines d'applications. Il va de soi que l'étude approfondie de systèmes mettant en jeu plusieurs échelles de distance (structure moléculaire, portée des corrélations entre les molécules) et de temps (relaxations caractéristiques des divers phenomènes dynamiques selon leur extension spatiale) implique une pluralité de techniques expérimentales, complémentaires des différentes techniques neutroniques disponibles. Un des objectifs de cette école etait donc de préciser les domaines de pertinence des différentes techniques neutroniques disponibles en en situant la complémentarité avec d'autres approches instrumentales (diffraction des rayons X, EXAFS, RMN, etc.). Enfin la confrontation avec les résultats obtenus par simulation et modélisation numérique est essentielle à la compréhension des processus élémentaires dans ces systèmes complexes. En première partie de cet ouvrage, on trouvera une description géntrale des systèmes désordonnés et une introduction aux techniques de diffusion de neutrons. Pour la partie concernant la structure, une revue des techniques de diffraction est suivie par des applications à des systèmes de complexité croissante (liquides métalliques simples, alliages liquides, semiconducteurs fondus, solutions aqueuses, verres d'oxydes). L'apport des méthodes de variation de longueur de diffusion (substitution isotopique pour les mesures aux neutrons, diffusion anomale des rayons X ou combinaison de ces deux techniques) permet la détermination des facteurs de structures partiels. Pour la dynamique, on a privilégié une approche introduisant progressivement le désordre en passant des solides aux liquides. Le concept de diffusion puis les particularités dynamiques des verres sont ensuite présentés et illustrés par des exemples concrets. Enfin la dernière partie est consacrée à la simulation numérique des propriétés dynamiques des verres et des liquides et à la modélisation de la structure par méthode de Monte Carlo inverse (RMC) à partir de l'ensemble des données expérimentales existant pour un système donné. La communauté française a joué un rôle important dans le développement des techniques neutroniques dédites à l'étude des systèmes désordonnés et y a acquis une competence reconnue. Nous avons essayé, dans cet ouvrage, de privilégier les aspects pédagogiques des cours, pour les rendre accessibles aux scientifiques francophones non spécialistes en diffusion des neutrons. Nous saluons ici l'effort de rédaction, en langue française, des différents intervenants et souhaitons que cet ouvrage puisse participer à la formation et au renouvellement de la communauté neutronique française. Helmut Schober et Henry Fischer (Editeurs scientifiques) Françoise Leclercq-Hugeux (Présidente de la SFN)
Investigation of a Neural Network Implementation of a TCP Packet Anomaly Detection System
2004-05-01
reconnatre les nouvelles variantes d’attaque. Les réseaux de neurones artificiels (ANN) ont les capacités d’apprendre à partir de schémas et de...Computational Intelligence Techniques in Intrusion Detection Systems. In IASTED International Conference on Neural Networks and Computational Intelligence , pp...Neural Network Training: Overfitting May be Harder than Expected. In Proceedings of the Fourteenth National Conference on Artificial Intelligence , AAAI-97
Etude exploratoire des conceptions de la circulation sanguine aupres d'eleves de l'ordre collegial
NASA Astrophysics Data System (ADS)
Robitaille, Jean-Marc
Il existe peu d'etudes sur les conceptions touchant les domaines de la biologie, notamment sur les conceptions de la circulation sanguine Nous avons observe egalement l'absence de recherche menee aupres d'eleves de l'ordre collegial sur cette question. Nous avons voulu combler une lacune en menant une recherche sur les conceptions de la circulation sanguine aupres d'eleves de l'ordre collegial. Pour mener cette recherche nous nous sommes inspires d'une methode developpee par Treagust (1988). Le premier niveau de formulation didactique etablit l'architecture du systeme et la fonction nutritive de la circulation. Le second niveau de formulation didactique decrit et relie les parametres de la dynamique de la circulation et leur relation: Pression, Debit et Resistance. Le troisieme niveau de formulation didactique s'interesse au controle de la circulation du sang dans un contexte d'homeostasie qui implique la regulation de la pression arterielle. Nous avons construit un questionnaire en nous guidant sur les niveaux de formulation didactique et l'analyse des entrevues menees aupres de dix-huit eleves, representatifs de la population cible. Ce questionnaire fut administre a un echantillon de 2300 eleves disperses dans six colleges de la region de Montreal. Notre echantillon comprend des eleves inscrits a des programmes de l'ordre collegial en Sciences de la nature et en Techniques de la sante et qui n'ont pas suivi le cours sur la circulation sanguine. Notre analyse des reponses des eleves de notre echantillon aux questions sur le premier niveau de formulation didactique revele que la majorite des eleves considerent que le systeme circulatoire relie les organes les uns aux autres dans un circuit en serie. Notre analyse revele egalement que la majorite des eleves estiment que les nutriments sont extraits du sang par les organes selon un processus de selection base sur les besoins determines par la fonction de l'organe. Ces besoins sont differents selon les organes qui ne prelevent que les nutriments necessaires. Au second niveau les reponses des eleves de la population indiquent une conception de la dynamique cardio-vasculaire axee d'abord sur le coeur, laissant aux vaisseaux un role passif de canaux. Ces reponses indiquent egalement que la dynamique circulatoire est reduite a une sequence d'etapes ponctuelles sans relation les unes avec les autres. Au troisieme niveau les reponses des eleves de la population font etat d'une conception du controle qui privilegie la satisfaction de besoins locaux, sans relation systemique. Nos resultats suggerent que les eleves de notre echantillon affichent une plus grande concordance avec l'expert pour les questions du premier niveau (70%) que pour les niveaux II (54%) et III (50%). Notre analyse des donnees revele que l'accord avec l'expert est eleve lorsque la questions touchent la description des structures et la definition de leurs roles et plus faible lorsque les questions touchent la dynamique et le controle. Il existerait donc un niveau de formulation qui correspond a la description de structures et un autre niveau qui recoupe toute la dynamique de la circulation et son controle. Du point de vue didactique lanalyse des donnees suggere que nous ne retrouvons pas une correspondance entre les niveaux de formulation didactique et les conceptions des eleves. (Abstract shortened by UMI.)
Le premier examen gynécologique idéal imaginé par les jeunes filles
Freyens, Anne; Dejeanne, Mélanie; Fabre, Elise; Rouge-Bugat, Marie-Eve; Oustric, Stéphane
2017-01-01
Résumé Objectif Explorer les représentations sur l’examen gynécologique (EG) et identifier les critères nécessaires à son bon déroulement chez des adolescentes n’ayant pas encore vécu cet examen. Type d’étude Enquête qualitative par entrevues semi-dirigées. Contexte Midi-Pyrénées (France) et Auvergne (France). Participants Jeunes filles de 15 à 19 ans qui n’ayant pas vécu l’EG. Méthodes Le mode de recrutement de l’échantillon a été double : sélection des jeunes filles par la technique boule-de-neige et sélection par la technique d’échantillonnage ciblé jusqu’à l’obtention de la saturation des données tout en cherchant la variation maximale dans les profils des sujets. Les questions ouvertes portaient sur les sources d’informations, les connaissances, les critères de bon déroulement et l’imaginaire autour de l’EG. Le verbatim a fait l’objet d’une analyse longitudinale immédiate rassemblant le contexte (notes des chercheurs) et les idées principales de l’entretien. Une analyse transversale thématique a été réalisée. Principales constatations Une méconnaissance générale des jeunes filles sur l’EG entretenait l’imaginaire autour de cet examen perçu comme obligatoire. L’EG idéal, selon les jeunes filles interrogées, aurait lieu chez une jeune fille qui se sentirait prête, informée préalablement, pouvant être accompagnée selon son souhait. Cet examen se déroulerait dans un environnement chaleureux et confortable afin de diminuer le sentiment de vulnérabilité. La qualité du lien avec le médecin conditionnerait l’acceptation de cet examen par les jeunes filles. Conclusion Une consultation dédiée à l’information, préalable à la consultation où a lieu l’EG, permettrait de diminuer les appréhensions, d’améliorer les connaissances des jeunes filles et de favoriser le bon déroulement du futur premier EG tant pour le médecin que pour la patiente. PMID:28807971
NASA Astrophysics Data System (ADS)
Adam, J. F.; Moy, J. P.
2005-06-01
La biologie étudie des structures ou des phénomènes sub-cellulaires. Pour cela la microscopie est la technique d'observation privilégiée. La résolution spatiale de la microscopie optique s'avère bien souvent insuffisante pour de telles observations. Les techniques plus résolvantes, comme la microscopie électronique par transmission sont souvent destructrices et d'une complexité peu adaptée aux besoins des biologistes. La microscopie par rayons X dans la fenêtre de l'eau permet l'imagerie rapide de cellules dans leur milieu naturel, nécessite peu de préparation et offre des résolutions de quelques dizaines de nanomètres. De plus, il existe un bon contraste naturel entre les structures carbonées (protéines, lipides) et l'eau. Actuellement cette technique est limitée aux centres de rayonnement synchrotron, ce qui impose une planification et des déplacements incompatibles avec les besoins de la biologie. Un tel microscope fonctionnant avec uns source de laboratoire serait d'une grande utilité. Ce document présente un état de l'art de la microscopie par rayons X dans la fenêtre de l'eau. Un cahier des charges détaillé pour un appareil de laboratoire ayant les performances optiques requises par les biologistes est présenté et confronté aux microscopes X de laboratoire déjà existants. Des solutions concernant la source et les optiques sont également discutées.
Effets non lineaires transversaux dans les guides d'ondes plans
NASA Astrophysics Data System (ADS)
Dumais, Patrick
Les effets non lineaires transversaux dus a l'effet Kerr optique non resonant sont etudies dans deux types de guides a geometrie plane. D'abord (au chapitre 2), l'emission de solitons spatiaux d'un guide de type canal est etudie historiquement, analytiquement et numeriquement dans le but d'en faire la conception et la fabrication, en AlGaAs, dans la region spectrale en deca de la moitie de la bande interdite de ce materiau, soit autour de 1,5 microns. Le composant, tel que concu, comporte une structure de multipuits quantiques. Le desordonnement local de cette structure permet une variation locale du coefficient Kerr dans le guide, ce qui mene a l'emission d'un soliton spatial au-dela d'une puissance optique de seuil. L'observation experimentale d'un changement en fonction de l'intensite du profil de champ a la sortie du guide realise est presentee. Deuxiemement (au chapitre 3) une technique de mesure du coefficient Kerr dans un guide plan est presentee. Cette technique consiste a mesurer le changement de transmission au travers d'un cache place a la sortie du guide en fonction de l'intensite crete a l'entree du guide plan. Une methode pour determiner les conditions optimales pour la sensibilite de la mesure est presentee, illustree de plusieurs exemples. Finalement, la realisation d'un oscillateur parametrique optique basee sur un cristal de niobate de lithium a domaines periodiquement inverses est presentee. La theorie des oscillateurs parametriques optiques est exposee avec une emphase sur la generation d'impulsions intenses a des longueurs d'onde autour de 1,5 microns a partir d'un laser Ti:saphir, dans le but d'obtenir une source pour faire les experiences sur l'emission solitonique.
NASA Astrophysics Data System (ADS)
Houehanou, Ernesto C.
L'incorporation des ajouts cimentaires dans le beton est connue pour ses avantages technologiques et environnementaux. Pour assurer une plus grande utilisation des ajouts cimentaires, il faut accroitre la connaissance dans ce domaine surtout les facteurs relatifs a la durabilite des ouvrages construits avec les betons contenant des ajouts mineraux. Jusqu'a present, la plupart des etudes sur les betons contenant de la cendre volante et du laitier semble s'accorder sur leur moins bonne durabilite a l'ecaillage surtout lorsqu'on les compare au beton ordinaire. Les raisons de cette moins bonne performance ne sont pas toutes connues et cela limite bien des fois l'incorporation de la cendre volante et de laitier dans le beton pour des ouvrages fortement exposes aux cycles de gel-degel en presence de sels fondants. Cette these vise la comprehension des problematiques de la durabilite a l'ecaillage des betons contenant des ajouts cimentaires tels la cendre volante et le laitier. Les objectifs sont de mieux comprendre la representativite et la severite relative des essais normalises ASTM C672 et NQ 2621-900 pour l'evaluation de la durabilite a l'ecaillage de ces betons, d'etudier l'influence de la methode de murissement sur la durabilite a l'ecaillage et d'etudier la relation entre la durabilite a l'ecaillage et la sorptivite des surfaces de beton ainsi que la particularite de la microstructure des betons contenant de la cendre volante. Cinq types de betons a air entraine contenant 25% et 35% de cendre volante et laitier ainsi que 1% et 2% de fumee de silice ont ete produits, muris selon differentes methodes et soumis a des essais acceleres selon les deux procedures normalisees ainsi qu'un essai de sorptivite. Les differentes methodes de murissement sont choisies de facon a mettre en evidence aussi bien l'influence des parametres des essais que celle de la methode de murissement elle-meme. La durabilite en laboratoire des betons testes a ete comparee avec celle de betons similaires apres 4 et 6 annees de service. La microstructure des betons en service a ete analysee au moyen du microscope a balayage electronique (MEB). Les resultats montrent que la qualite du murissement influence grandement la durabilite a l'ecaillage des betons contenant de la cendre volante et de laitier surtout lorsqu'ils sont soumis ' aux essais acceleres en laboratoire. La duree du pretraitement humide est un parametre cle de la durabilite a l'ecaillage des betons testes en laboratoire. Le pretraitement humide correspond a la duree totale du murissement humide (100% HR) et de la periode de presaturation. Pour les deux methodes d'essai, l'allongement du pretraitement humide a 28 jours ameliore la resistance a l'ecaillage de tous les types de betons et en particulier celle des betons avec cendres volantes. Pour les deux methodes d'essai, l'allongement du pretraitement humide a 28 jours ameliore la resistance a l'ecaillage de tous les types de betons et en particulier celle des betons avec cendres volantes. La periode de presaturation de 7 jours de la procedure NQ 2621-900 a un effet similaire a celui d'un murissement humide de meme longueur. Un murissement humide de 28 jours apparait optimal et conduit a une estimation plus realiste de la resistance a l'ecaillage reelle des betons. Pour une meme duree de pretraitement humide, les procedures NQ 2621-900 et ASTM C672 donnent des resultats equivalents. L'utilisation d'un moule a fond drainant n'a pas d'effet sur la resistance a l'ecaillage des betons de cette etude. Bien que le murissement dans l'eau saturee de chaux offre toute l'eau requise pour favoriser le developpement des proprietes du beton et l'amelioration de sa durabilite a l'ecaillage, elle lessive cependant les ions alcalins ce qui diminue defavorablement l'alcalinite et le pH de la solution interstitielle de la pate de ciment pres de la surface exposee. L'utilisation d'un agent de murissement protege mieux les betons contenant de la cendre volante et ameliore significativement leurs resistances a l'ecaillage mais elle a tendance a reduire la durabilite a l'ecaillage des betons contenant de laitier. Pour developper une bonne resistance a l'ecaillage, il est essentiel de produire une surface de beton impermeable qui resiste a la penetration de l'eau externe. La permeabilite et la porosite de la peau du beton sont etroitement liees a la sorptivite. L' allongement de la duree de murissement humide des betons avec ajouts cimentaires diminue systematiquement la sorptivite et ameliore leur durabilite a l'ecaillage, particulierement dans le cas des betons avec cendres volantes. Les resultats montrent qu'il existe une bonne correlation entre les resultats des essais d'ecaillage et les mesures de sorptivite. La correlation etablie entre la sorptivite et la durabilite a l'ecaillage des betons, l'effet • determinant de la carbonatation sur la durabilite a l'ecaillage des betons avec cendres volantes ainsi que l'explication de l'origine de la difference de severite entre les essais ASTM C-672 et NQ 2621-900 sont les contributions scientifiques de cette these. Au plan technique et industriel, elle met en evidence le mode de murissement qui favorise une meilleure durabilite a l'ecaillage des betons et suggere une methode de caracterisation en laboratoire qui ferait une meilleure prediction du comportement en service. Mots cles : Beton, cendre volante, laitier, durabilite, ecaillage, murissement, sorptivite
SOMAR-LES: A framework for multi-scale modeling of turbulent stratified oceanic flows
NASA Astrophysics Data System (ADS)
Chalamalla, Vamsi K.; Santilli, Edward; Scotti, Alberto; Jalali, Masoud; Sarkar, Sutanu
2017-12-01
A new multi-scale modeling technique, SOMAR-LES, is presented in this paper. Localized grid refinement gives SOMAR (the Stratified Ocean Model with Adaptive Resolution) access to small scales of the flow which are normally inaccessible to general circulation models (GCMs). SOMAR-LES drives a LES (Large Eddy Simulation) on SOMAR's finest grids, forced with large scale forcing from the coarser grids. Three-dimensional simulations of internal tide generation, propagation and scattering are performed to demonstrate this multi-scale modeling technique. In the case of internal tide generation at a two-dimensional bathymetry, SOMAR-LES is able to balance the baroclinic energy budget and accurately model turbulence losses at only 10% of the computational cost required by a non-adaptive solver running at SOMAR-LES's fine grid resolution. This relative cost is significantly reduced in situations with intermittent turbulence or where the location of the turbulence is not known a priori because SOMAR-LES does not require persistent, global, high resolution. To illustrate this point, we consider a three-dimensional bathymetry with grids adaptively refined along the tidally generated internal waves to capture remote mixing in regions of wave focusing. The computational cost in this case is found to be nearly 25 times smaller than that of a non-adaptive solver at comparable resolution. In the final test case, we consider the scattering of a mode-1 internal wave at an isolated two-dimensional and three-dimensional topography, and we compare the results with Legg (2014) numerical experiments. We find good agreement with theoretical estimates. SOMAR-LES is less dissipative than the closure scheme employed by Legg (2014) near the bathymetry. Depending on the flow configuration and resolution employed, a reduction of more than an order of magnitude in computational costs is expected, relative to traditional existing solvers.
NASA Astrophysics Data System (ADS)
Rahmani, A.; Benyaïch, F.; Bounakhla, M.; Bilal, E.; Moutte, J.; Gruffat, J. J.; Zahry, F.
2004-11-01
Dans ce travail, nous présentons une étude comparative des techniques d'analyse par fluorescence X à dispersion d'énergie (ED-XRF) et à dispersion de longueur d'onde (WD-XRF), et par spectrométrie d'émission atomique à source plasma couplée par induction (ICP-AES). Les résultats de la calibration des spectromètres à dispersion d'énergie, à excitation par sources radioactives (55Fe, 109Cd et 241Am) et à excitation secondaire (cible secondaire Mo et Cu) du Centre National pour l'Energie, les Sciences et les Techniques Nucléaires (CNESTEN, Rabat, Maroc) sur des échantillons étalons de références de l'Agence International de l'Energie Atomique (AIEA) et du Community Bureau of Référence (BCR) ont été comparés aux résultats d'analyse des mêmes échantillons étalons par la spectrométrie X à dispersion de longueur d'onde (WD-XRF) et par spectrométrie d'émission atomique à source plasma couplé par induction (ICP-AES) au département GENERIC du centre SPIN à l'Ecole des Mines de Saint-Etienne (France). Les trois techniques d'analyse utilisées donnent des résultats comparables pour le dosage des éléments majeurs, alors que pour les traces on note des déviations importantes à cause des effets de matrice qui sont difficiles à corriger dans le cas de la fluorescence X.
Recuit thermique rapide de semi-conducteur par énergie micro-onde
NASA Astrophysics Data System (ADS)
Covas, M.; Gay, H. C.
1993-05-01
This paper proposes a new technique for rapid thermal annealing of semi-conductors. This technique is based on microwave energy, and offers the same advantages as the rapid thermal annealing by incoherent light, in terms of rapidity, and contamination. However, our technique reduces considerably the required energy for the annealing process. This technique has been compared to the rapid thermal by incoherent light: lab experiments, carried out on boron implanted silicon samples, showed that a power gain ratio of about 10 can be achieved. Nous proposons une méthode de recuit thermique rapide du silicium par énergie micro-onde. Cette technique offre les mêmes avantages que les traitements thermiques rapides par lumière incohérente, c'est-à-dire des durées de chauffage très brèves, limitant ainsi la diffusion des dopants, et un traitement plaquette par plaquette : les risques de contamination de tout un lot sont ainsi éliminés. De plus notre méthode requiert une faible énergie : pour parvenir à des recuits de qualité similaire à celle obtenue dans des fours de recuit rapide à lampes il faut un flux de puissance 10 fois plus faible.
Analysis of phospholipid fatty acids (PLFA) to characterize microbial communities in aquifers
NASA Astrophysics Data System (ADS)
Green, Christopher T.; Scow, Kate M.
This paper reviews published applications of lipid-based biochemical techniques for characterizing microbial communities in aquifers and other deep subsurface habitats. These techniques, such as phospholipid fatty acid (PLFA) analysis, can provide information on a variety of microbial characteristics, such as biomass, physiology, taxonomic and functional identity, and overall community composition. In addition, multivariate statistical analysis of lipid data can relate spatial or temporal changes in microbial communities to environmental factors. The use of lipid-based techniques in the study of groundwater microbiology is advantageous because they do not require culturing and can provide quantitative data on entire communities. However, combined effects of physiological and phylogenetic changes on the lipid composition of a community can confound interpretation of the data, and many questions remain about the validity of various lipid techniques. Despite these caveats, lipid-based research has begun to show trends in community composition in contaminated and pristine aquifers that contribute to our understanding of groundwater microbial ecology and have potential for use in optimization of bioremediation of groundwater pollutants. Résumé Ce papier passe en revue les applications des techniques biochimiques basées sur les lipides pour caractériser les communautés microbiennes présentes dans les aquifères et dans les autres habitats souterrains profonds. Ces techniques, telles que l'analyse des acides gras phospholipidiques (PLFA), peuvent fournir des informations sur un ensemble de caractères microbiens, tels que la biomasse, la physiologie, l'identité taxonomique et fonctionnelle, et surtout la composition de la communauté. En outre, l'analyse statistique multivariée des données sur les lipides peut établir les liens entre des changements spatiaux ou temporels dans la communauté microbienne et des facteurs environnementaux. L'utilisation des techniques basées sur les lipides dans l'étude de la microbiologie des eaux souterraines est intéressante parce qu'elle ne nécessite pas de mise en culture et qu'elle peut fournir des données quantitatives sur les communautés dans leur ensemble. Toutefois, les effets combinés de changements physiologiques et phylogénétiques sur la composition d'une communauté peuvent brouiller l'interprétation des données de nombreuses questions se posent sur la validité des différentes techniques lipidiques. Malgré ces oppositions, la recherche basée sur les lipides a commencéà montrer des tendances dans la composition des communautés dans les aquifères pollués et dans ceux non perturbés ces résultats contribuent ainsi à notre compréhension de l'écologie microbienne des eaux souterraines et montrent qu'il existe un potentiel pour leur utilisation en vue d'une optimisation de la dépollution biologique des eaux souterraines. Resumen Se revisan distintas técnicas bioquímicas que se basan en el análisis de lípidos para caracterizar las comunidades microbianas en hábitats subsuperficiales, incluyendo acuíferos. Estas técnicas, entre las que se incluye el análisis de ácidos grasos fosfolípidos (PLFA), pueden proporcionar información sobre toda una serie de características de las comunidades microbianas, como su biomasa, fisiología, identidad taxonómica y funcional y composición. Además, el análisis estadístico multivariado de los datos de lípidos permite relacionar los cambios espaciales o temporales en las comunidades microbianas con factores ambientales. Las técnicas basadas en lípidos son muy útiles para el estudio microbiológico de las aguas subterráneas, puesto que no requieren cultivos y además proporcionan datos cuantitativos de comunidades completas. Sin embargo, la acción combinada de los cambios fisiológicos y filogenéticos en la composición de lípidos en una comunidad pueden confundir la interpretación de los datos, por lo existen muchas cuestiones abiertas respecto a la validez de algunas de estas técnicas. A pesar de estas dificultades, estas técnicas han permitido detectar diferentes tendencias en la composición de las comunidades en acuíferos con y sin contaminación, lo que contribuye a nuestro entendimiento de la ecología microbiana de los acuíferos. Este último aspecto tiene un uso potencial en la optimización de los métodos de biorremediación de acuíferos.
Impedance de surface dans les supraconducteurs quasi-bidimensionnels
NASA Astrophysics Data System (ADS)
Achkir, Driss Brice
Ce travail a caractere experimental et theorique vise l'etude de l'etat supraconducteur de trois familles de composes: les supraconducteurs conventionnels, les organiques et les cuprates YBCO. Pour ce faire, nous avons utilise une technique hyperfrequence, a savoir la mesure d'impedance de surface en fonction de la temperature et du champ magnetique. Dans les supraconducteurs conventionnels, nous avons mesure pour la premiere fois le pic de "coherence" dans la partie reelle de la conductivite. Bien que predit par la theorie BCS, ce pic n'avait pas ete clairement observe en raison de difficultes techniques liees a ce type d'experience. D'autre part, la theorie d'Eliashberg appliquee a la partie reelle de la conductivite du niobium nous a revele l'importance des mesures hyperfrequences pour mieux extraire la partie basse frequence de la densite spectrale alphasp2F(omega). Cette possibilite est attrayante puisque c'est precisement la region de frequences de alphasp2F(omega) ou les donnees d'effet tunnel sont imprecises. Les resultats obtenus sur la longueur de penetration dans les organiques et les cuprates ont permis de montrer que le gap presente des lignes de zeros au niveau de Fermi ou qu'il est, a tout le moins, fortement anisotrope. En effet, la dependance en temperature de la longueur de penetration dans les cristaux purs est lineaire a basse temperature et elle devient quadratique dans les cristaux dopes. Pour le cas des supraconducteurs organiques quasi-bidimensionnels (Et)sb2X, nous avons aussi observe un maximum sur la partie reelle de la conductivite qui n'a rien a voir avec un pic de coherence. Pour ces composes, nous avons effectue une des toutes premieres etudes des fluctuations supraconductrices en temperature et en champ magnetique. Nous montrons que la paraconductivite sigmasp' due aux fluctuations presente un comportement de type Aslamazov-Larkin de nature tridimensionnelle. Ces mesures sont appuyees par les resultats theoriques d'un modele Ginzburg-Landau dynamique que nous avons developpe. De plus, a partir de l'analyse des fluctuations, nous avons pu identifier le champ critique pour la transition resistive en champ et ainsi en deduire la transition de fonte du reseau de vortex dans le (Et)sb2Cu(SCN)sb2.
Methodes de caracterisation des proprietes thermomecaniques d'un acier martensitique =
NASA Astrophysics Data System (ADS)
Ausseil, Lucas
Le but de l'etude est de developper des methodes permettant de mesurer les proprietes thermomecaniques d'un acier martensitique lors de chauffe rapide. Ces donnees permettent d'alimenter les modeles d'elements finis existant avec des donnees experimentales. Pour cela, l'acier 4340 est utilise. Cet acier est notamment utilise dans les roues d'engrenage, il a des proprietes mecaniques tres interessantes. Il est possible de modifier ses proprietes grâce a des traitements thermiques. Le simulateur thermomecanique Gleeble 3800 est utilise. Il permet de tester theoriquement toutes les conditions presentes dans les procedes de fabrication. Avec les tests de dilatation realises dans ce projet, les temperatures exactes de changement de phases austenitiques et martensitiques sont obtenues. Des tests de traction ont aussi permis de deduire la limite d'elasticite du materiau dans le domaine austenitique allant de 850 °C a 1100 °C. L'effet des deformations sur la temperature de debut de transformation est montre qualitativement. Une simulation numerique est aussi realisee pour comprendre les phenomenes intervenant pendant les essais.
1992-02-01
CONCLUDING REMARKS secondary flow pattern. Probably both factors are influential. Unfortunately The present study has examined the the secondary...Panels which are compesed of experts appointed - by the National Delegates, the Consultant and Exchange Programme and the Aerospace Applications Studies ...CP 352. September 1983 /Combustion Problems in Turbine Engines AGARD CP 353, January 1984 (,rHazard Studies for Solid Propellant Rocket Motors AGARD CP
Large-eddy simulation of flow in a plane, asymmetric diffuser
NASA Technical Reports Server (NTRS)
Kaltenbach, Hans-Jakob
1993-01-01
Recent improvements in subgrid-scale modeling as well as increases in computer power make it feasible to investigate flows using large-eddy simulation (LES) which have been traditionally studied with techniques based on Reynolds averaging. However, LES has not yet been applied to many flows of immediate technical interest. Preliminary results from LES of a plane diffuser flow are described. The long term goal of this work is to investigate flow separation as well as separation control in ducts and ramp-like geometries.
Advanced Beamformers for 3D Ultrasound Systems Deploying Linear and Planar Phased Array Probes
2002-05-01
6tude sur la technologic dchographie 4D serviront de fondement important A l’innovation dans Ie secteur industriel canadien des dispositifs A...pouvant &tre utilis6 sur place A des fins de diagnostic. La technologie proposee comprend les travaux suivants: "* techniques de formation de faisceaux...faciliter l’imagerie durant les operations avec effraction minimale effectu6es sur place; "* concept d’impulsions A inversion temporelle pour les signaux
1999-01-01
que pour les installations et le personnel mis ä sa disposition. T- l Technical Evaluation Report of the RTO...radiocommunications sur le radar, on peut mettre en oeuvre des techniques de Formation de Faisceau par le Calcul qui permettent d’augmenter encore le niveau...plus 6loign6s pouvant fonctionner sur les mSmes canaux de frequence que le radar sans g£ne mutuelle1. equipements de radiocommunication
2004-06-01
Technology Opportunities and Options (La surveillance médicale et les réponses au sein de lOTAN: les possibilités et les options pour la recherche et la...13%) were positive for coronavirus OC43, 2 (13%) for respiratory syncytial virus, 1 (6%) for rhinovirus, and 4 (25%) were negative. Concern for SARS ...in Thailand. SARS transmission was not known to be present in Thailand in early 2003, and there were concerns that exercise participants could
NASA Astrophysics Data System (ADS)
Courtois, M.; Otrio, G.
2018-04-01
Jai le plaisir d'inaugurer cette troisieme conference ICS0'97 consacree a l'optique patialc Les techniques evoluent tres vite; l'optique et l'optoelectronique n'echappent pas a c:ene regle. Depuis Garmisch. en 1994, bien des evenements concemant ces domaines se som produits le rappellerai !es faits les plus saillants dans la premiere panie de mon expose Je donncrai ensuite un apercu des activites en cours au Cnes et je tenninerai en parlant du futur quelles sont les technologies emergentes et quels projets peuvent en decouler ?
NASA Astrophysics Data System (ADS)
Lasri, Abdel-Halim
Dans cette recherche-developpement, nous avons concu, developpe et mis a l'essai un simulateur interactif pour favoriser l'apprentissage des lois probabilistes impliqees dans la genetique mendelienne. Cet environnement informatise devra permettre aux etudiants de mener des experiences simulees, utilisant les statistiques et les probebilites comme outils mathematiques pour modeliser le phenomene de la transmission des caracteres hereditaires. L'approche didactique est essentiellement orientee vers l'utilisation des methodes quantitatives impliquees dans l'experimentation des facteurs hereditaires. En incorporant au simulateur le principe de la "Lunette cognitive" de Nonnon (1986), l'etudiant fut place dans une situation ou il a pu synchroniser la perception de la representation iconique (concrete) et symbolique (abstraite) des lois probabilistes de Mendel. A l'aide de cet environnement, nous avons amene l'etudiant a identifier le(s) caractere(s) hereditaire(s) des parents a croiser, a predire les frequences phenotypiques probables de la descendance issue du croisement, a observer les resultats statistiques et leur fluctuation au niveau de l'histogramme des frequences, a comparer ces resultats aux predictions anticipees, a interpreter les donnees et a selectionner en consequence d'autres experiences a realiser. Les etapes de l'approche inductive sont privilegiees du debut a la fin des activites proposees. L'elaboration, du simulateur et des documents d'accompagnement, a ete concue a partir d'une vingtaine de principes directeurs et d'un modele d'action. Ces principes directeurs et le modele d'action decoulent de considerations theoriques psychologiques, didactiques et technologiques. La recherche decrit la structure des differentes parties composant le simulateur. L'architecture de celui-ci est construite autour d'une unite centrale, la "Principale", dont les liens et les ramifications avec les autres unites confere a l'ensemble du simulateur sa souplesse et sa facilite d'utilisation. Le simulateur "Genetique", a l'etat de prototype, et la documentation qui lui est afferente ont ete soumis a deux mises a l'essai: l'une fonctionnelle, l'autre empirique. La mise a l'essai fonctionnelle, menee aupres d'un groupe d'enseignants experts, a permis d'identifier les lacunes du materiel elabore afin de lui apporter les reajustements qui s'imposaient. La mise a l'essai empirique, conduite par un groupe de onze (11) etudiants de niveau secondaire, avait pour but, d'une part, de tester la facilite d'utilisation du simulateur "Genetique" ainsi que les documents d'accompagnement et, d'autre part, de verifier si les participants retiraient des avantages pedagogiques de cet environnement. Trois techniques furent exploitees pour recolter les donnees de la mise a l'essai empirique. L'analyse des resultats a permis de faire un retour critique sur les productions concretes de cette recherche et d'apporter les modifications necessaires tant au simulateur qu'aux documents d'accompagnement. Cette analyse a permis egalement de conclure que notre simulateur interactif favorise une approche inductive permettant aux etudiants de s'approprier les lois probabilistes de Mendel. Enfin, la conclusion degage des pistes de recherches destinees aux etudes ulterieures, plus particulierement celles qui s'interessent a developper des simulateurs, afin d'integrer a ceux-ci des representations concretes et abstraites presentees en temps reel. Les disquettes du simulateur "Genetique" et les documents d'accompagnement sont annexes a la presente recherche.
Modélisation des charges d'espace dans les isolants solides par une analyse spectrale
NASA Astrophysics Data System (ADS)
Haas, V.; Scouarnec, Ch.; Franceschi, J. L.
1998-01-01
A mathematical method based on spectral algebra is developped for the thermal modulation method. These methods permit to measure the space charge distribution in solid insulators. The modelling presented permits to evaluate the performances and the limitations of the measurement method. Une linéarisation par l'algèbre spectrale a été développée dans une méthode de modulation thermique pour mesurer la distribution des charges électriques dans les isolants solides. La modélisation présentée permet d'évaluer les performances et les limites tant numériques que physiques de la méthode de mesure.
1986-06-01
D’INTENSITE 0 APPLIQUEE A LA PROPAGATION "ANORNALE" par D. Dion DEFENCE RESEARCH ESTABLISHMENT CENTRE DE RECHERCHES POUR LA DEFENSE VALCARTI ER 6- Tel: (418...faqon ils sont reli~s aux conditions atmosph~riques. Les ph~no- manes les plus importants A signaler sont les conduits et les "trous radio". En effet...6tant tr~s fr~quents en mer, 11 est d’int&rt pour la marine de rechercher des m~thodes simples permettant de les caract~riser. Des 6quations d’int
Chang, Man-Jau; Huang, Huey-Chun; Chang, Hsien-Cheh; Chang, Tsong-Min
2008-07-01
Retention of water in the stratum corneum of skin epidermis plays an important role in regulation of skin function. Loss of water may decline skin appearance gradually and lead to irregular skin disorders. The root extract of Lithospermum erythrorhizon (LES) is known for its various pharmacological activities. However, the potential skin care effect of LES is not clear. The aim of this study was to evaluate the moisturizing efficacy and skin barrier repairing activity of LES. For this study, 30 healthy Asian females (age 20-30) with healthy skin had applied the test emulsions twice daily over a period of 28 days. The skin properties were measured by skin bioengineering techniques. Our preliminary results indicated that LES show moisturizing effect on skin hydration in a time- and dose-dependent pattern, and the maximum increase in skin humidity was 11.77 +/- 1.18% for emulsion LES5.00. Particularly, LES-containing emulsions significantly improve skin barrier function by decreasing the value of transepidermal water loss (TEWL) in a time- and dose-dependent pattern, and the maximum decrease in TEWL value was 7.68 +/- 0.79% for emulsion LES5.00. Taken together, our data demonstrate that LES is more effective in increasing skin humidity and decreasing the TEWL values, indicating the potential skin care effects of LES.
Validating LES for Jet Aeroacoustics
NASA Technical Reports Server (NTRS)
Bridges, James
2011-01-01
Engineers charged with making jet aircraft quieter have long dreamed of being able to see exactly how turbulent eddies produce sound and this dream is now coming true with the advent of large eddy simulation (LES). Two obvious challenges remain: validating the LES codes at the resolution required to see the fluid-acoustic coupling, and the interpretation of the massive datasets that result in having dreams come true. This paper primarily addresses the former, the use of advanced experimental techniques such as particle image velocimetry (PIV) and Raman and Rayleigh scattering, to validate the computer codes and procedures used to create LES solutions. It also addresses the latter problem in discussing what are relevant measures critical for aeroacoustics that should be used in validating LES codes. These new diagnostic techniques deliver measurements and flow statistics of increasing sophistication and capability, but what of their accuracy? And what are the measures to be used in validation? This paper argues that the issue of accuracy be addressed by cross-facility and cross-disciplinary examination of modern datasets along with increased reporting of internal quality checks in PIV analysis. Further, it is argued that the appropriate validation metrics for aeroacoustic applications are increasingly complicated statistics that have been shown in aeroacoustic theory to be critical to flow-generated sound.
2010-08-01
des groupes de consultation pour déterminer l’effet des opérations communes sur la population locale. Ils ont établi des « mesures de rendement...fondées sur les relations avec les habitants et les résultats des groupes de consultation ainsi que des « mesures de production » basées sur la ...l’ethnographie de combat, et la recherche d’initié étranger peuvent aider à tracer les microcosmes sociaux dans un
NASA Astrophysics Data System (ADS)
Le Guet Tully, F.; Sadsaoud, H.; de La Noë, J.
2008-06-01
Ce chapitre analyse le contexte institutionnel français dans lequel naît la Carte du Ciel. Dans les années 1880, le régime républicain réorganise totalement la recherche astronomique. À Paris, l'instrumentation est totalement renouvelée sous l'impulsion de Maurice Loewy. En province, les efforts de décentralisation permettent un accroissement significatif des arsenaux techniques de Marseille et Toulouse, ainsi que l'édification des établissements de Besançon, Lyon et Bordeaux. À Alger, la station astronomique créée sous le second Empire est transformée en un observatoire particulièrement dynamique grâce à l'implication de Charles Trépied. Ce panorama des établissements astronomiques permet de cerner les enjeux institutionnels et scientifiques qui concourent à l'engagement des observatoires de Paris, Bordeaux, Toulouse et Alger dans l'entreprise de la Carte du Ciel.
2000-05-01
gage en vol de rdponses de jauges de contraintes en responses in maneuver, illustrated by an example manoeuvre, illustrd par un exemple issu de la coming...sous ddrapage, ... , braquages gouvernes,..) la forme: -Les mesures sont directement les rkponses de - minimiser Z = Q(k - Xj tb) 2 jauges de...3, la rdponse - les facteurs de ponddration des mesures, fli ou incidence de l’avion, la rdponse de la jauge plus ou momns subjectifs, sont remplacds
Methodes d'amas quantiques a temperature finie appliquees au modele de Hubbard
NASA Astrophysics Data System (ADS)
Plouffe, Dany
Depuis leur decouverte dans les annees 80, les supraconducteurs a haute temperature critique ont suscite beaucoup d'interet en physique du solide. Comprendre l'origine des phases observees dans ces materiaux, telle la supraconductivite, est l'un des grands defis de la physique theorique du solide des 25 dernieres annees. L'un des mecanismes pressentis pour expliquer ces phenomenes est la forte interaction electron-electron. Le modele de Hubbard est l'un des modeles les plus simples pour tenir compte de ces interactions. Malgre la simplicite apparente de ce modele, certaines de ses caracteristiques, dont son diagramme de phase, ne sont toujours pas bien etablies, et ce malgre plusieurs avancements theoriques dans les dernieres annees. Cette etude se consacre a faire une analyse de methodes numeriques permettant de calculer diverses proprietes du modele de Hubbard en fonction de la temperature. Nous decrivons des methodes (la VCA et la CPT) qui permettent de calculer approximativement la fonction de Green a temperature finie sur un systeme infini a partir de la fonction de Green calculee sur un amas de taille finie. Pour calculer ces fonctions de Green, nous allons utiliser des methodes permettant de reduire considerablement les efforts numeriques necessaires pour les calculs des moyennes thermodynamiques, en reduisant considerablement l'espace des etats a considerer dans ces moyennes. Bien que cette etude vise d'abord a developper des methodes d'amas pour resoudre le modele de Hubbard a temperature finie de facon generale ainsi qu'a etudier les proprietes de base de ce modele, nous allons l'appliquer a des conditions qui s'approchent de supraconducteurs a haute temperature critique. Les methodes presentees dans cette etude permettent de tracer un diagramme de phase pour l'antiferromagnetisme et la supraconductivite qui presentent plusieurs similarites avec celui des supraconducteurs a haute temperature. Mots-cles : modele de Hubbard, thermodynamique, antiferromagnetisme, supraconductivite, methodes numeriques, larges matrices
2000-03-01
FRIENDLY DR ENEMY PLOY OFOR DEGSRADING, ENEUTALY IG DEGRA E,’ EUTRALIE, OR DESTR Y concepts, procedures, and techniques that apply generically to CMA...Association of Old Crows, September 1984 Price, Alfred, "The History of Electronic Warfare," Volume 2, Association of Old Crows, October 1989 Claxton, John...Canada Les demandes de documents RTO ou AGARD doivent comporter la denomination "RTO" ou "AGARD" selon le cas, suivie du numdro de s~rie (par exemple
DOE Office of Scientific and Technical Information (OSTI.GOV)
Pluquet, Alain
Cette théetudie les techniques d'identication de l'electron dans l'experience D0 au laboratoire Fermi pres de Chicago Le premier chapitre rappelle quelques unes des motivations physiques de l'experience physique des jets physique electrofaible physique du quark top Le detecteur D0 est decrit en details dans le second chapitre Le troisieme cha pitre etudie les algorithmes didentication de lelectron trigger reconstruction ltres et leurs performances Le quatrieme chapitre est consacre au detecteur a radiation de transition TRD construit par le Departement dAstrophysique Physique des Particules Physique Nucleaire et dInstrumentation Associee de Saclay il presente son principe sa calibration et ses performances Ennmore » le dernier chapitre decrit la methode mise au point pour lanalyse des donnees avec le TRD et illustre son emploi sur quelques exemples jets simulant des electrons recherche du quark top« less
Turbulence in Electrically Conducting Fluids Driven by Rotating and Travelling Magnetic Fields
NASA Astrophysics Data System (ADS)
Stiller, Jörg; Koal, Kristina; Blackburn, Hugh M.
The turbulent flow driven by rotating and travelling magnetic fields in a closed cylinder is investigated by means of direct numerical simulations (DNS) and large eddy simulations (LES). Our model is based on the low-induction, low-frequency approximation and employs a spectral-element/Fourier method for discretisation. The spectral vanishing viscosity (SVV) technique was adopted for the LES. The study provides first insights into the developed turbulent flow. In the RMF case, Taylor-Görtler vortices remain the dominant turbulence mechanism, as already in the transitional regime. In contrast to previous predictions we found no evidence that the vortices are confined closer to the wall for higher forcing. In the TMF more than 50 percent of the kinetic energy is bound to the turbulent fluctuations, which renders this field an interesting candidate for mixing applications.
Hybrid RANS-LES using high order numerical methods
NASA Astrophysics Data System (ADS)
Henry de Frahan, Marc; Yellapantula, Shashank; Vijayakumar, Ganesh; Knaus, Robert; Sprague, Michael
2017-11-01
Understanding the impact of wind turbine wake dynamics on downstream turbines is particularly important for the design of efficient wind farms. Due to their tractable computational cost, hybrid RANS/LES models are an attractive framework for simulating separation flows such as the wake dynamics behind a wind turbine. High-order numerical methods can be computationally efficient and provide increased accuracy in simulating complex flows. In the context of LES, high-order numerical methods have shown some success in predictions of turbulent flows. However, the specifics of hybrid RANS-LES models, including the transition region between both modeling frameworks, pose unique challenges for high-order numerical methods. In this work, we study the effect of increasing the order of accuracy of the numerical scheme in simulations of canonical turbulent flows using RANS, LES, and hybrid RANS-LES models. We describe the interactions between filtering, model transition, and order of accuracy and their effect on turbulence quantities such as kinetic energy spectra, boundary layer evolution, and dissipation rate. This work was funded by the U.S. Department of Energy, Exascale Computing Project, under Contract No. DE-AC36-08-GO28308 with the National Renewable Energy Laboratory.
NASA Astrophysics Data System (ADS)
Valentin, Olivier
Selon l'Organisation mondiale de la sante, le nombre de travailleurs exposes quotidiennement a des niveaux de bruit prejudiciables a leur audition est passe de 120 millions en 1995 a 250 millions en 2004. Meme si la reduction du bruit a la source devrait etre toujours privilegiee, la solution largement utilisee pour lutter contre le bruit au travail reste la protection auditive individuelle. Malheureusement, le port des protecteurs auditifs n'est pas toujours respecte par les travailleurs car il est difficile de fournir un protecteur auditif dont le niveau d'attenuation effective est approprie a l'environnement de travail d'un individu. D'autre part, l'occlusion du canal auditif induit une modification de la perception de la parole, ce qui cree un inconfort incitant les travailleurs a retirer leurs protecteurs. Ces deux problemes existent parce que les methodes actuelles de mesure de l'effet d'occlusion et de l'attenuation sont limitees. Les mesures objectives basees sur des mesures microphoniques intra-auriculaires ne tiennent pas compte de la transmission directe du son a la cochlee par conduction osseuse. Les mesures subjectives au seuil de l'audition sont biaisees a cause de l'effet de masquage aux basses frequences induit par le bruit physiologique. L'objectif principal de ce travail de these de doctorat est d'ameliorer la mesure de l'attenuation et de l'effet d'occlusion des protecteurs auditifs intra-auriculaires. L'approche generale consiste a : (i) verifier s'il est possible de mesurer l'attenuation des protecteurs auditifs grâce au recueil des potentiels evoques stationnaires et multiples (PEASM) avec et sans protecteur auditif (protocole 1), (ii) adapter cette methodologie pour mesurer l'effet d'occlusion induit par le port de protecteur auditifs intra-auriculaires (protocole 2), et (iii) valider chaque protocole par l'intermediaire de mesures realisees sur sujets humains. Les resultats du protocole 1 demontrent que les PEASM peuvent etre utilises pour mesurer objectivement l'attenuation des protecteurs auditifs : les resultats obtenus a 500 Hz et 1 kHz demontrent que l'attenuation mesuree a partir des PEASM est relativement equivalente a l'attenuation calculee par la methode REAT, ce qui est en accord avec ce qui etait attendu puisque l'effet de masquage induit par le bruit physiologique aux basses frequences est relativement negligeable a ces frequences. Les resultats du protocole 2 demontrent que les PEASM peuvent etre egalement utilises pour mesurer objectivement l'effet d'occlusion induit par le port de protecteurs auditifs : l'effet d'occlusion mesure a partir des PEASM a 500 Hz est plus eleve que celui calcule par l'intermediaire de la methode subjective au seuil de l'audition, ce qui est en accord avec ce qui etait attendu puisqu'en dessous d'1 kHz, l'effet de masquage induit par le bruit physiologique aux basses frequences est source de biais pour les resultats obtenus par la methode subjective car il y a surestimation des seuils de l'audition en basse frequence lors du port de protecteurs auditifs. Toutefois, les resultats obtenus a 250 Hz sont en contradiction avec les resultats attendus. D'un point de vue scientifique, ce travail de these a permis de realiser deux nouvelles methodes innovantes pour mesurer objectivement l'attenuation et l'effet d'occlusion des protecteurs auditifs intra-auriculaires par electroencephalographie. D'un point de vue sante et securite au travail, les avancees presentees dans cette these pourraient aider a concevoir des protecteurs auditifs plus performants. En effet, si ces deux nouvelles methodes objectives etaient normalisees pour caracteriser les protecteurs auditifs intra-auriculaires, elles pourraient permettre : (i) de mieux apprehender l'efficacite reelle de la protection auditive et (ii) de fournir une mesure de l'inconfort induit par l'occlusion du canal auditif lors du port de protecteurs. Fournir un protecteur auditif dont l'efficacite reelle est adaptee a l'environnement de travail et dont le confort est optimise permettrait, sur le long terme, d'ameliorer les conditions des travailleurs en minimisant le risque lie a la degradation de leur appareil auditif. Les perspectives de travail proposees a la fin de cette these consistent principalement a : (i) exploiter ces deux methodes avec une gamme frequentielle plus etendue, (ii) explorer la variabilite intra-individuelle de chacune des methodes, (iii) comparer les resultats des deux methodes avec ceux obtenus par l'intermediaire de la methode "Microphone in Real Ear" (MIRE) et (iv) verifier la compatibilite de chacune des methodes avec tous les types de protecteurs auditifs. De plus, pour la methode de mesure de l'effet d'occlusion utilisant les PEASM, une etude complementaire est necessaire pour lever la contradiction observee a 250 Hz.
Status of turbulence modeling for hypersonic propulsion flowpaths
NASA Astrophysics Data System (ADS)
Georgiadis, Nicholas J.; Yoder, Dennis A.; Vyas, Manan A.; Engblom, William A.
2014-06-01
This report provides an assessment of current turbulent flow calculation methods for hypersonic propulsion flowpaths, particularly the scramjet engine. Emphasis is placed on Reynolds-averaged Navier-Stokes (RANS) methods, but some discussion of newer methods such as large eddy simulation (LES) is also provided. The report is organized by considering technical issues throughout the scramjet-powered vehicle flowpath, including laminar-to-turbulent boundary layer transition, shock wave/turbulent boundary layer interactions, scalar transport modeling (specifically the significance of turbulent Prandtl and Schmidt numbers), and compressible mixing. Unit problems are primarily used to conduct the assessment. In the combustor, results from calculations of a direct connect supersonic combustion experiment are also used to address the effects of turbulence model selection and in particular settings for the turbulent Prandtl and Schmidt numbers. It is concluded that RANS turbulence modeling shortfalls are still a major limitation to the accuracy of hypersonic propulsion simulations, whether considering individual components or an overall system. Newer methods such as LES-based techniques may be promising, but are not yet at a maturity to be used routinely by the hypersonic propulsion community. The need for fundamental experiments to provide data for turbulence model development and validation is discussed.
Pratique anesthésique à Lubumbashi: indications, types de chirurgie et types de patient
Kabey, Alain Kabey a; Lubanga, Muyumba; Tshamba, Mundongo; Kaut, Mukeng; Kakambal, Kaij; Muteya, Manika; Manzanza, Kilembe; Kalal, Kapend
2015-01-01
Introduction Cette étude a pour objectif de décrire la pratique anesthésique dans un pays à faible revenu et où le plateau technique anesthésique est moins équipé. Méthodes Une étude descriptive transversale a été menée durant l'année 2013. L'enquête a concerné les pratiques anesthésiques, les indications chirurgicales et les caractéristiques des malades. L'encodage et l'analyse des données ont été réalisées grâce aux logiciels Epi Info 3.5.3 et Excel 2010. Résultats Nous avons enregistré 2358 patients dont l’âge médian était de 29 + 15 ans, avec 81,5% âgés de 11 à 50 ans. Parmi eux, 67,3% des malades étaient du sexe féminin. Dans ensemble, 62,5% de ces patients étaient pris en charge pour les interventions programmées. L’évaluation du risque anesthésique a montré que 91,9% des patients étaient de la classe ASA I et II. La chirurgie la plus pratiquée était viscérale (46,7%) suivie de la chirurgie gynéco-obstétricale (29,2%). Les différents types d'anesthésie étaient les suivants: anesthésie générale (87,6%), locorégionale (11,8%) et combinée (0,6%). Conclusion La pratique anesthésique dans la population d’étude était dominée par l'anesthésie générale. Les malades étaient au trois quart de sexe féminin et de la classe ASA I et II. Les résultats de cette étude indiquent la nécessité d’évaluer l'issue de cette pratique. La pratique anesthésique à Lubumbashi est tributaire du plateau technique, des compétences du personnel et de l'acceptabilité du type d'anesthésie par les patients. PMID:26523180
Causes and treatments of achalasia, and primary disorders of the esophageal body.
Felix, Valter Nilton; DeVault, Kenneth; Penagini, Roberto; Elvevi, Alessandra; Swanstrom, Lee; Wassenaar, Eelco; Crespin, Oscar M; Pellegrini, Carlos A; Wong, Roy
2013-10-01
The following on achalasia and disorders of the esophageal body includes commentaries on controversies regarding whether patients with complete lower esophageal sphincter (LES) relaxation can be considered to exhibit early achalasia; the roles of different mucle components of the LES in achalasia; sensory neural pathways impaired in achalasia; indications for peroral endoscopic myotomy and advantages of the technique over laparoscopic and thorascopic myotomy; factors contributing to the success of surgical therapy for achalasia; modifications to the classification of esophageal body primary motility disorders in the advent of high-resolution manometry (HRM); analysis of the LES in differentiating between achalasia and diffuse esophageal spasm (DES); and appropriate treatment for DES, nutcracker esophagus (NE), and hypertensive LES (HTLES). © 2013 New York Academy of Sciences.
Zhang, Bo; Song, Yunmei; Wang, Tianqi; Yang, Shaomei; Zhang, Jing; Liu, Yongjun; Zhang, Na; Garg, Sanjay
2017-01-01
Combinational nanomedicine is becoming a topic of much interest in cancer therapy, although its translation into the clinic remains extremely challenging. One of the main obstacles lies in the difficulty to efficiently co-deliver immiscible hydrophilic/hydrophobic drugs into tumor sites. The aim of this study was to develop co-loaded lipid emulsions (LEs) to co-deliver immiscible hydrophilic/hydrophobic drugs to improve cancer therapy and to explore the co-delivery abilities between co-loaded LEs and mixture formulation. Multiple oxaliplatin/irinotecan drug–phospholipid complexes (DPCs) were formulated. Co-loaded LEs were prepared using DPC technique to efficiently encapsulate both drugs. Co-loaded LEs exhibited uniform particle size distribution, desired stability and synchronous release profiles in both drugs. Co-loaded LEs demonstrated superior anti-tumor activity compared with the simple solution mixture and the mixture of single-loaded LEs. Furthermore, co-loaded nanocarriers could co-deliver both drugs into the same cells more efficiently and exhibited the optimized synergistic effect. These results indicate that co-loaded LEs could be a desired formulation for enhanced cancer therapy with potential application prospects. The comparison between co-loaded LEs and mixture formulation is significant for pharmaceutical designs aimed at co-delivery of multiple drugs. PMID:28435264
Zhang, Bo; Song, Yunmei; Wang, Tianqi; Yang, Shaomei; Zhang, Jing; Liu, Yongjun; Zhang, Na; Garg, Sanjay
2017-01-01
Combinational nanomedicine is becoming a topic of much interest in cancer therapy, although its translation into the clinic remains extremely challenging. One of the main obstacles lies in the difficulty to efficiently co-deliver immiscible hydrophilic/hydrophobic drugs into tumor sites. The aim of this study was to develop co-loaded lipid emulsions (LEs) to co-deliver immiscible hydrophilic/hydrophobic drugs to improve cancer therapy and to explore the co-delivery abilities between co-loaded LEs and mixture formulation. Multiple oxaliplatin/irinotecan drug-phospholipid complexes (DPCs) were formulated. Co-loaded LEs were prepared using DPC technique to efficiently encapsulate both drugs. Co-loaded LEs exhibited uniform particle size distribution, desired stability and synchronous release profiles in both drugs. Co-loaded LEs demonstrated superior anti-tumor activity compared with the simple solution mixture and the mixture of single-loaded LEs. Furthermore, co-loaded nanocarriers could co-deliver both drugs into the same cells more efficiently and exhibited the optimized synergistic effect. These results indicate that co-loaded LEs could be a desired formulation for enhanced cancer therapy with potential application prospects. The comparison between co-loaded LEs and mixture formulation is significant for pharmaceutical designs aimed at co-delivery of multiple drugs.
La plastie en rail dans le traitement des brides rétractiles du creux poplite
Achbouk, A.; Khales, A.; Bourra, K.; Tourabi, K.; Ababou, K.; Ihrai, H.
2011-01-01
Summary Les Auteurs décrivent le cas d’un patient âgé de 45 ans atteint de brûlures thermiques par flammes suite à la déflagration d’une bonbonne de gaz. Les lésions initiales intéressaient les quatre membres (en particulier, le genou) et le tronc. La prise en charge initiale a consisté en une excision-greffe précoce des membres. L’évolution a été marquée par la survenue de cicatrices hypertrophiques au niveau des zones non greffées et à la bordure de la greffe ainsi que la survenue de brides rétractiles. Devant l’handicap fonctionnel engendré par la bride à cause de la limitation importante de l’extension, le patient a été admis pour cure chirurgicale. Grâce à la technique en rail décrite, le patient a pu récupérer une fonction normale du genou. Les suites ont été simples avec une durée d’hospitalisation d’un mois. Le résultat esthétique est relativement satisfaisant. La technique en rail est un moyen parmi l’arsenal thérapeutique qui permet de traiter la bride du creux poplité. Sa simplicité, sa facilité technique et son résultat satisfaisant ainsi que ses suites simples permettent de la rendre une technique très prisée dans le traitement de ce type de bride. PMID:21991240
NASA Astrophysics Data System (ADS)
Conrad, Heloise
L'evolution technologique des composants electroniques entraine des problemes de gestion de l'obsolescence dans le secteur aeronautique. Les systemes aeronautiques ont en effet des durees de vie nettement superieures aux composants qu'ils contiennent. Cette difference de duree de vie et les normes strictes propres a l'aeronautique obligent les constructeurs a mettre en place une gestion efficace de l'obsolescence pour eviter les couts supplementaires de maintenance et de retards. De plus, a cause des faibles volumes de production qu'ils representent, les constructeurs aeronautiques n'ont que peu de controle sur leur chaine d'approvisionnement. La litterature offre beaucoup d'etudes sur l'obsolescence, appliquees a l'aeronautique. Les auteurs recommandent de mettre en place des processus de gestion et de prevision de l'obsolescence, et de construire des relations de collaboration avec leurs fournisseurs, qui ont plus de visibilite sur la chaine d'approvisionnement. Cette recherche presente d'abord l'elaboration d'une liste de criteres de bonne gestion de l'obsolescence, ainsi que la creation d'une methode de generation de plan de transition et de mise en oeuvre de l'amelioration de la gestion et de la prevision de l'obsolescence pour un cas concret. La methode est creee pour un manufacturier aeronautique ne possedant pas de systemes de gestion proactive ou de prevision de l'obsolescence. La creation de la methode s'est faite en suivant la methodologie de la science de la conception, en impliquant les employes concernes par la gestion de l'obsolescence. La methode comporte douze (12) etapes, amenant au developpement du plan de transition et de mise en oeuvre. Pour applique la methode, divers entretiens individuels et de groupe ont ete realises. Ces entretiens ont aussi permis de lister les criteres de gestion et de prevision efficaces de l'obsolescence. Cette liste a ete comparee avec les criteres issus de la litterature. En respect des besoins enonces par les employes et des conseils d'un industriel expert en obsolescence des composants avioniques, le plan de transition et de mise en oeuvre cree se divise en trois (3) phases : 1) amelioration de la gestion de l'obsolescence, 2) amelioration de la prevision de l'obsolescence et 3) gestion des fournisseurs. Meme si le plan de transition n'a pas ete applique dans l'entreprise partenaire, la methode et le plan cree ont ete approuves par les employes et utilisateurs.
L'effet des deformations plastiques severes sur les proprietes d'hydruration du magnesium
NASA Astrophysics Data System (ADS)
Lang, Julien
Le travail de recherche effectue durant mon projet de maitrise en physique a l'Universite du Quebec a Trois-Rivieres dans les laboratoires de l'Institut de Recherche sur l'Hydrogene etait de comparer l'effet du laminage a froid de la poudre de MgH2 avec celui du broyage mecanique. Nous avons etudie cette nouvelle technique en utilisant un laminoir vertical concu specialement pour laminer de la poudre. Nous avons lamine la poudre de MgH2 5, 25, 50 et 100 fois. La comparaison de la morphologie de la poudre de MgH 2 telle que recu du manufacturier et broye mecaniquement pendant 30 minutes avec celle de la poudre laminee ete faite a l'aide d'un microscope electronique a balayage. Nous avons par la suite mesure les proprietes de sorption d'hydrogene grace un appareil PCT de type Sievert. Nous avons aussi determine la structure cristalline par diffraction de rayons X. A partir de ces resultats, nous avons constate que le nombre optimal de laminages est de cinq et a les caracteristiques d'absorption/desorption d'hydrogene similaires a un broyage mecanique de 30 minutes. Nous avons aussi utilise les courbes de cinetiques d'absorption et de desorption d'hydrogene pour calculer l'etape limitative dans les reactions de sorption des echantillons lamines. Comme cinq laminages se font en environ 10 secondes, on voit que le laminage a froid est une technique plus interessante industriellement que le broyage mecanique a cause de l'important gain en temps et en energie.
An LES-PBE-PDF approach for modeling particle formation in turbulent reacting flows
NASA Astrophysics Data System (ADS)
Sewerin, Fabian; Rigopoulos, Stelios
2017-10-01
Many chemical and environmental processes involve the formation of a polydispersed particulate phase in a turbulent carrier flow. Frequently, the immersed particles are characterized by an intrinsic property such as the particle size, and the distribution of this property across a sample population is taken as an indicator for the quality of the particulate product or its environmental impact. In the present article, we propose a comprehensive model and an efficient numerical solution scheme for predicting the evolution of the property distribution associated with a polydispersed particulate phase forming in a turbulent reacting flow. Here, the particulate phase is described in terms of the particle number density whose evolution in both physical and particle property space is governed by the population balance equation (PBE). Based on the concept of large eddy simulation (LES), we augment the existing LES-transported probability density function (PDF) approach for fluid phase scalars by the particle number density and obtain a modeled evolution equation for the filtered PDF associated with the instantaneous fluid composition and particle property distribution. This LES-PBE-PDF approach allows us to predict the LES-filtered fluid composition and particle property distribution at each spatial location and point in time without any restriction on the chemical or particle formation kinetics. In view of a numerical solution, we apply the method of Eulerian stochastic fields, invoking an explicit adaptive grid technique in order to discretize the stochastic field equation for the number density in particle property space. In this way, sharp moving features of the particle property distribution can be accurately resolved at a significantly reduced computational cost. As a test case, we consider the condensation of an aerosol in a developed turbulent mixing layer. Our investigation not only demonstrates the predictive capabilities of the LES-PBE-PDF model but also indicates the computational efficiency of the numerical solution scheme.
NASA Astrophysics Data System (ADS)
Fareh, Fouad
Le moulage par injection basse pression des poudres metalliques est une technique de fabrication qui permet de fabriquer des pieces possedant la complexite des pieces coulees mais avec les proprietes mecaniques des pieces corroyees. Cependant, l'optimisation des etapes de deliantage et de frittage a ete jusqu'a maintenant effectuee a l'aide de melange pour lesquels la moulabilite optimale n'a pas encore ete demontree. Ainsi, la comprehension des proprietes rheologiques et de la segregation des melanges est tres limitee et cela presente le point faible du processus de LPIM. L'objectif de ce projet de recherche etait de caracteriser l'influence des liants sur le comportement rheologique des melanges en mesurant la viscosite et la segregation des melanges faible viscosite utilises dans le procede LPIM. Afin d'atteindre cet objectif, des essais rheologiques et thermogravimetriques ont ete conduits sur 12 melanges. Ces melanges ont ete prepares a base de poudre d'Inconel 718 de forme spherique (chargement solide constant a 60%) et de cires, d'agents surfactants ou epaississants. Les essais rheologiques ont ete utilises entre autre pour calculer l'indice d'injectabilite ?STV des melanges, tandis que les essais thermogravimetriques ont permis d'evaluer precisement la segregation des poudres dans les melanges. Il a ete demontre que les trois (3) melanges contenant de la cire de paraffine et de l'acide stearique presentent des indices alpha STV plus eleves qui sont avantageux pour le moulage par injection des poudres metalliques (MIM), mais segregent beaucoup trop pour que la piece fabriquee produise de bonnes caracteristiques mecaniques. A l'oppose, le melange contenant de la cire de paraffine et de l'ethylene-vinyle acetate ainsi que le melange contenant seulement de la cire de carnauba segregent peu voire pas du tout, mais possedent de tres faibles indices alphaSTV : ils sont donc difficilement injectables. Le meilleur compromis semble donc etre les melanges contenant de la cire (de paraffine, d'abeille et de carnauba) et de faible teneur en acide stearique et en ethylene-vinyle acetate. Par ailleurs, les lois physiques preexistantes ont permis de confirmer les resultats des essais rheologiques et thermogravimetriques, mais aussi de mettre en evidence l'influence de la segregation sur les proprietes rheologiques des melanges. Ces essais ont aussi montre l'effet de constituants de liant et du temps passe a l'etat fondu sur l'intensite de la segregation dans les melanges. Les melanges contenants de l'acide stearique segregent rapidement. La caracterisation des melanges developpes pour le moulage basse pression des poudres metalliques doit etre obtenue a l'aide d'une methode de courte duree pour eviter la segregation et de mesurer precisement l'aptitude a l'ecoulement de ces melanges.
NASA Astrophysics Data System (ADS)
Komen, E. M. J.; Camilo, L. H.; Shams, A.; Geurts, B. J.; Koren, B.
2017-09-01
LES for industrial applications with complex geometries is mostly characterised by: a) a finite volume CFD method using a non-staggered arrangement of the flow variables and second order accurate spatial and temporal discretisation schemes, b) an implicit top-hat filter, where the filter length is equal to the local computational cell size, and c) eddy-viscosity type LES models. LES based on these three main characteristics is indicated as industrial LES in this paper. It becomes increasingly clear that the numerical dissipation in CFD codes typically used in industrial applications with complex geometries may inhibit the predictive capabilities of explicit LES. Therefore, there is a need to quantify the numerical dissipation rate in such CFD codes. In this paper, we quantify the numerical dissipation rate in physical space based on an analysis of the transport equation for the mean turbulent kinetic energy. Using this method, we quantify the numerical dissipation rate in a quasi-Direct Numerical Simulation (DNS) and in under-resolved DNS of, as a basic demonstration case, fully-developed turbulent channel flow. With quasi-DNS, we indicate a DNS performed using a second order accurate finite volume method typically used in industrial applications. Furthermore, we determine and explain the trends in the performance of industrial LES for fully-developed turbulent channel flow for four different Reynolds numbers for three different LES mesh resolutions. The presented explanation of the mechanisms behind the observed trends is based on an analysis of the turbulent kinetic energy budgets. The presented quantitative analyses demonstrate that the numerical errors in the industrial LES computations of the considered turbulent channel flows result in a net numerical dissipation rate which is larger than the subgrid-scale dissipation rate. No new computational methods are presented in this paper. Instead, the main new elements in this paper are our detailed quantification method for the numerical dissipation rate, the application of this method to a quasi-DNS and under-resolved DNS of fully-developed turbulent channel flow, and the explanation of the effects of the numerical dissipation on the observed trends in the performance of industrial LES for fully-developed turbulent channel flows.
A unified RANS–LES model: Computational development, accuracy and cost
DOE Office of Scientific and Technical Information (OSTI.GOV)
Gopalan, Harish, E-mail: hgopalan@uwyo.edu; Heinz, Stefan, E-mail: heinz@uwyo.edu; Stöllinger, Michael K., E-mail: MStoell@uwyo.edu
2013-09-15
Large eddy simulation (LES) is computationally extremely expensive for the investigation of wall-bounded turbulent flows at high Reynolds numbers. A way to reduce the computational cost of LES by orders of magnitude is to combine LES equations with Reynolds-averaged Navier–Stokes (RANS) equations used in the near-wall region. A large variety of such hybrid RANS–LES methods are currently in use such that there is the question of which hybrid RANS-LES method represents the optimal approach. The properties of an optimal hybrid RANS–LES model are formulated here by taking reference to fundamental properties of fluid flow equations. It is shown that unifiedmore » RANS–LES models derived from an underlying stochastic turbulence model have the properties of optimal hybrid RANS–LES models. The rest of the paper is organized in two parts. First, a priori and a posteriori analyses of channel flow data are used to find the optimal computational formulation of the theoretically derived unified RANS–LES model and to show that this computational model, which is referred to as linear unified model (LUM), does also have all the properties of an optimal hybrid RANS–LES model. Second, a posteriori analyses of channel flow data are used to study the accuracy and cost features of the LUM. The following conclusions are obtained. (i) Compared to RANS, which require evidence for their predictions, the LUM has the significant advantage that the quality of predictions is relatively independent of the RANS model applied. (ii) Compared to LES, the significant advantage of the LUM is a cost reduction of high-Reynolds number simulations by a factor of 0.07Re{sup 0.46}. For coarse grids, the LUM has a significant accuracy advantage over corresponding LES. (iii) Compared to other usually applied hybrid RANS–LES models, it is shown that the LUM provides significantly improved predictions.« less
2010-12-01
la Reine (en droit du Canada), telle que représentée par le ministre de la ...scénarios sont essentiels pratiquement pour tous les aspects de la Sureté et de la sécurité publique et de la gestion des urgences. Tous les utilisateurs...création de scénarios de planification du Programme technique de sécurité publique (PTSP) soumis vise à aider une gamme d’intervenants, à la fois
NASA Astrophysics Data System (ADS)
Pollender-Moreau, Olivier
Ce document présente, dans le cadre d'un contexte conceptuel, une méthode d'enchaînement servant à faire le lien entre les différentes étapes qui permettent de réaliser la simulation d'un aéronef à partir de ses données géométriques et de ses propriétés massiques. En utilisant le cas de l'avion d'affaires Hawker 800XP de la compagnie Hawker Beechcraft, on démontre, via des données, un processus de traitement par lots et une plate-forme de simulation, comment (1) modéliser la géométrie d'un aéronef en plusieurs surfaces, (2) calculer les forces aérodynamiques selon une technique connue sous le nom de
Design optimization using adjoint of Long-time LES for the trailing edge of a transonic turbine vane
NASA Astrophysics Data System (ADS)
Talnikar, Chaitanya; Wang, Qiqi
2017-11-01
Adjoint-based design optimization methods have been applied to low-fidelity simulation methods like Reynolds Averaged Navier-Stokes (RANS) and are useful for designing fluid machinery components. But to reliably capture the complex flow phenomena involved in turbomachinery, high fidelity simulations like large eddy simulation (LES) are required. Unfortunately due to the chaotic dynamics of turbulence, the unsteady adjoint method for LES diverges and produces incorrect gradients. Using a viscosity stabilized unsteady adjoint method developed for LES, the gradient can be obtained with reasonable accuracy. In this paper, design of the trailing edge of a gas turbine inlet guide vane is performed with the objective to reduce stagnation pressure loss and heat transfer over the surface of the vane. Slight changes in the shape of trailing edge can significantly impact these quantities by altering the boundary layer development process and separation points. The trailing edge is parameterized using a linear combination of 5 convex designs. Bayesian optimization is used as a global optimizer with the objective function evaluated from the LES and gradients obtained using the viscosity adjoint method. Results from the optimization, performed on the supercomputer Mira, are presented.
Method for altering the luminescence of a semiconductor
Barbour, J. Charles; Dimos, Duane B.
1999-01-01
A method is described for altering the luminescence of a light emitting semiconductor (LES) device. In particular, a method is described whereby a silicon LES device can be selectively irradiated with a radiation source effective for altering the intensity of luminescence of the irradiated region.
Chaibdraa, A; Bentakouk, M C
2008-03-31
Le pronostic des brûlures est souvent tributaire de complications infectieuses. Les objectifs de cette étude préliminaire rétrospective sont une évaluation de la flore microbienne et ses fluctuations selon la durée d'hospitalisation chez les patients du Centre des brûlés adultes de Annaba (Algérie). Ce travail porte sur 633 prélèvements microbiologiques positifs obtenus entre juin 2003 (inauguration du service) et décembre 2005. Selon le site de prélèvement la répartition est: cutané (78%), hémoculture (9%), prélèvement trachéo-bronchique (4%), uroculture (3%), sonde urinaire (3%), cathéter(3%). Les germes isolés sont: les staphylocoques (58%), les Pseudomonas (20%), le Candida albicans (5%), l'Acinetobacter (3%) et les autres germes (14%). Parmi les staphylocoques et les Pseudomonas recensés, respectivement 19% et 11% sont isolés la première semaine, contre 43% et 52% au-delà de 21 jours. Ces résultats confrontés aux données de la littérature confirment la prédominance du staphylocoque et du Pseudomonas. Le risque de contamination à partir des techniques invasives de réanimation est commun à toutes les équipes. La prolifération bactérienne est en relation avec la durée d'hospitalisation. Ces constatations doivent nous inciter à tirer bénéfice de l'expérience des autres services, en particulier sur les moyens, accessibles, de prévention de l'infection nosocomiale.
Hybrid LES/RANS simulation of a turbulent boundary layer over a rectangular cavity
NASA Astrophysics Data System (ADS)
Zhang, Qi; Haering, Sigfried; Oliver, Todd; Moser, Robert
2016-11-01
We report numerical investigations of a turbulent boundary layer over a rectangular cavity using a new hybrid RANS/LES model and the traditional Detached Eddy Simulation (DES). Our new hybrid method aims to address many of the shortcomings from the traditional DES. In the new method, RANS/LES blending controlled by a parameter that measures the ratio of the modeled subgrid kinetic energy to an estimate of the subgrid energy based on the resolved scales. The result is a hybrid method automatically resolves as much turbulence as can be supported by the grid and transitions appropriately from RANS to LES without the need for ad hoc delaying functions that are often required for DES. Further, the new model is designed to improve upon DES by accounting for the effects of grid anisotropy and inhomogeneity in the LES region. We present comparisons of the flow features inside the cavity and the pressure time history and spectra as computed using the new hybrid model and DES.
2000-05-01
Flexible Aircraft Control", held in Ottawa, Canada, 18-20 October 1999, and published in RTO MP-36. 9-2 INTRODUCTION 2. PRINCIPES DE LA METHODE DE CALCUL...constitude par un .les pressions sur la gouveme et le ensemble de 17 pouts de jauge , de 20 moment de charni~re sont surestimds accildrom~tes, de 5...les corrdlations calcul-essais 130 mm). des rdponses dc jauges de contraintes A 12 Le calcul, comme les essais, permettent chargements statiques. Cette
Des journees d'etudes sur les techniques d'expression (Days of Study on Expression Techniques)
ERIC Educational Resources Information Center
Roumette, Sylvain
1975-01-01
Describes the discussions which took place at a two-day conference on the instruction of expression techniques. Discussion centered around the role of linguistics, of the media, and of psychological factors. (Text is in French.) (AM)
Tsui, Ban C H; Li, Lisa X Y; Pillay, Jennifer J
2006-11-01
Presently, no standardized technique exists to monitor injection pressures during peripheral nerve blocks. Our objective was to determine if a compressed air injection technique, using an in vitro model based on Boyle's law and typical regional anesthesia equipment, could consistently maintain injection pressures below a 1293 mmHg level associated with clinically significant nerve injury. Injection pressures for 20 and 30 mL syringes with various needle sizes ( 18G, 20G, 21 G, 22G, and 24G) were measured in a closed system. A set volume of air was aspirated into a saline-filled syringe and then compressed and maintained at various percentages while pressure was measured. The needle was inserted into the injection port of a pressure sensor, which had attached extension tubing with an injection plug clamped "off". Using linear regression with all data points, the pressure value and 99% confidence interval (CI) at 50% air compression was estimated. The linearity of Boyle's law was demonstrated with a high correlation, r = 0.99, and a slope of 0.984 (99% CI: 0.967-1.001). The net pressure generated at 50% compression was estimated as 744.8 mmHg, with the 99% CI between 729.6 and 760.0 mmHg. The various syringe/needle combinations had similar results. By creating and maintaining syringe air compression at 50% or less, injection pressures will be substantially below the 1293 mmHg threshold considered to be an associated risk factor for clinically significant nerve injury. This technique may allow simple, real-time and objective monitoring during local anesthetic injections while inherently reducing injection speed. Présentement, aucune technique normalisée ne permet de vérifier les pressions d'injection pendant les blocages nerveux périphériques. Nous voulions vérifier si une technique d'injection d'air comprimé, utilisant un modèle in vitro fondé sur la loi de Boyle et du matériel propre à l'anesthésie régionale, pouvait maintenir avec régularité les pressions d'injection sous les 1293 mmHg, pression associée à une lésion nerveuse cliniquement significative. MéTHODE: Les pressions d'injection pour des seringues de 20 et 30 mL et diverses tailles d'aiguilles (18G, 20G, 21G, 22G et 24G) ont été mesurées dans un système fermé. Un volume défini d'air a été aspiré dans une seringue rempli de solution saline, puis comprimé et maintenu à des pourcentages variés pendant la mesure de la pression. L'aiguille a été insérée dans l'ouverture à injection d'un détecteur de pression muni d'une extension avec un bouchon d'injection en position fermée. La valeur de la pression et l'intervalle de confiance de 99 % (IC) pour une compression d'air à 50 % ont été évalués en utilisant une régression linéaire avec tous les points de données. RéSULTATS: La linéarité de la loi de Boyle a été démontrée avec une forte corrélation, r = 0,99 et une pente de 0,984 (IC de 99 % : 0,967-1,001) La pression nette générée sous une compression de 50% a été de 744,8 mmHg avec un IC de 99 % entre 729,6 et 760,0 mmHg. Les diverses combinaisons de seringues et d'aiguilles ont présenté des résultats similaires. En créant et en maintenant dans la seringue une compression d'air à 50% ou moins, les pressions d'injection seront dans l'ensemble sous le seuil des 1293 mmHg associé à un facteur de risque de lésion nerveuse cliniquement significative. Cette technique peut permettre une surveillance simple, objective et en temps réel pendant les injections d'anesthésiques locaux tout en réduisant fondamentalement la vitesse d'injection.
Status of Turbulence Modeling for Hypersonic Propulsion Flowpaths
NASA Technical Reports Server (NTRS)
Georgiadis, Nicholas J.; Yoder, Dennis A.; Vyas, Manan A.; Engblom, William A.
2012-01-01
This report provides an assessment of current turbulent flow calculation methods for hypersonic propulsion flowpaths, particularly the scramjet engine. Emphasis is placed on Reynolds-averaged Navier-Stokes (RANS) methods, but some discussion of newer meth- ods such as Large Eddy Simulation (LES) is also provided. The report is organized by considering technical issues throughout the scramjet-powered vehicle flowpath including laminar-to-turbulent boundary layer transition, shock wave / turbulent boundary layer interactions, scalar transport modeling (specifically the significance of turbulent Prandtl and Schmidt numbers) and compressible mixing. Unit problems are primarily used to conduct the assessment. In the combustor, results from calculations of a direct connect supersonic combustion experiment are also used to address the effects of turbulence model selection and in particular settings for the turbulent Prandtl and Schmidt numbers. It is concluded that RANS turbulence modeling shortfalls are still a major limitation to the accuracy of hypersonic propulsion simulations, whether considering individual components or an overall system. Newer methods such as LES-based techniques may be promising, but are not yet at a maturity to be used routinely by the hypersonic propulsion community. The need for fundamental experiments to provide data for turbulence model development and validation is discussed.
Method for altering the luminescence of a semiconductor
Barbour, J.C.; Dimos, D.B.
1999-01-12
A method is described for altering the luminescence of a light emitting semiconductor (LES) device. In particular, a method is described whereby a silicon LES device can be selectively irradiated with a radiation source effective for altering the intensity of luminescence of the irradiated region. 4 figs.
On the use of kinetic energy preserving DG-schemes for large eddy simulation
NASA Astrophysics Data System (ADS)
Flad, David; Gassner, Gregor
2017-12-01
Recently, element based high order methods such as Discontinuous Galerkin (DG) methods and the closely related flux reconstruction (FR) schemes have become popular for compressible large eddy simulation (LES). Element based high order methods with Riemann solver based interface numerical flux functions offer an interesting dispersion dissipation behavior for multi-scale problems: dispersion errors are very low for a broad range of scales, while dissipation errors are very low for well resolved scales and are very high for scales close to the Nyquist cutoff. In some sense, the inherent numerical dissipation caused by the interface Riemann solver acts as a filter of high frequency solution components. This observation motivates the trend that element based high order methods with Riemann solvers are used without an explicit LES model added. Only the high frequency type inherent dissipation caused by the Riemann solver at the element interfaces is used to account for the missing sub-grid scale dissipation. Due to under-resolution of vortical dominated structures typical for LES type setups, element based high order methods suffer from stability issues caused by aliasing errors of the non-linear flux terms. A very common strategy to fight these aliasing issues (and instabilities) is so-called polynomial de-aliasing, where interpolation is exchanged with projection based on an increased number of quadrature points. In this paper, we start with this common no-model or implicit LES (iLES) DG approach with polynomial de-aliasing and Riemann solver dissipation and review its capabilities and limitations. We find that the strategy gives excellent results, but only when the resolution is such, that about 40% of the dissipation is resolved. For more realistic, coarser resolutions used in classical LES e.g. of industrial applications, the iLES DG strategy becomes quite inaccurate. We show that there is no obvious fix to this strategy, as adding for instance a sub-grid-scale models on top doesn't change much or in worst case decreases the fidelity even more. Finally, the core of this work is a novel LES strategy based on split form DG methods that are kinetic energy preserving. The scheme offers excellent stability with full control over the amount and shape of the added artificial dissipation. This premise is the main idea of the work and we will assess the LES capabilities of the novel split form DG approach when applied to shock-free, moderate Mach number turbulence. We will demonstrate that the novel DG LES strategy offers similar accuracy as the iLES methodology for well resolved cases, but strongly increases fidelity in case of more realistic coarse resolutions.
Smoothed particle hydrodynamics method from a large eddy simulation perspective
NASA Astrophysics Data System (ADS)
Di Mascio, A.; Antuono, M.; Colagrossi, A.; Marrone, S.
2017-03-01
The Smoothed Particle Hydrodynamics (SPH) method, often used for the modelling of the Navier-Stokes equations by a meshless Lagrangian approach, is revisited from the point of view of Large Eddy Simulation (LES). To this aim, the LES filtering procedure is recast in a Lagrangian framework by defining a filter that moves with the positions of the fluid particles at the filtered velocity. It is shown that the SPH smoothing procedure can be reinterpreted as a sort of LES Lagrangian filtering, and that, besides the terms coming from the LES convolution, additional contributions (never accounted for in the SPH literature) appear in the equations when formulated in a filtered fashion. Appropriate closure formulas are derived for the additional terms and a preliminary numerical test is provided to show the main features of the proposed LES-SPH model.
Submarine landslides: advances and challenges
Locat, Jacques; Lee, Homa J.
2002-01-01
Due to the recent development of well-integrated surveying techniques of the sea floor, significant improvements were achieved in mapping and describing the morphology and architecture of submarine mass movements. Except for the occurrence of turbidity currents, the aquatic environment (marine and fresh water) experiences the same type of mass failure as that found on land. Submarine mass movements, however, can have run-out distances in excess of 100 km, so their impact on any offshore activity needs to be integrated over a wide area. This great mobility of submarinemass movements is still not very well understood, particularly for cases like the far-reaching debris flows mapped on the Mississippi Fan and the large submarine rock avalanches found around many volcanic islands. A major challenge ahead is the integration of mass movement mechanics in an appropriate evaluation of the hazard so that proper risk assessment methodologies can be developed and implemented for various human activities offshore, including the development of natural resources and the establishment of reliable communication corridors. Key words : submarine slides, hazards, risk assessment, morphology, mobility, tsunami. Le dveloppement rcent de techniques de levs hydrograhiques pour les fonds marins nous a permis d'atteindre une qualit ingale dans la cartographie et la description des glissements sous marins. l'exception des courants de turbidit, on retrouve dans le domaine aquatique les mmes types de mouvements de terrain que sur terre. Par contre, les glissements sous-marins peuvent atteindre des distances excdant 100 km de telle sorte que leur impact sur les activits offshore doit tre pris en compte sur degrandes tendues. La grande mobilit des glissements sous-marins n'est pas encore bien comprise, comme pour le cas des coules dedbris cartographies sur le cne du Mississippi ainsi que pour les grandes avalanches rocheuses sous-marines retrouves au pourtour des les volcaniques. Un dfi majeur auquel nous faisons face est celui de dterminer les alas associs aux divers types demouvements sous-marins ainsi que les risques associs l'activit humaine, telle que l'exploitation des ressources naturelles et l'tablissement de routes de communications fiables. Mots cls : glissements sous-marins, morphologie, ala, risque, mobilit, tsunami.
Modeles numeriques de la stimulation optique de neurones assistee par nanoparticules plasmoniques
NASA Astrophysics Data System (ADS)
Le Hir, Nicolas
La stimulation de neurones par laser emerge depuis plusieurs annees comme une alternative aux techniques plus traditionnelles de stimulation artificielle. Contrairement a celles-ci, la stimulation lumineuse ne necessite pas d'interagir directement avec le tissu organique, comme c'est le cas pour une stimulation par electrodes, et ne necessite pas de manipulation genetique comme c'est le cas pour les methodes optogenetiques. Plus recemment, la stimulation lumineuse de neurones assistee par nanoparticules a emerge comme un complement a la stimulation simplement lumineuse. L'utilisation de nanoparticules complementaires permet d'augmenter la precision spatiale du procede et de diminuer la fluence necessaire pour observer le phenomene. Ceci vient des proprietes d'interaction entre les nanoparticules et le faisceau laser, comme par exemple les proprietes d'absorption des nanoparticules. Deux phenomenes princpaux sont observes. Dans certains cas, il s'agit d'une depolarisation de la membrane, ou d'un potentiel d'action. Dans d'autres experiences, un influx de calcium vers l'interieur du neurone est detecte par une augmentation de la fluorescence d'une proteine sensible a la concentration calcique. Certaines stimulations sont globales, c'est a dire qu'une perturbation se propage a l'ensemble du neurone : c'est le cas d'un potentiel d'action. D'autres sont, au contraire, locales et ne se propagent pas a l'ensemble de la cellule. Si une stimulation lumineuse globale est rendue possible par des techniques relativement bien maitrisees a l'heure actuelle, comme l'optogenetique, une stimulation uniquement locale est plus difficile a realiser. Or, il semblerait que les methodes de stimulation lumineuse assistees par nanoparticules puissent, dans certaines conditions, offrir cette possibilite. Cela serait d'une grande aide pour conduire de nouvelles etudes sur le fonctionnement des neurones, en offrant de nouvelles possibilites experimentales en complement des possibilites actuelles. Cependant, le mecanisme physique a l'origine de la stimulation lumineuse de neurones, ainsi que celui a l'orgine de la stimulation lumineuse assistee par nanoparticules, n'est a ce jour pas totalement compris. Des hypotheses ont ete formulees concernant ce mecanisme : il pourrait etre photothermique, photomecanique, ou encore photochimique. Il se pourrait egalement que plusieurs mecanismes soient a l'oeuvre conjointement, etant donne la variete des observations. La litterature ne converge pas a ce sujet et l'existence d'un mecanisme commun aux differentes situations n'a pas ete demontree.
Improved Nozzle Testing Techniques in Transonic Flow
1975-10-01
axiale) et comporte un barreau dynamometrique equips de jauges de contrainte. La canne est solidaire d’un ensemble balance-bloc d’alimentation des...s a l’aide de capteurs produisant un signal ilectrique : Pressions : capteurs ä jauges Temperatures : thermocouples Chromel-Alumel - Efforts...barreau dynamometrique a jauges de contrainte. Les signaux eiectriques sont acquis et traites par la chaine automatique de la soufflerie. Les mesures
Dealing with spatial heterogeneity
NASA Astrophysics Data System (ADS)
Marsily, Gh.; Delay, F.; Gonçalvès, J.; Renard, Ph.; Teles, V.; Violette, S.
2005-03-01
Heterogeneity can be dealt with by defining homogeneous equivalent properties, known as averaging, or by trying to describe the spatial variability of the rock properties from geologic observations and local measurements. The techniques available for these descriptions are mostly continuous Geostatistical models, or discontinuous facies models such as the Boolean, Indicator or Gaussian-Threshold models and the Markov chain model. These facies models are better suited to treating issues of rock strata connectivity, e.g. buried high permeability channels or low permeability barriers, which greatly affect flow and, above all, transport in aquifers. Genetic models provide new ways to incorporate more geology into the facies description, an approach that has been well developed in the oil industry, but not enough in hydrogeology. The conclusion is that future work should be focused on improving the facies models, comparing them, and designing new in situ testing procedures (including geophysics) that would help identify the facies geometry and properties. A world-wide catalog of aquifer facies geometry and properties, which could combine site genesis and description with methods used to assess the system, would be of great value for practical applications. On peut aborder le problème de l'hétérogénéité en s'efforçant de définir une perméabilité équivalente homogène, par prise de moyenne, ou au contraire en décrivant la variation dans l'espace des propriétés des roches à partir des observations géologiques et des mesures locales. Les techniques disponibles pour une telle description sont soit continues, comme l'approche Géostatistique, soit discontinues, comme les modèles de faciès, Booléens, ou bien par Indicatrices ou Gaussiennes Seuillées, ou enfin Markoviens. Ces modèles de faciès sont mieux capables de prendre en compte la connectivité des strates géologiques, telles que les chenaux enfouis à forte perméabilité, ou au contraire les faciès fins de barrières de perméabilité, qui ont une influence importante sur les écoulement, et, plus encore, sur le transport. Les modè les génétiques récemment apparus ont la capacité de mieux incorporer dans les modèles de faciès les observations géologiques, chose courante dans l'industrie pétrolière, mais insuffisamment développée en hydrogéologie. On conclut que les travaux de recherche ultérieurs devraient s'attacher à développer les modèles de faciès, à les comparer entre eux, et à mettre au point de nouvelles méthodes d'essais in situ, comprenant les méthodes géophysiques, capables de reconnaître la géométrie et les propriétés des faciès. La constitution d'un catalogue mondial de la géométrie et des propriétés des faciès aquifères, ainsi que des méthodes de reconnaissance utilisées pour arriver à la détermination de ces systèmes, serait d'une grande importance pratique pour les applications. La heterogeneidad se puede manejar por medio de la definición de características homogéneas equivalentes, conocidas como promediar o tratando de describir la variabilidad espacial de las características de las rocas a partir de observaciones geológicas y medidas locales. Las técnicas disponibles para estas descripciones son generalmente modelos geoestadísticos continuos o modelos de facies discontinuos como los modelos Boolean, de Indicador o de umbral de Gaussian y el modelo de cadena de Markow. Estos modelos de facies son mas adecuados para tratar la conectvidad de estratos geológicos (por ejemplo canales de alta permeabilidad enterrados o barreras de baja permeabilidad que tienen efectos importantes sobre el flujo y especialmente sobre el transporte en los acuíferos. Los modelos genéticos ofrecen nuevas formas de incorporar más geología en las descripciones de facies, un enfoque que está bien desarollado en la industria petrolera, pero insuficientemente en la hidrogeología. Se concluye que los trabajos futuros deberían estar más enfocados en mejorar los modelos de facies, en establecer comparaciones y en diseñar nuevos procedimientos para pruebas in-situ (incuyendo la geofísica) que pueden ayudar a identificar la geometría de las facies y sus propiedades. Un catálogo global de la geometría de las facies de los acuíferos y sus características, que podría combinar la génesis de los sitios y descripciones de los métodos utilizados para evaluar el sistema, sería de gran valor para las aplicaciones prácticas.
Designing Hyperchaotic Cat Maps With Any Desired Number of Positive Lyapunov Exponents.
Hua, Zhongyun; Yi, Shuang; Zhou, Yicong; Li, Chengqing; Wu, Yue
2018-02-01
Generating chaotic maps with expected dynamics of users is a challenging topic. Utilizing the inherent relation between the Lyapunov exponents (LEs) of the Cat map and its associated Cat matrix, this paper proposes a simple but efficient method to construct an -dimensional ( -D) hyperchaotic Cat map (HCM) with any desired number of positive LEs. The method first generates two basic -D Cat matrices iteratively and then constructs the final -D Cat matrix by performing similarity transformation on one basic -D Cat matrix by the other. Given any number of positive LEs, it can generate an -D HCM with desired hyperchaotic complexity. Two illustrative examples of -D HCMs were constructed to show the effectiveness of the proposed method, and to verify the inherent relation between the LEs and Cat matrix. Theoretical analysis proves that the parameter space of the generated HCM is very large. Performance evaluations show that, compared with existing methods, the proposed method can construct -D HCMs with lower computation complexity and their outputs demonstrate strong randomness and complex ergodicity.
L'etude de l'InP et du GaP suite a l'implantation ionique de Mn et a un recuit thermique
NASA Astrophysics Data System (ADS)
Bucsa, Ioan Gigel
Cette these est dediee a l'etude des materiaux InMnP et GaMnP fabriques par implantation ionique et recuit thermique. Plus precisement nous avons investigue la possibilite de former par implantation ionique des materiaux homogenes (alliages) de InMnP et GaMnP contenant de 1 a 5 % atomiques de Mn qui seraient en etat ferromagnetique, pour des possibles applications dans la spintronique. Dans un premier chapitre introductif nous donnons les motivations de cette recherche et faisons une revue de la litterature sur ce sujet. Le deuxieme chapitre decrit les principes de l'implantation ionique, qui est la technique utilisee pour la fabrication des echantillons. Les effets de l'energie, fluence et direction du faisceau ionique sur le profil d'implantation et la formation des dommages seront mis en evidence. Aussi dans ce chapitre nous allons trouver des informations sur les substrats utilises pour l'implantation. Les techniques experimentales utilisees pour la caracterisation structurale, chimique et magnetique des echantillons, ainsi que leurs limitations sont presentees dans le troisieme chapitre. Quelques principes theoriques du magnetisme necessaires pour la comprehension des mesures magnetiques se retrouvent dans le chapitre 4. Le cinquieme chapitre est dedie a l'etude de la morphologie et des proprietes magnetiques des substrats utilises pour implantation et le sixieme chapitre, a l'etude des echantillons implantes au Mn sans avoir subi un recuit thermique. Notamment nous allons voir dans ce chapitre que l'implantation de Mn a plus que 1016 ions/cm 2 amorphise la partie implantee du materiau et le Mn implante se dispose en profondeur sur un profil gaussien. De point de vue magnetique les atomes implantes se trouvent dans un etat paramagnetique entre 5 et 300 K ayant le spin 5/2. Dans le chapitre 7 nous presentons les proprietes des echantillons recuits a basses temperatures. Nous allons voir que dans ces echantillons la couche implantee est polycristalline et les atomes de Mn sont toujours dans un etat paramagnetique. Dans les chapitres 8 et 9, qui sont les plus volumineux, nous presentons les resultats des mesures sur les echantillons recuits a hautes temperatures: il s'agit d'InP et du GaP implantes au Mn, dans le chapitre 8 et d'InP co-implante au Mn et au P, dans le chapitre 9. D'abord, dans le chapitre 8 nous allons voir que le recuit a hautes temperatures mene a une recristallisation epitaxiale du InMnP et du GaMnP; aussi la majorite des atomes de Mn se deplacent vers la surface a cause d'un effet de segregation. Dans les regions de la surface, concentres en Mn, les mesures XRD et TEM identifient la formation de MnP et d'In cristallin. Les mesures magnetiques identifient aussi la presence de MnP ferromagnetique. De plus dans ces mesures on trouve qu'environ 60 % du Mn implante est en etat paramagnetique avec la valeur du spin reduite par rapport a celle trouvee dans les echantillons non-recuits. Dans les echantillons InP co-implantes au Mn et au P la recristallisation est seulement partielle mais l'effet de segregation du Mn a la surface est beaucoup reduit. Dans ce cas plus que 50 % du Mn forme des particules MnP et le restant est en etat paramagnetique au spin 5/2, dilue dans la matrice de l'InP. Finalement dans le dernier chapitre, 10, nous presentons les conclusions principales auxquels nous sommes arrives et discutons les resultats et leurs implications. Mots cles: implantation ionique, InP, GaP, amorphisation, MnP, segregation, co-implantation, couche polycristalline, paramagnetisme, ferromagnetisme.
Yang, Shu; Qiu, Yuyan; Shi, Bo
2016-09-01
This paper explores the methods of building the internet of things of a regional ECG monitoring, focused on the implementation of ECG monitoring center based on cloud computing platform. It analyzes implementation principles of automatic identifi cation in the types of arrhythmia. It also studies the system architecture and key techniques of cloud computing platform, including server load balancing technology, reliable storage of massive smalfi les and the implications of quick search function.
Mulenga, Philippe Cilundika; Kazadi, Alex Bukasa
2016-01-01
Introduction La taille du pénis constitue une préoccupation de beaucoup des gens actuellement et certains ne sont pas satisfaits de la dimension de leur pénis comme le montre l’étude de Tiggemann en 2008. Il existe relativement peu d'études sur le pénis en érection. Cela peut refléter les tabous culturels des chercheurs ou des médecins en interaction avec les hommes qui sont dans un état d’excitation sexuelle. Toutes fois, il est important pour les personnes qui annoncent des détails sur la taille du pénis d’annoncer d’abord les repères de la mesure du pénis puis ensuite donner les chiffres que proposent les chercheurs. Méthodes Notre enquête de type descriptif transversale s’est effectuée dans les deux grandes villes de la République Démocratique du Congo à savoir la ville de Kinshasa et la ville de Lubumbashi, pendant une période de deux ans soit de Mai 2014 à Mai 2016. Au total, 21 sources d’information ont constitué notre échantillon dont 8 à Kinshasa et 13 à Lubumbashi et nous avons trouvé cela suffisant car les sujets à caractère sexuel sont souvent rares chez nous. Les paramètres étudiés étaient: la nature de la source, la précision de la technique de la mesure, la présence de référence bibliographique, la longueur annoncée du pénis. Résultats La majorité des sources d’information sont faites des émissions de radio et de télévision (23,8%), ceci pourra s’expliquer par le fait que dans notre milieu il y a de plus en plus des chaines de radio et télévision et surtout dans les grandes villes. Concernant la précision de la technique de la mesure du pénis lors du partage du message sur la taille du pénis, l’étude nous montre que la majorité des sources d’information ne signale pas cela lorsqu’elles annoncent la taille du pénis au public soit 85,7%. Plusieurs sources ne déclarent pas les références bibliographiques (57,1%). Lorsqu’on regarde même les chiffres de la taille du pénis annoncée, l’on voit les proportions majoritaires suivantes: 14 cm comme taille normale soit 28,6%, suivi de ceux là qui disent 15 cm soit 23,8% et de 15 à 20 cm soit 19%. Conclusion Ces résultats sont une interpellation des tous les acteurs responsables de la diffusion de l’information sur la santé sexuelle (taille du pénis): la rigueur scientifique consiste à chercher l’information dans des sources fiables. PMID:28154646
NASA Astrophysics Data System (ADS)
Fournier, Patrick
Le Modele de l'Etat Critique Generalise (MECG) est utilise pour decrire les proprietes magnetiques et de transport du YBa_2Cu_3O _7 polycristallin. Ce modele empirique permet de relier la densite de courant critique a la densite de lignes de flux penetrant dans la region intergrain. Deux techniques de mesures sont utilisees pour caracteriser nos materiaux. La premiere consiste a mesurer le champ au centre d'un cylindre creux en fonction du champ magnetique applique pour des temperatures comprises entre 20 et 85K. En variant l'epaisseur de la paroi du cylindre creux, il est possible de suivre l'evolution des cycles d'hysteresis et de determiner des champs caracteristiques qui varient en fonction de cette dimension. En utilisant un lissage des resultats experimentaux, nous determinons J _{co}, H_ {o} et n, les parametres du MECG. La forme des cylindres, avec une longueur comparable au diametre externe, entrai ne la presence d'un champ demagnetisant qui peut etre inclus dans le modele theorique. Ceci nous permet d'evaluer la fraction du volume ecrante, f _{g}, ainsi que le facteur demagnetisant N. Nous trouvons que J_{ co}, H_{o} et f_{g} dependent de la temperature, tandis que n et N (pour une epaisseur de paroi fixe) n'en dependent pas. La deuxieme technique consiste a mesurer le courant critique de lames minces en fonction du champ applique pour differentes temperatures. Nous utilisons un montage que nous avons developpe permettant d'effectuer ces mesures en contact direct avec le liquide refrigerant, i.e. dans l'azote liquide. Nous varions la temperature du liquide en variant la pression du gaz au-dessus du bain d'azote. Cette methode nous permet de balayer des temperatures entre 65K et la temperature critique du materiau ({~ }92K). Nous effectuons le lissage des courbes de courant critique en fonction du champ applique encore a l'aide du MECG, pour a nouveau obtenir ses parametres. Pour trois echantillons avec des traitements thermiques differents, les parametres sont differents confirmant que la variation des proprietes macroscopiques de ces supraconducteurs est intimement reliee a la nature des jonctions entre les grains et de la surface des grains. L'oxygenation prolongee retablit les proprietes initiales des echantillons qui se sont degrades durant le recuit des contacts.
NASA Astrophysics Data System (ADS)
Muñoz-Esparza, Domingo; Kosović, Branko; Mirocha, Jeff; van Beeck, Jeroen
2014-12-01
With a focus towards developing multiscale capabilities in numerical weather prediction models, the specific problem of the transition from the mesoscale to the microscale is investigated. For that purpose, idealized one-way nested mesoscale to large-eddy simulation (LES) experiments were carried out using the Weather Research and Forecasting model framework. It is demonstrated that switching from one-dimensional turbulent diffusion in the mesoscale model to three-dimensional LES mixing does not necessarily result in an instantaneous development of turbulence in the LES domain. On the contrary, very large fetches are needed for the natural transition to turbulence to occur. The computational burden imposed by these long fetches necessitates the development of methods to accelerate the generation of turbulence on a nested LES domain forced by a smooth mesoscale inflow. To that end, four new methods based upon finite amplitude perturbations of the potential temperature field along the LES inflow boundaries are developed, and investigated under convective conditions. Each method accelerated the development of turbulence within the LES domain, with two of the methods resulting in a rapid generation of production and inertial range energy content associated to microscales that is consistent with non-nested simulations using periodic boundary conditions. The cell perturbation approach, the simplest and most efficient of the best performing methods, was investigated further under neutral and stable conditions. Successful results were obtained in all the regimes, where satisfactory agreement of mean velocity, variances and turbulent fluxes, as well as velocity and temperature spectra, was achieved with reference non-nested simulations. In contrast, the non-perturbed LES solution exhibited important energy deficits associated to a delayed establishment of fully-developed turbulence. The cell perturbation method has negligible computational cost, significantly accelerates the generation of realistic turbulence, and requires minimal parameter tuning, with the necessary information relatable to mean inflow conditions provided by the mesoscale solution.
Etude Bacteriologique sur 30 Mois dans un Service de Brulés
Chaibdraa, A.; Bentakouk, M.C.
2008-01-01
Summary Le pronostic des brûlures est souvent tributaire de complications infectieuses. Les objectifs de cette étude préliminaire rétrospective sont une évaluation de la flore microbienne et ses fluctuations selon la durée d'hospitalisation chez les patients du Centre des brûlés adultes de Annaba (Algérie). Ce travail porte sur 633 prélèvements microbiologiques positifs obtenus entre juin 2003 (inauguration du service) et décembre 2005. Selon le site de prélèvement la répartition est: cutané (78%), hémoculture (9%), prélèvement trachéo-bronchique (4%), uroculture (3%), sonde urinaire (3%), cathéter(3%). Les germes isolés sont: les staphylocoques (58%), les Pseudomonas (20%), le Candida albicans (5%), l'Acinetobacter (3%) et les autres germes (14%). Parmi les staphylocoques et les Pseudomonas recensés, respectivement 19% et 11% sont isolés la première semaine, contre 43% et 52% au-delà de 21 jours. Ces résultats confrontés aux données de la littérature confirment la prédominance du staphylocoque et du Pseudomonas. Le risque de contamination à partir des techniques invasives de réanimation est commun à toutes les équipes. La prolifération bactérienne est en relation avec la durée d'hospitalisation. Ces constatations doivent nous inciter à tirer bénéfice de l'expérience des autres services, en particulier sur les moyens, accessibles, de prévention de l'infection nosocomiale. PMID:21991102
1992-09-01
CONDITIONS AT TIME OF RESCUE 8 Chemica 1 Clear 9- Unknown 2 Fog 16 othOer 3 Hail4_ Overcast (9) DIRECT" FACED AT PARACHUTE LANDING Rain I () DRECION6...synth~se des accidents F-16 de cat~gorie A aurvenus cý la Force A6rienne Beige; je pense poaa~ der une bonne con-3 naissance des dossiers, a’y’nt 6t6...or mock-ups in or- history of the concentrations Lave been der to study the development of environ- used to establish the model. The main re- mental
1994-08-01
AGARD-AG-300 Vol. 12 04 ADVISORY GROUP FOR AEROSPACE RESEARCH & DEVELOPMENT 7 RUE ANCELLE, 92200 NEUILLY-SUR-SEINE, FRANCE AUG 0195 AGARDograph 300...AGARD Flight Test Techniques Series Volume 12 on The Principles of Flight Test Assessment of Flight-Safety-Critical Systems in Helicopters (Les...and Availability on Back Cover AGARD-AG-300 Vol. 12 ADVISORY GROUP FOR AEROSPACE RESEARCH & DEVELOPMENT 7 RUE ANCELLE, 92200 NEUILLY-SUR-SEINE, FRANCE
2005-10-01
l’optimisation des composants les plus prometteurs pour la d~couverte des m~dicaments. La technique CAF-SM est capable de localiser et de caract~riser...technique d’avant-garde peut ainsi aiguiller ]a recherche biotechnologique A travers les domaines cl~s et 6liminer beaucoup d’ann6es d’exp6rimentation...A l’aveuglette »). Ceci permettra de rationaliser le concept et la mise au point dans des domaines tels que la bio- detection et l’identification
Le TERS, ou comment obtenir une signature chimique à l'échelle nanométrique
NASA Astrophysics Data System (ADS)
Hsia, Patrick; Chaigneau, Marc
2018-02-01
Le TERS pour tip enhanced raman scattering, est une technique de pointe (dans tous les sens du terme) basée sur l'amplification du signal Raman relative à la résonance de plasmons de surface. Cette technique non-destructive, qui ne nécessite pas de marquage particulier, permet de caractériser un échantillon à l'échelle nanométrique. Le TERS s'impose aujourd'hui pour sonder les propriétés physico-chimiques des nanomatériaux et participer ainsi au développement de nouvelles applications dans le domaine des nanotechnologies.
Évaluer les risques dans le cas de troubles mentaux indifférenciés
Silveira, José; Rockman, Patricia; Fulford, Casey; Hunter, Jon
2016-01-01
Résumé Objectif Proposer aux médecins de soins primaires une approche novatrice pour la détermination des risques et la prise de décisions cliniques connexes dans la prise en charge de troubles mentaux indifférenciés. Sources de l’information Nous avons procédé à une recherche documentaire dans PubMed, CINAHL, PsycINFO et Google Scholar à l’aide des expressions de recherche suivantes, en anglais : diagnostic uncertainty, diagnosis, risk identification, risk assessment/methods, risk, risk factors, risk management/methods, cognitive biases and psychiatry, decision making, mental disorders/diagnosis, clinical competence, evidence-based medicine, interviews as topic, psychiatry/education, psychiatry/methods, documentation/methods, forensic psychiatry/education, forensic psychiatry/methods, mental disorders/classification, mental disorders/psychology, violence/prevention and control et violence/psychology. Message principal Les troubles mentaux constituent une grande part de la pratique en soins primaires; ils se présentent souvent de manière indifférenciée et ce, pendant de longues périodes. La difficile quête d’un diagnostic peut détourner l’attention de la détermination des risques, parce que nous présumons souvent qu’il faut un diagnostic avant d’amorcer un traitement. Cette situation peut avoir contribué par inadvertance à des événements indésirables. Il faudrait en priorité se concentrer sur les points saillants relatifs aux risques que présente le patient. Cet article propose une approche novatrice pour organiser les renseignements sur le patient afin d’aider à la détermination des risques et à la prise de décisions relativement à la prise en charge des patients souffrant de troubles mentaux indifférenciés. Conclusion Une approche structurée peut aider les médecins à gérer l’incertitude clinique fréquente dans la détermination des risques chez des patients souffrant de troubles mentaux, et à composer avec l’anxiété et les biais cognitifs courants qui influencent la prise de décisions en matière de risques. En se concentrant sur les risques, les déficiences fonctionnelles et les symptômes connexes à l’aide d’un cadre novateur, les médecins peuvent répondre aux besoins immédiats de leurs patients tout en continuant à rechercher un diagnostic précis et à établir un traitement à long terme. PMID:27965332
De l'importance des orbites periodiques: Detection et applications
NASA Astrophysics Data System (ADS)
Doyon, Bernard
L'ensemble des Orbites Periodiques Instables (OPIs) d'un systeme chaotique est intimement relie a ses proprietes dynamiques. A partir de l'ensemble (en principe infini) d'OPIs cachees dans l'espace des phases, on peut obtenir des quantites dynamiques importantes telles les exposants de Lyapunov, la mesure invariante, l'entropie topologique et la dimension fractale. En chaos quantique (i.e. l'etude de systemes quantiques qui ont un equivalent chaotique dans la limite classique), ces memes OPIs permettent de faire le pont entre le comportement classique et quantique de systemes non-integrables. La localisation de ces cycles fondamentaux est un probleme complexe. Cette these aborde dans un premier temps le probleme de la detection des OPIs dans les systemes chaotiques. Une etude comparative de deux algorithmes recents est presentee. Nous approfondissons ces deux methodes afin de les utiliser sur differents systemes dont des flots continus dissipatifs et conservatifs. Une analyse du taux de convergence des algorithmes est aussi realisee afin de degager les forces et les limites de ces schemes numeriques. Les methodes de detection que nous utilisons reposent sur une transformation particuliere de la dynamique initiale. Cette astuce nous a inspire une methode alternative pour cibler et stabiliser une orbite periodique quelconque dans un systeme chaotique. Le ciblage est en general combine aux methodes de controle pour stabiliser rapidement un cycle donne. En general, il faut connaitre la position et la stabilite du cycle en question. La nouvelle methode de ciblage que nous presentons ne demande pas de connaitre a priori la position et la stabilite des orbites periodiques. Elle pourrait etre un outil complementaire aux methodes de ciblage et de controle actuelles.
NASA Astrophysics Data System (ADS)
Nguimbus, Raphael
La determination de l'impact des facteurs sous controle et hors controle qui influencent les volumes de vente des magasins de detail qui vendent des produits homogenes et fortement substituables constitue le coeur de cette these. Il s'agit d'estimer un ensemble de coefficients stables et asymtotiquement efficaces non correles avec les effets specifiques aleatoires des sites d'essence dans le marche de Montreal (Quebec, Canada) durant is periode 1993--1997. Le modele econometrique qui est ainsi specifie et teste, isole un ensemble de quatre variables dont le prix de detail affiche dans un site d'essence ordinaire, la capacite de service du site pendant les heures de pointe, les heures de service et le nombre de sites concurrents au voisinage du site dans un rayon de deux kilometres. Ces quatre facteurs influencent les ventes d'essence dans les stations-service. Les donnees en panel avec les methodes d'estimation robustes (estimateur a distance minimale) sont utilisees pour estimer les parametres du modele de vente. Nous partons avec l'hypothese generale selon laquelle il se developpe une force d'attraction qui attire les clients automobilistes dans chaque site, et qui lui permet de realiser les ventes. Cette capacite d'attraction varie d'un site a un autre et cela est du a la combinaison de l'effort marketing et de l'environnement concurrentiel autour du site. Les notions de voisinage et de concurrence spatiale expliquent les comportements des decideurs qui gerent les sites. Le but de cette these est de developper un outil d'aide a la decision (modele analytique) pour permettre aux gestionnaires des chaines de stations-service d'affecter efficacement les ressources commerciales dans ies points de vente.
A rapid and low noise switch from RANS to WMLES on curvilinear grids with compressible flow solvers
NASA Astrophysics Data System (ADS)
Deck, Sébastien; Weiss, Pierre-Elie; Renard, Nicolas
2018-06-01
A turbulent inflow for a rapid and low noise switch from RANS to Wall-Modelled LES on curvilinear grids with compressible flow solvers is presented. It can be embedded within the computational domain in practical applications with WMLES grids around three-dimensional geometries in a flexible zonal hybrid RANS/LES modelling context. It relies on a physics-motivated combination of Zonal Detached Eddy Simulation (ZDES) as the WMLES technique together with a Dynamic Forcing method processing the fluctuations caused by a Zonal Immersed Boundary Condition describing roughness elements. The performance in generating a physically-sound turbulent flow field with the proper mean skin friction and turbulent profiles after a short relaxation length is equivalent to more common inflow methods thanks to the generation of large-scale streamwise vorticity by the roughness elements. Comparisons in a low Mach-number zero-pressure-gradient flat-plate turbulent boundary layer up to Reθ = 6 100 reveal that the pressure field is dominated by the spurious noise caused by the synthetic turbulence methods (Synthetic Eddy Method and White Noise injection), contrary to the new low-noise approach which may be used to obtain the low-frequency component of wall pressure and reproduce its intermittent nature. The robustness of the method is tested in the flow around a three-element airfoil with WMLES in the upper boundary layer near the trailing edge of the main element. In spite of the very short relaxation distance allowed, self-sustainable resolved turbulence is generated in the outer layer with significantly less spurious noise than with the approach involving White Noise. The ZDES grid count for this latter test case is more than two orders of magnitude lower than the Wall-Resolved LES requirement and a unique mesh is involved, which is much simpler than some multiple-mesh strategies devised for WMLES or turbulent inflow.
Carbon nano structures: Production and characterization
NASA Astrophysics Data System (ADS)
Beig Agha, Rosa
L'objectif de ce memoire est de preparer et de caracteriser des nanostructures de carbone (CNS -- Carbon Nanostructures, en licence a l'Institut de recherche sur l'hydrogene, Quebec, Canada), un carbone avec un plus grand degre de graphitisation et une meilleure porosite. Le Chapitre 1 est une description generale des PEMFCs (PEMFC -- Polymer Electrolyte Membrane Fuel Cell) et plus particulierement des CNS comme support de catalyseurs, leur synthese et purification. Le Chapitre 2 decrit plus en details la methode de synthese et la purification des CNS, la theorie de formation des nanostructures et les differentes techniques de caracterisation que nous avons utilises telles que la diffraction aux rayons-X (XRD -- X-ray diffraction), la microscopie electronique a transmission (TEM -- transmission electron microscope ), la spectroscopie Raman, les isothermes d'adsorption d'azote a 77 K (analyse BET, t-plot, DFT), l'intrusion au mercure, et l'analyse thermogravimetrique (TGA -- thermogravimetric analysis). Le Chapitre 3 presente les resultats obtenus a chaque etape de la synthese des CNS et avec des echantillons produits a l'aide d'un broyeur de type SPEXRTM (SPEX/CertiPrep 8000D) et d'un broyeur de type planetaire (Fritsch Pulverisette 5). La difference essentielle entre ces deux types de broyeur est la facon avec laquelle les materiaux sont broyes. Le broyeur de type SPEX secoue le creuset contenant les materiaux et des billes d'acier selon 3 axes produisant ainsi des impacts de tres grande energie. Le broyeur planetaire quant a lui fait tourner et deplace le creuset contenant les materiaux et des billes d'acier selon 2 axes (plan). Les materiaux sont donc broyes differemment et l'objectif est de voir si les CNS produits ont les memes structures et proprietes. Lors de nos travaux nous avons ete confrontes a un probleme majeur. Nous n'arrivions pas a reproduire les CNS dont la methode de synthese a originellement ete developpee dans les laboratoires de l'Institut de recherche sur l'hydrogene (IRH). Nos echantillons presentaient toujours une grande quantite de carbure de fer au detriment de la formation de nanostructures de carbone. Apres plusieurs mois de recherche nous avons constate que les metaux de base, soit le fer et le cobalt, etaient contamines. Neanmoins, ces recherches nous ont enseigne beaucoup et les resultats sont presentes aux Appendices I a III. Le carbone de depart est du charbon active commercial (CNS201) qui a ete prealablement chauffe a 1,000°C sous vide pendant 90 minutes pour se debarrasser de toute humidite et autres impuretes. En premiere etape, dans un creuset d'acier durci du CNS201 pretraite fut melange a une certaine quantite de Fe et de Co (99.9 % purs). Des proportions typiques sont 50 pd. %, 44 pd. %, et 6 pd. % pour le C, le Fe, et le Co respectivement. Pour les echantillons prepares avec le broyeur SPEX, trois a six billes en acier durci furent utilisees pour le broyage, de masse relative echantillon/poudre de 35 a 1. Pour les echantillons prepares avec le broyeur planetaire, trente-six billes en acier durci furent utilisees pour le broyage, de masse relative echantillon/poudre de 10 a 1. L'hydrogene fut alors introduit dans le creuset pour les deux types de broyeur a une pression de 1.4 MPa, et l'echantillon fut broye pendant 12 h pour le SPEX et 24 h pour le planetaire. Le broyeur SPEX a un rendement de transfert d'energie mecanique plus grand qu'un broyeur planetaire, mais il a le desavantage de contaminer davantage l'echantillon en Fe par attrition. Cependant, ceci peut etre neglige vu que le Fe etait un des catalyseurs metalliques ajoutes au creuset. En deuxieme etape, l'echantillon broye est transfere sous gaz inerte (argon) dans un tube en quartz, qui est alors chauffe a 700°C pendant 90 minutes. Des mesures de patrons de diffraction a rayons-X sur poudre furent faites pour caracteriser les changements structurels des CNS lors des etapes de synthese. Ces mesures furent prises avec un diffractometre Bruker D8 FOCUS utilisant le rayonnement Cu Ka (lambda = 1.54054 A) et une geometrie Theta/2Theta. La Figure 3.1 montre le patron de diffraction de rayon-X du charbon active utilise comme precurseur pour produire les CNS. Le charbon active est prechauffe a haute temperature (1,000°C) pendant 1 h pour enlever l'humidite. La Figure 3.2 montre les patrons de diffraction de rayons-X des echantillons SPEX et planetaire apres broyage de 12 h et 24 h, respectivement. Les structures de charbon ne sont pas encore bien definies, mais un pic a 2theta ≈ 20°-30° correspond aux petites cristallites a caractere turbostatique et un pic correspondant au fer et au carbure de fer apparait a 2theta ≈ 45°. (Abstract shortened by UMI.)
Water Vapor Remote Sensing Techniques: Radiometry and Solar Spectrometry
NASA Astrophysics Data System (ADS)
Somieski, A.; Buerki, B.; Cocard, M.; Geiger, A.; Kahle, H.-G.
The high variability of atmospheric water vapor content plays an important role in space geodesy, climatology and meteorology. Water vapor has a strong influence on transatmospheric satellite signals, the Earth's climate and thus the weather forecasting. Several remote sensing techniques have been developed for the determination of inte- grated precipitable water vapor (IPWV). The Geodesy and Geodynamics Lab (GGL) utilizes the methods of Water Vapor Radiometry and Solar Spectrometry to quantify the amount of tropospheric water vapor and its temporal variations. The Water Vapor Radiometer (WVR) measures the radiation intensity of the atmosphere in a frequency band ranging from 20 to 32 GHz. The Solar Atmospheric MOnitoring Spectrome- ter (SAMOS) of GGL is designed for high-resolution measurements of water vapor absorption lines using solar radiation. In the framework of the ESCOMPTE (ExpÊrience sur Site pour COntraindre les Mod- Éles de Pollution atmosphÊrique et de Transport d'Emissions) field campaign these instruments have been operated near Marseille in 2001. They have aquired a long time series of integrated precipitable water vapor content (IPWV). The accuracy of IPWV measured by WVR and SAMOS is 1 kg/m2. Furthermore meteorological data from radiosondes were used to calculate the IPWV in order to provide comparisons with the results of WVR and SAMOS. The methods of Water Vapor Radiometry and So- lar Spectrometry will be discussed and first preliminary results retrieved from WVR, SAMOS and radiosondes during the ESCOMPTE field campaign will be presented.
2005-04-01
alain.leger@fr.thalesgroup.com THALES Aerospace Rue Toussaint Catros 33187 Le Haillan FRANCE RESUME Les coques des écouteurs du casque Topowl ont...déjà fait l’objet d’une étude visant à optimiser leur protection auditive dans les stricts budgets de masse et de volume impartis. La présente...techniques audio (p. 17-1 – 17-14). Compte rendu de réunion RTO-MP-HFM-123, Communication 17. Neuilly-sur-Seine, France : RTO. Disponible sur le site
Ravat, F.; Jault, P.; Gabard, J.
2015-01-01
Summary L’utilisation des bactériophages, prédateurs naturels des bactéries, est une technique pionnière efficace de lutte contre les infections bactériennes. Tombée dans l’oubli depuis un demi-siècle du coté occidental de l’ex-rideau de fer, elle fait toujours partie de l’arsenal thérapeutique des pays de l’ex-Europe de l’Est, au point de constituer une arme de choix dans la politique de santé publique de ces pays. l’émergence de bactéries multirésistantes et le risque de revenir à l’ère pré-antibiotique ont fait ressortir la phagothérapie de l’oubli injuste auquel elle avait été confinée. la biologie et la place du bactériophage dans la nature sont décrites ici. les tenants et les aboutissants de la phagothérapie et les conditions de son retour sur le devant de la scène sont explicitées. PMID:26668557
A knowledge based expert system for propellant system monitoring at the Kennedy Space Center
NASA Technical Reports Server (NTRS)
Jamieson, J. R.; Delaune, C.; Scarl, E.
1985-01-01
The Lox Expert System (LES) is the first attempt to build a realtime expert system capable of simulating the thought processes of NASA system engineers, with regard to fluids systems analysis and troubleshooting. An overview of the hardware and software describes the techniques used, and possible applications to other process control systems. LES is now in the advanced development stage, with a full implementation planned for late 1985.
Bayesian source term estimation of atmospheric releases in urban areas using LES approach.
Xue, Fei; Kikumoto, Hideki; Li, Xiaofeng; Ooka, Ryozo
2018-05-05
The estimation of source information from limited measurements of a sensor network is a challenging inverse problem, which can be viewed as an assimilation process of the observed concentration data and the predicted concentration data. When dealing with releases in built-up areas, the predicted data are generally obtained by the Reynolds-averaged Navier-Stokes (RANS) equations, which yields building-resolving results; however, RANS-based models are outperformed by large-eddy simulation (LES) in the predictions of both airflow and dispersion. Therefore, it is important to explore the possibility of improving the estimation of the source parameters by using the LES approach. In this paper, a novel source term estimation method is proposed based on LES approach using Bayesian inference. The source-receptor relationship is obtained by solving the adjoint equations constructed using the time-averaged flow field simulated by the LES approach based on the gradient diffusion hypothesis. A wind tunnel experiment with a constant point source downwind of a single building model is used to evaluate the performance of the proposed method, which is compared with that of the existing method using a RANS model. The results show that the proposed method reduces the errors of source location and releasing strength by 77% and 28%, respectively. Copyright © 2018 Elsevier B.V. All rights reserved.
Hörman, Ari; Hänninen, Marja-Liisa
2006-10-01
In this study we compared the reference membrane filtration (MF) lactose Tergitol-7 (LTTC) method ISO 9308-1:2000 with the MF m-Endo LES method SFS 3016:2001, the defined substrate chromogenic/fluorogenic Colilert 18, Readycult Coliforms and Water Check methods, and ready-made culture media, 3M Petrifilm EC and DryCult Coli methods for the detection of coliforms and Escherichia coli in various water samples. When the results of E. coli detection were compared between test methods, the highest agreement (both tests negative or positive) with the LTTC method was calculated for the m-Endo LES method (83.6%), followed by Colilert 18 (82.7%), Water-Check (81.8%) and Readycult (78.4%), whereas Petrifilm EC (70.6%) and DryCult Coli (68.9%) showed the weakest agreement. The m-Endo LES method was the only method showing no statistical difference in E. coli counts compared with the LTTC method, whereas the Colilert 18 and Readycult methods gave significantly higher counts for E. coli than the LTTC method. In general, those tests based on the analysis of a 1-ml sample (Petrifilm EC and DryCult Coli) showed weak sensitivity (39.5-52.5%) but high specificity (90.9-78.8%).
NASA Astrophysics Data System (ADS)
Saide, P. E.; Steinhoff, D.; Kosovic, B.; Weil, J.; Smith, N.; Blewitt, D.; Delle Monache, L.
2017-12-01
There are a wide variety of methods that have been proposed and used to estimate methane emissions from oil and gas production by using air composition and meteorology observations in conjunction with dispersion models. Although there has been some verification of these methodologies using controlled releases and concurrent atmospheric measurements, it is difficult to assess the accuracy of these methods for more realistic scenarios considering factors such as terrain, emissions from multiple components within a well pad, and time-varying emissions representative of typical operations. In this work we use a large-eddy simulation (LES) to generate controlled but realistic synthetic observations, which can be used to test multiple source term estimation methods, also known as an Observing System Simulation Experiment (OSSE). The LES is based on idealized simulations of the Weather Research & Forecasting (WRF) model at 10 m horizontal grid-spacing covering an 8 km by 7 km domain with terrain representative of a region located in the Barnett shale. Well pads are setup in the domain following a realistic distribution and emissions are prescribed every second for the components of each well pad (e.g., chemical injection pump, pneumatics, compressor, tanks, and dehydrator) using a simulator driven by oil and gas production volume, composition and realistic operational conditions. The system is setup to allow assessments under different scenarios such as normal operations, during liquids unloading events, or during other prescribed operational upset events. Methane and meteorology model output are sampled following the specifications of the emission estimation methodologies and considering typical instrument uncertainties, resulting in realistic observations (see Figure 1). We will show the evaluation of several emission estimation methods including the EPA Other Test Method 33A and estimates using the EPA AERMOD regulatory model. We will also show source estimation results from advanced methods such as variational inverse modeling, and Bayesian inference and stochastic sampling techniques. Future directions including other types of observations, other hydrocarbons being considered, and assessment of additional emission estimation methods will be discussed.
NASA Astrophysics Data System (ADS)
Ahmed, Chaara El Mouez
Nous avons etudie les relations de dispersion et la diffusion des glueballs et des mesons dans le modele U(1)_{2+1} compact. Ce modele a ete souvent utilise comme un simple modele de la chromodynamique quantique (QCD), parce qu'il possede le confinement ainsi que les etats de glueballs. Par contre, sa structure mathematique est beaucoup plus simple que la QCD. Notre methode consiste a diagonaliser l'Hamiltonien de ce modele dans une base appropriee de graphes et sur reseau impulsion, afin de generer les relations de dispersion des glueballs et des mesons. Pour la diffusion, nous avons utilise la methode dependante du temps pour calculer la matrice S et la section efficace de diffusion des glueballs et des mesons. Les divers resultats obtenus semblent etre en accord avec les travaux anterieurs de Hakim, Alessandrini et al., Irving et al., qui eux, utilisent plutot la theorie des perturbations en couplage fort, et travaillent sur un reseau espace-temps.
Numerical modeling of the transitional boundary layer over a flat plate
NASA Astrophysics Data System (ADS)
Ivanov, Dimitry; Chorny, Andrei
2015-11-01
Our example is connected with fundamental research on understanding how an initially laminar boundary layer becomes turbulent. We have chosen the flow over a flat plate as a prototype for boundary-layer flows around bodies. Special attention was paid to the near-wall region in order to capture all levels of the boundary layer. In this study, the numerical software package OpenFOAM has been used in order to solve the flow field. The results were used in a comparative study with data obtained from Large Eddy Simulation (LES). The composite SGS-wall model is presently incorporated into a computer code suitable for the LES of developing flat-plate boundary layers. Presently this model is extended to the LES of the zero-pressure gradient, flat-plate turbulent boundary layer. In current study the time discretization is based on a second order Crank-Nicolson/Adams-Bashforth method. LES solver using Smagorinsky and the one-equation LES turbulence models. The transition models significantly improve the prediction of the onset location compared to the fully turbulent models.LES methods appear to be the most promising new tool for the design and analysis of flow devices including transition regions of the turbulent flow.
Regularization method for large eddy simulations of shock-turbulence interactions
NASA Astrophysics Data System (ADS)
Braun, N. O.; Pullin, D. I.; Meiron, D. I.
2018-05-01
The rapid change in scales over a shock has the potential to introduce unique difficulties in Large Eddy Simulations (LES) of compressible shock-turbulence flows if the governing model does not sufficiently capture the spectral distribution of energy in the upstream turbulence. A method for the regularization of LES of shock-turbulence interactions is presented which is constructed to enforce that the energy content in the highest resolved wavenumbers decays as k - 5 / 3, and is computed locally in physical-space at low computational cost. The application of the regularization to an existing subgrid scale model is shown to remove high wavenumber errors while maintaining agreement with Direct Numerical Simulations (DNS) of forced and decaying isotropic turbulence. Linear interaction analysis is implemented to model the interaction of a shock with isotropic turbulence from LES. Comparisons to analytical models suggest that the regularization significantly improves the ability of the LES to predict amplifications in subgrid terms over the modeled shockwave. LES and DNS of decaying, modeled post shock turbulence are also considered, and inclusion of the regularization in shock-turbulence LES is shown to improve agreement with lower Reynolds number DNS.
NASA Astrophysics Data System (ADS)
Silliman, S. E.; Zheng, L.; Conwell, P.
Laboratory experiments on heterogeneous porous media (otherwise known as intermediate scale experiments, or ISEs) have been increasingly relied upon by hydrogeologists for the study of saturated and unsaturated groundwater systems. Among the many ongoing applications of ISEs is the study of fluid flow and the transport of conservative solutes in correlated permeability fields. Recent advances in ISE design have provided the capability of creating correlated permeability fields in the laboratory. This capability is important in the application of ISEs for the assessment of recent stochastic theories. In addition, pressure-transducer technology and visualization methods have provided the potential for ISEs to be used in characterizing the spatial distributions of both hydraulic head and local water velocity within correlated permeability fields. Finally, various methods are available for characterizing temporal variations in the spatial distribution (and, thereby, the spatial moments) of solute concentrations within ISEs. It is concluded, therefore, that recent developments in experimental techniques have provided an opportunity to use ISEs as important tools in the continuing study of fluid flow and the transport of conservative solutes in heterogeneous, saturated porous media. Résumé Les hydrogéologues se sont progressivement appuyés sur des expériences de laboratoire sur des milieux poreux hétérogènes (connus aussi par l'expression "Expériences àéchelle intermédiaire", ISE) pour étudier les zones saturées et non saturées des aquifères. Parmi les nombreuses applications en cours des ISE, il faut noter l'étude de l'écoulement de fluide et le transport de solutés conservatifs dans des champs aux perméabilités corrélées. Les récents progrès du protocole des ISE ont donné la possibilité de créer des champs de perméabilités corrélées au laboratoire. Cette possibilité est importante dans l'application des ISE pour l'évaluation des théories stochastiques récentes. En outre, la technologie des capteurs de pression et les méthodes de visualisation donnent la possibilité d'utiliser les ISE pour caractériser les distributions spatiales à la fois de la piézométrie et de la vitesse locale de l'eau dans un champs de perméabilités corrélées. Finalement, des méthodes variées peuvent être utilisées pour caractériser les variations temporelles de la distribution spatiale (et, par conséquent, les moments spatiaux) des concentrations de soluté dans les ISE. En conclusion, donc, des développements récents des techniques expérimentales ont fourni l'occasion d'utiliser les ISE comme d'importants outils d'étude en continu des écoulement de fluides et de transport de solutés conservatifs dans des milieux poreux saturés hétérogènes. Resumen Los experimentos de laboratorio en medio poroso heterogéneo (conocidos como Experimentos a Escala Intermedia o ISE) están cada vez mejor considerados para el estudio de los sistemas saturados y no saturados. Entre las muchas aplicaciones de los ISE se encuentra el estudio del flujo y el transporte de solutos conservativos en medios con permeabilidad que presentan una cierta estructura de correlación. Avances recientes en el diseño de los ISE han proporcionado la capacidad de crear medios de este tipo en el laboratorio. Esta capacidad es importante para la aplicación de los ISE a la evaluación de las teorías estocásticas recientes. Además, la tecnología de los transductores de presión y los métodos de visualización han permitido que los ISE se usen para caracterizar la distribución espacial de niveles hidráulicos y de las velocidades locales del agua en campos de permeabilidad con determinada correlación espacial. Finalmente, existen varios métodos para caracterizar las variaciones temporales en la distribución espacial (y por tanto los momentos estadísticos espaciales) de la concentración de solutos en los ISE. Se concluye que los desarrollos recientes en las técnicas experimentales han proporcionado una oportunidad para usar los ISE como herramientas fundamentales en el estudio del flujo y transporte de solutos conservativos en medio poroso heterogéneo y saturado.
Land Ecological Security Evaluation of Guangzhou, China
Xu, Linyu; Yin, Hao; Li, Zhaoxue; Li, Shun
2014-01-01
As the land ecosystem provides the necessary basic material resources for human development, land ecological security (LES) plays an increasingly important role in sustainable development. Given the degradation of land ecological security under rapid urbanization and the urgent LES requirements of urban populations, a comprehensive evaluation method, named Double Land Ecological Security (DLES), has been introduced with the city of Guangzhou, China, as a case study, which evaluates the LES in regional and unit scales for reasonable and specific urban planning. In the evaluation process with this method, we have combined the material security with the spiritual security that is inevitably associated with LES. Some new coefficients of land-security supply/demand distribution and technology contribution for LES evaluation have also been introduced for different spatial scales, including the regional and the unit scales. The results for Guangzhou indicated that, temporally, the LES supply indices were 0.77, 0.84 and 0.77 in 2000, 2006 and 2009 respectively, while LES demand indices for the city increased in 2000, 2006 and 2009 from 0.57 to 0.95, which made the LES level decreased slowly in this period. Spatially, at the regional scale, the urban land ecological security (ULES) level decreased from 0.2 (marginal security) to −0.18 (marginal insecurity) as a whole; in unit scale, areas in the north and in parts of the east were relatively secure and the security area was shrinking with time, but the central and southern areas turned to be marginal insecurity, especially in 2006 and 2009. This study proposes that DLES evaluation should be conducted for targeted and efficient urban planning and management, which can reflect the LES level of study area in general and in detail. PMID:25321873
Land ecological security evaluation of Guangzhou, China.
Xu, Linyu; Yin, Hao; Li, Zhaoxue; Li, Shun
2014-10-15
As the land ecosystem provides the necessary basic material resources for human development, land ecological security (LES) plays an increasingly important role in sustainable development. Given the degradation of land ecological security under rapid urbanization and the urgent LES requirements of urban populations, a comprehensive evaluation method, named Double Land Ecological Security (DLES), has been introduced with the city of Guangzhou, China, as a case study, which evaluates the LES in regional and unit scales for reasonable and specific urban planning. In the evaluation process with this method, we have combined the material security with the spiritual security that is inevitably associated with LES. Some new coefficients of land-security supply/demand distribution and technology contribution for LES evaluation have also been introduced for different spatial scales, including the regional and the unit scales. The results for Guangzhou indicated that, temporally, the LES supply indices were 0.77, 0.84 and 0.77 in 2000, 2006 and 2009 respectively, while LES demand indices for the city increased in 2000, 2006 and 2009 from 0.57 to 0.95, which made the LES level decreased slowly in this period. Spatially, at the regional scale, the urban land ecological security (ULES) level decreased from 0.2 (marginal security) to -0.18 (marginal insecurity) as a whole; in unit scale, areas in the north and in parts of the east were relatively secure and the security area was shrinking with time, but the central and southern areas turned to be marginal insecurity, especially in 2006 and 2009. This study proposes that DLES evaluation should be conducted for targeted and efficient urban planning and management, which can reflect the LES level of study area in general and in detail.
Liao, Donghua; Lottrup, Christian; Fynne, Lotte; McMahon, Barry P; Krogh, Klaus; Drewes, Asbjørn M; Zhao, Jingbo; Gregersen, Hans
2018-01-01
Background/Aims Efficient transport through the esophago-gastric junction (EGJ) requires synchronized circular and longitudinal muscle contraction of the esophagus including relaxation of the lower esophageal sphincter (LES). However, there is a scarcity of technology for measuring esophagus movements in the longitudinal (axial) direction. The aim of this study is to develop new analytical tools for dynamic evaluation of the length change and axial movement of the human LES based on the functional luminal imaging probe (FLIP) technology and to present normal signatures for the selected parameters. Methods Six healthy volunteers without hiatal hernia were included. Data were analyzed from stepwise LES distensions at 20, 30, and 40 mL bag volumes. The bag pressure and the diameter change were used for motion analysis in the LES. The cyclic bag pressure frequency was used to distinguish dynamic changes of the LES induced by respiration and secondary peristalsis. Results Cyclic fluctuations of the LES were evoked by respiration and isovolumetric distension, with phasic changes of bag pressure, diameter, length, and axial movement of the LES narrow zone. Compared to the respiration-induced LES fluctuations, peristaltic contractions increased the contraction pressure amplitude (P < 0.001), shortening (P < 0.001), axial movement (P < 0.001), and diameter change (P < 0.01) of the narrow zone. The length of the narrow zone shortened as function of the pressure increase. Conclusions FLIP can be used for evaluation of dynamic length changes and axial movement of the human LES. The method may shed light on abnormal longitudinal muscle activity in esophageal disorders. PMID:29605981
Stabilized High-order Galerkin Methods Based on a Parameter-free Dynamic SGS Model for LES
2015-01-01
stresses obtained via Dyn-SGS are residual-based, the effect of the artificial diffusion is minimal in the regions where the solution is smooth. The direct...used in the analysis of the results rather than in the definition and analysis of the LES equations described from now on. 2.1 LES and the Dyn-SGS model... definition is sucient given the scope of the current study; nevertheless, a more proper defi- nition of for LES should be used in future work
NASA Astrophysics Data System (ADS)
Xu, K.; Sühring, M.; Metzger, S.; Desai, A. R.
2017-12-01
Most eddy covariance (EC) flux towers suffer from footprint bias. This footprint not only varies rapidly in time, but is smaller than the resolution of most earth system models, leading to a systemic scale mismatch in model-data comparison. Previous studies have suggested this problem can be mitigated (1) with multiple towers, (2) by building a taller tower with a large flux footprint, and (3) by applying advanced scaling methods. Here we ask: (1) How many flux towers are needed to sufficiently sample the flux mean and variation across an Earth system model domain? (2) How tall is tall enough for a single tower to represent the Earth system model domain? (3) Can we reduce the requirements derived from the first two questions with advanced scaling methods? We test these questions with output from large eddy simulations (LES) and application of the environmental response function (ERF) upscaling method. PALM LES (Maronga et al. 2015) was set up over a domain of 12 km x 16 km x 1.8 km at 7 m spatial resolution and produced 5 hours of output at a time step of 0.3 s. The surface Bowen ratio alternated between 0.2 and 1 among a series of 3 km wide stripe-like surface patches, with horizontal wind perpendicular to the surface heterogeneity. A total of 384 virtual towers were arranged on a regular grid across the LES domain, recording EC observations at 18 vertical levels. We use increasing height of a virtual flux tower and increasing numbers of virtual flux towers in the domain to compute energy fluxes. Initial results show a large (>25) number of towers is needed sufficiently sample the mean domain energy flux. When the ERF upscaling method was applied to the virtual towers in the LES environment, we were able to map fluxes over the domain to within 20% precision with a significantly smaller number of towers. This was achieved by relating sub-hourly turbulent fluxes to meteorological forcings and surface properties. These results demonstrate how advanced scaling techniques can decrease the number of towers, and thus experimental expense, required for domain-scaling over heterogeneous surface.
NASA Astrophysics Data System (ADS)
Park, George; Yang, Xiang; Moin, Parviz
2017-11-01
Log-layer mismatch (LLM) refers to the erroneous shifts of the mean velocity profile in the log-law region when wall models are coupled to the LES solution at the first off-wall grid points. It is often believed that the discretization error and subgrid-scale modeling error in the highly under resolved near-wall region contaminates the first off-wall LES solution, thereby providing inaccurate input to wall models resulting in inaccurate wall shear stress. Placing the LES/wall-model interface a couple of cells away from the wall has been recommended to avoid LLM. However, its non-local nature render this method impractical for flows involving complex geometry, by incurring significant overhead in LES mesh preparation and wall-model implementation. We propose an alternative remedy for LLM which warrants the removal of LLM while utilizing the first off-wall LES data. The method is based on filtering the wall-model input either in space or in time. It is simple, easy to implement, and would be particularly well suited for unstructured-grid LES involving complex geometries. We also demonstrate that LLM is caused by excessive correlation between the wall-model input and its wall shear stress output. This research is sponsored by NASA (NNX15AU93A) and ONR (FA9550-16-1-0319).
Novel Methods of Digital Phase Shifting to Achieve Arbitrary Values of Time Delay,
1985-09-01
ACHIEVE ARBITRARY VALUES OF TIME DELAY A. Mohammed DTIC ELECTEI DEC 0 5 SSEi SD Defence Centre de U.j Research Recherches pour la A- Establishment...velles m ~thodes: la premi~re fait appel i une technique de fenitrage, et la deuxiirme, i un 6chantillonnage des fr6quences. Dans les deux m6thodes...toute m6thode de conception do d~phaseurs numhriques. Do plus, dans la m ~thode do I ’chantillonnage des fr~quences, on introduit le concept do plage
Touré, Papa Souleymane; Léye, Abdoulaye; Diop, Madoky Maguette; Gueye, Mame Daouda; Léye, Yakham Mohamed; Berthé, Adama; Mourtalla Ka, Mamadou
2014-01-01
Introduction Les objectifs de notre travail étaient de déterminer les indications, les complications et l'apport diagnostique de la ponction biopsie hépatique (PBH) transpariétale. Méthodes Il s'agissait d'une étude rétrospective descriptive allant du janvier 2006 à décembre 2010, réalisée dans le service de Médecine Interne de l'hôpital de Pikine de Dakar. Etaient inclus, tous les malades ayant subi une biopsie hépatique, en ambulatoire ou en hospitalisation. Etaient exclus, tous les patients qui ont bénéficié d'une PBH dont les résultats n'ont pas été retrouvés. Les données suivantes étaient étudié: l’âge, le sexe, les indications, la taille du fragment biopsique, Le nombre de carottes, les complications, la comparaison des diagnostics pré biopsiques avec les comptes rendus histologiques. Résultats Ont été colligées 70 patients atteints d'hépatopathie chronique ayant bénéficiés d'une PBH. Il s'agissait de 46 hommes (65.71%) et 24 femmes (34.29%). L’âge moyen des patients était de 36 ans. Les PBH étaient réalisées en ambulatoire chez 58 patients (82.86%) et chez 12 malades hospitalisés (17,14%). Les indications étaient dominées par les hépatites virales chroniques dans 62,86% (44cas), suivi des processus tumoraux du foie dans 24.29% (17 cas). Les complications survenues chez 15 patients (21.43%) étaient représentées de 14 cas de douleur (20%) et d'un cas de malaise vagal (1.43%). Les 70 PBH effectuées ont ramené une carotte dans 35,71% des cas, 2 à 6 carottes dans 32,87% des cas. La longueur moyenne des fragments biopsiques était de 22 ±8 mm. Soixante-six résultats étaient interprétables et 4 non interprétables soit une performance diagnostique de 94,29%. Conclusion La PBH est de pratique sure, avec un respect des contres indications et une bonne maitrise de la technique. Son acceptabilité a été bonne dans notre pratique et sa rentabilité diagnostique excellente. Elle devrait être beaucoup plus vulgarisée dans notre pays, comme alternative aux moyens d'exploration non invasive. PMID:25452831
LES, DNS and RANS for the analysis of high-speed turbulent reacting flows
NASA Technical Reports Server (NTRS)
Adumitroaie, V.; Colucci, P. J.; Taulbee, D. B.; Givi, P.
1995-01-01
The purpose of this research is to continue our efforts in advancing the state of knowledge in large eddy simulation (LES), direct numerical simulation (DNS), and Reynolds averaged Navier Stokes (RANS) methods for the computational analysis of high-speed reacting turbulent flows. In the second phase of this work, covering the period 1 Aug. 1994 - 31 Jul. 1995, we have focused our efforts on two programs: (1) developments of explicit algebraic moment closures for statistical descriptions of compressible reacting flows and (2) development of Monte Carlo numerical methods for LES of chemically reacting flows.
NASA Astrophysics Data System (ADS)
Communier, David
Lors de l'etude structurelle d'une aile d'avion, il est difficile de modeliser fidelement les forces aerodynamiques subies par l'aile de l'avion. Pour faciliter l'analyse, on repartit la portance maximale theorique de l'aile sur son longeron principal ou sur ses nervures. La repartition utilisee implique que l'aile entiere sera plus resistante que necessaire et donc que la structure ne sera pas totalement optimisee. Pour pallier ce probleme, il faudrait s'assurer d'appliquer une repartition aerodynamique de la portance sur la surface complete de l'aile. On serait donc en mesure d'obtenir une repartition des charges sur l'aile beaucoup plus fiable. Pour le realiser, nous aurons besoin de coupler les resultats d'un logiciel calculant les charges aerodynamiques de l'aile avec les resultats d'un logiciel permettant sa conception et son analyse structurelle. Dans ce projet, le logiciel utilise pour calculer les coefficients de pression sur l'aile est XFLR5 et le logiciel permettant la conception et l'analyse structurelle sera CATIA V5. Le logiciel XFLR5 permet une analyse rapide d'une aile en se basant sur l'analyse de ses profils. Ce logiciel calcule les performances des profils de la meme maniere que XFOIL et permet de choisir parmi trois methodes de calcul pour obtenir les performances de l'aile : Lifting Line Theory (LLT), Vortex Lattice Method (VLM) et 3D Panels. Dans notre methodologie, nous utilisons la methode de calcul 3D Panels dont la validite a ete testee en soufflerie pour confirmer les calculs sur XFLR5. En ce qui concerne la conception et l'analyse par des elements finis de la structure, le logiciel CATIA V5 est couramment utilise dans le domaine aerospatial. CATIA V5 permet une automatisation des etapes de conception de l'aile. Ainsi, dans ce memoire, nous allons decrire la methodologie permettant l'etude aerostructurelle d'une aile d'avion.
Advanced Supersonic Nozzle Concepts: Experimental Flow Visualization Results Paired With LES
NASA Astrophysics Data System (ADS)
Berry, Matthew; Magstadt, Andrew; Stack, Cory; Gaitonde, Datta; Glauser, Mark; Syracuse University Team; The Ohio State University Team
2015-11-01
Advanced supersonic nozzle concepts are currently under investigation, utilizing multiple bypass streams and airframe integration to bolster performance and efficiency. This work focuses on the parametric study of a supersonic, multi-stream jet with aft deck. The single plane of symmetry, rectangular nozzle, displays very complex and unique flow characteristics. Flow visualization techniques in the form of PIV and schlieren capture flow features at various deck lengths and Mach numbers. LES is compared to the experimental results to both validate the computational model and identify limitations of the simulation. By comparing experimental results to LES, this study will help create a foundation of knowledge for advanced nozzle designs in future aircraft. SBIR Phase II with Spectral Energies, LLC under direction of Barry Kiel.
ERIC Educational Resources Information Center
Endicott, Jean; Nee, John; Yang, Ruoyong; Wohlberg, Christopher
2006-01-01
Objective: The pediatric version of the Short Form of the Quality of Life Enjoyment and Satisfaction Questionnaire (PQ-LES-Q) was developed to aid in the assessment of an important aspect of life experience in children and adolescents. Method: The reliability and validity of the PQ-LES-Q was tested using data from a sample of 376 outpatient…
NASA Astrophysics Data System (ADS)
de Laborderie, J.; Duchaine, F.; Gicquel, L.; Vermorel, O.; Wang, G.; Moreau, S.
2018-06-01
Large-Eddy Simulation (LES) is recognized as a promising method for high-fidelity flow predictions in turbomachinery applications. The presented approach consists of the coupling of several instances of the same LES unstructured solver through an overset grid method. A high-order interpolation, implemented within this coupling method, is introduced and evaluated on several test cases. It is shown to be third order accurate, to preserve the accuracy of various second and third order convective schemes and to ensure the continuity of diffusive fluxes and subgrid scale tensors even in detrimental interface configurations. In this analysis, three types of spurious waves generated at the interface are identified. They are significantly reduced by the high-order interpolation at the interface. The latter having the same cost as the original lower order method, the high-order overset grid method appears as a promising alternative to be used in all the applications.
A new approach for turbulent simulations in complex geometries
NASA Astrophysics Data System (ADS)
Israel, Daniel M.
Historically turbulence modeling has been sharply divided into Reynolds averaged Navier-Stokes (RANS), in which all the turbulent scales of motion are modeled, and large-eddy simulation (LES), in which only a portion of the turbulent spectrum is modeled. In recent years there have been numerous attempts to couple these two approaches either by patching RANS and LES calculations together (zonal methods) or by blending the two sets of equations. In order to create a proper bridging model, that is, a single set of equations which captures both RANS and LES like behavior, it is necessary to place both RANS and LES in a more general framework. The goal of the current work is threefold: to provide such a framework, to demonstrate how the Flow Simulation Methodology (FSM) fits into this framework, and to evaluate the strengths and weaknesses of the current version of the FSM. To do this, first a set of filtered Navier-Stokes (FNS) equations are introduced in terms of an arbitrary generalized filter. Additional exact equations are given for the second order moments and the generalized subfilter dissipation rate tensor. This is followed by a discussion of the role of implicit and explicit filters in turbulence modeling. The FSM is then described with particular attention to its role as a bridging model. In order to evaluate the method a specific implementation of the FSM approach is proposed. Simulations are presented using this model for the case of a separating flow over a "hump" with and without flow control. Careful attention is paid to error estimation, and, in particular, how using flow statistics and time series affects the error analysis. Both mean flow and Reynolds stress profiles are presented, as well as the phase averaged turbulent structures and wall pressure spectra. Using the phase averaged data it is possible to examine how the FSM partitions the energy between the coherent resolved scale motions, the random resolved scale fluctuations, and the subfilter quantities. The method proves to be qualitatively successful at reproducing large turbulent structures. However, like other hybrid methods, it has difficulty in the region where the model behavior transitions from RANS to LES. Consequently the phase averaged structures reproduce the experiments quite well, and the forcing does significantly reduce the length of the separated region. Nevertheless, the recirculation length is significantly too large for all the cases. Overall the current results demonstrate the promise of bridging models in general and the FSM in particular. However, current bridging techniques are still in their infancy. There is still important progress to be made and it is hoped that this work points out the more important avenues for exploration.
NASA Astrophysics Data System (ADS)
Podladchikova, O.
2002-02-01
The high temperature of the solar corona is still a puzzling problem of solar physics. However, the recent observations of satellites SoHO, Yohkoh or TRACE seem to indicate that the processes responsible for the heating of the closed regions are situated in the low corona or in the chromosphere, thus close to the sun surface, and are associated to the direct currents dissipation. Statistical data analysis suggest that the heating mechanisms result thus from numerous events of current layers dissipation of small scale and weak energy, on the resolution limit of modern instruments. We propose a statistical lattice model, resulting from an approach more physical than self-organized criticality, constituted by a magnetic energy source at small scales and by dissipation mechanisms of the currents, which can be associated either to magnetic reconnection or to anomalous resistivity. The various types of sources and mechanisms of dissipation allow to study their influence on the statistical properties of the system, in particular on the energy dissipation. With the aim of quantifying this behavior and allowing detailed comparisons between models and observations, analysis techniques little used in solar physics, such as the singular values decomposition, entropies, or Pearson technique of PDF classification are introduced and applied to the study of the spatial and temporal properties of the model. La température anormalement élevée de la couronne reste un des problèmes majeurs de la physique solaire. Toutefois, les observations récentes des satellites SoHO, Yohkoh ou TRACE semblent indiquer que les processus responsables du chauffage des régions fermées se situent dans la basse couronne ou dans la chromosphère, donc proches de la surface solaire, et sont associés à la dissipation de couches de courant continu. L'analyse statistique de données suggère que les mécanismes de chauffage résulteraient donc de nombreux événements de dissipation de couches de courant de petite échelle et de faible énergie, àla limite de la résolution des instruments modernes. Nous proposons un modèle statistique sur réseau, résultant d'une approche plus physique que la criticalité auto-organisée, constitué d'une source d'énergie magnétique de petite échelle et de mécanismes de dissipation des courants, qui peuvent être associés soit à la reconnection magnétique soit à la résistivité anormale. Les différents types de sources et de mécanismes de dissipation permettent d'étudier leur influence sur les propriétés statistiques du système, en particulier sur l'énergie dissipée. Dans le but de quantifier ces comportements et de permettre des comparaisons approfondies entres les modèles et les observations, des techniques d'analyse peu utilisées en physique solaire, telles que la décomposition en valeurs singulières, des entropies, ou la technique de Pearson de classification des densités de probabilité, sont introduites et appliquées `a l'étude des propriétés spatiales et temporelles du modèle.
Large-eddy simulation using the finite element method
DOE Office of Scientific and Technical Information (OSTI.GOV)
McCallen, R.C.; Gresho, P.M.; Leone, J.M. Jr.
1993-10-01
In a large-eddy simulation (LES) of turbulent flows, the large-scale motion is calculated explicitly (i.e., approximated with semi-empirical relations). Typically, finite difference or spectral numerical schemes are used to generate an LES; the use of finite element methods (FEM) has been far less prominent. In this study, we demonstrate that FEM in combination with LES provides a viable tool for the study of turbulent, separating channel flows, specifically the flow over a two-dimensional backward-facing step. The combination of these methodologies brings together the advantages of each: LES provides a high degree of accuracy with a minimum of empiricism for turbulencemore » modeling and FEM provides a robust way to simulate flow in very complex domains of practical interest. Such a combination should prove very valuable to the engineering community.« less
LES of a ducted propeller with rotor and stator in crashback
NASA Astrophysics Data System (ADS)
Jang, Hyunchul; Mahesh, Krishnan
2012-11-01
A sliding interface method is developed for large eddy simulation (LES) of flow past ducted propellers with both rotor and stator. The method is developed for arbitrarily shaped unstructured elements on massively parallel computing platforms. Novel algorithms for searching sliding elements, interpolation at the sliding interface, and data structures for message passing are developed. We perform LES of flow past a ducted propeller with stator blades in the crashback mode of operation, where a marine vessel is quickly decelerated by rotating the propeller in reverse. The unsteady loads predicted by LES are in good agreement with experiments. A highly unsteady vortex ring is observed outside the duct. High pressure fluctuations are observed near the blade tips, which significantly contribute to the side-force. This work is supported by the United States Office of Naval Research.
Quelle place pour l’anesthésie locorégionale chez les brûlés?
Chaibdraa, A.; Medjelekh, M.S.; Saouli, A.; Bentakouk, M.C.
2015-01-01
Summary La pratique de l’anesthésie locorégionale chez les brûlés est limitée par de nombreux facteurs. Elle est considérée comme marginale dans l’approche multimodale du traitement de la douleur par excès de nociception. Ce travail rétrospectif, sur une période de 3 années, porte sur les anesthésies locorégionales (ALR) réalisées. Les résultats obtenus vont permettre, en regard de la rareté des données de la littérature, de formuler quelques suggestions sur la place de cette technique. Il a été recensé 634 ALR, dont 96% chez des adultes. Les membres inférieurs sont les plus concernés (76%). Des anesthésies rachidiennes ont été pratiquées chez 32 patients dont 4 enfants. Les incidents sont peu fréquents (3%) et sans gravité. L’ALR peut représenter une option utile dans la stratégie multimodale de prise en charge de la douleur, la réhabilitation passive précoce et la chirurgie de recouvrement par la greffe de peau. Elle mérite d’être explorée en ambulatoire, dans la mesure où 95% des brûlés ne sont pas hospitalisés. La place de l’anesthésie-locorégionale chez les brûlés devrait susciter plus d’intérêts, pour permettre d’établir des protocoles fondés sur une réflexion pluridisciplinaire. PMID:27279806
NASA Astrophysics Data System (ADS)
Lirette-Pitre, Nicole T.
2009-07-01
La reussite scolaire des filles les amene de plus en plus a poursuivre une formation postsecondaire et a exercer des professions qui demandent un haut niveau de connaissances et d'expertise scientifique. Toutefois, les filles demeurent toujours tres peu nombreuses a envisager une carriere en sciences (chimie et physique), en ingenierie ou en TIC (technologie d'information et de la communication), soit une carriere reliee a la nouvelle economie. Pour plusieurs filles, les sciences et les TIC ne sont pas des matieres scolaires qu'elles trouvent interessantes meme si elles y reussissent tres bien. Ces filles admettent que leurs experiences d'apprentissage en sciences et en TIC ne leur ont pas permis de developper un interet ni de se sentir confiante en leurs habiletes a reussir dans ces matieres. Par consequent, peu de filles choisissent de poursuivre leurs etudes postsecondaires dans ces disciplines. La theorie sociocognitive du choix carriere a ete choisie comme modele theorique pour mieux comprendre quelles variables entrent en jeu lorsque les filles choisissent leur carriere. Notre etude a pour objet la conception et l'evaluation de l'efficacite d'un materiel pedagogique concu specifiquement pour ameliorer les experiences d'apprentissage en sciences et en TIC des filles de 9e annee au Nouveau-Brunswick. L'approche pedagogique privilegiee dans notre materiel a mis en oeuvre des strategies pedagogiques issues des meilleures pratiques que nous avons identifiees et qui visaient particulierement l'augmentation du sentiment d'auto-efficacite et de l'interet des filles pour ces disciplines. Ce materiel disponible par Internet a l'adresse http://www.umoncton.ca/lirettn/scientic est directement en lien avec le programme d'etudes en sciences de la nature de 9e annee du Nouveau-Brunswick. L'evaluation de l'efficacite de notre materiel pedagogique a ete faite selon deux grandes etapes methodologiques: 1) l'evaluation de l'utilisabilite et de la convivialite du materiel et 2) l'evaluation de l'effet du materiel en fonction de diverses variables reliees a l'interet et au sentiment d'auto-efficacite des filles en sciences et en TIC. Cette recherche s'est inscrite dans un paradigme pragmatique de recherche. Le pragmatisme a guide nos choix en ce qui a trait au modele de recherche et des techniques utilisees. Cette recherche a associe a la fois des techniques qualitatives et quantitatives, particulierement en ce qui concerne la collecte et l'analyse de donnees. Les donnees recueillies dans la premiere etape de l'evaluation de l'utilisabilite et de la convivialite du materiel par les enseignantes et les enseignants de sciences et les filles ont revele que le materiel concu est tres utilisable et convivial. Toutefois quelques petites ameliorations seront apportees a une version subsequente afin de faciliter davantage la navigation. Quant a l'evaluation des effets du materiel concu sur les variables reliees au sentiment d'auto-efficacite et aux interets lors de l'etape quasi experimentale, nos donnees qualitatives ont indique que ce materiel a eu des effets positifs sur le sentiment d'auto-efficacite et sur les interets des filles qui l'ont utilise. Toutefois, nos donnees quantitatives n'ont pas permis d'inferer un lien causal direct entre l'utilisation du materiel et l'augmentation du sentiment d'auto-efficacite et des interets des filles en sciences et en TIC. A la lumiere des resultats obtenus, nous avons conclu que le materiel a eu les effets escomptes. Donc, nous recommandons la creation et l'utilisation de materiel de ce genre dans toutes les classes de sciences de la 6e annee a la 12e annee au Nouveau-Brunswick.
Validating LES for Jet Aeroacoustics
NASA Technical Reports Server (NTRS)
Bridges, James; Wernet, Mark P.
2011-01-01
Engineers charged with making jet aircraft quieter have long dreamed of being able to see exactly how turbulent eddies produce sound and this dream is now coming true with the advent of large eddy simulation (LES). Two obvious challenges remain: validating the LES codes at the resolution required to see the fluid-acoustic coupling, and the interpretation of the massive datasets that are produced. This paper addresses the former, the use of advanced experimental techniques such as particle image velocimetry (PIV) and Raman and Rayleigh scattering, to validate the computer codes and procedures used to create LES solutions. This paper argues that the issue of accuracy of the experimental measurements be addressed by cross-facility and cross-disciplinary examination of modern datasets along with increased reporting of internal quality checks in PIV analysis. Further, it argues that the appropriate validation metrics for aeroacoustic applications are increasingly complicated statistics that have been shown in aeroacoustic theory to be critical to flow-generated sound, such as two-point space-time velocity correlations. A brief review of data sources available is presented along with examples illustrating cross-facility and internal quality checks required of the data before it should be accepted for validation of LES.
Appel pour une allocation intelligente dans le financement du système de santé au Cameroun
Sieleunou, Isidore
2011-01-01
Le Cameroun utilise un système de budgétisation historique et une approche «top-down» pour allouer ses ressources de santé publique. Cependant, le pays compte 175 districts de santé dont les fortes disparités de nature épidémiologique, économique, géographique et culturelle, devraient être prises en compte pour réduire les iniquités en matière de sante publique. Comment comprendre alors que dans ces conditions, le budget des administrations publiques alloué aux différents districts de santé au Cameroun soit quasi identique alors que les défis sont si différents? L'inefficience allocative (mauvaise attribution du budget) générée par un tel système conduit vraisemblablement à une inefficience technique (mauvaise utilisation du budget). Pour la marche vers l'atteinte des objectifs du millénaire en matière de sante, il est impératif et urgent que les décideurs du secteur de la santé allouent de manière intelligente les ressources dans le système de santé. PMID:22355420
Implementation en VHDl/FPGA d'afficheur video numerique (AVN) pour des applications aerospatiales
NASA Astrophysics Data System (ADS)
Pelletier, Sebastien
L'objectif de ce projet est de developper un controleur video en langage VHDL afin de remplacer la composante specialisee presentement utilisee chez CMC Electronique. Une recherche approfondie des tendances et de ce qui se fait actuellement dans le domaine des controleurs video est effectuee afin de definir les specifications du systeme. Les techniques d'entreposage et d'affichage des images sont expliquees afin de mener ce projet a terme. Le nouveau controleur est developpe sur une plateforme electronique possedant un FPGA, un port VGA et de la memoire pour emmagasiner les donnees. Il est programmable et prend peu d'espace dans un FPGA, ce qui lui permet de s'inserer dans n'importe quelle nouvelle technologie de masse a faible cout. Il s'adapte rapidement a toutes les resolutions d'affichage puisqu'il est modulaire et configurable. A court terme, ce projet permettra un controle ameliore des specifications et des normes de qualite liees aux contraintes de l'avionique.
Calibration and Forward Uncertainty Propagation for Large-eddy Simulations of Engineering Flows
DOE Office of Scientific and Technical Information (OSTI.GOV)
Templeton, Jeremy Alan; Blaylock, Myra L.; Domino, Stefan P.
2015-09-01
The objective of this work is to investigate the efficacy of using calibration strategies from Uncertainty Quantification (UQ) to determine model coefficients for LES. As the target methods are for engineering LES, uncertainty from numerical aspects of the model must also be quantified. 15 The ultimate goal of this research thread is to generate a cost versus accuracy curve for LES such that the cost could be minimized given an accuracy prescribed by an engineering need. Realization of this goal would enable LES to serve as a predictive simulation tool within the engineering design process.
Navigation d'un vehicule autonome autour d'un asteroide
NASA Astrophysics Data System (ADS)
Dionne, Karine
Les missions d'exploration planetaire utilisent des vehicules spatiaux pour acquerir les donnees scientifiques qui font avancer notre connaissance du systeme solaire. Depuis les annees 90, ces missions ciblent non seulement les planetes, mais aussi les corps celestes de plus petite taille comme les asteroides. Ces astres representent un defi particulier du point de vue des systemes de navigation, car leur environnement dynamique est complexe. Une sonde spatiale doit reagir rapidement face aux perturbations gravitationnelles en presence, sans quoi sa securite pourrait etre compromise. Les delais de communication avec la Terre pouvant souvent atteindre plusieurs dizaines de minutes, il est necessaire de developper des logiciels permettant une plus grande autonomie d'operation pour ce type de mission. Ce memoire presente un systeme de navigation autonome qui determine la position et la vitesse d'un satellite en orbite autour d'un asteroide. Il s'agit d'un filtre de Kalman etendu adaptatif a trois degres de liberte. Le systeme propose se base sur l'imagerie optique pour detecter des " points de reperes " qui ont ete prealablement cartographies. Il peut s'agir de crateres, de rochers ou de n'importe quel trait physique discernable a la camera. Les travaux de recherche realises se concentrent sur les techniques d'estimation d'etat propres a la navigation autonome. Ainsi, on suppose l'existence d'un logiciel approprie qui realise les fonctions de traitement d'image. La principale contribution de recherche consiste en l'inclusion, a chaque cycle d'estimation, d'une mesure de distance afin d'ameliorer les performances de navigation. Un estimateur d'etat de type adaptatif est necessaire pour le traitement de ces mesures, car leur precision varie dans le temps en raison de l'erreur de pointage. Les contributions secondaires de recherche sont liees a l'analyse de l'observabilite du systeme ainsi qu'a une analyse de sensibilite pour six parametres principaux de conception. Les resultats de simulation montrent que l'ajout d'une mesure de distance par cycle de mise a jour entraine une amelioration significative des performances de navigation. Ce procede reduit l'erreur d'estimation ainsi que les periodes de non-observabilite en plus de contrer la dilution de precision des mesures. Les analyses de sensibilite confirment quant a elles la contribution des mesures de distance a la diminution globale de l'erreur d'estimation et ce pour une large gamme de parametres de conception. Elles indiquent egalement que l'erreur de cartographie est un parametre critique pour les performances du systeme de navigation developpe. Mots cles : Estimation d'etat, filtre de Kalman adaptatif, navigation optique, lidar, asteroide, simulations numeriques
Approche en soins primaires pour les problèmes de consommation de cannabis
Turner, Suzanne D.; Spithoff, Sheryl; Kahan, Meldon
2014-01-01
Résumé Objectif Étudier les caractéristiques et complications cliniques de la consommation à risque de cannabis et du trouble de consommation de cannabis, et présenter un protocole en cabinet pour le dépistage, l’identification et la prise en charge de ces problèmes. Sources des données Une recherche des essais contrôlés, des études d’observation et des révisions sur l’usage de cannabis par les adolescents et les jeunes adultes; les méfaits psychiatriques et médicaux liés au cannabis; le trouble de consommation de cannabis et son traitement; et les lignes directrices sur la consommation à faible risque de cannabis a été effectuée dans PubMed. Message principal Les médecins doivent questionner tous leurs patients quant à leur usage de cannabis. Ils doivent questionner plus souvent les adolescents et jeunes adultes de même que les personnes qui présentent un risque élevé de problèmes liés au cannabis (qui ont un trouble psychiatrique ou de consommation de drogue concomitant). Les problèmes pouvant être causés par le cannabis, comme les troubles de l’humeur, la psychose et les symptômes respiratoires, devraient susciter des questions sur la consommation de cannabis. Aux patients qui rapportent un usage de cannabis, les médecins devraient poser des questions sur la fréquence et la quantité consommée, la présence de symptômes de tolérance ou de sevrage, les tentatives de réduire leur consommation et la présence de problèmes liés au cannabis. Les usagers à faible risque fument, inhalent ou ingèrent le cannabis occasionnellement sans aucun signe de dysfonctionnement scolaire, professionnel ou social; les personnes dont l’usage est problématique consomment tous les jours ou presque tous les jours, ont de la difficulté à réduire leur consommation et leur fonctionnement scolaire, professionnel et social est perturbé. Les médecins devraient offrir à tous les patients dont l’usage est problématique des conseils et un bref counseling, en insistant sur les effets du cannabis sur la santé et en visant l’abstinence (certains groupes à risque élevé devraient s’abstenir complètement de consommer du cannabis) ou la réduction de la consommation, et ils doivent fournir des stratégies pratiques de réduction de la consommation. Les techniques d’entrevue motivationnelle doivent faire partie des séances de counseling. Les médecins devraient aiguiller les patients qui sont incapables de réduire leur consommation ou qui présentent des problèmes liés à leur usage de cannabis vers des soins spécialisés, tout en veillant à ce qu’ils demeurent en contact avec leur généraliste. De plus, les médecins devraient donner à tous les usagers de cannabis de l’information sur la consommation à faible risque. Conclusion Les médecins devraient effectuer au moins une fois chez tous leurs patients de leur pratique un test de dépistage de l’usage de cannabis, particulièrement chez les patients qui présentent des problèmes pouvant être causés par le cannabis. Les tests de dépistage doivent être plus fréquents chez les personnes à risque, soit au moins tous les ans. Il faut savoir distinguer la consommation à faible risque de l’usage problématique. Les patients dont l’usage est problématique doivent recevoir de brèves séances de counseling et ces patients doivent être aiguillés vers un spécialiste s’ils sont incapables de réduire leur consommation ou d’y mettre un terme.
Five-equation and robust three-equation methods for solution verification of large eddy simulation
NASA Astrophysics Data System (ADS)
Dutta, Rabijit; Xing, Tao
2018-02-01
This study evaluates the recently developed general framework for solution verification methods for large eddy simulation (LES) using implicitly filtered LES of periodic channel flows at friction Reynolds number of 395 on eight systematically refined grids. The seven-equation method shows that the coupling error based on Hypothesis I is much smaller as compared with the numerical and modeling errors and therefore can be neglected. The authors recommend five-equation method based on Hypothesis II, which shows a monotonic convergence behavior of the predicted numerical benchmark ( S C ), and provides realistic error estimates without the need of fixing the orders of accuracy for either numerical or modeling errors. Based on the results from seven-equation and five-equation methods, less expensive three and four-equation methods for practical LES applications were derived. It was found that the new three-equation method is robust as it can be applied to any convergence types and reasonably predict the error trends. It was also observed that the numerical and modeling errors usually have opposite signs, which suggests error cancellation play an essential role in LES. When Reynolds averaged Navier-Stokes (RANS) based error estimation method is applied, it shows significant error in the prediction of S C on coarse meshes. However, it predicts reasonable S C when the grids resolve at least 80% of the total turbulent kinetic energy.
NASA Astrophysics Data System (ADS)
Bretin, Remy
L'endommagement par fatigue des materiaux est un probleme courant dans de nombreux domaines, dont celui de l'aeronautique. Afin de prevenir la rupture par fatigue des materiaux il est necessaire de determiner leur duree de vie en fatigue. Malheureusement, dues aux nombreuses heterogeneites presentes, la duree de vie en fatigue peut fortement varier entre deux pieces identiques faites dans le meme materiau ayant subi les memes traitements. Il est donc necessaire de considerer ces heterogeneites dans nos modeles afin d'avoir une meilleure estimation de la duree de vie des materiaux. Comme premiere etape vers une meilleure consideration des heterogeneites dans nos modeles, une etude en elasticite lineaire de l'influence des orientations cristallographiques sur les champs de deformations et de contraintes dans un polycristal a ete realisee a l'aide de la methode des elements finis. Des correlations ont pu etre etablies a partir des resultats obtenus, et un modele analytique en elasticite lineaire prenant en compte les distributions d'orientations cristallographiques et les effets de voisinage a pu etre developpe. Ce modele repose sur les bases des modeles d'homogeneisation classique, comme le schema auto-coherent, et reprend aussi les principes de voisinage des automates cellulaires. En prenant pour reference les resultats des analyses elements finis, le modele analytique ici developpe a montre avoir une precision deux fois plus grande que le modele auto-coherent, quel que soit le materiau etudie.
La manucure et la pédicure dans la ville de Ouagadougou (Burkina Faso): pratiques et risqué
Korsaga-Somé, Nina; Andonaba, Jean Baptiste; Ouédraogo, Muriel Sidnoma; Tapsoba, Gilbert Patrice; Ilboudo, Léopold; Savadogo, Cérina; Barro-Traoré, Fatou; Niamba, Pascal; Traoré, Adama
2016-01-01
La manucure-pédicure est l'ensemble des soins esthétiques des mains, des pieds et des ongles. Au Burkina Faso, l'usage des produits de manucure-pédicure, les techniques utilisées ainsi que les risques encourus restent méconnus. L'objectif de notre étude était d’évaluer la pratique de la manucure-pédicure dans la ville de Ouagadougou. Nous avons mené une étude transversale descriptive de décembre 2010 à novembre 2012 incluant tout les praticiens ayant au moins six mois d'expérience dans l'activité et les clients présents sur les lieux au moment de l'enquête. Nous avons interrogé au total 313 praticiens et 313 clients. L’âge moyen des praticiens était de 19 ans et celui des clients de 32,2 ans. Les praticiens fixes étaient en majorité des femmes (96,87%), ceux mobiles surtout des hommes (68,37%), et 64,53% des clients étaient des femmes. Le pourcentage de praticiens n'ayant pas reçu de formation professionnelle était de 93,92%. 29,7% des praticiens faisaient tremper les instruments pendant au moins dix minutes dans de l'eau de javel; 75,71% savaient que l'utilisation de certains outils étaient dangereux et 26,51% étaient avaient présenté des effets secondaires. Parmi les clients, 40,25% savaient que le matériel utilisé comportait des risques et 30,35% avaient été victimes d'accidents. Les soins de manucure et de pédicure se font dans les salons de coiffure par des coiffeuses non formées à l'exercice de la profession La provenance et la composition des produits n'est pas connues. Des produits non recommandés sont utilisés (shampooing pour trempage des pieds, lame de rasoir et ciseaux pour raclage des pieds). Le recours à la manucure et/ou pédicure est parfois nécessaire mais cela ne doit pas faire perdre de vue les risques encourus. Une sensibilisation des clients et une formation des praticiens semblent nécessaires pour minimiser les risques. PMID:27642448
Haijoubi, El Houcine; Benyahya, Fatiha; Bendahou, Abdrezzak; Essadqui, Faima Zahra; Behhari, Mohammed El; El Mamoune, Ahmed Fouad; Ghailani, Naima Nourouti; Mechita, Mohcine Bennani; Barakat, Amina
2017-01-01
Introduction L'eau est utilisée d'une façon primordiale dans tout le processus de la fabrication des produits alimentaires. Les industries agroalimentaires du Nord du Maroc utilisent différentes sources d'eaux mais l'eau de réseau public et l'eau de puits sont les principales sources d'eau utilisée. Cette eau peut s'avérer la source principale des éventuelles contaminations et altérations des aliments. Notre but est d'évaluer la qualité bactériologique de l'eau utilisée par les industries agroalimentaires dans la région du Nord du Maroc, d'identifier les différents germes responsables de la pollution de ces eaux et de définir les principales causes de cette pollution. Méthodes Des échantillons d'eau prélevés aux robinets ou des puits ont été analysés pour la recherche des germes indicateurs de la pollution (coliformes totaux (CT), coliformes fécaux (CF), entérocoques intestinaux (E), microorganismes revivifiables (MOR), anaérobies sulfitoréducteurs) et les germes pathogènes (Salmonelles, Staphylocoques, Pseudomonas aeruginosa). Le dénombrement des bactéries a été fait par la technique de filtration et par incorporation en milieu solide en surfusion. Résultats Les résultats ont montré que les eaux du réseau public ont été de qualité bactériologique satisfaisante tandis que 40% des eaux des puits ont été non conformes aux normes à cause de la présence des indicateurs de pollution CT, CF, E et MOR. En revanche, les germes pathogènes, en particulier les Salmonelles, ont été absents dans les eaux de tous les puits analysés. Conclusion La pollution de ces puits a été généralement liée au non-respect des conditions de puisage hygiéniques. La qualité bactériologique des eaux de ces puits peut être améliorée par une protection adéquate. PMID:28450992
A survey of modelling methods for high-fidelity wind farm simulations using large eddy simulation.
Breton, S-P; Sumner, J; Sørensen, J N; Hansen, K S; Sarmast, S; Ivanell, S
2017-04-13
Large eddy simulations (LES) of wind farms have the capability to provide valuable and detailed information about the dynamics of wind turbine wakes. For this reason, their use within the wind energy research community is on the rise, spurring the development of new models and methods. This review surveys the most common schemes available to model the rotor, atmospheric conditions and terrain effects within current state-of-the-art LES codes, of which an overview is provided. A summary of the experimental research data available for validation of LES codes within the context of single and multiple wake situations is also supplied. Some typical results for wind turbine and wind farm flows are presented to illustrate best practices for carrying out high-fidelity LES of wind farms under various atmospheric and terrain conditions.This article is part of the themed issue 'Wind energy in complex terrains'. © 2017 The Author(s).
A survey of modelling methods for high-fidelity wind farm simulations using large eddy simulation
Sumner, J.; Sørensen, J. N.; Hansen, K. S.; Sarmast, S.; Ivanell, S.
2017-01-01
Large eddy simulations (LES) of wind farms have the capability to provide valuable and detailed information about the dynamics of wind turbine wakes. For this reason, their use within the wind energy research community is on the rise, spurring the development of new models and methods. This review surveys the most common schemes available to model the rotor, atmospheric conditions and terrain effects within current state-of-the-art LES codes, of which an overview is provided. A summary of the experimental research data available for validation of LES codes within the context of single and multiple wake situations is also supplied. Some typical results for wind turbine and wind farm flows are presented to illustrate best practices for carrying out high-fidelity LES of wind farms under various atmospheric and terrain conditions. This article is part of the themed issue ‘Wind energy in complex terrains’. PMID:28265021
NASA Astrophysics Data System (ADS)
Varlet, Madeleine
Le recours aux modeles et a la modelisation est mentionne dans la documentation scientifique comme un moyen de favoriser la mise en oeuvre de pratiques d'enseignement-apprentissage constructivistes pour pallier les difficultes d'apprentissage en sciences. L'etude prealable du rapport des enseignantes et des enseignants aux modeles et a la modelisation est alors pertinente pour comprendre leurs pratiques d'enseignement et identifier des elements dont la prise en compte dans les formations initiale et disciplinaire peut contribuer au developpement d'un enseignement constructiviste des sciences. Plusieurs recherches ont porte sur ces conceptions sans faire de distinction selon les matieres enseignees, telles la physique, la chimie ou la biologie, alors que les modeles ne sont pas forcement utilises ou compris de la meme maniere dans ces differentes disciplines. Notre recherche s'est interessee aux conceptions d'enseignantes et d'enseignants de biologie au secondaire au sujet des modeles scientifiques, de quelques formes de representations de ces modeles ainsi que de leurs modes d'utilisation en classe. Les resultats, que nous avons obtenus au moyen d'une serie d'entrevues semi-dirigees, indiquent que globalement leurs conceptions au sujet des modeles sont compatibles avec celle scientifiquement admise, mais varient quant aux formes de representations des modeles. L'examen de ces conceptions temoigne d'une connaissance limitee des modeles et variable selon la matiere enseignee. Le niveau d'etudes, la formation prealable, l'experience en enseignement et un possible cloisonnement des matieres pourraient expliquer les differentes conceptions identifiees. En outre, des difficultes temporelles, conceptuelles et techniques peuvent freiner leurs tentatives de modelisation avec les eleves. Toutefois, nos resultats accreditent l'hypothese que les conceptions des enseignantes et des enseignants eux-memes au sujet des modeles, de leurs formes de representation et de leur approche constructiviste en enseignement representent les plus grands obstacles a la construction des modeles en classe. Mots-cles : Modeles et modelisation, biologie, conceptions, modes d'utilisation, constructivisme, enseignement, secondaire.
Fluctuations quantiques et instabilites structurales dans les conducteurs a basse dimensionalite
NASA Astrophysics Data System (ADS)
Dikande, Alain Moise
Un engouement particulier s'est manifeste ces dernieres annees pour les systemes electroniques fortement correles, ce en rapport avec l'immense richesse de leurs proprietes physiques. En general, ces proprietes sont induites par la presence d'interactions entre electrons qui, combinees a la structure du reseau moleculaire, donnent parfois lieu a une tres grande variete de phases electroniques et structurales ayant des incidences directes sur les phenomenes de transport dans ces materiaux. Les systemes electroniques couples a un reseau moleculaire et designes systemes electron-phonon font partie de cette classe de materiaux qui ont recemment capte l'attention, en raison notamment de la competition entre plusieurs echelles d'energie dans un environnement caracterise par une forte anisotropie cristalline et une dynamique moleculaire assez importante. En effet, en plus des proprietes electroniques et structurales particulieres la dimensionalite de ces systemes contribue egalement a leur richesse. Ainsi, une tres forte anisotropie structurale peut rehausser de facon considerable l'importance des interactions entre electrons et entre molecules constituant le reseau au point ou la physique du systeme soit regie par de tres fortes fluctuations. Ce dernier contexte est devenu un domaine a part de la physique des systemes fortement correles, a savoir celui des les phenomenes critiques quantiques . Parmi les systemes electron-phonon, on retrouve les composes inorganique KCP et organique TTF-TCNQ decouverts durant les annees 70, et explores en profondeur a cause de leur tendance vers une instabilite du type onde de densite de charge a basse temperature. Ces composes, en general designes systemes de Peierls en reference a l'instabilite de leurs structures electroniques regie par le reseau moleculaire, ont recemment connu un regain d'interet a la lumiere des nouveaux developpements dans les techniques de caracterisation des structures electroniques ainsi que sur le plan de concepts tel le Liquide de Luttinger, propres aux systemes electroniques a une dimension. (Abstract shortened by UMI.)
Jones, R T; Chahal, S P
1997-10-01
The use of 14C-labelled amino acids enables the measurement of both the total substantivity to hair and the degree of penetration into the hair shaft of amino acid mixtures derived from complete hydrolysis of proteins. The technique utilizes the fact that direct measurement of 14C radioactivity of the treated hair detects only the surface substantivity. Total substantivity can be determined following solubilization of the hair. Data obtained for wheat amino acids show significant penetration when used to treat hair from a shampoo or conditioner formulation. A similar technique has been investigated for a wheat protein partial hydrolysate using 14CNO for radiolabelling purposes and shows that significant penetration into hair can occur. L'utilisation d'amino-acides marques au 14C permet la mesure a la fois de l'absorption totale par les cheveux et du degre de penetration dans la fibre du cheveu de melanges d'amino-acides obtenus a partir d'une hydrolyse totale de proteines. La technique utilise le fait que la mesure directe de la radioactivite du 14C des cheveux traites ne detecte que l'absorption en surface. L'absorption totale peut etre determinee apres solubilisation des cheveux. Les donnees obtenues a partir d'amino-acides de ble montrent une penetration significative lors d'une utilisation pour traiter des cheveux a partir d'une formulation de shampoing ou d'apres-shampoing. Une technique similaire a ete exploree vis-a-vis d'un hydrolysat partiel d'une proteine de ble utilisant 14CNO a des fins de marquage, et montre qu'une penetration significative dans les cheveux peut avoir lieu.
Caracterisation thermique de modules de refroidissement pour la photovoltaique concentree
NASA Astrophysics Data System (ADS)
Collin, Louis-Michel
Pour rentabiliser la technologie des cellules solaires, une reduction du cout d'exploitation et de fabrication est necessaire. L'utilisation de materiaux photovoltaiques a un impact appreciable sur le prix final par quantite d'energie produite. Une technologie en developpement consiste a concentrer la lumiere sur les cellules solaires afin de reduire cette quantite de materiaux. Or, concentrer la lumiere augmente la temperature de la cellule et diminue ainsi son efficacite. Il faut donc assurer a la cellule un refroidissement efficace. La charge thermique a evacuer de la cellule passe au travers du recepteur, soit la composante soutenant physiquement la cellule. Le recepteur transmet le flux thermique de la cellule a un systeme de refroidissement. L'ensemble recepteur-systeme de refroidissement se nomme module de refroidissement. Habituellement, la surface du recepteur est plus grande que celle de la cellule. La chaleur se propage donc lateralement dans le recepteur au fur et a mesure qu'elle traverse le recepteur. Une telle propagation de la chaleur fournit une plus grande surface effective, reduisant la resistance thermique apparente des interfaces thermiques et du systeme de refroidissement en aval vers le module de refroidissement. Actuellement, aucune installation ni methode ne semble exister afin de caracteriser les performances thermiques des recepteurs. Ce projet traite d'une nouvelle technique de caracterisation pour definir la diffusion thermique du recepteur a l'interieur d'un module de refroidissement. Des indices de performance sont issus de resistances thermiques mesurees experimentalement sur les modules. Une plateforme de caracterisation est realisee afin de mesurer experimentalement les criteres de performance. Cette plateforme injecte un flux thermique controle sur une zone localisee de la surface superieure du recepteur. L'injection de chaleur remplace le flux thermique normalement fourni par la cellule. Un systeme de refroidissement est installe a la surface opposee du recepteur pour evacuer la chaleur injectee. Les resultats mettent egalement en evidence l'importance des interfaces thermiques et les avantages de diffuser la chaleur dans les couches metalliques avant de la conduire au travers des couches dielectriques du recepteur. Des recepteurs de multiples compositions ont ete caracterises, demontrant que les outils developpes peuvent definir la capacite de diffusion thermique. La repetabilite de la plateforme est evaluee par l'analyse de l'etendue des mesures repetees sur des echantillons selectionnes. La plateforme demontre une precision et reproductibilite de +/- 0.14 ° C/W. Ce travail fournit des outils pour la conception des recepteurs en proposant une mesure qui permet de comparer et d'evaluer l'impact thermique de ces recepteurs integres a uri module de refroidissement. Mots-cles : cellule solaire, photovoltaique, transfert de chaleur, concentration, resistances thermiques, plateforme de caracterisation, refroidissement
1993-04-01
PROCEEDINGS 514 OELECTE f Theoretical and A U Experimental Methods in A Hypersonic Flows (Les Methodes Th6oriques et Experimentales pour 1’Etude des...nitrogen ent for both equilibrium and non -equilibrium chemistry between the two groups . Both groups state that the boundary makes this mode even more...flowfield on control is also m?,ndatory unstable due to the necessary oblate shape of Hermes. when the experimental rebuilding is clearly poor and
WRF nested large-eddy simulations of deep convection during SEAC4RS
NASA Astrophysics Data System (ADS)
Heath, Nicholas K.; Fuelberg, Henry E.; Tanelli, Simone; Turk, F. Joseph; Lawson, R. Paul; Woods, Sarah; Freeman, Sean
2017-04-01
Large-eddy simulations (LES) and observations are often combined to increase our understanding and improve the simulation of deep convection. This study evaluates a nested LES method that uses the Weather Research and Forecasting (WRF) model and, specifically, tests whether the nested LES approach is useful for studying deep convection during a real-world case. The method was applied on 2 September 2013, a day of continental convection that occurred during the Studies of Emissions and Atmospheric Composition, Clouds and Climate Coupling by Regional Surveys (SEAC4RS) campaign. Mesoscale WRF output (1.35 km grid length) was used to drive a nested LES with 450 m grid spacing, which then drove a 150 m domain. Results reveal that the 450 m nested LES reasonably simulates observed reflectivity distributions and aircraft-observed in-cloud vertical velocities during the study period. However, when examining convective updrafts, reducing the grid spacing to 150 m worsened results. We find that the simulated updrafts in the 150 m run become too diluted by entrainment, thereby generating updrafts that are weaker than observed. Lastly, the 450 m simulation is combined with observations to study the processes forcing strong midlevel cloud/updraft edge downdrafts that were observed on 2 September. Results suggest that these strong downdrafts are forced by evaporative cooling due to mixing and by perturbation pressure forces acting to restore mass continuity around neighboring updrafts. We conclude that the WRF nested LES approach, with further development and evaluation, could potentially provide an effective method for studying deep convection in real-world cases.
Large eddy simulations and direct numerical simulations of high speed turbulent reacting flows
NASA Technical Reports Server (NTRS)
Givi, P.; Frankel, S. H.; Adumitroaie, V.; Sabini, G.; Madnia, C. K.
1993-01-01
The primary objective of this research is to extend current capabilities of Large Eddy Simulations (LES) and Direct Numerical Simulations (DNS) for the computational analyses of high speed reacting flows. Our efforts in the first two years of this research have been concentrated on a priori investigations of single-point Probability Density Function (PDF) methods for providing subgrid closures in reacting turbulent flows. In the efforts initiated in the third year, our primary focus has been on performing actual LES by means of PDF methods. The approach is based on assumed PDF methods and we have performed extensive analysis of turbulent reacting flows by means of LES. This includes simulations of both three-dimensional (3D) isotropic compressible flows and two-dimensional reacting planar mixing layers. In addition to these LES analyses, some work is in progress to assess the extent of validity of our assumed PDF methods. This assessment is done by making detailed companions with recent laboratory data in predicting the rate of reactant conversion in parallel reacting shear flows. This report provides a summary of our achievements for the first six months of the third year of this program.
Le niobate de lithium a haute temperature pour les applications ultrasons =
NASA Astrophysics Data System (ADS)
De Castilla, Hector
L'objectif de ce travail de maitrise en sciences appliquees est de trouver puis etudier un materiau piezoelectrique qui est potentiellement utilisable dans les transducteurs ultrasons a haute temperature. En effet, ces derniers sont actuellement limites a des temperatures de fonctionnement en dessous de 300°C a cause de l'element piezoelectrique qui les compose. Palier a cette limitation permettrait des controles non destructifs par ultrasons a haute temperature. Avec de bonnes proprietes electromecaniques et une temperature de Curie elevee (1200°C), le niobate de lithium (LiNbO 3) est un bon candidat. Mais certaines etudes affirment que des processus chimiques tels que l'apparition de conductivite ionique ou l'emergence d'une nouvelle phase ne permettent pas son utilisation dans les transducteurs ultrasons au-dessus de 600°C. Cependant, d'autres etudes plus recentes ont montre qu'il pouvait generer des ultrasons jusqu'a 1000°C et qu'aucune conductivite n'etait visible. Une hypothese a donc emerge : une conductivite ionique est presente dans le niobate de lithium a haute temperature (>500°C) mais elle n'affecte que faiblement ses proprietes a hautes frequences (>100 kHz). Une caracterisation du niobate de lithium a haute temperature est donc necessaire afin de verifier cette hypothese. Pour cela, la methode par resonance a ete employee. Elle permet une caracterisation de la plupart des coefficients electromecaniques avec une simple spectroscopie d'impedance electrochimique et un modele reliant de facon explicite les proprietes au spectre d'impedance. Il s'agit de trouver les coefficients du modele permettant de superposer au mieux le modele avec les mesures experimentales. Un banc experimental a ete realise permettant de controler la temperature des echantillons et de mesurer leur impedance electrochimique. Malheureusement, les modeles actuellement utilises pour la methode par resonance sont imprecis en presence de couplages entre les modes de vibration. Cela implique de posseder plusieurs echantillons de differentes formes afin d'isoler chaque mode principal de vibration. De plus, ces modeles ne prennent pas bien en compte les harmoniques et modes en cisaillement. C'est pourquoi un nouveau modele analytique couvrant tout le spectre frequentiel a ete developpe afin de predire les resonances en cisaillement, les harmoniques et les couplages entre les modes. Neanmoins, certains modes de resonances et certains couplages ne sont toujours pas modelises. La caracterisation d'echantillons carres a pu etre menee jusqu'a 750°C. Les resultats confirment le caractere prometteur du niobate de lithium. Les coefficients piezoelectriques sont stables en fonction de la temperature et l'elasticite et la permittivite ont le comportement attendu. Un effet thermoelectrique ayant un effet similaire a de la conductivite ionique a ete observe ce qui ne permet pas de quantifier l'impact de ce dernier. Bien que des etudes complementaires soient necessaires, l'intensite des resonances a 750°C semble indiquer que le niobate de lithium peut etre utilise pour des applications ultrasons a hautes frequences (>100 kHz).
NASA Astrophysics Data System (ADS)
Moncorgé, R.
2006-12-01
Cette nouvelle édition du Colloque UVX avait pour objectifs de : - réunir les chercheurs et les industriels intéressés par les applications et les développements les plus récents obtenus sur les sources UV, VUV et X, cohérentes ou incohérentes, et les optiques et matériaux associés ; - dresser un bilan des sources de photons à haute énergie et de leurs applications courantes et futures ; - susciter de nouvelles collaborations ; - ouvrir de nouveaux champs disciplinaires. Elle a été organisée par le laboratoire CIRIL au VVF de Colleville-sur-Mer, dans le département du Calvados, du 6 au 9 juin 2006, la journée du 5 juin ayant été consacrée à une réunion de travail du GDR CNRS SAXO, ce GDR regroupant une majorité de scientifiques concernés par le Colloque UVX. La manifestation a réuni ainsi une centaine de participants dont une dizaine d'exposants industriels. Parmi ces participants, trente étaient invités à donner une conférence orale. Une sélection a été faite également parmi les meilleures communications soumises par affiches pour qu'elles soient présentées oralement. Une trentaine de ces communications ont été préparées sous la forme d'articles de 6 à 12 pages et font l'objet de cet ouvrage. De nombreux travaux récents ont été exposés tant au niveau des sources que des techniques de caractérisation et des applications, ceci dans des domaines très divers allant de la physique des lasers et de la mise en forme spatiale et temporelle des faisceaux au domaine de l'imagerie médicale et biologiques en passant par les techniques de fabrication des cristaux, fibres et films minces organiques et inorganiques. Plusieurs résultats marquants en sont ressortis. Dans le domaine des sources, la mise en forme spatiale du faisceau laser utilisé pour la production d'harmoniques d'ordre élevé dans les gaz, ceci à l'aide de lames de phase peu onéreuses et simples d'utilisation, semble être une bonne solution pour accroître les efficacités de conversion et pour produire des impulsions UVX de quelques dizaines de microjoules. Parallèlement, des progrès notables ont été effectués dans la génération d'impulsions sub-100 as isolées accordables et de large bande spectrale en utilisant des impulsions de pompe ultracourtes bien contrôlée en phase. Il apparaît que la gamme spectrale accessible peut être encore largement étendue en jouant sur la longueur d'onde excitatrice et sur le milieu générateur pour pouvoir atteindre des impulsions de moins de 10 as. Des premiers résultats ont été aussi exposés concernant l'obtention d'un laser X à 18,9 nm pompé en incidence rasante (technique GRIP) à partir d'une cible de molybdène nickelloide et d'un laser Ti:Sa produisant des impulsions de plus de 2 microjoules. L'intérêt des milieux gazeux à excimères a été également de nouveau démontré pour l'amplification d'impulsions ultracourtes intenses TW dans le proche UV avec un contraste élevé (>1011). Bien qu'encore marginale, il faut enfin signaler l'arrivée des fibres optiques microstructurées avec la génération de supercontinuum de longueurs d'onde (spectre blanc) jusque dans le proche UV. Du côté des processus fondamentaux et des applications, sont particulièrement ressortis la caractérisation de plasmas denses utilisant des harmoniques élevées à l'aide d'une expérience interférométrique originale, la caractérisation de plasmas de taille nanométrique émetteurs de rayonnement X produits par interaction d'impulsions laser ultracourtes avec des agrégats de gaz rares ainsi que le dépôt de couches minces de biomolécules à l'aide de la technique MAPLE, technique susceptible d'améliorer la conservation des molécules, en particulier des protéines. Enfin, dans le domaine de la métrologie et de l'imagerie, l'importance des lames de phase dans la mise en forme spatiale des faisceaux, en particulier pour le projet Mega-Joule, a été de nouveau souligné, des progrès significatifs (réflectivité, bande passante, stabilité temporelle et thermique) ont été obtenus dans le domaine des revêtements interférentiels multicouches pour laser EUV autour de 40 nm, et des améliorations significatives, en particulier au niveau des détecteurs, ont été signalées dans le domaine de l'imagerie X du petit animal, la conception de sources dédiées à microfoyers délivrant des rayons X de basses énergies très rapides pour éviter le flou inhérent aux mouvements de l'animal restant encore nécessaire. Le Colloque a permis des échanges très fructueux entre laséristes et utilisateurs et entre scientifiques et industriels commercialisant sources, systèmes et détecteurs. Il a permis également de donner la parole à des intervenants très jeunes et souvent très brillants (doctorants et jeunes chercheurs) qui seront sans aucun doute les futurs responsables de nos laboratoires, centres de recherche et entreprises. Les progrès constatés résultant de travaux portant souvent sur les deux années écoulées (puisque c'est la fréquence choisie pour ce Colloque) et les résultats obtenus comme les perspectives annoncées montrant de nouveau toute la pertinence de cette manifestation, celle-ci sera reconduite en 2008.
Le point sur les amas de galaxies
NASA Astrophysics Data System (ADS)
Pierre, M.
Clusters of galaxies: a review After having briefly described the 3 main components of clusters of galaxies (dark matter, gas and galaxies) we shall present clusters from a theoretical viewpoint: they are the largest entities known in the universe. Consequently, clusters of galaxies play a key role in any cosmological study and thus, are essential for our global understanding of the universe. In the general introduction, we shall outline this fundamental aspect, showing how the study of clusters can help to constrain the various cosmological scenarios. Once this cosmological framework is set, the next chapters will present a detailed analysis of cluster properties and of their cosmic evolution as observed in different wavebands mainly in the optical (galaxies), X-ray (gas) and radio (gas and particles) ranges. We shall see that the detailed study of a cluster is conditioned by the study of the interactions between its different components; this is the necessary step to ultimately derive the fundamental quantity which is the cluster mass. This will be the occasion to undertake an excursion into extremely varied physical processes such as the multi-phase nature of the intra-cluster medium, lensing phenomena, starbursts and morphology evolution in cluster galaxies or the interaction between the intra-cluster plasma and relativistic particles which are accelerated during cluster merging. For each waveband, we shall outline simply the dedicated observing and analysis techniques, which are of special interest in the case of space observations. Finally, we present several ambitious projects for the next observatory generation as well as their expected impact on the study of clusters of galaxies. Après avoir brièvement décrit les 3 constituants fondamentaux des amas de galaxies (matière noire, gaz et galaxies) nous présenterons les amas d'un point de vue plus théorique : ce sont les entités les plus massives à l'équilibre connues dans l'univers. Les amas de galaxies jouent donc un rôle de premier plan dans toute étude cosmologique et par conséquent, sont indispensables à notre compréhension globale de l'univers. Dans l'introduction générale, nous détaillons cet aspect fondamental en montrant comment l'étude des amas peut contribuer à contraindre les scénarios cosmologiques. Une fois le contexte scientifique délimité, les chapitres suivants s'attachent à présenter les diverses propriétés des amas et leur évolution cosmique observée dans diverses longueurs d'onde principalement dans les domaines visible (galaxies), X (gaz) et radio (gaz et particules). Nous verrons que l'étude détaillée d'un amas implique celle de l'interaction entre ses différentes composantes et est un passage obligé pour remonter au paramètre ultime (ou premier) qu'est sa masse. Loin d'être un détour ennuyeux, ceci sera l'occasion d'aborder des phénomènes physiques extrêmement variés tel l'aspect multi-phases du milieu intra-amas, les sursauts de formation d'étoiles et l'évolution morphologique des galaxies capturées par les amas, ou bien encore, l'interaction entre le plasma intra-amas et les particules relativistes accélérées lors de la fusion entre deux amas. Bien sûr, pour chaque longueur d'onde, nous ne manquerons pas de décrire simplement les techniques d'observation et d'analyse mises en oeuvre ; celles-ci sont particulièrement intéressantes dans le cas de l'instrumentation spatiale. Nous terminerons en présentant des projets d'observatoires pour l'horizon 2010 et leur impact prévu sur l'étude des amas de galaxies.
NASA Astrophysics Data System (ADS)
La Madeleine, Carole
Ce memoire est presente a la Faculte de medecine et des sciences de la sante de l'Universite de Sherbrooke en vue de l'obtention du grade de maitre es sciences (M.Sc.) en radiobiologie (2009). Un jury a revise les informations contenues dans ce memoire. Il etait compose de professeurs de la Faculte de medecine et des sciences de la sante soit : Darel Hunting PhD, directeur de recherche (departement de medecine nucleaire et radiobiologie), Leon Sanche PhD, directeur de recherche (departement de medecine nucleaire et radiobiologie), Richard Wagner PhD, membre du programme (departement de medecine nucleaire et radiobiologie) et Guylain Boissonneault PhD, membre exterieur au programme (departement de biochimie). Le 5-bromodeoxyuridine (BrdU), un analogue halogene de la thymidine reconnu depuis les annees 60 comme etant un excellent radiosensibilisateur. L'hypothese la plus repandue au sujet de l'effet radio sensibilisant du BrdU est qu'il augmente le nombre de cassures simple et double brin lorsqu'il est incorpore dans l'ADN de la cellule et expose aux radiations ionisantes. Toutefois, de nouvelles recherches semblent remettre en question les observations precedentes. Ces dernieres etudes ont confirme que le BrdU est un bon radiosensibilisateur, car il augmente les dommages radio-induits dans l'ADN. Mais, c'est en etant incorpore dans une region simple brin que le BrdU radiosensibilise l'ADN. Ces recherches ont egalement revele pour la premiere fois un nouveau type de dommages produits lors de l'irradiation de l'ADN contenant du BrdU : les dimeres interbrins. Le but de ces travaux de recherche est de determiner si la presence de bromodeoxyuridine dans l'ADN augmente l'induction de bris simple et / ou double brin chez les cellules irradiees en utilisant de nouvelles techniques plus sensibles et specifiques que celles utilisees auparavant. Pour ce faire, les essais cometes et la detection des foci H2AX phosphorylee pourraient permettre d'etablir les effets engendres par le BrdU au niveau cellulaire. Notre hypothese (basee sur des resultats preliminaires effectues dans notre laboratoire) est que l'irradiation de l'ADN cellulaire en presence de BrdU augmentera le nombre de bris simple brin sans toutefois augmenter le nombre de bris double brin. Les resultats presentes dans ce memoire semblent corroborer cette hypothese. Les nouvelles methodes d'analyse, soient l'essai comete et la detection des foci gamma-H2AX remettent en question ce qui a ete dit sur le BrdU au sujet de l'induction des cassures double brin depuis plusieurs annees. L'ensemble de ces nouveaux resultats effectue a l'aide de cellules ayant incorporees du BrdU sont en correlation avec de precedents resultats obtenus dans notre laboratoire sur des oligonucleotides bromes. Ils reaffirment que l'irradiation combinee au BrdU augmente l'induction de bris simple brin mais pas de bris double brin. L'investigation approfondie des mecanismes d'action non elucides du BrdU au niveau cellulaire et son utilisation a des moments strategiques pendant le traitement de radiotherapie pourraient accroitre son efficacite a des fins d'utilisation clinique. Mots cles : 5-bromodeoxyuridine, dimeres interbrins, dommage a l'ADN, essai comete, H2AX, radiosensibilisateur, radiotherapie
Some Progress in Large-Eddy Simulation using the 3-D Vortex Particle Method
NASA Technical Reports Server (NTRS)
Winckelmans, G. S.
1995-01-01
This two-month visit at CTR was devoted to investigating possibilities in LES modeling in the context of the 3-D vortex particle method (=vortex element method, VEM) for unbounded flows. A dedicated code was developed for that purpose. Although O(N(sup 2)) and thus slow, it offers the advantage that it can easily be modified to try out many ideas on problems involving up to N approx. 10(exp 4) particles. Energy spectrums (which require O(N(sup 2)) operations per wavenumber) are also computed. Progress was realized in the following areas: particle redistribution schemes, relaxation schemes to maintain the solenoidal condition on the particle vorticity field, simple LES models and their VEM extension, possible new avenues in LES. Model problems that involve strong interaction between vortex tubes were computed, together with diagnostics: total vorticity, linear and angular impulse, energy and energy spectrum, enstrophy. More work is needed, however, especially regarding relaxation schemes and further validation and development of LES models for VEM. Finally, what works well will eventually have to be incorporated into the fast parallel tree code.
Shetty, Dinesh A.; Frankel, Steven H.
2013-01-01
Summary The physical space version of the stretched vortex subgrid scale model [Phys. Fluids 12, 1810 (2000)] is tested in large eddy simulations (LES) of the turbulent lid driven cubic cavity flow. LES is carried out using a higher order finite-difference method [J. Comput. Phys. 229, 8802 (2010)]. The effects of different vortex orientation models and subgrid turbulence spectrums are assessed through comparisons of the LES predictions against direct numerical simulations (DNS) [Phys. Fluids 12, 1363 (2000)]. Three Reynolds numbers 12000, 18000, and 22000 are studied. Good agreement with the DNS data for the mean and fluctuating quantities is observed. PMID:24187423
Dimensionnement des actionneurs électriques alimentés à fréquence variable sous faible tension
NASA Astrophysics Data System (ADS)
Biedinger, J.-M.; Vilain, J.-P.
1999-09-01
In Part I we present a multidisciplinary analysis model for the prediction of functional connections between the design variables and the electromagnetical, electrical and thermal performances of a brushless permanent magnet motor. In this paper we have elaborated a design methodology for electrical motors supplied from a variable-frequency low-voltage source. The objective is to take into account the influence of the inverter's dynamics from the beginning of the design, for the same reasons as we do for electromechanical and thermal constraints. The procedure is based on a Sequential Quadratic Programming optimization method. Two techniques are used to take into account the influence of the inverter: the first one develops the performance analysis with the multidisciplinary model; the second one considers the inverter's current reference as a supplementary optimization variable for the control of the design. Optimization difficulties linked to the chopping of the converter are discuted in connection with a sensitivity analysis of the torque, with respect to the inverter's current reference; a method is proposed to enhance the performances of the algorithm. The method has been applied to the design of a permanent magnet brushless DC motor used in the propulsion system of an electrical scooter; evolution of the design with the complexity level of analysis model is evidenced. Dans une première partie nous avons développé un modèle d'analyse pluridisciplinaire qui établissait les dépendances fonctionnelles entre les variables de conception et les performances magnéto-électro-thermiques d'un moteur brushless à aimants permanents. Dans cet article nous décrivons une procédure de dimensionnement adaptée à la conception de la machine alimentée à fréquence variable sous faible tension. L'objectif est d'intégrer la dynamique du convertisseur électronique dès la phase initiale du dimensionnement, au même titre que les spécifications électromécaniques et thermiques. La procédure est gérée par une méthode d'optimisation déterministe de type Programmation Quadratique Séquentielle. Elle intègre l'influence du convertisseur au moyen de deux spécificités : la première consiste à évaluer les fonctions du problème d'optimisation sur la base du module d'analyse pluridisciplinaire ; la deuxième permet de contrôler l'évolution du dimensionnement au travers de variables d'optimisation dont la liste inclut les consignes de la commande en courant du convertisseur. Les difficultés d'optimisation liées au mode de fonctionnement discret du convertisseur sont discutées au regard du calcul de la sensibilité du couple électromagnétique envers la consigne de courant du convertisseur ; une méthode est proposée pour assurer la robustesse de la procédure en présence du convertisseur. L'application porte sur le dimensionnement d'un moteur à aimants permanents de type “brushless trapézoïdal" destiné à la traction d'un scooter électrique ; l'évolution de la structure optimale avec le degré de complexité du module d'analyse est mise en évidence.
NASA Astrophysics Data System (ADS)
Corbeil Therrien, Audrey
La tomographie d'emission par positrons (TEP) est un outil precieux en recherche preclinique et pour le diagnostic medical. Cette technique permet d'obtenir une image quantitative de fonctions metaboliques specifiques par la detection de photons d'annihilation. La detection des ces photons se fait a l'aide de deux composantes. D'abord, un scintillateur convertit l'energie du photon 511 keV en photons du spectre visible. Ensuite, un photodetecteur convertit l'energie lumineuse en signal electrique. Recemment, les photodiodes avalanche monophotoniques (PAMP) disposees en matrice suscitent beaucoup d'interet pour la TEP. Ces matrices forment des detecteurs sensibles, robustes, compacts et avec une resolution en temps hors pair. Ces qualites en font un photodetecteur prometteur pour la TEP, mais il faut optimiser les parametres de la matrice et de l'electronique de lecture afin d'atteindre les performances optimales pour la TEP. L'optimisation de la matrice devient rapidement une operation difficile, car les differents parametres interagissent de maniere complexe avec les processus d'avalanche et de generation de bruit. Enfin, l'electronique de lecture pour les matrices de PAMP demeure encore rudimentaire et il serait profitable d'analyser differentes strategies de lecture. Pour repondre a cette question, la solution la plus economique est d'utiliser un simulateur pour converger vers la configuration donnant les meilleures performances. Les travaux de ce memoire presentent le developpement d'un tel simulateur. Celui-ci modelise le comportement d'une matrice de PAMP en se basant sur les equations de physique des semiconducteurs et des modeles probabilistes. Il inclut les trois principales sources de bruit, soit le bruit thermique, les declenchements intempestifs correles et la diaphonie optique. Le simulateur permet aussi de tester et de comparer de nouvelles approches pour l'electronique de lecture plus adaptees a ce type de detecteur. Au final, le simulateur vise a quantifier l'impact des parametres du photodetecteur sur la resolution en energie et la resolution en temps et ainsi optimiser les performances de la matrice de PAMP. Par exemple, l'augmentation du ratio de surface active ameliore les performances, mais seulement jusqu'a un certain point. D'autres phenomenes lies a la surface active, comme le bruit thermique, provoquent une degradation du resultat. Le simulateur nous permet de trouver un compromis entre ces deux extremes. Les simulations avec les parametres initiaux demontrent une efficacite de detection de 16,7 %, une resolution en energie de 14,2 % LMH et une resolution en temps de 0.478 ns LMH. Enfin, le simulateur propose, bien qu'il vise une application en TEP, peut etre adapte pour d'autres applications en modifiant la source de photons et en adaptant les objectifs de performances. Mots-cles : Photodetecteurs, photodiodes avalanche monophotoniques, semiconducteurs, tomographie d'emission par positrons, simulations, modelisation, detection monophotonique, scintillateurs, circuit d'etouffement, SPAD, SiPM, Photodiodes avalanche operees en mode Geiger
NASA Astrophysics Data System (ADS)
Pradhan, Aniruddhe; Akhavan, Rayhaneh
2017-11-01
Effect of collision model, subgrid-scale model and grid resolution in Large Eddy Simulation (LES) of wall-bounded turbulent flows with the Lattice Boltzmann Method (LBM) is investigated in turbulent channel flow. The Single Relaxation Time (SRT) collision model is found to be more accurate than Multi-Relaxation Time (MRT) collision model in well-resolved LES. Accurate LES requires grid resolutions of Δ+ <= 4 in the near-wall region, which is comparable to Δ+ <= 2 required in DNS. At larger grid resolutions SRT becomes unstable, while MRT remains stable but gives unacceptably large errors. LES with no model gave errors comparable to the Dynamic Smagorinsky Model (DSM) and the Wall Adapting Local Eddy-viscosity (WALE) model. The resulting errors in the prediction of the friction coefficient in turbulent channel flow at a bulk Reynolds Number of 7860 (Reτ 442) with Δ+ = 4 and no-model, DSM and WALE were 1.7%, 2.6%, 3.1% with SRT, and 8.3% 7.5% 8.7% with MRT, respectively. These results suggest that LES of wall-bounded turbulent flows with LBM requires either grid-embedding in the near-wall region, with grid resolutions comparable to DNS, or a wall model. Results of LES with grid-embedding and wall models will be discussed.
Radiolocation Techniques (Les Techniques de Radiolocalisation
1992-11-01
Dr R. Klemm DrD Rother FGAN- FFM SEL/LS/E Neuenahrer Strasse 20 Lorenzstrasse 10 D-5307 Wachtberg 7 D-7000 Stuttgart 40 Germany Germany Prof. G...des solutions. accas I lFionograinme, donc: aui profil. Cat article rapporte tine partie des Etudes mendes an La indthodo proposde s’inspirc de cette
Advanced Pattern Recognition Techniques (Techniques avancees de reconnaissance de forme)
1998-09-01
alarmes dans la d6tection des mines terrestres et des munitions explosives non explos6es. Les m~thodes classiques de reconnaissance de forme...the XVIII. Congress of the International Society for [19] DIN EN 60825-1(IEC 825-1) VDE 0837, Photogrammetry and Remote Sensing Sicherheit von Laser
LES, DNS and RANS for the analysis of high-speed turbulent reacting flows
NASA Technical Reports Server (NTRS)
Givi, Peyman
1994-01-01
The objective of this research is to continue our efforts in advancing the state of knowledge in Large Eddy Simulation (LES), Direct Numerical Simulation (DNS), and Reynolds Averaged Navier Stokes (RANS) methods for the analysis of high-speed reacting turbulent flows. In the first phase of this research, conducted within the past six months, focus was in three directions: RANS of turbulent reacting flows by Probability Density Function (PDF) methods, RANS of non-reacting turbulent flows by advanced turbulence closures, and LES of mixing dominated reacting flows by a dynamics subgrid closure. A summary of our efforts within the past six months of this research is provided in this semi-annual progress report.
Le syndrome du canal d’Alcock ou névralgie pudendale : un diagnostic à ne pas méconnaître
Ziouziou, Imad; Bennani, Hassan; Zizi, Mohamed; Karmouni, Tarik; Khader, Khalid El; Koutani, Abdellatif; Andaloussi, Ahmed Iben Attya
2013-01-01
Résumé Le syndrome du canal d’Alcock – ou névralgie pudendale – est lié à la compression chronique du nerf pudendal dans la fossette ischiorectale ou au niveau du ligament sacroépineux. Le diagnostic du syndrome d’Alcock est surtout clinique. Les examens complémentaires sont dominés par les explorations électrophysiologiques et le test de bloc anesthésique. Le diagnostic repose sur des critères bien précis, soit les critères de Nantes. La prise en charge doit être globale, comprenant un traitement médicamenteux, des infiltrations, des techniques de neuromodulation, et dans les cas graves ou résistants, un traitement chirurgical qui consiste à libérer le nerf pudendal. Les névralgies pudendales peuvent être rencontrées après traitement d’une incontinence urinaire d’effort par bande-lettes sous-urétrales (TVT). Ce syndrome motive des consultations en urologie, car la douleur intéresse le territoire du périnée et des organes génitaux. Des signes urinaires peuvent aussi accompagner cette douleur. Il est donc judicieux de connaître cette pathologie. PMID:23914265
NASA Astrophysics Data System (ADS)
Boddupalli, Nibodh; Goenka, Vikash; Chandra, Laltu
2017-06-01
Heliostats are used for concentrating beam radiation onto a receiver. The flow induced dust deposition on these reflectors will lead to failure of the receiver. For this purpose, the wake behind a heliostat is analyzed at 25° of inclination and at a Reynolds number of 60000. In this paper the Reynolds Averaged Navier-Stokes (RANS) and the Large Eddy Simulation (LES) approaches are used for analyzing the air-flow behind a heliostat. LES and RANS are performed with a wall-resolved grid. For the purpose of validation, the horizontal velocity is measured in a wind-tunnel with a model heliostat using laser Doppler velocimetry technique. RANS and LES approaches are found to qualitatively predict the statistical quantities, like the mean horizontal-velocity in comparison to experiment. RANS under-predicts root-mean-square of the horizontal-velocity and even failed to capture the flow features behind heliostat. Thus, it is concluded that RANS will suffice with well-resolved grid for analyzing mean flow features. For analyzing wake and to understand the induced dust deposition LES is required. Further, the analysis reveals that the wake-affected region is up to three times the length of the heliostat's mirror. This can be recommended as the minimum distance between any two aligned heliostats in Jodhpur.
Application of wall-models to discontinuous Galerkin LES
NASA Astrophysics Data System (ADS)
Frère, Ariane; Carton de Wiart, Corentin; Hillewaert, Koen; Chatelain, Philippe; Winckelmans, Grégoire
2017-08-01
Wall-resolved Large-Eddy Simulations (LES) are still limited to moderate Reynolds number flows due to the high computational cost required to capture the inner part of the boundary layer. Wall-modeled LES (WMLES) provide more affordable LES by modeling the near-wall layer. Wall function-based WMLES solve LES equations up to the wall, where the coarse mesh resolution essentially renders the calculation under-resolved. This makes the accuracy of WMLES very sensitive to the behavior of the numerical method. Therefore, best practice rules regarding the use and implementation of WMLES cannot be directly transferred from one methodology to another regardless of the type of discretization approach. Whilst numerous studies present guidelines on the use of WMLES, there is a lack of knowledge for discontinuous finite-element-like high-order methods. Incidentally, these methods are increasingly used on the account of their high accuracy on unstructured meshes and their strong computational efficiency. The present paper proposes best practice guidelines for the use of WMLES in these methods. The study is based on sensitivity analyses of turbulent channel flow simulations by means of a Discontinuous Galerkin approach. It appears that good results can be obtained without the use of a spatial or temporal averaging. The study confirms the importance of the wall function input data location and suggests to take it at the bottom of the second off-wall element. These data being available through the ghost element, the suggested method prevents the loss of computational scalability experienced in unstructured WMLES. The study also highlights the influence of the polynomial degree used in the wall-adjacent element. It should preferably be of even degree as using polynomials of degree two in the first off-wall element provides, surprisingly, better results than using polynomials of degree three.
Dynamique et interférence de paquets d'ondes dans les atomes et dimères d'alcalins
NASA Astrophysics Data System (ADS)
Bouchene, M. A.
2002-11-01
Wave packet dynamics and interference experiments in alkaline atoms and dimers This work deals with time resolved experimental study of the dynamics of atomic and molecular processes occurring on a femtosecond time scale. The first part concerns with wave packet dynamics in alkaline atoms and dimers (K, K2) studied by pump-probe methods. In the case of potassium atoms, the wave packet is a superposition of fine structure states of 4p level and represents an electronic spin wave packet. We study the temporal dynamics of this wave packet and we show that it corresponds to a spin flip. We show that the bright state-dark state formalism is appropriate to describe the dynamics in this case and we present an original method that utilises this spin flip to produce spin-polarized electrons on the femtosecond scale. In the case of molecules, the wave packet created is a superposition of vibrational states. We present the results of the study of the vibrational wave packet dynamics in states A^1Σ^+_u et 2^1Pi_g. The pump-probe signal depends on the competition between the various wave packets dynamics in the two electronic states. The second part deals with wave packets interference experiments in similar systems (K, Cs, Cs2). This technique, complementary with the first one, is based on the interaction of two identical pulses with an atomic or molecular system. This gives rise to the interference of two wave packets created by the two laser pulses. This interference allows us to control coherently the excitation probability. In the case of atoms, we present the results of experiments obtained when exciting one photon transition 4s 4p in potassium and two-photon transition 6s 7d in cesium. Two kinds of interference are identified: the optical interference regime that occurs when the two pulses overlap in time and the regime of quantum interference that occurs when the two pulses are well separated. We investigate the behaviour of these interference in many new situations (saturation regime, chirped pulse, ...) that allow us to determine the advantages and limits of this technique. In the case of molecules, the interaction of the two-pulse sequence leads to the interference of vibrational wave packets. We analyse and discuss in this case the effects of a thermal distribution of initial states on the temporal coherent control signal. Ce travail porte sur l'étude expérimentale résolue en temps de la dynamique atomique et moléculaire prenant place sur une échelle de temps femtoseconde. Il présente deux orientations distinctes et complémentaires. La première concerne l'étude de la dynamique de paquets d'ondes dans des atomes et dimères d'alcalins (K, K2) par des méthodes pompe-sonde. Dans le cas du potassium atomique le paquet d'ondes est une superposition des états de structure fine de l'état 4p et représente un paquet de spin électronique. Nous observons la dynamique de ce paquet d'ondes au cours du temps et montrons que celle-ci correspond à une inversion du sens d'orientation du spin. Le formalisme théorique des états brillants et noirs est particulièrement adapté à la description de ce type de dynamique. Nous présentons alors une méthode originale qui, tirant avantage du mouvement d'inversion du spin, permet de produire des électrons polarisés en spin à l'échelle femtoseconde. Dans le cas des molécules, le paquet d'ondes créé est une superposition d'états vibrationnels. Nous présentons les résultats d'une étude systématique de la dynamique de paquet d'ondes vibrationnel dans les états électroniques A^1Σ^+_u et 2^1Pi_g. Le signal pompe-sonde dépend alors de la compétition entre les dynamiques associées aux paquets d'ondes créés dans les deux états électroniques. La deuxième partie traite d'expériences d'interférences de paquets d'ondes dans des systèmes similaires (K, Cs, Cs2). Cette technique, complémentaire de la première, consiste à faire interagir une séquence de deux impulsions identiques avec un système atomique ou moléculaire. Cette interaction résulte de l'interférence des deux paquets d'ondes créés par les deux impulsions laser. Ces interférences permettent de réaliser le contrôle cohérent de la probabilité d'excitation. Dans le cas des atomes, nous présentons les résultats des expériences réalisés sur la transition à un photon 4s 4p du potassium et à deux photons 6s 7d du césium. Deux régimes d'interférences sont mis en évidence : le régime d'interférences optiques qui se produit quand les deux impulsions se chevauchent dans le temps et le régime d'interférences quantiques qui se produit quand les deux impulsons sont séparés dans le temps. Nous explorons le comportement de ces deux types d'interférences dans un grand nombre de situations originales (régime saturé, cas d'impulsions à dérive de fréquence, etc.) qui nous permettent de mieux comprendre les avantages et les limites de cette technique. Dans le cas des molécules, l'interaction de la séquence des deux impulsions conduit à l'interférence des paquets d'ondes vibrationnels. Nous analysons et discutons dans ce cas-là des effets d'une distribution thermique dans l'état initial sur le signal de contrôle cohérent.
Résultats fonctionnels des lésions des tendons fléchisseurs de la main: à propos de 90 cas
Boussakri, Hassan; Azarkane, Mohamad; Elidrissi, Mohamad; Shimi, Mohamad; Elibrahimi, Abdelhalim; Elmrini, Abdelmajid
2013-01-01
Les auteurs rapportent une série de 90 patients, présentant une section tendineuse des fléchisseurs de la main, et suivis avec un recul moyen de 8 mois (min: 2 mois; max: 13 mois). La lésion était localisée dans 12% des cas en zone I, 46% des cas en zone II, 2% en zone III et 25% des cas en zone IV et V. Pour le pouce (13 patients), 10 cas en zone T2 et 3 cas en zone T3. La technique opératoire utilisée était les sutures tendineuses en cadre de Kessler modifié, associée à un surjet épitendineux. Nous avons obtenus 54% de très bons résultats, 34% de résultats moyens et 12% de mauvais résultats. Pour le pouce les résultats semble moins bons avec un taux de résultats médiocre de 48%. Certes les chiffres de cette série sont moins bons que ceux des autres séries publiées dans la littérature. Les facteurs influençant les résultats sont d'abord l'utilisation d'immobilisation postopératoire systématique ainsi que le mécanisme d'agression, et la localisation à la zone II et au pouce. Les complications mécaniques sont représentées par 7% de rupture, toutes au niveau de pouce, et 31% des adhérences tendineuses (soit 30 cas), dont 19 en zone II, l'infections (22%) et 4% des cas d'algodystrophies. PMID:23847698
Standardissimo. Les limitations théoriques du Modèle Standard. Quelles réponses y apporter?
NASA Astrophysics Data System (ADS)
Renard, F. M.
Nous présentons I 'état du Modèle Standard des interactions fortes, faibles et électromagnétiques. Après une description rapide de ses 3 secteurs, secteur de jauge (radiation), secteur fermionique (matière) et secteur scalaire (génération des masses), nous insistons sur le grand nombre de paramètres libres et sur les choix arbitraires qu'il a fallu faire dans l'élaboration du modèle. Nous faisons ressortir les problèmes techniques non résolus et nous dressons la liste des questions fondamentales restées sans réponses. Nous passons ensuite en revue les idées et méthodes proposées pour répondre à ces questions. Elles utilisent essentiellement 3 voies différentes. La première consiste à requérir plus de symétrie (extension du modèle, symétrie Gauche-Droite, Grandes Unifications, Supersymétrie,...). La seconde contient les diverses alternatives au Modèle Standard impliquant des modifications dans certains secteurs (par exemple le secteur scalaire avec le modèle de la Technicouleur) ou de façon plus violente l'hypothèse d'une sous-structure des leptons, des quarks et des bosons W et Z eux-mêmes. Une dernière voie cherche à justifier les particularités du Modèle Standard et relier ses paramètres libres en se basant sur des principes de cohérence interne du modèle. Les conséquences observables de ces diverses approches sont dans chaque cas mentionnées.
El Alaoui, Adil; Sbiyaa, Mouhcine; Bah, Aliou; Rabhi, Ilyas; mezzani, Amine; Marzouki, Amine; Boutayeb, Fawzi
2015-01-01
La lèpre est une maladie infectieuse due à une mycobactérie (M. Leprae, Bacille de Hansen, ou BH) dont le tropisme nerveux est destructeur pour les cellules de Schwann. La localisation préférentielle des neuropathies tronculaire secondaire à la lèpre restent dominé par les zones ou les troncs nerveux traversent les défilés ostéo-ligamentaires inextensibles comme le défilé rétro-épitrochléen ou passe le nerf ulnaire. De nombreux travaux ont été consacrés à la souffrance nerveuse secondaire à la lèpre et surtout l'atteinte du nerf ulnaire qui se manifeste par une griffe des doigts. Le traitement dans ce cas est palliatif et fait appel à plusieurs techniques décrites dans la littérature. Nous rapportons dans ce travail un cas de griffe cubitale chez un patient lépreux traité par transfert tendineux de Lasso Zancolli. PMID:26985277
Etude des melanges co-continus d'acide polylactique et d'amidon thermoplastique (PLA/TPS)
NASA Astrophysics Data System (ADS)
Chavez Garcia, Maria Graciela
Les melanges co-continus sont des melanges polymeriques ou chaque composant se trouve dans une phase continue. Pour cette raison, les caracteristiques de chacun des composants se combinent et il en resulte un materiau avec une morphologie et des proprietes particulieres. L'acide polylactique (PLA) et l'amidon thermoplastique (TPS) sont des biopolymeres qui proviennent de ressources renouvelables et qui sont biodegradables. Dans ce projet, differents melanges de PLA et TPS a une haute concentration de TPS ont ete prepares dans une extrudeuse bi-vis afin de generer des structures co-continues. Grace a la technique de lixiviation selective, le TPS est enleve pour creer une structure poreuse de PLA qui a pu etre analysee au moyen de la microtomographie R-X et de la microscopie electronique a balayage MEB. L'analyse des images 2D et 3D confirme la presence de la structure co-continue dans les melanges dont la concentration en TPS. se situe entre 66% et 80%. L'effet de deux plastifiants, le glycerol seul et le melange de glycerol et de sorbitol, dans la formulation de TPS est etudie dans ce travail. De plus, nous avons evalue l'effet du PLA greffe a l'anhydride maleique (PLAg) en tant que compatibilisant. On a trouve que la phase de TPS obtenue avec le glycerol est plus grande. L'effet de recuit sur la taille de phases est aussi analyse. Grace aux memes techniques d'analyse, on a etudie l'effet du procede de moulage par injection sur la morphologie. On a constate que les pieces injectees presentent une microstructure heterogene et differente entre la surface et le centre de la piece. Pres de la surface, une peau plus riche en PLA est presente et les phases de TPS y sont allongees sous forme de lamelles. Plus au centre de la piece, une morphologie plus cellulaire est observee pour chaque phase continue. L'effet des formulations sur les proprietes mecaniques a aussi ete etudie. Les pieces injectees dont la concentration de TPS est plus grande presentent une moindre resistance a la traction. La presence du compatibilisant dans la region co-continue affecte negativement cette resistance. En considerant que l'amidon est un biomateriau abondant, moins cher et plus rapidement biodegradable, son ajout dans le PLA presente l'avantage de reduire le cout tout en augmentant la vitesse de degradation du PLA. De plus, une structure continue poreuse de PLA produit par la technique de lixiviation selective a des applications potentielles soit comme materiau a degradation rapide ou encore, une fois la phase TPS retiree, comme substrat a porosite ouverte pour la fabrication de membranes, de supports cellulaires ou de filtres. Mots-cles : melanges immiscibles, acide polylactique, amidon thermoplastique, morphologie cocontinue, lixiviation selective, microtomographie R-X, materiau rigide poreux biodegradable.
Les fluctuations supraconductrices dans le compose praseodyme-cerium-oxyde de cuivre
NASA Astrophysics Data System (ADS)
Renaud, Jacques
Ce travail etudie les fluctuations supraconductrices dans le compose supraconducteur a haute temperature critique dope aux electrons Pr2-xCe xCuO4+delta. La technique utilisee pour sonder ces fluctuations est le transport electrique DC dans le plan ab. Il s'agit, a notre connaissance, de la premiere etude de ce type dans la classe generale des supraconducteurs a haute temperature critique dopes aux electrons et, plus particulierement, dans Pr2-xCe xCuO4+delta. De plus, l'etude est effectuee pour trois regimes de dopage, soit sous-dope x = 0.135, dopage optimal x = 0.15 et surdope x = 0.17. Les echantillons etudies sont des couches minces d'epaisseur plus grande que 100 nm crues par ablation laser. Les mesures electriques DC effectuees dans ce travail sont la resistance en reponse lineaire et les courbes IV en reponse non lineaire en fonction de la temperature. La mise en oeuvre experimentale de ces mesures a necessite une grande attention au filtrage et aux effets de chauffage a haut courant. Nous montrons que, sans cette attention, les donnees experimentales sont toujours erronees dans le regime pertinent pour nos echantillons. Les resultats pour le dopage optimal x = 0.15 sont expliques de facon tres convaincante dans le cadre de fluctuations purement 2D. D'abord, le regime des fluctuations gaussiennes est tres bien decrit par le modele d'Aslamazov-Larkin en deux dimensions. Ensuite, le regime de fluctuations critiques, se trouvant a plus basse temperature que le regime gaussien, est tres bien decrit par la physique 2D de Kosterlitz-Thouless. Dans cette analyse, les deux regimes ont des temperatures critiques coherentes entre elles, ce qui semble confirmer ce scenario 2D. Une analyse des donnees dans le cadre de fluctuations 3D est exploree mais donne des conclusions incoherentes. Les resultats pour les autres dopages sont qualitativement equivalents avec le dopage optimal et permettent donc une explication purement 2D. Par contre, contrairement au dopage optimal, les effets du desordre semblent etre tres importants. Une analyse detaillee de tous ces resultats semble indiquer que les signatures 2D in identifiees proviennent vraisemblablement de plans paralleles decouples formes d'environ 4 plans CuO2 couples. On discute de cette mise en ordre partielle comme une possible consequence d'une separation de phase isolante antiferromagnetique/supraconducteur. La largeur de la transition en fonction du dopage est aussi analysee dans le but de mettre en lumiere un possible effet du pseudogap. On montre que nos mesures ne supportent pas une telle interpretation.
Synthèse bibliographique : micro-texturation et microinjection de thermoplastiques
NASA Astrophysics Data System (ADS)
Vera, Julie; Brulez, Anne-Catherine; Contraires, Elise; Larochette, Mathieu; Valette, Stéphane; Benayoun, Stéphane
2017-12-01
La fonctionnalisation de surface des matériaux et notamment des polymères fait l'objet de recherches intenses dans de nombreux secteurs tels que l'industrie du biomédical ou du transport afin de conférer aux pièces des propriétés spécifiques comme l'antibuée, la réduction du frottement ou le dégivrage… Dans le cas d'une production en grande série de pièces polymères fonctionnalisées, il est préférable, pour des questions de coûts, de générer des textures, au moyen d'une technique de reproduction d'empreinte comme l'injection plastique. Toutefois les fonctions requises nécessitent parfois la reproduction de dimensions microniques voire submicroniques poussant à ses limites la maîtrise du procédé conventionnel, avec les caractéristiques de l'injection de micro-pièces, mais aussi des spécificités propres à la micro-texturation. L'objet de cette revue bibliographique est de couvrir le large spectre des problèmes techniques et scientifiques associés à la micro-texturation des pièces plastiques. Les techniques d'usinage de ces micro-motifs sur les outillages et le rôle des revêtements est particulièrement décrit ainsi que le besoin de mettre en œuvre des approches spécifiques de caractérisation topographique des textures. L'influence des paramètres du procédé d'injection est aussi discutée, soulignant la nécessité d'appréhender la micro-texturation des pièces plastiques avec une nouvelle grille de lecture de la microinjection.
NASA Astrophysics Data System (ADS)
Sondak, David; Oberai, Assad
2012-10-01
Novel large eddy simulation (LES) models are developed for incompressible magnetohydrodynamics (MHD). These models include the application of the variational multiscale formulation (VMS) of LES to the equations of incompressible MHD, a new residual-based eddy viscosity model (RBEVM,) and a mixed LES model that combines the strengths of both of these models. The new models result in a consistent numerical method that is relatively simple to implement. A dynamic procedure for determining model coefficients is no longer required. The new LES models are tested on a decaying Taylor-Green vortex generalized to MHD and benchmarked against classical and state-of-the art LES turbulence models as well as direct numerical simulations (DNS). These new models are able to account for the essential MHD physics which is demonstrated via comparisons of energy spectra. We also compare the performance of our models to a DNS simulation by A. Pouquet et al., for which the ratio of DNS modes to LES modes is 262,144. Additionally, we extend these models to a finite element setting in which boundary conditions play a role. A classic problem on which we test these models is turbulent channel flow, which in the case of MHD, is called Hartmann flow.
Recommandations pour le dépistage de l’hypertension chez les adultes canadiens
Lindsay, Patrice; Gorber, Sarah Connor; Joffres, Michel; Birtwhistle, Richard; McKay, Donald; Cloutier, Lyne
2013-01-01
Résumé Objectif Présenter des recommandations concernant le dépistage de l’hypertension chez les adultes de 18 ans et plus qui n’ont pas reçu antérieurement de diagnostic d’hypertension. Qualité des données Les données probantes sont tirées d’une recension systématique dans MEDLINE, EMBASE et la base de données des synthèses systématiques de la Collaboration Cochrane (EBM Reviews), de janvier 1985 à septembre 2011. Les types d’études retenues se limitaient aux études randomisées contrôlées, aux synthèses systématiques et aux études observationnelles avec groupes témoins. Message principal Trois fortes recommandations se sont dégagées de données probantes de qualité modérée. Il est recommandé de mesurer la pression artérielle à toutes les consultations appropriées en soins primaires, conformément aux techniques actuelles décrites dans les recommandations du Programme éducatif canadien sur l’hypertension pour la mesure de la pression artérielle en cabinet et en soins ambulatoires. Les critères du Programme éducatif canadien sur l’hypertension pour l’évaluation et le diagnostic de l’hypertension devraient s’appliquer aux personnes chez qui on observe une pression artérielle élevée. Conclusion À la suite d’un examen des plus récentes données probantes, le Groupe d’étude canadien sur les soins de santé préventifs continue de recommander la mesure de la pression artérielle lors des consultations périodiques auprès du médecin.
DNS and LES/FMDF of turbulent jet ignition and combustion
NASA Astrophysics Data System (ADS)
Validi, Abdoulahad; Jaberi, Farhad
2014-11-01
The ignition and combustion of lean fuel-air mixtures by a turbulent jet flow of hot combustion products injected into various geometries are studied by high fidelity numerical models. Turbulent jet ignition (TJI) is an efficient method for starting and controlling the combustion in complex propulsion systems and engines. The TJI and combustion of hydrogen and propane in various flow configurations are simulated with the direct numerical simulation (DNS) and the hybrid large eddy simulation/filtered mass density function (LES/FMDF) models. In the LES/FMDF model, the filtered form of the compressible Navier-Stokes equations are solved with a high-order finite difference scheme for the turbulent velocity and the FMDF transport equation is solved with a Lagrangian stochastic method to obtain the scalar field. The DNS and LES/FMDF data are used to study the physics of TJI and combustion for different turbulent jet igniter and gas mixture conditions. The results show the very complex and different behavior of the turbulence and the flame structure at different jet equivalence ratios.
Quadrature Moments Method for the Simulation of Turbulent Reactive Flows
NASA Technical Reports Server (NTRS)
Raman, Venkatramanan; Pitsch, Heinz; Fox, Rodney O.
2003-01-01
A sub-filter model for reactive flows, namely the DQMOM model, was formulated for Large Eddy Simulation (LES) using the filtered mass density function. Transport equations required to determine the location and size of the delta-peaks were then formulated for a 2-peak decomposition of the FDF. The DQMOM scheme was implemented in an existing structured-grid LES solver. Simulations of scalar shear layer using an experimental configuration showed that the first and second moments of both reactive and inert scalars are in good agreement with a conventional Lagrangian scheme that evolves the same FDF. Comparisons with LES simulations performed using laminar chemistry assumption for the reactive scalar show that the new method provides vast improvements at minimal computational cost. Currently, the DQMOM model is being implemented for use with the progress variable/mixture fraction model of Pierce. Comparisons with experimental results and LES simulations using a single-environment for the progress-variable are planned. Future studies will aim at understanding the effect of increase in environments on predictions.
LES of Temporally Evolving Mixing Layers by an Eighth-Order Filter Scheme
NASA Technical Reports Server (NTRS)
Hadjadj, A; Yee, H. C.; Sjogreen, B.
2011-01-01
An eighth-order filter method for a wide range of compressible flow speeds (H.C. Yee and B. Sjogreen, Proceedings of ICOSAHOM09, June 22-26, 2009, Trondheim, Norway) are employed for large eddy simulations (LES) of temporally evolving mixing layers (TML) for different convective Mach numbers (Mc) and Reynolds numbers. The high order filter method is designed for accurate and efficient simulations of shock-free compressible turbulence, turbulence with shocklets and turbulence with strong shocks with minimum tuning of scheme parameters. The value of Mc considered is for the TML range from the quasi-incompressible regime to the highly compressible supersonic regime. The three main characteristics of compressible TML (the self similarity property, compressibility effects and the presence of large-scale structure with shocklets for high Mc) are considered for the LES study. The LES results using the same scheme parameters for all studied cases agree well with experimental results of Barone et al. (2006), and published direct numerical simulations (DNS) work of Rogers & Moser (1994) and Pantano & Sarkar (2002).
Tuberculose cutanée à Bamako, Mali
Dicko, Adama; Faye, Ousmane; Fofana, Youssouf; Soumoutera, Moussa; Berthé, Siritio; Touré, Saidou; Traoré, Bekaye; Guindo, Binta; Tall, Koureissi; Keita, Alimata; Kéita, Lassine; Coulibaly, Karim; Keita, Somita
2017-01-01
Introduction La tuberculose est la mycobactériose la plus fréquente en Afrique subsaharienne. La localisation cutanée est rare et sous diagnostiquée à cause de son polymorphisme clinique et la faiblesse du plateau technique. Le but de cette étude était de décrire les aspects épidémiologiques, cliniques, histopathologiques de la tuberculose cutanée à Bamako (Mali). Méthodes De janvier 1991 à décembre 2008 nous avons réalisé une étude transversale descriptive. L’étude s’est déroulée dans le service de Dermatologie du Centre National d’Appui à la lutte contre la Maladie et le service de Pneumo-phtisiologie au l’hôpital du Point G. Ont été inclus dans l’étude les cas de tuberculose confirmés par l’histologie et ou la biologie. Résultats Sur 4269 dossiers, 61 cas de tuberculose cutanée étaient recensées (1,43%). Les hommes représentaient 59% des cas (36 malades) et les femmes 41 % soit (25 cas); soit un sex-ratio de 1,44. L’âge des malades variait de 3 mois à 61 ans pour une moyenne de 27,56 ± 36 ans. La durée d’évolution était en moyenne de 10,9 ± 10 mois. Les formes cliniques recensées étaient le scrofuloderme (41 cas), la forme ulcéreuse (13 cas), la forme verruqueuse (4 cas), et le lupus tuberculeux (3 cas). La tuberculose était associée au VIH dans 7 cas, à la lèpre dans 3 cas. Conclusion La tuberculose cutanée est sous diagnostiquée au Mali. Des efforts sont nécessaires pour améliorer l’accessibilité et le plateau technique des services spécialisés, pour mener une étude approfondie interdisciplinaire sur cette pathologie. PMID:28819523
NASA Astrophysics Data System (ADS)
Dhalenne, G.; Trouilleux, L.; Jegoudez, J.; Revcolevschi, A.; Monod, P.; Kormann, R.; Ganne, J. P.; Motohira, N.; Kitazawa, K.
1991-11-01
Superconducting textured materials were grown from the melt by a floating zone technique in the Nd-Ce-Cu-O and Bi-Sr-Ca-Cu-O systems. The influence of growth conditions and starting compositions on the microstructures and phase composition of the samples were studied by optical microscopy under polarized light, electron microprobe analysis and X-ray diffraction. The superconducting properties of these samples were examined by both electrical resistivity and magnetic measurements. A very strong influence of the microstructure on the superconducting properties as well as a magnetic and electrical anisotropy were shown. In the case of the Bi-Sr-Ca-Cu-O system, critical current densities ranging from 1 600 to 3 000 A.cm^{-2} were measured at 77 K. Des matériaux supraconducteurs texturés ont été élaborés à partir de l'état liquide dans les systèmes Nd-Ce-Cu-O et Bi-Sr-Ca-Cu-O par une technique de fusion de zone. L'influence des conditions de croissance et des compositions initiales sur la microstructure des échantillons a été étudiée par microscopie optique en lumière polarisée, microsonde électronique et diffraction des rayons X. Les propriétés supraconductrices des échantillons ont été examinées par des mesures électriques et magnétiques. Il a été observé une forte influence de la microstructure sur les propriétés supraconductrices ainsi qu'une anisotropie électrique et magnétique. Dans le cas du système Bi-Sr-Ca-Cu-O, les densités de courant critique mesurées à 77 K sont comprises entre 1 600 et 3 000 A.cm^{-2}.
An Improved Wake Vortex Tracking Algorithm for Multiple Aircraft
NASA Technical Reports Server (NTRS)
Switzer, George F.; Proctor, Fred H.; Ahmad, Nashat N.; LimonDuparcmeur, Fanny M.
2010-01-01
The accurate tracking of vortex evolution from Large Eddy Simulation (LES) data is a complex and computationally intensive problem. The vortex tracking requires the analysis of very large three-dimensional and time-varying datasets. The complexity of the problem is further compounded by the fact that these vortices are embedded in a background turbulence field, and they may interact with the ground surface. Another level of complication can arise, if vortices from multiple aircrafts are simulated. This paper presents a new technique for post-processing LES data to obtain wake vortex tracks and wake intensities. The new approach isolates vortices by defining "regions of interest" (ROI) around each vortex and has the ability to identify vortex pairs from multiple aircraft. The paper describes the new methodology for tracking wake vortices and presents application of the technique for single and multiple aircraft.
La projection par plasma : une revue
NASA Astrophysics Data System (ADS)
Fauchais, P.; Grimaud, A.; Vardelle, A.; Vardelle, M.
The quality of a plasma sprayed coating depends on numerous parameters that start to be understood due to the recent progresses in modelling and measurement techniques for plasma jets, momentum, heat and mass transfers between plasma and particles, the way the particules splat and cool down upon impact on the substrate or the previously deposited layers. In this paper, first are recalled the used measurement techniques and their limitations both for plasma jets and particles in flight. Then are underlined the importance of the different phenomena envolved in the transfers between plasma and particles such as steep temperature and chemical species density gradients around the particles, heat propagation phenomenon especially for ceramic particles and the connected evaporation effect, rarefaction effect which occurs even at atmospheric pressure. The problems related to the size and injection velocity distributions which determine the trajectory distributions and the heat treatments undergone by the particles are treated. The study of plasma generation shows on one hand for d.c. arc plasma torches the drastic influence on the plasma jets lengths and diameters of the gas injection chamber design, the gas nature, the design of the arc chamber and nozzle, the surrounding atmosphere (especially air pumping which cools down very fast the plasma) and on the other hand for RF plasmas the importance of the particle injection design to avoid the coupling between the RF discharge and the carrier gas with the particles. All these points are illustrated with examples of coatings of alumina, zirconia carbide and nickel particles. The way the particles splat is then studied with the chemical reactions in flight, the fast quenching of the particles and the resulting cristalline structures, the coating adhesion and also the residual stesses and their control through that of the temperature gradients into the coatings during spraying. At last a few actual and potential applications are presented in the fields of aeronautics and mechanics. La qualité d'un dépôt projete par plasma dépend de nombreux paramètres que l'on commence à mieux appréhender du fait des progrès de la modélisation et de la métrologie tant des écoulements plasmas que des transferts plasma-particules ou que des conditions d'écrasement et de refroidissement des particules lors de leur impact sur le substrat ou les couches déjà déposées. Les techniques de mesure utilisdes et leurs limitations sont d'abord rappelées tant pour les jets de plasma que pour les particules en vol et l'importance des différents phénomènes intervenant dans les transferts plasma-particules est soulignée : gradients de température et de concentration d'espèces chimiques très élevés autour des particules, effets de propagation de la chaleur, notamment pour les particules céramiques, effet d'évaporation, effet de raréfaction sensible dès la pression atmosphérique. Les problèmes de distribution de taille et de vitesse d'injection des particules sont également abordés car ils conditionnent les distributions de trajectoires et donc le traitement des particules dans le jet de plasma. La génération du plasma montre d'une part 1'influence considérable de l'injection du gaz, de sa nature, du dessin de la chambre d'arc et de la tuyère ainsi que du pompage de l'air ambiant sur la longueur des jets de plasma d'arc et d'autre part les problèmes d'injection pour éviter le couplage avec la décharge dans les jets de plasmas R.E Tout ceci est illustré avec des exemples de dépôt d'alumine, de zircone, de cermet carbure et de nickel. L'écrasement des particules est ensuite abordé avec les problèmes de réactions chimiques, de trempe ultra-rapide et donc de structure cristalline des dépôts, d'adhdsion mais aussi de containtes résiduelles et de leur contrôle via les gradients de température dans les dépôts pendant le tir. Enfin quelques applications actuelles sont présentées notamment pour l'aéronautique et la mécanique.
NASA Astrophysics Data System (ADS)
Chaud, X.; Gautier-Picard, P.; Beaugnon, E.; Porcar, L.; Bourgault, D.; Tournier, R.; Erraud, A.; Tixador, P.
1998-03-01
Industrial applications of the bulk superconducting YBa_2Cu_3O_7 material imply to control the growth of large oriented monodomains in samples of big size (several centimeters). The laboratory EPM-Matformag is committed to produce such materials according to three different methods (zone melting, solidification controlled by a magnetic field, crystal growth from a seed). The results obtained show that it is possible by such methods to elaborate a material with high performances at the centimeter scale and to produce it in series. The availability of such materials allows the measure of physical properties on a large scale and the testing of prototypes for cryo-electrotechnical applications (magnetic bearing, flywheel, coupling device, current lead...). Les applications industrielles des matériaux supraconducteurs massifs YBa_2Cu_3O_7 impliquent de contrôler la croissance de larges monodomaines orientés dans des échantillons de grande taille (plusieurs centimètres). Le laboratoire EPM-Matformag s'est appliqué à produire de tels matériaux selon trois techniques différentes (fusion de zone, solidification contrôlée sous champ magnétique, croissance cristalline à partir d'un germe). Les résultats obtenus montrent qu'il est possible par de telles techniques d'obtenir un matériau performant à l'échelle des centimètres et de le produire en série. La disponibilité de tels matériaux permet de mesurer des propriétés physiques à grande échelle et de tester des prototypes d'applications cryo-électrotechniques (palier magnétique, volant d'inertie, coupleur, amenée de courant, limiteur de courant...).
Etude de l'amelioration de la qualite des anodes par la modification des proprietes du brai
NASA Astrophysics Data System (ADS)
Bureau, Julie
La qualite des anodes produites se doit d'etre bonne afin d'obtenir de l'aluminium primaire tout en reduisant le cout de production du metal, la consommation d'energie et les emissions environnementales. Or, l'obtention des proprietes finales de l'anode necessite une liaison satisfaisante entre le coke et le brai. Toutefois, la matiere premiere actuelle n'assure pas forcement la compatibilite entre le coke et le brai. Une des solutions les plus prometteuses, pour ameliorer la cohesion entre ces deux materiaux, est la modification des proprietes du brai. L'objectif de ce travail consiste a modifier les proprietes du brai par l'ajout d'additifs chimiques afin d'ameliorer la mouillabilite du coke par le brai modifie pour produire des anodes de meilleure qualite. La composition chimique du brai est modifiee en utilisant des tensioactifs ou agents de modification de surface choisis dans le but d'enrichir les groupements fonctionnels susceptibles d'ameliorer la mouillabilite. L'aspect economique, l'empreinte environnementale et l'impact sur la production sont consideres dans la selection des additifs chimiques. Afin de realiser ce travail, la methodologie consiste a d'abord caracteriser les brais non modifies, les additifs chimiques et les cokes par la spectroscopie infrarouge a transformee de Fourier (FTIR) afin d'identifier les groupements chimiques presents. Puis, les brais sont modifies en ajoutant un additif chimique afin de possiblement modifier ses proprietes. Differentes quantites d'additif sont ajoutees afin d'examiner l'effet de la variation de la concentration sur les proprietes du brai modifie. La methode FTIR permet d'evaluer la composition chimique des brais modifies afin de constater si l'augmentation de la concentration d'additif enrichit les groupements fonctionnels favorisant l'adhesion coke/brai. Ensuite, la mouillabilite du coke par le brai est observee par la methode goutte- sessile. Une amelioration de la mouillabilite par la modification a l'aide d'un additif chimique signifie une possible amelioration de l'interaction entre le coke et le brai modifie. Afin de completer l'evaluation des donnees recueillies, les resultats de la FTIR et de la mouillabilite sont analyses par le reseau neuronal artificiel afin de mieux comprendre les mecanismes sous-jacents. A la lumiere des resultats obtenus, les additifs chimiques les plus prometteurs sont selectionnes afin de verifier l'effet de leur utilisation sur la qualite des anodes. Pour ce faire, des anodes de laboratoire sont produites en utilisant des brais non modifies et des brais modifies avec les additifs chimiques selectionnes. Par la suite, les anodes sont carottees afin de les caracteriser en determinant certaines de leurs proprietes physiques et chimiques. Enfin, les resultats des echantillons d'anodes faites d'un meme brai non modifie et modifie sont compares afin d'evaluer l'amelioration de la qualite des anodes. Finalement, un examen de l'impact possible de l'utilisation d'un additif chimique pour modifier le brai sur la consommation energetique et en carbone ainsi que la quantite d'aluminium produit est realise. Afin de modifier le brai, trois differents additifs chimiques sont selectionnes, soit un tensioactif et deux agents de modification de surface. L'analyse FTIR des experimentations menees sur les brais modifies demontre que deux additifs ont modifie la composition chimique des brais experimentes. L'analyse des resultats des tests goutte-sessile laisse supposer qu'un brai modifie par ces deux additifs ameliore possiblement l'interaction avec les cokes employes dans cette etude. L'analyse par reseau neuronal artificiel des donnees recueillies permet de mieux comprendre le lien entre la composition chimique d'un brai et sa capacite de mouillabilite avec un coke. La caracterisation des echantillons d'anodes produites permet d'affirmer que ces deux additifs peuvent ameliorer certaines des proprietes anodiques comparativement aux echantillons standards. L'analyse des resultats demontre que l'un des deux additifs semble donner des resultats plus prometteurs. Au final, les travaux realises au cours de ce projet demontrent qu'il est possible d'ameliorer la qualite anodique en modifiant les proprietes du brai. De plus, l'analyse des resultats obtenus fournit une meilleure comprehension des mecanismes entre un brai et un additif chimique.
Review of the critical current densities and magnetic irreversibilities in high T_c superconductors
NASA Astrophysics Data System (ADS)
Senoussi, S.
1992-07-01
This review article is concerned with critical current density (J) and magnetic irreversibilities in high-T_c superconductors (HTSC). The apparent J derived from different experimental techniques (transport, hysteresis cycle, ac-susceptibility) are compared. The influence of time (relaxation effects) as well as the macroscopic size of the sample on the criteria defining J are discussed. The dependences of the critical current on grain boundaries (“weaks-links”), texturing and other physical and chemical defects are examined in detail. The role of self fields is clarified. The critical current is strongly influenced by the anisotropy of the layered structure practically whatever the experimental conditions. Intrinsic pinning is lowered by defects. Demagnetizing effects and surface pinnings are reviewed. The usual critical state and flux creep models are recalled emphasizing the physical aspects most specific to HTSC. A theoretical model which takes into account the equilibrium magnetization and sample granularity is developed. It reproduces most of the characteristic features of both the hysteresis cycle and ac-susceptibility. A number of new formulae are introduced. They generalize the Bean model and show how to correct for the dimensions of the grains (granular materials), the macroscopic radius of the sample, anisotropy and demagnetization effects in certain situations. Several limits beyond which the usual critical state breaks down are discussed: (1) the quasi elastic limit where the variable field is too weak to depin the vortices, (2) H≈ H_C1 so that the interaction between vortex lines is exponentially weak and (3) T and H close to the “irreversibility line” where the influence of viscous forces are strong. (4) Hgg H_C1 so that J is governed by collective pinning. Ce papier de revue est consacré aux courant critiques (J) et aux irréversibilités magnétiques dans les nouveaux matériaux supraconducteurs (HTSC). Nous y comparons les densités des courants critiques effectives déduites à partir des techniques expérimentales les plus courantes (transport, cycle d'hystérésis, susceptibilité alternative, ...). L'influence de l'échelle du temps de la mesure et de la taille effective de l'échantillon sur les divers critères définissant J est examinée en détail. La dépendance de ce courant en fonction des joints de grains (“liens faibles”), du degré de texture et des autres défauts physiques et chimiques est discutée. Le rôle du champ propre est clarifié. Le courant critique est très dépendant de l'anisotropie de l'échnatillon dans pratiquement toutes les conditions expérimentales. L'ancrage intrinsèque est détérioré par les défauts. Le rôle des effets démagnétisants et de la surface de l'échantillon sur les résultats expérimentaux est passé en revue. Les modèles de l'état critique et de “flus creep” sont rappelés en insistant sur les aspects les plus spécifiques des HTSC. Un modèle théorique est proposé. Il tient compte de l'aimantation réversible, des aspects granulaires et reproduit à la fois les propriétés les plus typiques des cycles d'hystérésis et de la suscceptibilité alternative. Plusieurs formules nouvelles généralisant le modèle de Bean en sont déduites. Elles montrent comment tenir compte des dimensions des grains (matériaux granulaires), du rayon macroscopique, de l'anisotropie et des effets démagnétisants, dans certaines conditions. Plusieurs limites au-delà desquelles les concepts classiques de l'état critique cessent d'être valides sont également examinés : (1) la limite élastique où le champ de mesure est trop faible pour dépiéger les vortex, (2) H≈ H_C1 de sorte que les interactions entre vortex sont exponentiellement faibles et (3) et T voisins de la ligne d'irréversibilité où les forces de viscosité jouent un rôle prépondérant. (4) Hgg H_C1 de sorte que J est imposé par l'ancrage collectif.
Conductivite dans le modele de Hubbard bi-dimensionnel a faible couplage
NASA Astrophysics Data System (ADS)
Bergeron, Dominic
Le modele de Hubbard bi-dimensionnel (2D) est souvent considere comme le modele minimal pour les supraconducteurs a haute temperature critique a base d'oxyde de cuivre (SCHT). Sur un reseau carre, ce modele possede les phases qui sont communes a tous les SCHT, la phase antiferromagnetique, la phase supraconductrice et la phase dite du pseudogap. Il n'a pas de solution exacte, toutefois, plusieurs methodes approximatives permettent d'etudier ses proprietes de facon numerique. Les proprietes optiques et de transport sont bien connues dans les SCHT et sont donc de bonne candidates pour valider un modele theorique et aider a comprendre mieux la physique de ces materiaux. La presente these porte sur le calcul de ces proprietes pour le modele de Hubbard 2D a couplage faible ou intermediaire. La methode de calcul utilisee est l'approche auto-coherente a deux particules (ACDP), qui est non-perturbative et inclue l'effet des fluctuations de spin et de charge a toutes les longueurs d'onde. La derivation complete de l'expression de la conductivite dans l'approche ACDP est presentee. Cette expression contient ce qu'on appelle les corrections de vertex, qui tiennent compte des correlations entre quasi-particules. Pour rendre possible le calcul numerique de ces corrections, des algorithmes utilisant, entre autres, des transformees de Fourier rapides et des splines cubiques sont developpes. Les calculs sont faits pour le reseau carre avec sauts aux plus proches voisins autour du point critique antiferromagnetique. Aux dopages plus faibles que le point critique, la conductivite optique presente une bosse dans l'infrarouge moyen a basse temperature, tel qu'observe dans plusieurs SCHT. Dans la resistivite en fonction de la temperature, on trouve un comportement isolant dans le pseudogap lorsque les corrections de vertex sont negligees et metallique lorsqu'elles sont prises en compte. Pres du point critique, la resistivite est lineaire en T a basse temperature et devient progressivement proportionnelle a T 2 a fort dopage. Quelques resultats avec sauts aux voisins plus eloignes sont aussi presentes. Mots-cles: Hubbard, point critique quantique, conductivite, corrections de vertex
2011-01-01
plus important, comparativement à une échelle plus large. Les résultats indiquent qu’un effet de cette nature est attribuable à des facteurs...par un angle de contact à l’avancement plus petit et un angle de contact au retrait plus important, comparativement à une échelle plus large. Les...Methods ............................................................................................................ 10 3.1 Experimental Design
NASA Astrophysics Data System (ADS)
Kou, Wenjun; Pandolfino, John E.; Kahrilas, Peter J.; Patankar, Neelesh A.
2016-11-01
In this work, we develop a fully coupled bolus-esophageal-gastric model to study esophageal emptying based on the immersed boundary method. The model includes an esophageal segment, an ellipsoid-shaped stomach, and a bolus. It can easily handle the passive and active function of the lower esophageal sphincter (LES). Two groups of case studies are presented. The first group is about the influence from tissue anisotropy. Simulation shows that the weaker (or more compliant) part suffers from a higher wall shear stress and higher pressure load when the bolus is filled in and emptied from the LES segment. This implies a degradation cycle in which a weaker tissue becomes much weaker due to an increased load, a possible pathway to the esophageal lower diverticulum. The second group is about bulge formation resulting from asymmetric anatomy and a compliant LES. In particular, we find a right bulge tends to develop for a compliant LES. The bulge is most pronounced with a highest stiffness of the gastric wall. This implies that the competition between the LES stiffness and gastric wall stiffness might be another factor related to the esophageal lower diverticulum. The support of Grant R01 DK56033 and R01 DK079902 from NIH is gratefully acknowledged.
Stochastic four-way coupling of gas-solid flows for Large Eddy Simulations
NASA Astrophysics Data System (ADS)
Curran, Thomas; Denner, Fabian; van Wachem, Berend
2017-11-01
The interaction of solid particles with turbulence has for long been a topic of interest for predicting the behavior of industrially relevant flows. For the turbulent fluid phase, Large Eddy Simulation (LES) methods are widely used for their low computational cost, leaving only the sub-grid scales (SGS) of turbulence to be modelled. Although LES has seen great success in predicting the behavior of turbulent single-phase flows, the development of LES for turbulent gas-solid flows is still in its infancy. This contribution aims at constructing a model to describe the four-way coupling of particles in an LES framework, by considering the role particles play in the transport of turbulent kinetic energy across the scales. Firstly, a stochastic model reconstructing the sub-grid velocities for the particle tracking is presented. Secondly, to solve particle-particle interaction, most models involve a deterministic treatment of the collisions. We finally introduce a stochastic model for estimating the collision probability. All results are validated against fully resolved DNS-DPS simulations. The final goal of this contribution is to propose a global stochastic method adapted to two-phase LES simulation where the number of particles considered can be significantly increased. Financial support from PetroBras is gratefully acknowledged.
Large-Eddy Simulation (LES) of a Compressible Mixing Layer and the Significance of Inflow Turbulence
NASA Technical Reports Server (NTRS)
Mankbadi, Mina Reda; Georgiadis, Nicholas J.; Debonis, James R.
2017-01-01
In the context of Large Eddy Simulations (LES), the effects of inflow turbulence are investigated through the Synthetic Eddy Method (SEM). The growth rate of a turbulent compressible mixing layer corresponding to operating conditions of GeobelDutton Case 2 is investigated herein. The effects of spanwise width on the growth rate of the mixing layer is investigated such that spanwise width independence is reached. The error in neglecting inflow turbulence effects is quantified by comparing two methodologies: (1) Hybrid-RANS-LES methodology and (2) SEM-LES methodology. Best practices learned from Case 2 are developed herein and then applied to a higher convective mach number corresponding to Case 4 experiments of GeobelDutton.
Large eddy simulation applications in gas turbines.
Menzies, Kevin
2009-07-28
The gas turbine presents significant challenges to any computational fluid dynamics techniques. The combination of a wide range of flow phenomena with complex geometry is difficult to model in the context of Reynolds-averaged Navier-Stokes (RANS) solvers. We review the potential for large eddy simulation (LES) in modelling the flow in the different components of the gas turbine during a practical engineering design cycle. We show that while LES has demonstrated considerable promise for reliable prediction of many flows in the engine that are difficult for RANS it is not a panacea and considerable application challenges remain. However, for many flows, especially those dominated by shear layer mixing such as in combustion chambers and exhausts, LES has demonstrated a clear superiority over RANS for moderately complex geometries although at significantly higher cost which will remain an issue in making the calculations relevant within the design cycle.
Les instabilités antérieures de l’épaule:à propos de 73 cas
Jamal, Louaste; Bousbaa, Hicham; Cherrad, Taoufik; Wahidi, Mohammed; Amhajji, Larbi; Rachid, Khalid
2016-01-01
Entre 2005 et 2014, 73patients (77 épaules) ont bénéficié d’une intervention de Latarjet pour instabilité antérieure de l’épaule. Nous avons, rétrospectivement, évalué les résultats cliniques et radiologiques de cette technique opératoire. L’intervention a été réalisée pour le traitement d’une luxation récidivante dans 69 cas, subluxation récidivante douloureuse dans 5 cas et 3 épaules douloureuses Tous les patients ont eu une évaluation radiographique avant l’intervention et lors du contrôle le plus récent. Selon le score de Rowe, 73 (94.8 %) des 77 épaules ont obtenu un résultat bon ou excellent. Au plus grand recul, 74 épaules étaient indemnes d’arthrose glénohumérale. PMID:27800066
Islam, Saleem
2017-04-01
Achalasia is a rare neurogenic motility disorder of the esophagus, occurring in approximately 0.11 cases per 100,000 children. The combination of problems (aperistalsis, hypertensive lower esophageal sphincter (LES), and lack of receptive LES relaxation) results in patients having symptoms of progressive dysphagia, weight loss, and regurgitation. Treatment modalities have evolved over the past few decades from balloon dilation and botulinum toxin injection to laparoscopic Heller myotomy and endoscopic myotomy. Most data on achalasia management is extrapolated to children from adult experience. This article describes understanding of the pathogenesis and discusses newer therapeutic techniques as well as controversies in management. Copyright © 2017 Elsevier Inc. All rights reserved.
Les Houches 2017: Physics at TeV Colliders Standard Model Working Group Report
DOE Office of Scientific and Technical Information (OSTI.GOV)
Andersen, J.R.; et al.
This Report summarizes the proceedings of the 2017 Les Houches workshop on Physics at TeV Colliders. Session 1 dealt with (I) new developments relevant for high precision Standard Model calculations, (II) theoretical uncertainties and dataset dependence of parton distribution functions, (III) new developments in jet substructure techniques, (IV) issues in the theoretical description of the production of Standard Model Higgs bosons and how to relate experimental measurements, (V) phenomenological studies essential for comparing LHC data from Run II with theoretical predictions and projections for future measurements, and (VI) new developments in Monte Carlo event generators.
1992-03-01
de Logiciels") etaient en cours de developpement pour resoudre des problimes similaires dans le monde de la gestion . le Panel... gestion des sp cifications, d’algorithmes et de reprtsentations. Techniques et Sciences Informatiques, 4(3), 1985. 4-21 R. Jacquart, M. Lemoine, and G...Guidance and Control Systems Software (Les Diff~rentes Approches "G6neration" pour la Conception et le D~veloppement de Logiciels de Guidage et de
Falola, Stève Marjelin; Gouthon, Polycarpe; Falola, Jean-Marie; Fiogbe, Michel Armand; Nigan, Issiako Bio
2014-01-01
Introduction Le mobilier scolaire et la posture assise en classe sont souvent impliqués dans l'apparition des douleurs rachidiennes, influant de fait sur la qualité des tâches réalisées par les apprenants. Aucune étude n'a encore vérifié le degré d'adéquation entre les caractéristiques du mobilier et celles des écoliers au Bénin. L'objectif de cette étude transversale est donc de déterminer la relation entre les dimensions des table-bancs utilisées en classe et les mesures anthropométriques des écoliers au Bénin. Methods Elle a été réalisée avec un échantillon probabiliste de 678 écoliers, âgés de 4 à 17 ans. Les mesures anthropométriques des écoliers et les mensurations relatives aux longueurs, largeurs et hauteurs des table-bancs ont été mesurées, puis intégrées aux équations proposées dans la littérature. Les pourcentages des valeurs situées hors des limitesacceptables, dérivées de l'application des équations ont été calculés. Results La largeur et la hauteur des table-bancs utilisées par les écoliers étaient plus élevées (p < 0,05) que les valeurs de référence recommandées par les structures officielles de contrôle et de production des mobiliers scolaires au Bénin. Quel que soit le sexe, il y avait une inadéquation entre la largeur du banc et la longueur fesse-poplité, puis entre la hauteur de la table et la distance coude-bancdes écoliers. Conclusion Les résultats suggèrent de prendre en compte l’évolution des mesures anthropométriques des écoliers dans la confection des table-bancs, afin de promouvoir de bonnes postures assises en classe et de réduire le risque de troubles du rachis. PMID:25317232
NASA Astrophysics Data System (ADS)
Feugeas, F.; Magnin, J. P.; Cornet, A.; Rameau, J. J.
1997-03-01
Microbiologically Influenced Corrosion (M.I.C.) studied since the beginning of this century, is responsible for the degradation of many metallic equipments. This study is a review of results dealing with M.I.C. on several types of steels as: carbon steels, stainless steels, welded steels and covered steels. M.I.C. occurs only in presence of a biofilm. The first part of this study describes chemical and physical factors involved in its development, technical methods for studying biofilms, and its contribution in the corrosion process. The second part is devoted to the study of M.I.C. cases linked with metal nature and different aqueous environments and the last part reviews the mainly mecanisms of biocorrosion. La Corrosion Influencée par les Micro-organismes (C.I.M.) ou biocorrosion, phénomène étudié depuis le début du siècle, est responsable de la dégradation d'un grand nombre d'ouvrages métalliques. Cette étude a pour but de faire le point des connaissances sur la corrosion influencée microbiologiquement de divers types d'aciers au carbone, d'aciers inoxydables, d'assemblages soudés et d'aciers revêtus. La C.I.M. n'apparaît qu'en présence d'un biofilm. La première partie de cette étude décrit les facteurs physico-chimiques impliqués dans la formation du biofilm, ces moyens d'études ainsi que son action dans le processus de biocorrosion. La seconde partie est consacrée à la description des cas de biocorrosion classés en fonction de la nature des métaux et des milieux avec lesquels ils sont en contact. La dernière partie de ce document passe en revue les principaux mécanismes de biocorrosion décrits.
NASA Astrophysics Data System (ADS)
Levitz, P.; Korb, J.-P.; Bryant, R. G.
1999-10-01
We address the question of probing the fluid dynamics in disordered interfacial media by Pulsed field gradient (PFG) and Magnetic relaxation dispersion (MRD) techniques. We show that the PFG method is useful to separate the effects of morphology from the connectivity in disordered macroporous media. We propose simulations of molecular dynamics and spectral density functions, J(ω), in a reconstructed mesoporous medium for different limiting conditions at the pore surface. An algebraic form is found for J(ω) in presence of a surface diffusion and a local exploration of the pore network. A logarithmic form of J(ω) is found in presence of a pure surface diffusion. We present magnetic relaxation dispersion experiments (MRD) for water and acetone in calibrated mesoporous media to support the main results of our simulations and theories. Nous présentons les avantages respectifs des méthodes de gradients de champs pulsés (PFG) et de relaxation magnétique nucléaire en champs cyclés (MRD) pour sonder la dynamique moléculaire dans les milieux interfaciaux désordonnés. La méthode PFG est utile pour séparer la morphologie et la connectivité dans des milieux macroporeux. Des simulations de diffusion moléculaire et de densité spectrale J(ω) en milieux mésoporeux sont présentées dans différentes conditions limites aux interfaces des pores. Nous trouvons une forme de dispersion algébrique de J(ω) pour une diffusion de surface assistée d'une exploration locale du réseau de pores et une forme logarithmique dans le cas d'une simple diffusion de surface. Les résultats expérimentaux de la méthode MRD pour de l'eau et de l'acétone dans des milieux mésoporeux calibrés supportent les résultats principaux de nos simulations et théories.
Damping parameter study of a perforated plate with bias flow
NASA Astrophysics Data System (ADS)
Mazdeh, Alireza
One of the main impediments to successful operation of combustion systems in industrial and aerospace applications including gas turbines, ramjets, rocket motors, afterburners (augmenters) and even large heaters/boilers is the dynamic instability also known as thermo-acoustic instability. Concerns with this ongoing problem have grown with the introduction of Lean Premixed Combustion (LPC) systems developed to address the environmental concerns associated with the conventional combustion systems. The most common way to mitigate thermo-acoustic instability is adding acoustic damping to the combustor using acoustic liners. Recently damping properties of bias flow initially introduced to liners only for cooling purposes have been recognized and proven to be an asset in enhancing the damping effectiveness of liners. Acoustic liners are currently being designed using empirical design rules followed by build-test-improve steps; basically by trial and error. There is growing concerns on the lack of reliability associated with the experimental evaluation of the acoustic liners with small size apertures. The development of physics-based tools in assisting the design of such liners has become of great interest to practitioners recently. This dissertation focuses primarily on how Large-Eddy Simulations (LES) or similar techniques such as Scaled Adaptive Simulation (SAS) can be used to characterize damping properties of bias flow. The dissertation also reviews assumptions made in the existing analytical, semi-empirical, and numerical models, provides a criteria to rank order the existing models, and identifies the best existing theoretical model. Flow field calculations by LES provide good insight into the mechanisms that led to acoustic damping. Comparison of simulation results with empirical and analytical studies shows that LES simulation is a viable alternative to the empirical and analytical methods and can accurately predict the damping behavior of liners. Currently the role of LES for research studies concerned with damping properties of liners is limited to validation of other empirical or theoretical approaches. This research has shown that LES can go beyond that and can be used for performing parametric studies to characterize the sensitivity of acoustic properties of multi--perforated liners to the changes in the geometry and flow conditions and be used as a tool to design acoustic liners. The conducted research provides an insightful understanding about the contribution of different flow and geometry parameters such as perforated plate thickness, aperture radius, porosity factors and bias flow velocity. While the study agrees with previous observations obtained by analytical or experimental methods, it also quantifies the impact from these parameters on the acoustic impedance of perforated plate, a key parameter to determine the acoustic performance of any system. The conducted study has also explored the limitations and capabilities of commercial tool when are applied for performing simulation studies on damping properties of liners. The overall agreement between LES results and previous studies proves that commercial tools can be effectively used for these applications under certain conditions.
Thermal studies of a superconducting current limiter using Monte-Carlo method
NASA Astrophysics Data System (ADS)
Lévêque, J.; Rezzoug, A.
1999-07-01
Considering the increase of the fault current level in electrical network, the current limiters become very interesting. The superconducting limiters are based on the quasi-instantaneous intrinsic transition from superconducting state to normal resistive one. Without detection of default or given order, they reduce the constraints supported by electrical installations above the fault. To avoid the destruction of the superconducting coil, the temperature must not exceed a certain value. Therefore the design of a superconducting coil needs the simultaneous resolution of an electrical equation and a thermal one. This papers deals with a resolution of this coupled problem by the method of Monte-Carlo. This method allows us to calculate the evolution of the resistance of the coil as well as the current of limitation. Experimental results are compared with theoretical ones. L'augmentation des courants de défaut dans les grands réseaux électriques ravive l'intérêt pour les limiteurs de courant. Les limiteurs supraconducteurs de courants peuvent limiter quasi-instantanément, sans donneur d'ordre ni détection de défaut, les courants de court-circuit réduisant ainsi les contraintes supportées par les installations électriques situées en amont du défaut. La limitation s'accompagne nécessairement de la transition du supraconducteur par dépassement de son courant critique. Pour éviter la destruction de la bobine supraconductrice la température ne doit pas excéder une certaine valeur. La conception d'une bobine supraconductrice exige donc la résolution simultanée d'une équation électrique et d'une équation thermique. Nous présentons une résolution de ce problème electrothermique par la méthode de Monte-Carlo. Cette méthode nous permet de calculer l'évolution de la résistance de la bobine et du courant de limitation. Des résultats expérimentaux sont comparés avec les résultats théoriques.
Partager : des technologies de pointe au service de la société
DOE Office of Scientific and Technical Information (OSTI.GOV)
None
2011-02-14
Médecine, climatologie, métrologie et informatique, les techniques utilisées par le LHC trouvent déjà des répercussions dans d’autres domaines scientifiques. Utilisant des techniques inédites, la physique des particules en fait bénéficier la société toute entière.
Enseigner les termes techniques en francais
ERIC Educational Resources Information Center
Charbonneau, Yvon
1974-01-01
The author notes that most business and economic terms are in English; this, he writes, is unfortunate for the future of the French language. He gives nine ways to teach a technical vocabulary. (The article is in French.) (JA)
Influence of skin ageing features on Chinese women's perception of facial age and attractiveness
Porcheron, A; Latreille, J; Jdid, R; Tschachler, E; Morizot, F
2014-01-01
Objectives Ageing leads to characteristic changes in the appearance of facial skin. Among these changes, we can distinguish the skin topographic cues (skin sagging and wrinkles), the dark spots and the dark circles around the eyes. Although skin changes are similar in Caucasian and Chinese faces, the age of occurrence and the severity of age-related features differ between the two populations. Little is known about how the ageing of skin influences the perception of female faces in Chinese women. The aim of this study is to evaluate the contribution of the different age-related skin features to the perception of age and attractiveness in Chinese women. Methods Facial images of Caucasian women and Chinese women in their 60s were manipulated separately to reduce the following skin features: (i) skin sagging and wrinkles, (ii) dark spots and (iii) dark circles. Finally, all signs were reduced simultaneously (iv). Female Chinese participants were asked to estimate the age difference between the modified and original images and evaluate the attractiveness of modified and original faces. Results Chinese women perceived the Chinese faces as younger after the manipulation of dark spots than after the reduction in wrinkles/sagging, whereas they perceived the Caucasian faces as the youngest after the manipulation of wrinkles/sagging. Interestingly, Chinese women evaluated faces with reduced dark spots as being the most attractive whatever the origin of the face. The manipulation of dark circles contributed to making Caucasian and Chinese faces being perceived younger and more attractive than the original faces, although the effect was less pronounced than for the two other types of manipulation. Conclusion This is the first study to have examined the influence of various age-related skin features on the facial age and attractiveness perception of Chinese women. The results highlight different contributions of dark spots, sagging/wrinkles and dark circles to their perception of Chinese and Caucasian faces. Résumé Objectifs Le vieillissement entraine des changements caractéristiques de l'apparence de la peau du visage. Parmi ces changements on distingue les éléments topographiques (relâchement de la peau et rides), les taches brunes et les cernes sur le contour de l'œil. Bien que ces modifications cutanées avec l'âge soient similaires pour les visages caucasiens et chinois; leur âge d'apparition et leur degré de sévérité varient entre ces deux populations. Il y a très peu d'informations disponibles liées à l'influence du vieillissement cutané sur la perception des visages féminins par les femmes chinoises. L'objectif de cette étude est d'évaluer la contribution des différents signes de vieillissement à la perception de l'âge et d'attirance chez ces femmes. Methodes Des photos de visages de femmes caucasiennes et chinoises d'environ 60 ans ont été manipulées de façon à réduire séparément les signes suivants: (i) le relâchement de la peau et les rides, (ii) les taches brunes, et (iii) les cernes. Enfin, tous les signes ont été atténués ensemble (iv). Des participantes chinoises ont estimé, à partir de ces photos, l'écart d'âge entre la version originale et chaque version modifiée; elles ont également évalué l'attirance des visages originaux et modifiés. Resultats Les femmes chinoises ont jugé les visages chinois plus jeunes après correction des taches qu'après correction des rides/relâchement, alors que les visages caucasiens ont été perçus les plus jeunes après correction des rides/relâchement. Les femmes chinoises ont jugé que les visages avec correction des taches étaient les plus attirants quelle que soit l'origine du visage. La manipulation des cernes a entraîné un rajeunissement des 2 types de visages et les a rendus plus attirants, même si l'effet observé était moindre que pour les autres corrections. Conclusion Il s'agit de première étude qui examine l'influence de plusieurs signes de vieillissement cutanés sur la perception de l'âge et de l'attirance des visages par les femmes chinoises. Les résultats mettent en évidence que les taches, les rides/relâchement et les cernes contribuent différemment à leur perception des visages chinois et caucasiens. PMID:24712710
A multi-scalar PDF approach for LES of turbulent spray combustion
NASA Astrophysics Data System (ADS)
Raman, Venkat; Heye, Colin
2011-11-01
A comprehensive joint-scalar probability density function (PDF) approach is proposed for large eddy simulation (LES) of turbulent spray combustion and tests are conducted to analyze the validity and modeling requirements. The PDF method has the advantage that the chemical source term appears closed but requires models for the small scale mixing process. A stable and consistent numerical algorithm for the LES/PDF approach is presented. To understand the modeling issues in the PDF method, direct numerical simulation of a spray flame at three different fuel droplet Stokes numbers and an equivalent gaseous flame are carried out. Assumptions in closing the subfilter conditional diffusion term in the filtered PDF transport equation are evaluated for various model forms. In addition, the validity of evaporation rate models in high Stokes number flows is analyzed.
Method of Performance-Aware Security of Unicast Communication in Hybrid Satellite Networks
NASA Technical Reports Server (NTRS)
Baras, John S. (Inventor); Roy-Chowdhury, Ayan (Inventor)
2014-01-01
A method and apparatus utilizes Layered IPSEC (LES) protocol as an alternative to IPSEC for network-layer security including a modification to the Internet Key Exchange protocol. For application-level security of web browsing with acceptable end-to-end delay, the Dual-mode SSL protocol (DSSL) is used instead of SSL. The LES and DSSL protocols achieve desired end-to-end communication security while allowing the TCP and HTTP proxy servers to function correctly.
NASA Astrophysics Data System (ADS)
Chitta, Varun
Modeling of complex flows involving the combined effects of flow transition and streamline curvature using two advanced turbulence models, one in the Reynolds-averaged Navier-Stokes (RANS) category and the other in the hybrid RANS-Large eddy simulation (LES) category is considered in this research effort. In the first part of the research, a new scalar eddy-viscosity model (EVM) is proposed, designed to exhibit physically correct responses to flow transition, streamline curvature, and system rotation effects. The four equation model developed herein is a curvature-sensitized version of a commercially available three-equation transition-sensitive model. The physical effects of rotation and curvature (RC) enter the model through the added transport equation, analogous to a transverse turbulent velocity scale. The eddy-viscosity has been redefined such that the proposed model is constrained to reduce to the original transition-sensitive model definition in nonrotating flows or in regions with negligible RC effects. In the second part of the research, the developed four-equation model is combined with a LES technique using a new hybrid modeling framework, dynamic hybrid RANS-LES. The new framework is highly generalized, allowing coupling of any desired LES model with any given RANS model and addresses several deficiencies inherent in most current hybrid models. In the present research effort, the DHRL model comprises of the proposed four-equation model for RANS component and the MILES scheme for LES component. Both the models were implemented into a commercial computational fluid dynamics (CFD) solver and tested on a number of engineering and generic flow problems. Results from both the RANS and hybrid models show successful resolution of the combined effects of transition and curvature with reasonable engineering accuracy, and for only a small increase in computational cost. In addition, results from the hybrid model indicate significant levels of turbulent fluctuations in the flowfield, improved accuracy compared to RANS models predictions, and are obtained at a significant reduction of computational cost compared to full LES models. The results suggest that the advanced turbulence modeling techniques presented in this research effort have potential as practical tools for solving low/high Re flows over blunt/curved bodies for the prediction of transition and RC effects.
Étude des perturbations conduites et rayonnées dans une cellule de commutation
NASA Astrophysics Data System (ADS)
Costa, F.; Forest, F.; Puzo, A.; Rojat, G.
1993-12-01
The principles used in static conversion and the rise of the performances of the new switching devices contribue to increase the level of electromagnetic noises emitted by electronic converters. We have studied the way how these perturbations are created and coupled through their environment in conducted and radiated mode by a switching cell. This one can work in hard switching, zero current or voltage switching modes. We first outline the general problems of electromagnetic pollution and their metrology in converters. Then we describe the experimental environment. We analyse the mechanisms of generation of parasitic signals in a switching cell related to the electrical constraints and its switching mode. The simulated results, issued of the analytical models obtained, are confronted with the experimental ones. Then we show a method to calculate analytically the E and H near fields. It has been confirmed by experimental results. At last, we present, in a synthetic manner, the main results obtained, relative to the switching mode and the electrical constraints, using a new characterizing method. Theses results will allow the designer to incorporate the electromagnetic considerations in the conception of a converter. Les principes de commutation employés en conversion statique, l'évolution des performances statiques et dynamiques des composants, contribuent à faire des dispositifs de conversion statique de puissants générateurs de perturbations conduites et rayonnées. Nous nous sommes attachés à étudier les mécanismes de génération et de couplage des perturbations, tant en mode conduit que rayonné dans des structures à une seule cellule de commutation et fonctionnant selon les trois principaux modes de commutation : commutation forcée, à zéro de courant (ZCS), et à zéro de tension (ZVS). Après la mise en évidence de la problématique de pollution électromagnétique dans les structures et leur métrologie, nous décrivons l'environnement expérimental étudié. Nous analysons ensuite les principaux mécanismes produisant les perturbations au sein d'une cellule de commutation en introduisant un certain nombre de composants parasites. Les modèles sont simulés et confrontés aux résultats expérimentaux. Nous décrivons alors une méthode, validée expérimentalement et permettant de calculer les intensités des champs E et H proches émis. Enfin, nous présentons de façon synthétique les résultats observés selon les régimes de fonctionnement de la cellule de commutation et les contraintes électriques et dynamiques qu'elle subit. Nous avons, pour ce faire, développé une méthode originale de quantification des signaux perturbateurs. Les résultats obtenus doivent permettre d'intégrer les problèmes de pollution électromagnétique au stade de la conception d'un dispositif.
NASA Astrophysics Data System (ADS)
De Montigny, Etienne
Cette these traite du developpement d'instrumentation pour l'imagerie medicale optique. Ces travaux sont centres sur une application particuliere ; faciliter l'identification des tissus durant les chirurgies de la thyroide et de la parathyroide. La thyroide est une glande situee dans le cou, attachee au larynx a la hauteur de la pomme d'Adam. Elle est entouree de plusieurs structures importantes : muscles, nerfs et glandes parathyroides. Ces dernieres controlent la calcemie et jouent donc un role essentiel dans le corps. Elles sont toutefois de petite taille et sont tres difficiles a distinguer du gras et des ganglions environnants. L'objectif principal de cette these est de developper une instrumentation basee sur la microscopie optique pour permettre l'identification des tissus : thyroide, parathyroide, gras et ganglions, durant les chirurgies. Les choix sont donc faits en fonction de cette application et du contexte specifique des mesures intra-operatoires sur des patients humains. Plusieurs modalites d'imagerie optique sont identifiees pour atteindre l'objectif : microscopie confocale en reflectance, tomographique par coherence optique, et mesure de l'autofluorescence des glandes parathyroides. Dans le but d'ameliorer leur compatibilite avec l'environnement clinique qui requiert stabilite dans le temps et resistance aux vibrations et aux conditions environnementales, ce projet se concentre sur les implementations miniaturisables et basees sur des fibres optiques. Pour implementer un systeme d'imagerie en fluorescence a balayage laser rapide, un systeme d'imagerie en fluorescence par encodage spectral est propose. Bien que l'utilisation de l'encodage spectral semble a priori incompatible avec le contraste en fluorescence, une implementation facile a realiser est proposee. Une seconde version du montage, compatible avec la clinique et facilitant le developpement d'un endoscope, est presentee. La preuve de principe de cette methode est faite a 1300nm, une longueur d'onde qui n'est pas appropriee pour la fluorescence intrinseque des parathyroides. Pour adresser cette lacune, une nouvelle source laser a balayage centree a 780nm a haute puissance (100mW) est montree. Ces developpements sont compatibles avec l'implementation de la microscopie confocale en reflectance identifiee pour l'identification des tissus durant les chirurgies de la thyroide. Cela permet de developper un montage combinant le contraste en reflectance et en fluorescence dans le meme instrument. La microscopie confocale en reflectance possede une tres grande resolution permettant l'examen au niveau cellulaire des tissus. Cette technique souffre toutefois d'un faible rapport signal sur bruit et d'un bruit de tavelure important, reduisant l'interpretabilite des images.
NASA Astrophysics Data System (ADS)
Park, George Ilhwan; Moin, Parviz
2016-01-01
This paper focuses on numerical and practical aspects associated with a parallel implementation of a two-layer zonal wall model for large-eddy simulation (LES) of compressible wall-bounded turbulent flows on unstructured meshes. A zonal wall model based on the solution of unsteady three-dimensional Reynolds-averaged Navier-Stokes (RANS) equations on a separate near-wall grid is implemented in an unstructured, cell-centered finite-volume LES solver. The main challenge in its implementation is to couple two parallel, unstructured flow solvers for efficient boundary data communication and simultaneous time integrations. A coupling strategy with good load balancing and low processors underutilization is identified. Face mapping and interpolation procedures at the coupling interface are explained in detail. The method of manufactured solution is used for verifying the correct implementation of solver coupling, and parallel performance of the combined wall-modeled LES (WMLES) solver is investigated. The method has successfully been applied to several attached and separated flows, including a transitional flow over a flat plate and a separated flow over an airfoil at an angle of attack.
LES/FMDF of turbulent jet ignition in a rapid compression machine
NASA Astrophysics Data System (ADS)
Validi, Abdoulahad; Schock, Harold; Toulson, Elisa; Jaberi, Farhad; CFD; Engine Research Labs, Michigan State University Collaboration
2015-11-01
Turbulent Jet Ignition (TJI) is an efficient method for initiating and controlling combustion in combustion systems, e.g. internal combustion engines. It enables combustion in ultra-lean mixtures by utilizing hot product turbulent jets emerging from a pre-chamber combustor as the ignition source for the main combustion chamber. Here, we study the TJI-assisted ignition and combustion of lean methane-air mixtures in a Rapid Compression Machine (RCM) for various flow/combustion conditions with the hybrid large eddy simulation/filtered mass density function (LES/FMDF) computational model. In the LES/FMDF model, the filtered form of compressible Navier-Stokes equations are solved with a high-order finite difference scheme for the turbulent velocity, while the FMDF transport equation is solved with a Lagrangian stochastic method to obtain the scalar (species mass fraction and temperature) field. The LES/FMDF data are used to study the physics of TJI and combustion in RCM. The results show the very complex behavior of the reacting flow and the flame structure in the pre-chamber and RCM.
Two-Point Turbulence Closure Applied to Variable Resolution Modeling
NASA Technical Reports Server (NTRS)
Girimaji, Sharath S.; Rubinstein, Robert
2011-01-01
Variable resolution methods have become frontline CFD tools, but in order to take full advantage of this promising new technology, more formal theoretical development is desirable. Two general classes of variable resolution methods can be identified: hybrid or zonal methods in which RANS and LES models are solved in different flow regions, and bridging or seamless models which interpolate smoothly between RANS and LES. This paper considers the formulation of bridging methods using methods of two-point closure theory. The fundamental problem is to derive a subgrid two-equation model. We compare and reconcile two different approaches to this goal: the Partially Integrated Transport Model, and the Partially Averaged Navier-Stokes method.
Dynamic large eddy simulation: Stability via realizability
NASA Astrophysics Data System (ADS)
Mokhtarpoor, Reza; Heinz, Stefan
2017-10-01
The concept of dynamic large eddy simulation (LES) is highly attractive: such methods can dynamically adjust to changing flow conditions, which is known to be highly beneficial. For example, this avoids the use of empirical, case dependent approximations (like damping functions). Ideally, dynamic LES should be local in physical space (without involving artificial clipping parameters), and it should be stable for a wide range of simulation time steps, Reynolds numbers, and numerical schemes. These properties are not trivial, but dynamic LES suffers from such problems over decades. We address these questions by performing dynamic LES of periodic hill flow including separation at a high Reynolds number Re = 37 000. For the case considered, the main result of our studies is that it is possible to design LES that has the desired properties. It requires physical consistency: a PDF-realizable and stress-realizable LES model, which requires the inclusion of the turbulent kinetic energy in the LES calculation. LES models that do not honor such physical consistency can become unstable. We do not find support for the previous assumption that long-term correlations of negative dynamic model parameters are responsible for instability. Instead, we concluded that instability is caused by the stable spatial organization of significant unphysical states, which are represented by wall-type gradient streaks of the standard deviation of the dynamic model parameter. The applicability of our realizability stabilization to other dynamic models (including the dynamic Smagorinsky model) is discussed.
2001-04-01
part of the following report: TITLE: New Information Processing Techniques for Military Systems [les Nouvelles techniques de traitement de l’information...rapidly developing information increasing amount of time is needed for gathering and technology has until now not yet resulted in a substantial...Information Processing Techniques for Military Systems", held in Istanbul, Turkey, 9-11 October 2000, and published in RTO MP-049. 23-2 organisations. The
Simulation of turbulent separated flows using a novel, evolution-based, eddy-viscosity formulation
NASA Astrophysics Data System (ADS)
Castellucci, Paul
Currently, there exists a lack of confidence in the computational simulation of turbulent separated flows at large Reynolds numbers. The most accurate methods available are too computationally costly to use in engineering applications. Thus, inexpensive models, developed using the Reynolds-averaged Navier-Stokes (RANS) equations, are often extended beyond their applicability. Although these methods will often reproduce integrated quantities within engineering tolerances, such metrics are often insensitive to details within a separated wake, and therefore, poor indicators of simulation fidelity. Using concepts borrowed from large-eddy simulation (LES), a two-equation RANS model is modified to simulate the turbulent wake behind a circular cylinder. This modification involves the computation of one additional scalar field, adding very little to the overall computational cost. When properly inserted into the baseline RANS model, this modification mimics LES in the separated wake, yet reverts to the unmodified form at the cylinder surface. In this manner, superior predictive capability may be achieved without the additional cost of fine spatial resolution associated with LES near solid boundaries. Simulations using modified and baseline RANS models are benchmarked against both LES and experimental data for a circular cylinder wake at Reynolds number 3900. In addition, the computational tool used in this investigation is subject to verification via the Method of Manufactured Solutions. Post-processing of the resultant flow fields includes both mean value and triple-decomposition analysis. These results reveal substantial improvements using the modified system and appear to drive the baseline wake solution toward that of LES, as intended.
NASA Astrophysics Data System (ADS)
Jörgen Stevefelt, Henri Bachau Et
2003-06-01
UVX 2002, sixième édition du “Colloque sur les Sources Cohérentes et Incohérentes UV, VUV, et X : Applications et Développements Récents" s'est tenu du 11 au 14 juin 2002 au Centre CAES du CNRS “La Vieille, Perrotine", à Saint-Pierre d'Oléron. Le colloque a réunni une centaine de chercheurs et d'industriels et a permis de faire le point sur la production, la caractérisation et l'utilisation de rayonnement dans un domaine spectral s'étendant de l'ultraviolet aux rayons X. Les participants ont pu assister a trente conférences et une table ronde autour des problèmes locaux de pollution, une cinquantaine d'affiches ont été présentées au travers de deux sessions. Une douzaine d'industriels ont exposé leurs produits durant les séances d'affiches.Conformément aux éditions précédentes, les domaines couverts par le colloque UVX 2002 sont très variés et il est impossible de les résumer en quelques lignes. Parmi les activités en développement rapide on notera les lasers femtosecondes dont les applications se multiplient dans les laboratoires (propriétés des molécules, agrégats et solides), dans l'industrie (usinage, ablation...) et en médecine. L'absence de thermalisation ou de diffusion thermique ouvre aussi des perspectives pour la réalisation de films minces par ablation laser, un domaine où les lasers excimères sont traditionnellement utilisés, avec des applications importantes dans le secteur des télécommunications. Dans le domaine de l'extrème UV, des progrès significatifs ont été réalisés par plusieurs groupes dans la gamme de longueur d'onde de 5 à 20 nm, ouvrant ainsi la voie au développement industriel de la lithographie EUV. On note les progrès dans la réalisation des sources UV et X (laser X, génération d'harmoniques, laser a électrons libres) et la nécessité de développer des optiques adaptées. Une perspective intéressante, ouverte par la génération d'harmoniques, est la production d'impulsions attosecondes qui permettra d'explorer la matière à l'echelle de temps atomique. En même temps la caractérisation de ces impulsions nécessite la conception de techniques nouvelles d'analyse du signal aux temps ultra brefs.L'intéret particulier du colloque UVX est de réunir les communautés de scientifiques qui vont des chercheurs s'intéressant aux processus fondamentaux à ceux travaillant dans les domaines les plus appliqués, voire industriels. Une caractéristique marquante de notre discipline est la rapidité avec laquelle les progrès réalisés dans les laboratoires de recherche sont diffusés vers les applications industrielles. Il est donc important de maintenir un bon équilibre entre les recherches a caractères fondamental et appliqué dans les laboratoires.Nous tenons remercier les membres du comité d'organisation, le comité scientifique et les différents partenaires, institutionnels et industriels, qui par leur soutien ont permis que le colloque UVX puisse se dérouler. Ce colloque a été parrainé par les départements des Sciences Physiques et Mathématiques (SPM) et des Sciences pour l'Ingénieur (SPI) du CNRS, la Délégation Générale de l'Armement (DGA), le CEA DRECAM, le CEA DAM, le Conseil Géneral de Charente Maritime, l'Université de Bordeaux I, la Société Française d'optique, le Groupement de Recherche “SAXO" du CNRS et la société Air Liquide.
NASA Astrophysics Data System (ADS)
Dinh, Thanh Vu; Cabon, Béatrice; Daoud, Nahla; Chilo, Jean
1992-11-01
This paper presents a simple and efficient method for calculating the propagating line parameters (actually, a microstrip one) and its magnetic fields, by simulating an original equivalent circuit with an electrical nodal simulator (SPICE). The losses in the normal conducting line (due to DC losses and to skin effect losses) and also in the superconducting one can be investigated. This allows us to integrate the electromagnetic solutions to the CAD softwares. Dans ce papier, une méthode simple et efficace pour calculer les paramètres de propagation d'une ligne microruban et les champs magnétiques qu'elle engendre est présentée; pour cela, nous simulons un circuit original équivalent à l'aide du simulateur nodal SPICE. Les pertes dans une ligne conductrice (pertes continues et par effet de peau) ainsi que dans une ligne supraconductrice peuvent être considérées. Les solutions électromagnétiques peuvent être intégrées dans les simulateurs de CAO.
NASA Astrophysics Data System (ADS)
Adepelumi, A. A.; Ako, B. D.; Ajayi, T. R.
2001-11-01
Hydrogeoenvironmental studies were carried out at the sewage-disposal site of Obafemi Awolowo University campus, Ile-Ife, Nigeria. The objective of the survey was to determine the reliability of the electrical-resistivity method in mapping pollution plumes in a bedrock environment. Fifty stations were occupied with the ABEM SAS 300C Terrameter using the Wenner array. The electrical-resistivity data were interpreted by a computer-iteration technique. Water samples were collected at a depth of 5.0 m in 20 test pits and analyzed for quality. The concentrations of Cr, Cd, Pb, Zn, and Cu are moderately above the World Health Organization recommended guidelines. Plumes of contaminated water issuing from the sewage ponds were delineated. The geoelectric sections reveal four subsurface layers, with increasing depth, lateritic clay, clayey sand/sand, and weathered/fractured bedrock, and fresh bedrock. The deepest layers, 3 and 4, constitute the main aquifer, which has a thickness of 3.1-67.1 m. The distribution of the elements in the sewage effluent confirms a hydrological communication between the disposal ponds and groundwater. The groundwater is contaminated, as shown by sampling and the geophysical results. Thus, the results demonstrate the reliability of the direct-current electrical-resistivity geophysical method in sensing and mapping pollution plumes in a crystalline bedrock environment. Résumé. Des études géo-environnementales ont été réalisées sur le site d'épandages du campus universitaire d'Obafemi Awolowo, à Ile-Ife (Nigeria). L'objectif de ce travail était de déterminer la fiabilité de la méthode des résistivités électriques pour cartographier les panaches de pollution dans un environnement de socle. Cinquante stations ont été soumises à mesures au moyen d'un ABEM SAS 300C Terrameter en utilisant le dispositif de Wenner. Les données de résistivité électrique ont été interprétées au moyen d'une technique de calcul itérative. Des échantillons d'eau ont été prélevés à une profondeur de 5,0 m dans 20 puits tests et analysés pour la qualité. Les concentrations en Cr, Cd, Pb, Zn et Cu sont légèrement au-dessus des valeurs recommandées par l'OMS. Des panaches d'eau contaminée provenant de bassins d'eaux usées ont été délimités. Les profils géoélectriques mettent en évidence quatre couches, qui sont successivement en profondeurs croissantes une argile latéritique, un sable ou un sable argileux, le substratum altéré, puis fissuré, et enfin le substratum non altéré. Les niveaux 3 et 4 les plus profonds constituent l'aquifère principal, de 3,1-67,1 m d'épaisseur. La distribution des éléments dans les effluents d'égouts confirme l'existence d'une communication hydrologique entre les bassins d'épandage et la nappe. Les eaux souterraines sont contaminées, comme le prouvent les résultats des prélèvements et de la géophysique. Par conséquent, les résultats démontrent la fiabilité de la méthode géophysique de résistivité électrique pour la détection et la cartographie de panaches de pollution dans un environnement de socle cristallin. Resumen. Se ha efectuado un estudio hidrogeológico ambiental en el punto de vertido de las aguas residuales del Campus Universitario de Obafemi Awolowo, en Ile-Ife (Nigeria). El objetivo era determinar la validez del método de la resistividad eléctrica para delimitar penachos de contaminación en un medio rocoso. Se utilizó 50 estaciones con un Terrameter ABEM SAS 300C, utilizando la matriz de Wenner. Se interpretó los resultados por medio de una técnica iterativa automática. Se recogieron muestras de agua a una profundidad de 5 m en 20 pozos de ensayo, las cuales fueron posteriormente analizadas en laboratorio. Las concentraciones de cromo, cadmio, plomo, cinc y cobre son ligeramente superiores a los valores guía de la Organización Mundial de la Salud. Se delineó el penacho de agua contaminada procedente de las balsas de aguas residuales. Las secciones geoeléctricas revelan la existencia de cuatro capas, que están formadas, de menor a mayor profundidad, por arcilla laterítica, arena arcillosa/arena, matriz rocosa meteorizada/fracturada, y roca sin alterar. Las dos capas más profundas constituyen el acuífero principal, que tiene un espesor comprendido entre 3,1-67,1 m. La caracterización química de las aguas residuales confirma que hay una conexión hidrológica entre las balsas de estabilización y las aguas subterráneas. Éstas muestran síntomas de contaminación, de acuerdo con el muestreo y la interpretación geofísica. Los datos evidencian la fiabilidad del método geofísico de la resistividad eléctrica por corriente directa para detectar y delimitar penachos contaminantes en un medio rocoso cristalino.
Vagal Sensory Innervation of the Gastric Sling Muscle and Antral Wall: Implications for GERD?
Powley, Terry L.; Gilbert, Jared M.; Baronowsky, Elizabeth A.; Billingsley, Cherie N.; Martin, Felecia N.; Phillips, Robert J.
2012-01-01
Background The gastric sling muscle has not been investigated for possible sensory innervation, in spite of the key roles the structure plays in lower esophageal sphincter (LES) function and gastric physiology. Thus, the present experiment used tracing techniques to label vagal afferents and survey their projections in the lesser curvature. Methods Sprague Dawley rats received injections of dextran biotin into the nodose ganglia. Fourteen days post-injection, animals were euthanized and their stomachs were processed to visualize the vagal afferent innervation. In different cases, neurons, muscle cells, or interstitial cells of Cajal were counterstained. Key Results The sling muscle is innervated throughout its length by vagal afferent intramuscular arrays (IMAs) associated with interstitial cells of Cajal. In addition, the distal antral attachment site of the sling muscle is innervated by a novel vagal afferent terminal specialization, an antral web ending. The muscle wall of the distal antrum is also innervated by conventional IMAs and intraganglionic laminar endings (IGLEs), the two types of mechanoreceptors found throughout stomach smooth muscle. Conclusions & Inferences The innervation of sling muscle by IMAs, putative stretch receptors, suggests that sling sensory feedback may generate vago-vagal or other reflexes with vagal afferent limbs. The restricted distribution of afferent web endings near the antral attachments of sling fibers suggests the possibility of specialized mechanoreceptor functions linking antral and pyloric activity to the operation of the LES. Dysfunctional sling afferents could generate LES motor disturbances, or normative compensatory sensory feedback from the muscle could compromise therapies targeting only effectors. PMID:22925069
NASA Astrophysics Data System (ADS)
Djilani, S.-E.; Toubal, A. A.; Messadi, D.
1998-10-01
When polymer and liquid are contacted with each other, as in packaging, some mass exchanges may occur, which constitute a major drawback when the liquid is a foodstuff or blood. However, these mass transfers in the polymers can appear as very interesting from the industrial point of view, if one is able to use and control them. It is then necessary to have a good knowledge of these transfer processes which are controlled by diffusion. Dioctyl phthalate (DOP) migration into an edible oil was studied under worst conditions: high plasticization level (50% by weight) and temperature(30 circC). The quantitative analysis of DOP in a such complex liquid medium and in the PVC itself was made easy by the use of the radioactive tracer technique. A simplified mathematical model, obtained by neglecting the oil transport in the PVC, was evaluated. This model based on the research of a finite differences explicit solution allows to reproduce for the DOP, the concentration profiles in the polymer and the kinetics of transfer in the oil, with a P-value ≥ 0.001. La mise en contact polymère-liquide se traduit généralement par des échanges de matière entre les 2 milieux considérés, ce qui constitue un inconvénient majeur lorsque le liquide est un aliment ou le sang. Cependant, ces transferts de matière dans les polymères peuvent apparaître comme très intéressants sur le plan industriel, si l'on est capable de les utiliser et de les contrôler. Il est donc nécessaire d'avoir une bonne connaissance de ces processus de transfert qui sont contrôlés par diffusion. Nous avons étudié la migration du dioctyl phtalate (DOP) dans une huile comestible en nous plaçant dans les conditions les plus défavorables: taux de plastification (50% en poids) et température (30°C) élevés. L'analyse quantitative du DOP dans un milieu liquide aussi complexe et dans le PVC lui- même a été facilitée par l'utilisation de la technique des traceurs radioactifs. Un modèle mathématique simplifié en négligeant le transport de l'huile dans la masse de PVC a été testé. Ce modèle basé sur la recherche d'une solution aux différence finies explicite permet au seuil de 0,1% de reproduire pour le DOP, les profils de concentration dans le polymère et les cinétiques de transfert dans l'huile.
La replantation digitale, résultats et complications: étude d’une série de 18 cas
Idrissi, Mohammed El; Elibrahimi, Abdelhalim; Shimi, Mohammed; Elmrini, Abdelmajid
2016-01-01
Les amputations digitales sont des lésions fréquentes, la majorité étant provoquée par des accidents de travail. Les techniques microchirurgicales représentent une alternative pour réparer ces amputations. L'objectif de ce travail est de rapporter notre expérience dans la replantation digitale à travers l'étude de 18 cas. Nous avons mené une étude rétrospective, étalée entre Juin 2013 et Janvier 2015, incluant 14 patients présentant une amputation totale ou subtotale des doigts. Nous avons inclus dans notre série toutes les replantations unidigitales et multidigitales réalisées en aval de l'insertion distale du tendon fléchisseur superficiel ainsi que les replantations digitales réalisées en amont de l'insertion distale du tendon fléchisseur superficiel. Nous avons opéré ces patients selon le procédé classique de réimplantation digitale. Cinq replantations ont été secondairement régularisées. Parmi les 18 replantations, huit replantions digitales ont favorablement évolué puisque la replantation a permis de restituer un secteur complet de mobilité passive et active du doigt opéré sans chirurgie de reprise et sans complication secondaire précoce et tardive. Dans notre étude nous avons noté des résultats satisfaisants, malgré les conditions difficiles notamment le conditionnement initial du doigt amputé, et le délai de prise en charge retardé. Le développement et la maîtrise de la microchirurgie a permis de changer le pronostic de ces amputations à retentissement fonctionnel et psychologique difficile, les résultats de notre série sont encourageants pour a mise en place d'un service SOS main au Maroc. PMID:27795781
Hou, W; Li, J; Lu, J; Wang, J H; Zhang, F Y; Yu, H W; Zhang, J; Yao, Q W; Wu, J; Shi, S Y; Mager, D R; Meng, Q H
2013-12-01
This study investigates the effects of a carbohydrate (CHO; lotus-root starch) predominant, late-evening snack (LES), containing 200 kcal (50 g CHO) on fasting resting energy expenditure (REE) and nutrient oxidation in hospitalized adults with acute-on-chronic liver failure (ACLF). Adults with ACLF were randomized to receive daily LES (treatment; n=35) or standard care (n=35; non-supplemented control) for 14 days. REE and respiratory quotient (RQ) were measured by indirect calorimetry, nutrient oxidation (CHO, protein and fat), intake and biochemical parameters were measured in both groups at baseline and after 14 days using validated techniques. Disease severity was measured using the model for end-stage liver disease (MELD). No significant differences in macronutrient intake, anthropometric, demographic characteristics or MELD scores were observed between groups at baseline (P>0.05). Fasting RQ was significantly higher in the LES supplemented verses the control group after 2 weeks (P=0.02). CHO oxidation was significantly higher (P=0.001) and fat oxidation (P=0.02) was lower in the LES-supplemented group when compared with controls after 2 weeks. Fasting RQ and REE in the LES-supplemented group increased significantly (0.83 verses 0.88; P=0.007/1301±409 vs 1687±718 kcal/day; P=0.02) in patients with MELD scores 30 when compared with patients with MELD scores >30 (0.82 verses 0.84; P=0.27/ 1361±405 vs 1437±429 kcal/day; P=0.67) after supplementation. A carbohydrate-predominant LES is associated with increases in fasting carbohydrate oxidation, REE and reductions in fat oxidation in adults with ACLF. Therapeutic strategies utilizing LES may promote improved nutritional status in adults with ACLF.
Labama, Matthieu Betofe; Longembe, Eugène Basandja; Likwela, Joris Losimba
2017-01-01
Introduction La qualité des vaccins conditionne les résultats attendus de la vaccination. Elle est tributaire de l'efficacité de système de gestion technique et logistique mis en place. Cette étude est menée pour évaluer l'efficacité de la gestion des vaccins et d'en tirer des leçons. Méthodes Une étude rétrospective est menée pendant la période de 2010 à 2014 sur la gestion logistique de vaccins au niveau de l'antenne PEV Kisangani. La revue documentaire complétée par les entretiens semi-dirigés des gestionnaires et prestataires de services de vaccination ont permis d'évaluer la gestion de vaccins en se servant des modèle GEV de l'OMS, en vue de dégager les écarts. Résultats Il est observé une faible connaissance des prestataires sur les vaccins qui ne peuvent pas être congelés, sur les tests de congélation et d'autres dommages de vaccins. La gestion informatisée des données au niveau de l'antenne est correctement assurée. Aucun critère évalué n'a atteint l'objectif de 80%. Le respect de la température de stockage est de 70% au niveau de l'antenne ; le critère relatif à la gestion de vaccins est respectivement de 65% et 67% au niveau du BCZ et CS. Le critère relatif à la maintenance est nul à tous les niveaux. Conclusion Le dysfonctionnement de système logistique est remarquable à tous les niveaux de la pyramide sanitaire, ceci pourrait interférer avec la qualité et l'impact attendu de la vaccination. Une attention particulière doit être accordée à la maintenance des équipements. PMID:28748006
Désire, Ilboudo; Cyrille, Bisseye; Florencia, Djigma; Souba, Diande; Albert, Yonli; Valerie, Bazie Jean Telesphore; Rebecca, Compaore; Charlemagne, Gnoula; Tamboura, Djibril; Rémy, Moret; Virginio, Pietra; Simplice, Karou Damintoti; Martial, Ouedraogo; Jacques, Simpore
2015-01-01
Introduction Cette étude a eu pour objectifs de diagnostiquer la tuberculose pulmonaire par l'examen microscopique et par la PCR des crachats et de déterminer les bases moléculaires de la résistance à la rifampicine et à l'isoniazide. Méthodes Le diagnostic du Complexe Mycobacterium Tuberculosis (CMTB) a été effectué par microscopie après coloration au Ziehl Nielsen et par PCR en temps réel en utilisant le kit d'identification du complexe MTB (Sacace Biotechnologie, Italie). Les résistances à la Rifampicine et à l'Isoniazide ont été étudiées par la technique de la PCR en utilisant le kit MTB résistance 8 (Sacace, Biotechnologie). Résultats Sur les 59 patients diagnostiqués pour la tuberculose pulmonaire, 59,3% étaient positifs en microscopie optique et 44,1% étaient positifs par PCR en Temps réel. Les résistances à la rifampicine (rpoB) et à l'isoniazide (katG et inhA) ont été observées chez 9 patients. La résistance à la rifampicine était due aux mutations (Asp516Val, Ser531Trp, Leu533Pro) et celle à l'isoniazide par les substitutions Ser315Thr du gène katG et C209T du gène inhA. Les multi résistances à la rifampicine et à l'isoniazide ont été observées dans 55,5% des échantillons et concernaient les associations: ropBAsp513Val + inhAC209T et rpoBLeu533Pro + katGSer315Thr. Conclusion La PCR en temps réel qui permet l'identification des allèles mutants rpoB, katG et inhA de M. tuberculosis est un outil de diagnostic épidémiologique de grande importance car elle permet de déterminer le niveau de résistance à la rifampicine et à l'isoniazide. PMID:26491516
Relating Stomatal Conductance to Leaf Functional Traits.
Kröber, Wenzel; Plath, Isa; Heklau, Heike; Bruelheide, Helge
2015-10-12
Leaf functional traits are important because they reflect physiological functions, such as transpiration and carbon assimilation. In particular, morphological leaf traits have the potential to summarize plants strategies in terms of water use efficiency, growth pattern and nutrient use. The leaf economics spectrum (LES) is a recognized framework in functional plant ecology and reflects a gradient of increasing specific leaf area (SLA), leaf nitrogen, phosphorus and cation content, and decreasing leaf dry matter content (LDMC) and carbon nitrogen ratio (CN). The LES describes different strategies ranging from that of short-lived leaves with high photosynthetic capacity per leaf mass to long-lived leaves with low mass-based carbon assimilation rates. However, traits that are not included in the LES might provide additional information on the species' physiology, such as those related to stomatal control. Protocols are presented for a wide range of leaf functional traits, including traits of the LES, but also traits that are independent of the LES. In particular, a new method is introduced that relates the plants' regulatory behavior in stomatal conductance to vapor pressure deficit. The resulting parameters of stomatal regulation can then be compared to the LES and other plant functional traits. The results show that functional leaf traits of the LES were also valid predictors for the parameters of stomatal regulation. For example, leaf carbon concentration was positively related to the vapor pressure deficit (vpd) at the point of inflection and the maximum of the conductance-vpd curve. However, traits that are not included in the LES added information in explaining parameters of stomatal control: the vpd at the point of inflection of the conductance-vpd curve was lower for species with higher stomatal density and higher stomatal index. Overall, stomata and vein traits were more powerful predictors for explaining stomatal regulation than traits used in the LES.
NASA Astrophysics Data System (ADS)
Capraro, S.; Nader, C.; Chatelon, J. P.; Le Berre, M.; Rouiller, T.; Bayard, B.; Joisten, H.; Barbier, D.; Rousseau, J. J.
2005-05-01
Le développement des dispositifs intégrés employant un ferrite est un objectif majeur pour des applications électroniques dans la gamme hyperfréquence (circulateurs et isolateurs). Les ferrites hexagonaux, tel que l'hexaferrite de baryum (BaFe{12}O{19} ou BaM), présentent un grand intérêt pour de tels dispositifs en raison de leurs grandes résistivités et de leurs perméabilités élevées aux hautes fréquences. Dans cette étude, les couches minces de BaM, sont déposées et optimisées par pulvérisation cathodique RF sur des substrats d'alumine et de silicium. Après dépôt, les films sont amorphes et un recuit thermique à 800° C est nécessaire pour que les couches de BaM cristallisent et présentent des propriétés magnétiques. Les propriétés magnétiques des couches minces de BaM ont été déterminées par VSM, et on constate que le champ coercitif et l'aimantation à saturation atteignent respectivement 330 kA/m et 500 mT. Des isolateurs sont réalisés par dépôt d'une couche conductrice d'or en utilisant la technique du lift-off qui permet la mise en place du ruban signal ainsi que des plans de masse. Les premiers résultats de mesure en transmission ont montré un effet non réciproque qui atteint 8 dB/cm à 50 GHz.
Isotopic micro generators 1 volt; Les microgenerateurs radioisotopiques 1 volt (in French)
DOE Office of Scientific and Technical Information (OSTI.GOV)
Bomal, R.; Devin, B.; Delaquaize, P.
1969-07-01
Various configurations for electrical isotopic generators in the milliwatt range are investigated; these generators are not of the classical thermoelectric type. The four following energy conversion method are examined : thermionic, thermo-photovoltaic, radio-voltaic, wired thermoelectric. The calculus has been conducted having in view not the best energy conversion efficiency, but the need to attain directly 1 volt output voltage. High temperature {sup 238}Pu sources (T above 1000 ) are isolated by multi layer thermal insulation material of the Moly/Alumina type. Optimised application is given for number 1 and 2 here above. Thermionic is interesting by its compactness and Wired-thermoelectric ismore » cheap, simple and rugged. Both method do not allow to extend output voltage range far above 1 volt. TPV and RV, can be designed for multi volt application. Radio-voltaic is 1 per cent efficient but irradiation defects in the semiconductor induced by high energy radiations can strongly limit the lifetime of the generator. Isotope sources technology is the determining factor for these micro generators. (author) [French] Cette etude examine les types de generateurs electriques realisables a partir de sources isotopiques en dehors du procede thermoelectrique classique. Les quatre procedes suivants sont examines: thermoionique, thermophoto-voltaique, radiovoltaique, thermoelectrique a fils. Les calculs sont conduits sans souci exagere du rendement de conversion pour aboutir a une puissance electrique delivree de 0,2 a 1 mW sous une tension au moins egale a 1 volt. Le probleme des sources thermiques de {sup 238}Pu a haute temperature (T > 1000 C) est resolu avec une isolation a structure multi-couche moly-alumine. L'optimalisation est calculee en vue d'une utilisation dans les procedes 1 et 2. Le procede 1 est interessant par sa compacite et le procede 4 par sa simplicite, sa robustesse et son prix de revient; mais avec ces deux generateurs on ne peut obtenir plus d'un volt en charge. Les procedes 2 et 3 peuvent delivrer des tensions de plusieurs volts. Le radiovoltaique donne des rendements de 1 pour cent, mais la creation de defauts dans le reseau cristallin du semiconducteur avec les particules de grande energie peut limiter son utilisation. Les performances de ces differents modes de conversion sont conditionnees avant tout par les technologies des sources isotopiques. (auteur)« less
NASA Astrophysics Data System (ADS)
Mahjoub, Mehdi
La resolution de l'equation de Boltzmann demeure une etape importante dans la prediction du comportement d'un reacteur nucleaire. Malheureusement, la resolution de cette equation presente toujours un defi pour une geometrie complexe (reacteur) tout comme pour une geometrie simple (cellule). Ainsi, pour predire le comportement d'un reacteur nucleaire,un schema de calcul a deux etapes est necessaire. La premiere etape consiste a obtenir les parametres nucleaires d'une cellule du reacteur apres une etape d'homogeneisation et condensation. La deuxieme etape consiste en un calcul de diffusion pour tout le reacteur en utilisant les resultats de la premiere etape tout en simplifiant la geometrie du reacteur a un ensemble de cellules homogenes le tout entoure de reflecteur. Lors des transitoires (accident), ces deux etapes sont insuffisantes pour pouvoir predire le comportement du reacteur. Comme la resolution de l'equation de Boltzmann dans sa forme dependante du temps presente toujours un defi de taille pour tous types de geometries,un autre schema de calcul est necessaire. Afin de contourner cette difficulte, l'hypothese adiabatique est utilisee. Elle se concretise en un schema de calcul a quatre etapes. La premiere et deuxieme etapes demeurent les memes pour des conditions nominales du reacteur. La troisieme etape se resume a obtenir les nouvelles proprietes nucleaires de la cellule a la suite de la perturbation pour les utiliser, au niveau de la quatrieme etape, dans un nouveau calcul de reacteur et obtenir l'effet de la perturbation sur le reacteur. Ce projet vise a verifier cette hypothese. Ainsi, un nouveau schema de calcul a ete defini. La premiere etape de ce projet a ete de creer un nouveau logiciel capable de resoudre l'equation de Boltzmann dependante du temps par la methode stochastique Monte Carlo dans le but d'obtenir des sections efficaces qui evoluent dans le temps. Ce code a ete utilise pour simuler un accident LOCA dans un reacteur nucleaire de type CANDU-6. Les sections efficaces dependantes du temps ont ete par la suite utilisees dans un calcul de diffusion espace-temps pour un reacteur CANDU-6 subissant un accident de type LOCA affectant la moitie du coeur afin d'observer son comportement durant toutes les phases de la perturbation. Dans la phase de developpement, nous avons choisi de demarrer avec le code OpenMC, developpe au MIT,comme plateforme initiale de developpement. L'introduction et le traitement des neutrons retardes durant la simulation ont presente un grand defi a surmonter. Il est important de noter que le code developpe utilisant la methode Monte Carlo peut etre utilise a grande echelle pour la simulation de tous les types des reacteurs nucleaires si les supports informatiques sont disponibles.
1999-10-01
Kharisov V.N., Perov A.I., Boldin V.A. (editors). 1977. The global satelllite radio-navigational system 20. Wu W.-R. Target tracking with glint...the coordinates of the OP techniques for their searching and extracting in deep seas. These techniques. have yielded Researches have shown that, an OP
Energy transformation, transfer, and release dynamics in high speed turbulent flows
2017-03-01
experimental techniques developed allowed non -intrusive measurement of convecting velocity fields in supersonic flows and used for validation of LES of...by the absence of (near-)normal shocks that normal injection generates. New experimental techniques were developed that allowed the non -intrusive...and was comprised of several parts in which significant accomplishments were made: 1. An experimental effort focusing on investigations in: a
Les cooperatives et l'electrification rurale du Quebec, 1945--1964
NASA Astrophysics Data System (ADS)
Dorion, Marie-Josee
Cette these est consacree a l'histoire de l'electrification rurale du Quebec, et, plus particulierement, a l'histoire des cooperatives d'electricite. Fondees par vagues successives a partir de 1945, les cooperatives rurales d'electricite ont ete actives dans plusieurs regions du Quebec et elles ont electrifie une partie significative des zones rurales. Afin de comprendre le contexte de la creation des cooperatives d'electricite, notre these debute (premiere partie) par une analyse du climat sociopolitique des annees precedant la naissance du systeme cooperatif d'electrification rurale. Nous y voyons de quelle facon l'electrification rurale devient progressivement, a partir de la fin des annees 1920, une question d'actualite a laquelle les divers gouvernements qui se succedent tentent de trouver une solution, sans engager---ou si peu---les fonds de l'Etat. En ce sens, la premiere etatisation et la mise sur pied d'Hydro-Quebec, en 1944, marquent une rupture quant au mode d'action privilegie jusque-la. La nouvelle societe d'Etat se voit cependant retirer son mandat d'electrifier le monde rural un an apres sa fondation, car le gouvernement Duplessis, de retour au pouvoir, prefere mettre en place son propre modele d'electrification rurale. Ce systeme repose sur des cooperatives d'electricite, soutenues par un organisme public, l'Office de l'electrification rurale (OER). L'OER suscite de grandes attentes de la part des ruraux et c'est par centaines qu'ils se manifestent. Cet engouement pour les cooperatives complique la tache de l'OER, qui doit superviser de nouvelles societes tout en assurant sa propre organisation. Malgre des hesitations et quelques delais introduits par un manque de connaissances techniques et de personnel qualifie, les commissaires de l'OER se revelent perspicaces et parviennent a mettre sur pied un systeme cooperatif d'electrification rurale qui produit des resultats rapides. Il leur faudra cependant compter sur l'aide des autres acteurs engages dans l'electrification, les organismes publics et les compagnies privees d'electricite. Cette periode de demarrage et d'organisation, traitee dans la deuxieme partie de la these, se termine en 1947-48, au moment ou l'OER et les cooperatives raffermissent leur maitrise du systeme cooperatif d'electrification rurale. Les annees 1948 a 1955 (troisieme partie de these) correspondent a une periode de croissance pour le mouvement cooperatif. Cette partie scrute ainsi le developpement des cooperatives, les vastes chantiers de construction et l'injection de millions de dollars dans l'electrification rurale. Cette troisieme partie prend egalement acte des premiers signes que quelque chose ne va pas si bien dans le monde cooperatif. Nous y verrons egalement les ruraux a l'oeuvre: comme membres, d'abord, mais aussi en tant que benevoles, puis a l'emploi des cooperatives. La quatrieme et derniere partie, les annees 1956 a 1964, aborde les changements majeurs qui ont cours dans l'univers cooperatif; il s'agit d'une ere nouvelle et difficile pour le mouvement cooperatif, dont les reseaux paraissent inadaptes aux changements de profil de la consommation d'electricite des usagers. L'OER sent alors le besoin de raffermir son controle des cooperatives, car il pressent les problemes et les defis auxquels elles auront a faire face. Notre etude se termine par l'acquisition des cooperatives par Hydro-Quebec, en 1963-64. Fondee sur des sources riches et variees, notre demarche propose un eclairage inedit sur une dimension importante de l'histoire de l'electricite au Quebec. Elle permet, ce faisant, de saisir les rouages et l'action de l'Etat sous un angle particulier, avant sa profonde transformation amorcee au cours des annees 1960. De meme, elle apporte quelques cles nouvelles pour une meilleure comprehension de la dynamique des milieux ruraux de cette periode.
Vecteurs Singuliers des Theories des Champs Conformes Minimales
NASA Astrophysics Data System (ADS)
Benoit, Louis
En 1984 Belavin, Polyakov et Zamolodchikov revolutionnent la theorie des champs en explicitant une nouvelle gamme de theories, les theories quantiques des champs bidimensionnelles invariantes sous les transformations conformes. L'algebre des transformations conformes de l'espace-temps presente une caracteristique remarquable: en deux dimensions elle possede un nombre infini de generateurs. Cette propriete impose de telles conditions aux fonctions de correlations qu'il est possible de les evaluer sans aucune approximation. Les champs des theories conformes appartiennent a des representations de plus haut poids de l'algebre de Virasoro, une extension centrale de l'algebre conforme du plan. Ces representations sont etiquetees par h, le poids conforme de leur vecteur de plus haut poids, et par la charge centrale c, le facteur de l'extension centrale, commune a toutes les representations d'une meme theorie. Les theories conformes minimales sont constituees d'un nombre fini de representations. Parmi celles-ci se trouvent des theories unitaires dont les representation forment la serie discrete de l'algebre de Virasoro; leur poids h a la forme h_{p,q}(m)=[ (p(m+1) -qm)^2-1] (4m(m+1)), ou p,q et m sont des entiers positifs et p+q<= m+1. L'entier m parametrise la charge centrale: c(m)=1 -{6over m(m+1)} avec n>= 2. Ces representations possedent un sous-espace invariant engendre par deux sous-representations avec h_1=h_{p,q} + pq et h_2=h_{p,q} + (m-p)(m+1-q) dont chacun des vecteurs de plus haut poids portent le nom de vecteur singulier et sont notes respectivement |Psi _{p,q}> et |Psi_{m-p,m+1-q}>. . Les theories super-conformes sont une version super-symetrique des theories conformes. Leurs champs appartiennent a des representation de plus haut poids de l'algebre de Neveu-Schwarz, une des deux extensions super -symetriques de l'algebre de Virasoro. Les theories super -conformes minimales possedent la meme structure que les theories conformes minimales. Les representations sont elements de la serie h_{p,q}= [ (p(m+2)-qm)^2-4] /(8m(m+2)) ou p,q et m sont des entiers positifs, p et q etant de meme parite, et p+q<= m+2. La charge centrale est donnee par c(m)={3over 2}-{12over m(m+2)} avec m >= 2. Les vecteurs singuliers | Psi_{p,q}> et |Psi_{m-p,m+2-q} > sont respectivement de poids h _{p,q}+pq/2 et h_ {p,q}+(m-p)(m+2-q)/2.. Les vecteurs singuliers ont une norme nulle et on doit les eliminer des representations pour que celles -ci soient unitaires. Cette elimination engendrent des equations (super-)differentielles qui dependent directement de la forme explicite des vecteurs singuliers et auxquelles doivent obeir les fonctions de correlations de la theorie. Ainsi la connaissance de ces vecteurs singuliers est intimement reliee au calcul des fonctions de correlation. Les equations definissant les vecteurs singuliers forment un systeme lineaire surdetermine dont le nombre d'equations est de l'ordre de N(pq), le nombre de partitions de l'entier pq. Puisque les vecteurs singuliers jouent un role capital en theorie conforme, il est naturel de chercher des formes explicites pour les vecteurs (ou pour des familles infinies de ceux -ci). Nous donnons ici la forme explicite pour la famille infinie de vecteurs singuliers ayant un de ses indices egal a 1, pour les algebres de Virasoro et de Neveu-Schwarz. Depuis ces decouvertes, d'autres techniques de construction des vecteurs singuliers ont ete developpees, dont celle de Bauer, Di Francesco, Itzykson et Zuber pour l'algebre de Virasoro qui reproduit directement l'expression explicite des vecteurs singuliers |Psi _{1,q}> et |Psi_{p,1}>. Ils ont utilise l'algebre des produits d'operateurs et la fusion entre representations irreductibles pour engendrer des relations de recurence produisant les vecteurs singuliers. Dans le dernier chapitre de cette these nous adaptons cet algorithme a la construction des vecteurs singuliers de l'algebre de Neveu-Schwarz.
Numerical simulation of turbulent combustion: Scientific challenges
NASA Astrophysics Data System (ADS)
Ren, ZhuYin; Lu, Zhen; Hou, LingYun; Lu, LiuYan
2014-08-01
Predictive simulation of engine combustion is key to understanding the underlying complicated physicochemical processes, improving engine performance, and reducing pollutant emissions. Critical issues as turbulence modeling, turbulence-chemistry interaction, and accommodation of detailed chemical kinetics in complex flows remain challenging and essential for high-fidelity combustion simulation. This paper reviews the current status of the state-of-the-art large eddy simulation (LES)/prob-ability density function (PDF)/detailed chemistry approach that can address the three challenging modelling issues. PDF as a subgrid model for LES is formulated and the hybrid mesh-particle method for LES/PDF simulations is described. Then the development need in micro-mixing models for the PDF simulations of turbulent premixed combustion is identified. Finally the different acceleration methods for detailed chemistry are reviewed and a combined strategy is proposed for further development.
2002-10-01
but de cet exercice analytique 6tait dvaluer toutes les techniques analytiques disponibles ayant la capacit6 de mesurer les rapports isotopiques...B Formulation. Step Component Amount added 1 2% v/v nitric acid 500 mL 2 Calcium chloride (CaCl2.2H 20) 12.6 g 3 2% v/v nitric acid Dilute to 1000 mL...chloride (KCI) 3.43 Sodium chloride (NaCl) 2.32 Creatinine (C4H7N30) 1.10 Ammonium chloride (NH 4Cl) 1.06 Hippuric acid (C9H9N03) 0.63 Calcium chloride
Dislocation structures and anomalous flow in L12 compounds
NASA Astrophysics Data System (ADS)
Dimiduk, D. M.
1991-06-01
The theory of the anomalous flow behavior of LI2 compounds has developed over the last 30 years. This theory has a foundation in the early estimates of the crystallographic anisotropy of antiphase boundary (APB) energy in these compounds. In spite of this critical aspect of the theory, it is only in the last five years that electron microscopy has been employed to quantify the APB energies and to determine the detailed nature of dislocation structures at each stage of deformation. The recent studies of several research groups have provided essentially consistent new details about the nature of dislocations in Ni3AI and a few other LI2 compounds which exhibit anomalous flow behavior. These studies have introduced several new concepts for the controlling dislocation mechanisms. Additionally, these studies have shown that in Ni3AI, the APB energies have only small variations in magnitude with change of the APB plane (they are nearly isotropic), are relatively insensitive to changes in solute content, and the anisotropy ratio does not correlate with alloy strength. The present manuscript provides a critical review of the new transmission electron microscopy (TEM) results along with the new concepts for the mechanism of anomalous flow. Inconsistencies and deficiencies within these new concepts are identified and discussed. The collective set of electron-microscopy results is discussed within the context of both the mechanical behavior of LI2 compounds and the Greenberg and Paidar, Pope and Vitek (PPV) models for anomalous flow. Conceptual consistency with these models can only be constructed if the Kear-Wilsdorf (K-W) configurations are treated as an irreversible work hardening or relaxation artifact and, specific details of these two models cannot be shown by electron microscopy. Alternatively, the structural features recently revealed by electron microscopy have not been assembled into a self-consistent model for yielding which fully addresses the mechanical behavior phenomenology. La théorie permettant de rendre compte de l'anomalie d'écoulement plastique dans les composés de structure LI2 a été développée depuis trente ans. Celle-ci est fondée sur les premières estimations de l'anisotropie de l'énergie de paroi d'antiphase en fonction du plan cristallographique de défaut. Cependant, malgré cet aspect essentiel de la théorie, c'est seulement durant ces cinq dernières années que les techniques de microscopie électronique ont été employées pour déterminer l'énergie de paroi d'antiphase, les configurations de dislocations et leur structure de coeur pour chaque condition de déformation. Les études récentes de plusieurs équipes ont apporté des résultats reproductibles ou complémentaires sur la nature des dislocations dans Ni3AI et quelques autres composés de structure LI2 qui possèdent également une anomalie de limite élastique. Ces études ont permis de concevoir plusieurs mécanismes régissant les mouvements des dislocations et pouvant être responsables de l'anomalie de limite élastique. En outre, elles ont montré que, dans Ni3AI, l'énergie de paroi varie très peu avec le plan de l'antiphase (elle est pratiquement isotrope), qu'elle est très peu sensible à la quantité de solutés et que le rapport d'anisotropie n'est pas en relation avec la résistance de l'alliage. Une revue critique de ces nouveaux résultats de microscopie électronique et des concepts qui en ont été déduits est présentée dans ce manuscrit. Les incohérences et les déficiences des nouveaux modèles sont identifiés et discutés. L'ensemble des résultats de microscopie électronique est comparé aux deux modèles de Greenberg et de Paidar, Pope et Vitek. Une bonne corrélation entre les observations expérimentales et ces modèles ne peut seulement être construite que si l'on considère que les configurations de Kear-Wilsdorf (K-W) sont des effets de durcissement ou des artefacts de relaxation. Les détails spécifiques à ces modèles seraient alors expérimentalement inaccessibles par les techniques de microscopie électronique. D'un autre côté, les objets récemment identifiés en microscopie électronique n'ont pas reçu de description dans un modèle de déformation qui explique de façon satisfaisante l'ensemble du comportement mécanique.
Study on cavitation effect of mechanical seals with laser-textured porous surface
NASA Astrophysics Data System (ADS)
Liu, T.; Chen, H. l.; Liu, Y. H.; Wang, Q.; Liu, Z. B.; Hou, D. H.
2012-11-01
Study on the mechanisms underlying generation of hydrodynamic pressure effect associated with laser-textured porous surface on mechanical seal, is the key to seal and lubricant properties. The theory model of mechanical seals with laser-textured porous surface (LES-MS) based on cavitation model was established. The LST-MS was calculated and analyzed by using Fluent software with full cavitation model and non-cavitation model and film thickness was predicted by the dynamic mesh technique. The results indicate that the effect of hydrodynamic pressure and cavitation are the important reasons to generate liquid film opening force on LST-MS; Cavitation effect can enhance hydrodynamic pressure effect of LST-MS; The thickness of liquid film could be well predicted with the method of dynamic mesh technique on Fluent and it becomes larger as the increasing of shaft speed and the decreasing of pressure.
NASA Astrophysics Data System (ADS)
Haguma, Didier
Il est dorenavant etabli que les changements climatiques auront des repercussions sur les ressources en eau. La situation est preoccupante pour le secteur de production d'energie hydroelectrique, car l'eau constitue le moteur pour generer cette forme d'energie. Il sera important d'adapter les regles de gestion et/ou les installations des systemes hydriques, afin de minimiser les impacts negatifs et/ou pour capitaliser sur les retombees positives que les changements climatiques pourront apporter. Les travaux de la presente recherche s'interessent au developpement d'une methode de gestion des systemes hydriques qui tient compte des projections climatiques pour mieux anticiper les impacts de l'evolution du climat sur la production d'hydroelectricite et d'etablir des strategies d'adaptation aux changements climatiques. Le domaine d'etude est le bassin versant de la riviere Manicouagan situe dans la partie centrale du Quebec. Une nouvelle approche d'optimisation des ressources hydriques dans le contexte des changements climatiques est proposee. L'approche traite le probleme de la saisonnalite et de la non-stationnarite du climat d'une maniere explicite pour representer l'incertitude rattachee a un ensemble des projections climatiques. Cette approche permet d'integrer les projections climatiques dans le probleme d'optimisation des ressources en eau pour une gestion a long terme des systemes hydriques et de developper des strategies d'adaptation de ces systemes aux changements climatiques. Les resultats montrent que les impacts des changements climatiques sur le regime hydrologique du bassin de la riviere Manicouagan seraient le devancement et l'attenuation de la crue printaniere et l'augmentation du volume annuel d'apports. L'adaptation des regles de gestion du systeme hydrique engendrerait une hausse de la production hydroelectrique. Neanmoins, une perte de la performance des installations existantes du systeme hydrique serait observee a cause de l'augmentation des deversements non productibles dans le climat futur. Des strategies d'adaptation structurale ont ete analysees pour augmenter la capacite de production et la capacite d'ecoulement de certaines centrales hydroelectriques afin d'ameliorer la performance du systeme. Une analyse economique a permis de choisir les meilleures mesures d'adaptation et de determiner le moment opportun pour la mise en oeuvre de ces mesures. Les resultats de la recherche offrent aux gestionnaires des systemes hydriques un outil qui permet de mieux anticiper les consequences des changements climatiques sur la production hydroelectrique, incluant le rendement de centrales, les deversements non productibles et le moment le plus opportun pour inclure des modifications aux systemes hydriques. Mots-cles : systemes hydriques, adaptation aux changements climatiques, riviere Manicouagan
Stabilité et pertes des conducteurs pour régime alternatif
NASA Astrophysics Data System (ADS)
Estop, P.; Lacaze, A.
1994-04-01
Recent progresses obtained on low-T_c superconductors usable at industrial frequencies allow to envisage a new and innovating application as the current limiter. The device conception determines a cryogenic cost due to the dissipated energy in superconducting wires. In order to reduce the losses sufficiently, fine wires with submicromic filaments must be used. In relation to the need to obtain an infaillible protection during the quench, a new type of conductor, has been worked out, tested and validated. The main technical aspects concerning the losses of low-T_c superconductors have been developed on this paper. Les récents progrès obtenus sur les conducteurs supraconducteurs basse température critique utilisables aux fréquences industrielles permettent d'entrevoir une application nouvelle et innovante comme le limiteur de courant. De la conception d'un tel système résulte un coût cryogénique lié à l'énergie dissipée dans les brins supraconducteurs. La réduction des pertes nécessite l'utilisation de brins suffisamment fins et disposant de filaments submicromiques. Concernant le besoin d'obtenir une protection infaillible au moment de la transition, un conducteur d'un concept nouveau a été élaboré, testé et validé. L'article passe en revue les principaux aspects techniques liés à la stabilité et aux pertes dans les conducteurs supraconducteurs basse température critique.
Large eddy simulations and direct numerical simulations of high speed turbulent reacting flows
NASA Technical Reports Server (NTRS)
Givi, P.; Madnia, C. K.; Steinberger, C. J.; Frankel, S. H.
1992-01-01
The basic objective of this research is to extend the capabilities of Large Eddy Simulations (LES) and Direct Numerical Simulations (DNS) for the computational analyses of high speed reacting flows. In the efforts related to LES, we were primarily involved with assessing the performance of the various modern methods based on the Probability Density Function (PDF) methods for providing closures for treating the subgrid fluctuation correlations of scalar quantities in reacting turbulent flows. In the work on DNS, we concentrated on understanding some of the relevant physics of compressible reacting flows by means of statistical analysis of the data generated by DNS of such flows. In the research conducted in the second year of this program, our efforts focused on the modeling of homogeneous compressible turbulent flows by PDF methods, and on DNS of non-equilibrium reacting high speed mixing layers. Some preliminary work is also in progress on PDF modeling of shear flows, and also on LES of such flows.
Comparison of AGE and Spectral Methods for the Simulation of Far-Wakes
NASA Technical Reports Server (NTRS)
Bisset, D. K.; Rogers, M. M.; Kega, Dennis (Technical Monitor)
1999-01-01
Turbulent flow simulation methods based on finite differences are attractive for their simplicity, flexibility and efficiency, but not always for accuracy or stability. This report demonstrates that a good compromise is possible with the Advected Grid Explicit (AGE) method. AGE has proven to be both efficient and accurate for simulating turbulent free-shear flows, including planar mixing layers and planar jets. Its efficiency results from its localized fully explicit finite difference formulation (Bisset 1998a,b) that is very straightforward to compute, outweighing the need for a fairly small timestep. Also, most of the successful simulations were slightly under-resolved, and therefore they were, in effect, large-eddy simulations (LES) without a sub-grid-scale (SGS) model, rather than direct numerical simulations (DNS). The principle is that the role of the smallest scales of turbulent motion (when the Reynolds number is not too low) is to dissipate turbulent energy, and therefore they do not have to be simulated when the numerical method is inherently dissipative at its resolution limits. Such simulations are termed 'auto-LES' (LES with automatic SGS modeling) in this report.
NASA Astrophysics Data System (ADS)
Buvat, Gael
La fabrication additive offre une opportunite d'amelioration des methodes de productions de pieces. Cependant, les technologies de fabrication additive sont diverses, les fournisseurs de services sont multiples et peu de personnel est forme pour operer sur ces technologies. L'objectif de cette etude est d'emettre une suggestion de concepts d'outils d'aide a la decision de technologies, de materiaux et de post-traitements de fabrication additive en milieu aeronautique. Trois sous-objectifs sont employes. Premierement, la definition des criteres de decision de technologies, de materiaux et de post-traitements de fabrication additive. Ensuite, l'elaboration d'un cahier des charges de l'outil d'aide a la decision en accord avec les besoins industriels du secteur aeronautique. Et enfin, la suggestion de trois concepts d'outils d'aide a la decision et leur evaluation par comparaison au cahier des charges etabli. Les criteres captures aupres de 11 industriels concernent des criteres de couts, de qualite, de conception et de delai d'obtention. Ensuite, nous avons elabore un cahier des charges permettant de reunir les besoins des industriels du secteur aeronautique selon trois axes qui constituent la colonne vertebrale des outils d'aide a la decision : une suggestion d'interface utilisateur, une suggestion de bases de donnees et un moteur de selection des technologies, des materiaux et des post-traitements de fabrication additive. La convivialite de l'interface utilisateur, l'evaluation de la qualite souhaitee par l'utilisateur et la prise en compte des etudes de cas realisees par le moteur de selection sont exemples de besoins que nous avons identifie au sein de cette etude. Nous avons ensuite transcrit ces besoins en specifications techniques pour permettre une evaluation du niveau de satisfaction des industriels au travers d'un pointage des trois concepts suggeres. Ces trois concepts d'outils d'aide a la decision ont ete realises respectivement grâce a Microsoft ExcelRTM, Microsoft AccessRTM ainsi qu'une plateforme en ligne associee a l'outil d'apprentissage statistique RapidMinerRTM. Ce dernier outil en ligne a retenu l'attention des ingenieurs qui l'ont evalue principalement du fait de la prise en compte des etudes de cas dans la suggestion preferentielle de technologies, de materiaux et de post-traitements.
La pubalgie du sportif: mise au point à propos d'une étude rétrospective de 128 joueurs
Mahmoudi, Ammar; Frioui, Samia; Jemni, Sonia; Khachnaoui, Faycel; Dahmene, Younes
2015-01-01
La pubalgie du sportif de haut niveau représente une entité nosologique à part entière, tant en raison du mécanisme à l'origine de la pathologie que des lésions objectivables au niveau de la paroi abdominale. C'est un syndrome douloureux de la région inguino-pubienne qui touche particulièrement les footballeurs. Son étiologie est attribuée à la répétition de mouvements des membres inférieurs et du tronc associant rotation et adduction forcées. Son incidence est nettement plus élevée chez les hommes. Après avoir écarté une pathologie d'organe, le patient devrait bénéficier tout au début de son traitement conservateur d'une IRM afin d'effectuer un bilan lésionnel complet qui, selon les situations, permet d’écourter le traitement conservateur et de proposer un traitement chirurgical optimal. Le traitement doit être résolument conservateur pendant 3 mois. La rééducation est le plus souvent le traitement de première intention. Les patients présentant une persistance des symptômes sont candidats à la chirurgie. L'intervention de Nesovic est le traitement de choix chez les sportifs de haut niveau et qui permet, dans la très grande majorité des cas, une reprise sans aucune limitation de l'activité sportive antérieure. La technique de Bassini semble être moins lourde que celle de Nesovic, puisqu'elle est moins invasive. Une prise en charge multidisciplinaire centrée sur l'athlète avant et après l'intervention permet un retour aux activités physiques après quelques mois. Nous rapportons l'expérience de la prise en charge de 128 joueurs opérés selon la technique de Bassini et nous comparons nos résultats avec celles de la littérature. PMID:26966484
Prévalence et facteurs associés à l’anémie en grossesse à l’Hôpital Général de Douala
Tchente, Charlotte Nguefack; Tsakeu, Eveline Ngouadjeu Dongho; Nguea, Arlette Géraldine; Njamen, Théophile Nana; Ekane, Gregory Halle; Priso, Eugene Belley
2016-01-01
Introduction L’anémie est un problème de santé publique, prédominant chez les enfants et les femmes en âge de procréer. L’objectif de l’étude était de déterminer la prévalence et les facteurs associés à l’anémie chez les femmes enceintes à l’Hôpital Général de Douala. Méthodes Il s’agissait d’une étude transversale qui s’est déroulée de juillet 2012 à juillet 2013. Toutes les femmes enceintes consentantes se présentant pour consultation prénatale et ayant réalisées une numération formule sanguine (NFS) étaient incluses. Les caractéristiques sociodémographiques, les antécédents obstétricaux et les résultats de la NFS étaient enregistrés sur une fiche technique pré-testée. L’anémie était définie selon les critères de l’OMS. Après quelques statistiques descriptives, nous avons effectué une analyse bivariée à l’aide du test de Chi 2 et la probabilité exacte de Fisher pour rechercher les facteurs associés à l’anémie. Une valeur de p< 0,05 était considérée significative. Résultats Au total 415 gestantes ont été recrutées. La prévalence de l’anémie était de 39,8%. L’âge moyen était de 29,89±4,835ans. Le taux moyen d’hémoglobine était de 10,93±1,23.L’anémie normochrome normocytaire (53,3%) était prédominante. L’anémie était sévère dans 2,4% des cas. L’anémie en grossesse était significativement associée aux antécédents de pathologies chroniques (P=0,02) et d’anémie gravidique antérieure (P=0,003). L’anémie était plus observée au 3ème trimestre (P=0,04) et l’allaitement maternel était protecteur (P=0,02). Conclusion La prévalence de l’anémie chez la femme enceinte reste élevée. Un accent doit être mis sur une meilleureprise en charge des pathologies chroniques chez les gestantes et sur leur suivi en post natal afin de corriger l’anémie avant la grossesse ultérieure. PMID:28292095
WRF nested large-eddy simulations of deep convection during SEAC4RS
NASA Astrophysics Data System (ADS)
Heath, Nicholas Kyle
Deep convection is an important component of atmospheric circulations that affects many aspects of weather and climate. Therefore, improved understanding and realistic simulations of deep convection are critical to both operational and climate forecasts. Large-eddy simulations (LESs) often are used with observations to enhance understanding of convective processes. This study develops and evaluates a nested-LES method using the Weather Research and Forecasting (WRF) model. Our goal is to evaluate the extent to which the WRF nested-LES approach is useful for studying deep convection during a real-world case. The method was applied on 2 September 2013, a day of continental convection having a robust set of ground and airborne data available for evaluation. A three domain mesoscale WRF simulation is run first. Then, the finest mesoscale output (1.35 km grid length) is used to separately drive nested-LES domains with grid lengths of 450 and 150 m. Results reveal that the nested-LES approach reasonably simulates a broad spectrum of observations, from reflectivity distributions to vertical velocity profiles, during the study period. However, reducing the grid spacing does not necessarily improve results for our case, with the 450 m simulation outperforming the 150 m version. We find that simulated updrafts in the 150 m simulation are too narrow to overcome the negative effects of entrainment, thereby generating convection that is weaker than observed. Increasing the sub-grid mixing length in the 150 m simulation leads to deeper, more realistic convection, but comes at the expense of delaying the onset of the convection. Overall, results show that both the 450 m and 150 m simulations are influenced considerably by the choice of sub-grid mixing length used in the LES turbulence closure. Finally, the simulations and observations are used to study the processes forcing strong midlevel cloud-edge downdrafts that were observed on 2 September. Results suggest that these downdrafts are forced by evaporative cooling due to mixing near cloud edge and by vertical perturbation pressure gradient forces acting to restore mass continuity around neighboring updrafts. We conclude that the WRF nested-LES approach provides an effective method for studying deep convection for our real-world case. The method can be used to provide insight into physical processes that are important to understanding observations. The WRF nested-LES approach could be adapted for other case studies in which high-resolution observations are available for validation.
NASA Astrophysics Data System (ADS)
Bourque, Claude Julie
Le champ de la recherche scientifique et de la formation a la recherche est traverse depuis quelques dizaines d'annees par plusieurs courants et discours associes au changement, mais peu de travaux empiriques permettent de comprendre ce qui change concretement. C'est la contribution originale de cette these au champ de l'education, plus specifiquement a l'etude sociologique de l'enseignement superieur ou sont concentrees les activites liees a la triade thematique du programme doctoral dans lequel elle a ete produite : recherche, formation et pratique. L'enquete-terrain a ete realisee en 2009 et 2010 aupres de 808 repondants affilies a 60 etablissements au Quebec et a produit un vaste materiau de nature mixte (donnees quantitatives et qualitatives). Un portrait de la nebuleuse biotechnologique qui touche les secteurs des sciences de la sante, des sciences naturelles et du genie a ete realise. Ce domaine concerne des dizaines de disciplines et se revele de nature transdisciplinaire, mais les pratiques n'y sont pas davantage marquees par le changement que celles d'autres domaines connexes. Les dynamiques sociales ont fait l'objet d'analyses comparatives dans quatre contextes: le choix des programmes, des objets et des methodes, le financement, la diffusion et la planification de la carriere. Les resultats indiquent que les echanges entre les agents traditionnellement situes au coeur des activites de recherche dominent ces dynamiques dans tous les contextes etudies. L'etude des representations au fondement des pratiques a revele l'existence de trois ecoles de pensee qui coexistent dans le champ scientifique: academique, pragmatique et economiste. Ces ecoles permettent de categoriser les agents en fonction des zones de fractures qui marquent leurs oppositions tout en identifiant ce qu'ils ont en commun. Les representations et les pratiques liees a la formation temoignent d'un habitus plutot homogene, alors que les contradictions semblent plus souvent ancrees dans des luttes universitaires que scientifiques, concentrees sur la negociation du capital scientifique, symbolique et economique en jeu dans la formation doctorale, dans les carrieres auxquelles elle mene, et dans les qualites du titre de Ph.D. Au final, la confusion entre des logiques opposees peut etre reduite en reinterpretant le changement comme tradition du champ scientifique. Mots-cles Sociologie, education, enseignement superieur, science et technologie, biotechnologie, formation doctorale, champ scientifique, reseaux sociaux
Etude aerodynamique d'un jet turbulent impactant une paroi concave
NASA Astrophysics Data System (ADS)
LeBlanc, Benoit
Etant donne la demande croissante de temperatures elevees dans des chambres de combustion de systemes de propulsions en aerospatiale (turbomoteurs, moteur a reaction, etc.), l'interet dans le refroidissement par jets impactant s'est vu croitre. Le refroidissement des aubes de turbine permet une augmentation de temperature de combustion, ce qui se traduit en une augmentation de l'efficacite de combustion et donc une meilleure economie de carburant. Le transfert de chaleur dans les au bages est influence par les aspects aerodynamiques du refroidissement a jet, particulierement dans le cas d'ecoulements turbulents. Un manque de comprehension de l'aerodynamique a l'interieur de ces espaces confinees peut mener a des changements de transfert thermique qui sont inattendus, ce qui augmente le risque de fluage. Il est donc d'interet pour l'industrie aerospatiale et l'academie de poursuivre la recherche dans l'aerodynamique des jets turbulents impactant les parois courbes. Les jets impactant les surfaces courbes ont deja fait l'objet de nombreuses etudes. Par contre des conditions oscillatoires observees en laboratoire se sont averees difficiles a reproduire en numerique, puisque les structures d'ecoulements impactants des parois concaves sont fortement dependantes de la turbulence et des effets instationnaires. Une etude experimentale fut realisee a l'institut PPRIME a l'Universite de Poitiers afin d'observer le phenomene d'oscillation dans le jet. Une serie d'essais ont verifie les conditions d'ecoulement laminaires et turbulentes, toutefois le cout des essais experimentaux a seulement permis d'avoir un apercu du phenomene global. Une deuxieme serie d'essais fut realisee numeriquement a l'Universite de Moncton avec l'outil OpenFOAM pour des conditions d'ecoulement laminaire et bidimensionnel. Cette etude a donc comme but de poursuivre l'enquete de l'aerodynamique oscillatoire des jets impactant des parois courbes, mais pour un regime d'ecoulement transitoire, turbulent, tridimensionnel. Les nombres de Reynolds utilises dans l'etude numerique, bases sur le diametre du jet lineaire observe, sont de Red = 3333 et 6667, consideres comme etant en transition vers la turbulence. Dans cette etude, un montage numerique est construit. Le maillage, le schema numerique, les conditions frontiere et la discretisation sont discutes et choisis. Les resultats sont ensuite valides avec des donnees turbulentes experimentales. En modelisation numerique de turbulence, les modeles de Moyennage Reynolds des Equations Naviers Stokes (RANS) presentent des difficultes avec des ecoulements instationnaires en regime transitionnel. La Simulation des Grandes Echelles (LES) presente une solution plus precise, mais au cout encore hors de portee pour cette etude. La methode employee pour cette etude est la Simulation des Tourbillons Detaches (DES), qui est un hybride des deux methodes (RANS et LES). Pour analyser la topologie de l'ecoulement, la decomposition des modes propres (POD) a ete egalement ete effectuee sur les resultats numeriques. L'etude a demontre d'abord le temps de calcul relativement eleve associe a des essais DES pour garder le nombre de Courant faible. Les resultats numeriques ont cependant reussi a reproduire correctement le basculement asynchrone observe dans les essais experimentaux. Le basculement observe semble etre cause par des effets transitionnels, ce qui expliquerait la difficulte des modeles RANS a correctement reproduire l'aerodynamique de l'ecoulement. L'ecoulement du jet, a son tour, est pour la plupart du temps tridimensionnel et turbulent sauf pour de courtes periodes de temps stable et independant de la troisieme dimension. L'etude topologique de l'ecoulement a egalement permit la reconaissances de structures principales sousjacentes qui etaient brouillees par la turbulence. Mots cles : jet impactant, paroi concave, turbulence, transitionnel, simulation des tourbillons detaches (DES), OpenFOAM.
NASA Astrophysics Data System (ADS)
Veres, Teodor
Cette these est consacree a l'etude de l'evolution structurale des proprietes magnetiques et de transport des multicouches Ni/Fe et nanostructures a base de Co et de l'Ag. Dans une premiere partie, essentiellement bibliographique, nous introduisons quelques concepts de base relies aux proprietes magnetiques et de transport des multicouches metalliques. Ensuite, nous presentons une breve description des methodes d'analyse des resultats. La deuxieme partie est consacree a l'etude des proprietes magnetiques et de transport des multicouches ferromagnetiques/ferromagnetiques Ni/Fe. Nous montrerons qu'une interpretation coherente de ces proprietes necessite la prise en consideration des effets des interfaces. Nous nous attacherons a mettre en evidence, a evaluer et a etudier les effets de ces interfaces ainsi que leur evolution, et ce, suite a des traitements thermiques tel que le depot a temperature elevee et l'irradiation ionique. Les analyses correlees de la structure et de la magnetoresistance nous permettront d'emettre des conclusions sur l'influence des couches tampons entre l'interface et le substrat ainsi qu'entre les couches elles-memes sur le comportement magnetique des couches F/F. La troisieme partie est consacree aux systemes a Magneto-Resistance Geante (MRG) a base de Co et Ag. Nous allons etudier l'evolution de la microstructure suite a l'irradiation avec des ions Si+ ayant une energie de 1 MeV, ainsi que les effets de ces changements sur le comportement magnetique. Cette partie debutera par l'analyse des proprietes d'une multicouche hybride, intermediaire entre les multicouches et les materiaux granulaires. Nous analyserons a l'aide des mesures de diffraction, de relaxation superparamagnetique et de magnetoresistance, les evolutions structurales produites par l'irradiation ionique. Nous etablirons des modeles qui nous aideront a interpreter les resultats pour une serie des multicouches qui couvrent un large eventail de differents comportements magnetiques et ceci en fonction de l'epaisseur de la couche magnetique de Co. Nous verrons que dans ces systemes les effets de l'irradiation ionique sont fortement influences par l'energie de surface ainsi que par l'enthalpie de formation, largement positive pour le systeme Co/Ag.
Lower esophageal sphincter injections for the treatment of gastroesophageal reflux disease.
Watson, Thomas J; Peters, Jeffrey H
2005-08-01
Endoscopic therapies for the control of GERD offer the potential for significant symptomatic improvement while obviating many of the potential drawbacks associated with long-term medical therapy with acid suppressive or neutralizing medications and traditional antireflux surgery. Such endoluminal therapies are intended to be safe with a brief learning curve, easily administered in an outpatient setting without the need for general anesthesia, reproducible, and durable. LES injection therapies share the common theoretic method of action of bulking at the GEJ, leading to loss of sphincter compliance and distensibility. In the case of Enteryx, this sustained effect has been demonstrated to be secondary to chronic inflammation, fibrosis, and encapsulation resulting from a foreign body response to the injectate. Available data suggest that a majority of patients respond to LES injection therapies, as demonstrated by a decreasing usage of PPIs after implantation, the ability of many patients to terminate PPI use completely, and improved GERD-HRQOL scores. Responses seem reasonably durable in follow-up assessment up to 24 months post treatment. Although there may be some placebo effect associated with treatment, patients injected with Enteryx respond better than a control group of sham-treated subjects. Individuals treated with LES injections, however, represent a select subgroup of the overall population of refluxers. Study subjects, by and large, have had uncomplicated GERD with typical reflux symptoms of heartburn or regurgitation that have responded to PPIs. Patients who have severe anatomic derangements, such as esophageal strictures, persistent esophagitis, Barrett's esophagus, or sizeable hiatal hernias, are excluded from clinical trials, as are patients who have severe motility disorders or significant comorbid conditions. Similarly, patients who have responded poorly to PPIs and those who have primarily extraesophageal manifestations of GERD have not been studied. Outcomes to date have been assessed over the short to medium term; long-term outcome studies are lacking. The durability of response, therefore, remains largely unknown, as does the incidence of any long-term complications or side effects. A postmarket study to assess the long-term safety and durability of Enteryx therapy up to 36 months is under way, as required by the FDA, with a target enrollment of 300 patients. Detailed cost analyses have yet to be reported. Such data are important not only for comparing the various endoluminal therapies but also for comparison to standard medical therapy and antireflux surgery. At present, no randomized trials are completed that compare injection therapies to other accepted treatments of GERD. The ability to perform fundoplication safely and effectively after failed LES injection therapy is not well known, in that the number of subsequent surgical cases is small and the results largely anecdotal to date. Likewise, the ability to use LES injection as salvage therapy after failed fundoplication has not been tested. The data regarding endoluminal injection therapies are similar to those after endoscopic plication and radiofrequency application to the LES, in that a definite symptomatic response is observed, but the objective documentation of diminished esophageal acid exposure lags behind. Esophageal acid exposure is normalized in a minority of treated subjects and improved in an additional subgroup, whereas the rate of symptomatic response exceeds these objective improvements. The reasons for this disconnect are the subject of much speculation and controversy. A placebo effect has been discussed, but clearly more factors are at play. Perhaps a study effect also is important, in that patients enrolled in clinical trials for GERD control may be more likely to modify their dietary and lifestyle habits in an effort to bring about symptom relief. Maybe the understanding of the perception of reflux events is lacking, and these endoluminal therapies work mainly by altering the perception of reflux more than the amount of reflux itself. A recent technologic review of injection therapies for GERD concludes that the "data for Enteryx are as compelling as those of any other open-label evaluation of an endoluminal therapy for GERD". There is much to be learned about all endoluminal techniques. For now, LES injections are promising therapies lacking supportive evidence of long-term safety and efficacy. The available data justify their use only in patients who have GERD symptoms responsive to PPIs and who do not have significant comorbidities or complications associated with GERD. Whether or not the role of LES injection techniques will be expanded to include more complicated cases, patients who are partially responsive to PPIs, combination therapy with other endoluminal techniques, or salvage therapy after failed fundoplication awaits further study.
An LES study of vertical-axis wind turbine wakes aerodynamics
NASA Astrophysics Data System (ADS)
Abkar, Mahdi; Dabiri, John O.
2016-11-01
In this study, large-eddy simulation (LES) combined with a turbine model is used to investigate the structure of the wake behind a vertical-axis wind turbine (VAWT). In the simulations, a recently developed minimum dissipation model is used to parameterize the subgrid-scale stress tensor, while the turbine-induced forces are modeled with an actuator-line technique. The LES framework is first tested in the simulation of the wake behind a model straight-bladed VAWT placed in the water channel, and then used to study the wake structure downwind of a full-scale VAWT sited in the atmospheric boundary layer. In particular, the self-similarity of the wake is examined, and it is found that the wake velocity deficit is well characterized by a two-dimensional elliptical Gaussian distribution. By assuming a self-similar Gaussian distribution of the velocity deficit, and applying mass and momentum conservation, an analytical model is developed and tested to predict the maximum velocity deficit downwind of the turbine.
Advances in Parallelization for Large Scale Oct-Tree Mesh Generation
NASA Technical Reports Server (NTRS)
O'Connell, Matthew; Karman, Steve L.
2015-01-01
Despite great advancements in the parallelization of numerical simulation codes over the last 20 years, it is still common to perform grid generation in serial. Generating large scale grids in serial often requires using special "grid generation" compute machines that can have more than ten times the memory of average machines. While some parallel mesh generation techniques have been proposed, generating very large meshes for LES or aeroacoustic simulations is still a challenging problem. An automated method for the parallel generation of very large scale off-body hierarchical meshes is presented here. This work enables large scale parallel generation of off-body meshes by using a novel combination of parallel grid generation techniques and a hybrid "top down" and "bottom up" oct-tree method. Meshes are generated using hardware commonly found in parallel compute clusters. The capability to generate very large meshes is demonstrated by the generation of off-body meshes surrounding complex aerospace geometries. Results are shown including a one billion cell mesh generated around a Predator Unmanned Aerial Vehicle geometry, which was generated on 64 processors in under 45 minutes.
(Low-level radioactive waste management techniques)
DOE Office of Scientific and Technical Information (OSTI.GOV)
Van Hoesen, S.D.; Kennerly, J.M.; Williams, L.C.
1988-08-08
The US team consisting of representatives of Oak Ridge National Laboratory (ORNL), Savannah River plant (SRP), Idaho National Engineering Laboratory (INEL), and the Department of Energy, Oak Ridge Operations participated in a training program on French low-level radioactive waste (LLW) management techniques. Training in the rigorous waste characterization, acceptance and certification procedures required in France was provided at Agence Nationale pour les Gestion des Dechets Radioactif (ANDRA) offices in Paris.
LES Modeling with Experimental Validation of a Compound Channel having Converging Floodplain
NASA Astrophysics Data System (ADS)
Mohanta, Abinash; Patra, K. C.
2018-04-01
Computational fluid dynamics (CFD) is often used to predict flow structures in developing areas of a flow field for the determination of velocity field, pressure, shear stresses, effect of turbulence and others. A two phase three-dimensional CFD model along with the large eddy simulation (LES) model is used to solve the turbulence equation. This study aims to validate CFD simulations of free surface flow or open channel flow by using volume of fluid method by comparing the data observed in hydraulics laboratory of the National Institute of Technology, Rourkela. The finite volume method with a dynamic sub grid scale was carried out for a constant aspect ratio and convergence condition. The results show that the secondary flow and centrifugal force influence flow pattern and show good agreement with experimental data. Within this paper over-bank flows have been numerically simulated using LES in order to predict accurate open channel flow behavior. The LES results are shown to accurately predict the flow features, specifically the distribution of secondary circulations both for in-bank channels as well as over-bank channels at varying depth and width ratios in symmetrically converging flood plain compound sections.
A method for obtaining a statistically stationary turbulent free shear flow
NASA Technical Reports Server (NTRS)
Timson, Stephen F.; Lele, S. K.; Moser, R. D.
1994-01-01
The long-term goal of the current research is the study of Large-Eddy Simulation (LES) as a tool for aeroacoustics. New algorithms and developments in computer hardware are making possible a new generation of tools for aeroacoustic predictions, which rely on the physics of the flow rather than empirical knowledge. LES, in conjunction with an acoustic analogy, holds the promise of predicting the statistics of noise radiated to the far-field of a turbulent flow. LES's predictive ability will be tested through extensive comparison of acoustic predictions based on a Direct Numerical Simulation (DNS) and LES of the same flow, as well as a priori testing of DNS results. The method presented here is aimed at allowing simulation of a turbulent flow field that is both simple and amenable to acoustic predictions. A free shear flow is homogeneous in both the streamwise and spanwise directions and which is statistically stationary will be simulated using equations based on the Navier-Stokes equations with a small number of added terms. Studying a free shear flow eliminates the need to consider flow-surface interactions as an acoustic source. The homogeneous directions and the flow's statistically stationary nature greatly simplify the application of an acoustic analogy.
Résultats de la chirurgie laparoscopique pour la hernie de l’aine: l’expérience Tunisienne
Maghrebi, Houcine; Makni, Amin; Sebai, Amin; Chebbi, Faouzi; Rebai, Wael; Daghfous, Amin; Ksantini, Rachid; Jouini, Mohamed; Kacem, Montassar; Safta, Zoubeir Ben
2018-01-01
La hernie de l'aine de l'adulte reste une affection fréquente en chirurgie digestive. De nombreuses techniques de réparation ont été décrites à ce jour dont les procédés laparoscopiques. Deux méthodes furent rapidement adoptées par les différents praticiens pour le traitement chirurgical des hernies de l'aine par laparoscopie: la méthode laparoscopique totalement extra péritonéale (TEP) et la méthode laparoscopique transpéritonéale (TAPP). Le but était d'étudier la faisabilité de la cure de hernie de l'aine par cœlioscopie et de décrire ses résultats du point de vue récidive herniaire et douleur post opératoire. Ce travail était une étude rétrospective, uni centrique, et transversale, portant sur des patients opérés par des chirurgiens du service de chirurgie A La Rabta pour hernie de l'aine par voie laparoscopique, sur une période de 8 ans allant de janvier 2006 à décembre 2013. Le principal critère de jugement était la récidive herniaire. La douleur post opératoire et les complications étaient les critères de jugement secondaires. Nous avons colligés 104 hernies chez 92 patients respectant les critères d'inclusion de notre étude. La moyenne d'âge de nos patients était de 48 Ans (19-83). L'approche TAPP était la plus utilisée: 94 cas (90%) TAPP contre 10 cas TEP. Aucune complication per opératoires n'a été signalée. Le taux de conversion de notre série était nul. La mortalité opératoire était aussi nulle. La morbidité postopératoire était de 5% (5 patients). Elle était à type d'hématome dans 3 cas et de sérum dans 2 cas. La durée moyenne d'hospitalisation était de 1.2 jours (1-4jours). Le séjour post opératoire n'avait pas dépassé 2 jours chez 94% des patients. Seulement 2 patients avaient présenté une récidive. Les douleurs chroniques postopératoires étaient notées chez seulement 3 patients. Notre étude a montré que la cure de hernie de l'aine par laparoscopie a apporté un confort considérable à nos patients en ce qui concerne les phénomènes douloureux, les durées d'hospitalisation et d'arrêt de travail. Les résultats obtenus dans cette série sont bons et conformes aux résultats déjà publiés dans la littérature. Ceci nous encourage à poursuivre l'utilisation de ces techniques et à contrôler nos résultats à plus long terme. PMID:29875925
NASA Astrophysics Data System (ADS)
Pellerin, Anne
2005-02-01
Le but de cette thèse était de développer et tester la technique de synthè;se spectrale évolutive aux longueurs d'onde de l'ultraviolet lointain. Jusquà récemment, cette technique n'était appliqué quà des données au-delà de 1200 Å. Le lancement du satellite FUSE en 1999 a permis d'explorer le domaine de l'ultraviolet lointain (900-1200 Å) avec une grande résolution spectrale. J'ai donc utilisé les spectres du satellite FUSE de 228 étoiles chaudes de type O et B, de 24 galaxies à sursauts de formation d'étoiles et de quatre galaxies Seyfert. Dans un premier temps, j'ai caractérisé le comportement des profils de raies stellaires en fonction du type spectral, de la classe de luminosité et de la métallicité des étoiles. Les raies O vi >>1031.9, 1037.6, S iv >>1062.7, 1073.0, 1073.5, P v>>1118.0, 1128.0 et C iii >1175.6 ont été identifiées comme étant des indicateurs stellaires potentiellement intéressants pour la synthèse spectrale. Le domaine de longueur d'onde inférieur à 1000 Å couvert par FUSEmontre aussi des signatures stellaires mais qui sont peu intéressantes pour la synthèse en raison de la contamination interstellaire. J'ai ensuite crééé; une bibliothèque de spectres FUSE qui a été intégrée au code de synthèse LavalSBafin de produire des spectres de synthèse dans l'ultraviolet lointain pour diverses populations stellaires théoriques. Il s'est avéré que les raies de P vet de C iii sont d'excellents indicateurs d'âge, de métallicité et de fonction de masse initiale de la population stellaire, tandis que les raies de O vi et de S ivne sont pas aussi efficaces. La comparaison des spectres FUSEde galaxies avec les spectres synthétiques a révèlé des âges entre 2.5 et 18 millions d'années pour un large éventail de métallicités. On trouve aussi une forte dominance du mode instantané de formation stellaire. Ce travail a aussi permis d'estimer quantitativement l'extinction interne et les masses stellaires impliquées dans les sursauts. La synthèse des raies de l'ultraviolet lointain s'est avérée beaucoup plus précise que la synthèse à > 1200 Å en raison de la résolution spectrale exceptionnelle de FUSE et parce que les raies stellaires n'ont pas de profils saturés, même aux métallicités élevées. Les propriétés physiques globales des 24 galaxies à sursauts ont aussi été étudiées dans leur ensemble afin de mieux décrire le phénomène des sursauts de formation stellaires.
Recent advances in large-eddy simulation of spray and coal combustion
NASA Astrophysics Data System (ADS)
Zhou, L. X.
2013-07-01
Large-eddy simulation (LES) is under its rapid development and is recognized as a possible second generation of CFD methods used in engineering. Spray and coal combustion is widely used in power, transportation, chemical and metallurgical, iron and steel making, aeronautical and astronautical engineering, hence LES of spray and coal two-phase combustion is particularly important for engineering application. LES of two-phase combustion attracts more and more attention; since it can give the detailed instantaneous flow and flame structures and more exact statistical results than those given by the Reynolds averaged modeling (RANS modeling). One of the key problems in LES is to develop sub-grid scale (SGS) models, including SGS stress models and combustion models. Different investigators proposed or adopted various SGS models. In this paper the present author attempts to review the advances in studies on LES of spray and coal combustion, including the studies done by the present author and his colleagues. Different SGS models adopted by different investigators are described, some of their main results are summarized, and finally some research needs are discussed.
NASA Astrophysics Data System (ADS)
Tamura, Tetsuro; Kawaguchi, Masaharu; Kawai, Hidenori; Tao, Tao
2017-11-01
The connection between a meso-scale model and a micro-scale large eddy simulation (LES) is significant to simulate the micro-scale meteorological problem such as strong convective events due to the typhoon or the tornado using LES. In these problems the mean velocity profiles and the mean wind directions change with time according to the movement of the typhoons or tornadoes. Although, a fine grid micro-scale LES could not be connected to a coarse grid meso-scale WRF directly. In LES when the grid is suddenly refined at the interface of nested grids which is normal to the mean advection the resolved shear stresses decrease due to the interpolation errors and the delay of the generation of smaller scale turbulence that can be resolved on the finer mesh. For the estimation of wind gust disaster the peak wind acting on buildings and structures has to be correctly predicted. In the case of meteorological model the velocity fluctuations have a tendency of diffusive variation without the high frequency component due to the numerically filtering effects. In order to predict the peak value of wind velocity with good accuracy, this paper proposes a LES-based method for generating the higher frequency components of velocity and temperature fields obtained by meteorological model.
NASA Astrophysics Data System (ADS)
Binci, L.; Clementi, G.; D'Alessandro, V.; Montelpare, S.; Ricci, R.
2017-11-01
This work presents the study of the flow field past of dimpled laminar airfoil. Fluid dynamic behaviour of these elements has been not still deeply studied in the scientific community. Therefore Computational Fluid-Dynamics (CFD) is here used to analyze the flow field induced by dimples on the NACA 64-014A laminar airfoil at Re = 1.75 · 105 at α = 0°. Reynolds Averaged Navier-Stokes (RANS) equations and Large-Eddy Simulations (LES) were compared with wind tunnel measurements in order to evaluate their effectiveness in the modeling this kind of flow field. LES equations were solved using a specifically developed OpenFOAM solver adopting an L-stable Singly Diagonally Implicit Runge-Kutta (SDIRK) technique with an iterated PISO-like procedure for handling pressure-velocity coupling within each RK stage. Dynamic Smagorinsky subgrid model was employed. LES results provided good agreement with experimental data, while RANS equations closed with \\[k-ω -γ -\\overset{}{\\mathop{{{\\operatorname{Re}}θ, \\text{t}}}} \\] approach overstimates laminar separation bubble (LSB) extension of dimpled and un-dimpled configurations. Moreover, through skin friction coefficient analysis, we found a different representation of the turbulent zone between the numerical models; indeed, with RANS model LSB seems to be divided in two different parts, meanwhile LES model shows a LSB global reduction.
Rôle de l'hydrogène dans le procédé de purification du silicium par plasma thermique inductif
NASA Astrophysics Data System (ADS)
Erin, J.; Morvan, D.; Amouroux, J.
1993-03-01
The use of the thermal process for purification of silicon led to a material with the chemical purity required for phototovoltaic applications. In this paper, the various properties of ArH2 plasma mixtures are briefly reviewed and the effect of hydrogen percentage in an argon plasma used for melting and purifying silicon is pointed out. Physico-chemical analysis of the purified silicon showed that hydrogen diffused in the material and could passivate crystal defects by formation of stable chemical bonds such as Si-H. La technique de purification du silicium sous plasma thermique permet d'aboutir à un matériau de pureté chimique requise pour l'industrie photovoltaïque. Dans ce travail, nous soulignerons le rôle de l'hydrogène intervenant dans les propriétés du plasma en rappelant les caractéristiques des plasmas Ar-H2 utilisés pour fondre et purifier le silicium. Les caractéristiques physico-chimiques du silicium purifié montrent que l'hydrogène diffuse dans le matériau et est en mesure de cicatriser les défauts cristallins par formation de liaisons chimiques stables de type Si-H.
Du pompage optique laser à l'absorption saturée résolue en temps
NASA Astrophysics Data System (ADS)
Dumont, M.
The first part is a brief historical account of the beginning of lasers at the « Laboratoire de Spectroscopie Hertzienne de l'ENS » and, more precisely, of the first experiments of optical pumping with multimode lasers. The three new features (stimulated emission, coherence and saturation) are emphasized. Paragraphes 2 and 3 outline the special behaviour of monomode optical pumping (velocity selection) and of timeresolved saturated absorption. This last technique is applied to study elastic collisions (determination of the « collision Kernel ») and Raman coherence between metastable levels. The last paragraphe summarizes a semi-perturbative calculation of transients in Velocity Selective Optical Pumping (VSOP). La première partie est un survol historique de l'introduction des lasers au laboratoire de Spectroscopie Hertzienne de l'ENS et particulièrement des premières expériences de pompage optique avec un laser multimode. Les trois caractéristiques nouvelles (émission stimulée, cohérence de la lumière et saturations) sont mises en lumière. Les paragraphes 2 et 3 présentent les particularités du pompage optique par un laser monomode (sélection des vitesses atomiques) et de la technique d'absorption saturée résolue en temps. Cette dernière technique est appliquée à l'étude des collisions élastiques (détermination du « noyau de collision ») et de la cohérence Raman entre niveaux métastables. La dernière partie présente, de façon résumée, un calcul semiperturbatif des transitoires de pompage optique sélectif en vitesse (VSOP).
Evaluation of a Consistent LES/PDF Method Using a Series of Experimental Spray Flames
NASA Astrophysics Data System (ADS)
Heye, Colin; Raman, Venkat
2012-11-01
A consistent method for the evolution of the joint-scalar probability density function (PDF) transport equation is proposed for application to large eddy simulation (LES) of turbulent reacting flows containing evaporating spray droplets. PDF transport equations provide the benefit of including the chemical source term in closed form, however, additional terms describing LES subfilter mixing must be modeled. The recent availability of detailed experimental measurements provide model validation data for a wide range of evaporation rates and combustion regimes, as is well-known to occur in spray flames. In this work, the experimental data will used to investigate the impact of droplet mass loading and evaporation rates on the subfilter scalar PDF shape in comparison with conventional flamelet models. In addition, existing model term closures in the PDF transport equations are evaluated with a focus on their validity in the presence of regime changes.
NASA Astrophysics Data System (ADS)
Aboutajeddine, Ahmed
Les modeles micromecaniques de transition d'echelles qui permettent de determiner les proprietes effectives des materiaux heterogenes a partir de la microstructure sont consideres dans ce travail. L'objectif est la prise en compte de la presence d'une interphase entre la matrice et le renforcement dans les modeles micromecaniques classiques, de meme que la reconsideration des approximations de base de ces modeles, afin de traiter les materiaux multiphasiques. Un nouveau modele micromecanique est alors propose pour tenir compte de la presence d'une interphase elastique mince lors de la determination des proprietes effectives. Ce modele a ete construit grace a l'apport de l'equation integrale, des operateurs interfaciaux de Hill et de la methode de Mori-Tanaka. Les expressions obtenues pour les modules globaux et les champs dans l'enrobage sont de nature analytique. L'approximation de base de ce modele est amelioree par la suite dans un nouveau modele qui s'interesse aux inclusions enrobees avec un enrobage mince ou epais. La resolution utilisee s'appuie sur une double homogeneisation realisee au niveau de l'inclusion enrobee et du materiau. Cette nouvelle demarche, permettra d'apprehender completement les implications des approximations de la modelisation. Les resultats obtenus sont exploites par la suite dans la solution de l'assemblage de Hashin. Ainsi, plusieurs modeles micromecaniques classiques d'origines differentes se voient unifier et rattacher, dans ce travail, a la representation geometrique de Hashin. En plus de pouvoir apprecier completement la pertinence de l'approximation de chaque modele dans cette vision unique, l'extension correcte de ces modeles aux materiaux multiphasiques est rendue possible. Plusieurs modeles analytiques et explicites sont alors proposee suivant des solutions de differents ordres de l'assemblage de Hashin. L'un des modeles explicite apparait comme une correction directe du modele de Mori-Tanaka, dans les cas ou celui ci echoue a donner de bons resultats. Finalement, ce modele de Mori-Tanaka corrige est utilise avec les operateurs de Hill pour construire un modele de transition d'echelle pour les materiaux ayant une interphase elastoplastique. La loi de comportement effective trouvee est de nature incrementale et elle est conjuguee a la relation de la plasticite de l'interphase. Des simulations d'essais mecaniques pour plusieurs proprietes de l'interphase plastique a permis de dresser des profils de l'enrobage octroyant un meilleur comportement au materiau.
NASA Astrophysics Data System (ADS)
Mejdi, Abderrazak
Les fuselages des avions sont generalement en aluminium ou en composite renforces par des raidisseurs longitudinaux (lisses) et transversaux (cadres). Les raidisseurs peuvent etre metalliques ou en composite. Durant leurs differentes phases de vol, les structures d'avions sont soumises a des excitations aeriennes (couche limite turbulente : TBL, champs diffus : DAF) sur la peau exterieure dont l'energie acoustique produite se transmet a l'interieur de la cabine. Les moteurs, montes sur la structure, produisent une excitation solidienne significative. Ce projet a pour objectifs de developper et de mettre en place des strategies de modelisations des fuselages d'avions soumises a des excitations aeriennes et solidiennes. Tous d'abord, une mise a jour des modeles existants de la TBL apparait dans le deuxieme chapitre afin de mieux les classer. Les proprietes de la reponse vibro-acoustique des structures planes finies et infinies sont analysees. Dans le troisieme chapitre, les hypotheses sur lesquelles sont bases les modeles existants concernant les structures metalliques orthogonalement raidies soumises a des excitations mecaniques, DAF et TBL sont reexamines en premier lieu. Ensuite, une modelisation fine et fiable de ces structures est developpee. Le modele est valide numeriquement a l'aide des methodes des elements finis (FEM) et de frontiere (BEM). Des tests de validations experimentales sont realises sur des panneaux d'avions fournis par des societes aeronautiques. Au quatrieme chapitre, une extension vers les structures composites renforcees par des raidisseurs aussi en composites et de formes complexes est etablie. Un modele analytique simple est egalement implemente et valide numeriquement. Au cinquieme chapitre, la modelisation des structures raidies periodiques en composites est beaucoup plus raffinee par la prise en compte des effets de couplage des deplacements planes et transversaux. L'effet de taille des structures finies periodiques est egalement pris en compte. Les modeles developpes ont permis de conduire plusieurs etudes parametriques sur les proprietes vibro-acoustiques des structures d'avions facilitant ainsi la tache des concepteurs. Dans le cadre de cette these, un article a ete publie dans le Journal of Sound and Vibration et trois autres soumis, respectivement aux Journal of Acoustical Society of America, International Journal of Solid Mechanics et au Journal of Sound and Vibration Mots cles : structures raidies, composites, vibro-acoustique, perte par transmission.
Le potentiel de l'asteroseismologie pour les etoiles sous-naines de type B
NASA Astrophysics Data System (ADS)
Charpinet, Stephane
L'objectif principal de cette thèse consiste à évaluer les possibilités que les étoiles sous naines de type B, aussi appelées sdB, puissent développer des variations de luminosité engendrées par des phénomènes de pulsations. Dans la mesure où, au commencement de cette étude, les sdB ne sont pas connues pour montrer ce type de comportement, notre approche s'effectue exclusivement sur des bases théoriques visant à déterminer, par le calcul, si ces étoiles ont le potentiel pour devenir instables. Le cas échéant, il s'agira d'évaluer quels sont les résultats susceptibles d'émerger d'un sondage de la structure interne de ces étoiles avec les méthodes de l'astéroséismologie. Après avoir introduit le contexte et les outils théoriques nécessaires à ce projet (théorie des pulsations stellaires et modèles d'étoiles sous-naines de type B), la démarche passe obligatoirement par une étude exhaustive des propriétés des modes de pulsation dans ces étoiles. Nous l'avons entreprise de manière systématique afin d'évaluer et de comprendre les comportements des oscillations en fonction des différents paramètres physiques qui caractérisent une sdB. Par souci de complétude, nous étudions également les rapports qu'entretiennent évolution et périodes de pulsation au cours de la phase sdB. Par la suite, fort des connaissances nouvellement acquises, nous nous lançons dans l'étude de la stabilité des modes d'oscillation, l'objectif étant d'identifier, le cas échéant, un mécanisme capable de déstabiliser, dans certaines conditions, une fraction de ces étoiles. Par cette approche, nous déterminons qu'un mécanisme κ associé à une région d'ionisation partielle de l'élément fer agit efficacement dans l'enveloppe des sdB si, toutefois, le fer y est présent en quantités extra- solaires. Nous montrons alors que des processus de diffusion, déjà fortement suspectes d'exister dans ces étoiles, sont en mesure d'accumuler des quantités de fer largement suffisantes pour engendrer des pulsations, nous conduisant ainsi à avancer la prédiction que des sdB pulsantes doivent exister. L'annonce, indépendante et pratiquement simultanée, de la découverte de véritables sdB pulsantes ainsi que les premières comparaisons entre théorie et observations nous poussent alors à construire des modèles plus sophistiqués-incluant les effets de la diffusion sur le fer-mieux adaptés pour décrire le mécanisme de déstabilisation propose. Nous constatons alors un très bon accord quantitatif entre les propriétés sismiques déduites des modèles théoriques et celles effectivement observées dans les sdB pulsantes, confirmant dès lors le rôle joué par le mécanisme en question. Nous discutons également des aspects reliés à l'étude astéroséismologique de ces étoiles dont l'objectif, ultimement, est d'en sonder l'intérieur. Bien qu'il soit encore prématuré d'appliquer une telle méthode sur les sdB, nous explorons rapidement les moyens pour y parvenir et nous tentons de préciser quels sont les éléments de la structure des sdB que nous pouvons espérer mesurer avec cette technique. Finalement, suite aux résultats satisfaisants obtenus pour les sdB, nous entreprenons de poursuivre l'étude de stabilité sur les modèles évolutifs en phase post-EHB. Nous constatons alors l'existence de modèles instables, identifiables aux étoiles naines blanches de type DAO, pour lesquels des modes g de faible ordre radial sont excités par un mécanisme ɛ associé à la région de brûlage en couche résiduel de l'hydrogène situé à la base de l'enveloppe des modèles. Ce résultat nous conduit ainsi à proposer l'existence d'une autre classe d'étoiles pulsantes parmi les DAO. Contrairement aux sdB, cette prédiction reste toutefois à confirmer par l'observation.
NASA Astrophysics Data System (ADS)
Mijiyawa, Faycal
Cette etude permet d'adapter des materiaux composites thermoplastiques a fibres de bois aux engrenages, de fabriquer de nouvelles generations d'engrenages et de predire le comportement thermique de ces engrenages. Apres une large revue de la litterature sur les materiaux thermoplastiques (polyethylene et polypropylene) renforces par les fibres de bois (bouleau et tremble), sur la formulation et l'etude du comportement thermomecanique des engrenages en plastique-composite; une relation a ete etablie avec notre presente these de doctorat. En effet, beaucoup d'etudes sur la formulation et la caracterisation des materiaux composites a fibres de bois ont ete deja realisees, mais aucune ne s'est interessee a la fabrication des engrenages. Les differentes techniques de formulation tirees de la litterature ont facilite l'obtention d'un materiau composite ayant presque les memes proprietes que les materiaux plastiques (nylon, acetal...) utilises dans la conception des engrenages. La formulation des materiaux thermoplastiques renforces par les fibres de bois a ete effectuee au Centre de recherche en materiaux lignocellulosiques (CRML) de l'Universite du Quebec a Trois-Rivieres (UQTR), en collaboration avec le departement de Genie Mecanique, en melangeant les composites avec deux rouleaux sur une machine de type Thermotron-C.W. Brabender (modele T-303, Allemand) ; puis des pieces ont ete fabriquees par thermocompression. Les thermoplastiques utilises dans le cadre de cette these sont le polypropylene (PP) et le polyethylene haute densite (HDPE), avec comme renfort des fibres de bouleau et de tremble. A cause de l'incompatibilite entre la fibre de bois et le thermoplastique, un traitement chimique a l'aide d'un agent de couplage a ete realise pour augmenter les proprietes mecaniques des materiaux composites. Pour les composites polypropylene/bois : (1) Les modules elastiques et les contraintes a la rupture en traction des composites PP/bouleau et PP/tremble evoluent lineairement en fonction du taux de fibres, avec ou sans agent de couplage (Maleate de polypropylene MAPP). De plus, l'adherence entre les fibres de bois et le plastique est amelioree en utilisant seulement 3 % MAPP, entrainant donc une augmentation de la contrainte maximale bien qu'aucun effet significatif ne soit observe sur le module d'elasticite. (2) Les resultats obtenus montrent que, en general, les proprietes en traction des composites polypropylene/bouleau, polypropylene/tremble et polypropylene/bouleau/ tremble sont tres semblables. Les composites plastique-bois (WPCs), en particulier ceux contenant 30 % et 40 % de fibres, ont des modules elastiques plus eleves que certains plastiques utilises dans l'application des engrenages (ex. Nylon). Pour les composites polyethylene/bois, avec 3%Maleate de polyethylene (MAPE): (1) Tests de traction : le module elastique passe de 1.34 GPa a 4.19 GPa pour le composite HDPE/bouleau, alors qu'il passe de 1.34 GPa a 3.86 GPa pour le composite HDPE/tremble. La contrainte maximale passe de 22 MPa a 42.65 MPa pour le composite HDPE/bouleau, alors qu'elle passe de 22 MPa a 43.48 MPa pour le composite HDPE/tremble. (2) Tests de flexion : le module elastique passe de 1.04 GPa a 3.47 GPa pour le composite HDPE/bouleau et a 3.64 GPa pour le composite HDPE/tremble. La contrainte maximale passe de 23.90 MPa a 66.70 MPa pour le composite HDPE/bouleau, alors qu'elle passe a 59.51 MPa pour le composite HDPE/tremble. (3) Le coefficient de Poisson determine par impulsion acoustique est autour de 0.35 pour tous les composites HDPE/bois. (4) Le test de degradation thermique TGA nous revele que les materiaux composites presentent une stabilite thermique intermediaire entre les fibres de bois et la matrice HDPE. (5) Le test de mouillabilite (angle de contact) revele que l'ajout de fibres de bois ne diminue pas de facon significative les angles de contact avec de l'eau parce que les fibres de bois (bouleau ou tremble) semblent etre enveloppees par la matrice sur la surface des composites, comme le montrent des images prises au microscope electronique a balayage MEB. (6) Le modele de Lavengoof-Goettler predit mieux le module elastique du composite thermoplastique/bois. (7) Le HDPE renforce par 40 % de bouleau est mieux adapte pour la fabrication des engrenages, car le retrait est moins important lors du refroidissement au moulage. La simulation numerique semble mieux predire la temperature d'equilibre a la vitesse de 500 tr/min; alors qu'a 1000 tr/min, on remarque une divergence du modele. (Abstract shortened by ProQuest.). None None None None None None None None
NASA Astrophysics Data System (ADS)
Chen, Jincai; Jin, Guodong; Zhang, Jian
2016-03-01
The rotational motion and orientational distribution of ellipsoidal particles in turbulent flows are of significance in environmental and engineering applications. Whereas the translational motion of an ellipsoidal particle is controlled by the turbulent motions at large scales, its rotational motion is determined by the fluid velocity gradient tensor at small scales, which raises a challenge when predicting the rotational dispersion of ellipsoidal particles using large eddy simulation (LES) method due to the lack of subgrid scale (SGS) fluid motions. We report the effects of the SGS fluid motions on the orientational and rotational statistics, such as the alignment between the long axis of ellipsoidal particles and the vorticity, the mean rotational energy at various aspect ratios against those obtained with direct numerical simulation (DNS) and filtered DNS. The performances of a stochastic differential equation (SDE) model for the SGS velocity gradient seen by the particles and the approximate deconvolution method (ADM) for LES are investigated. It is found that the missing SGS fluid motions in LES flow fields have significant effects on the rotational statistics of ellipsoidal particles. Alignment between the particles and the vorticity is weakened; and the rotational energy of the particles is reduced in LES. The SGS-SDE model leads to a large error in predicting the alignment between the particles and the vorticity and over-predicts the rotational energy of rod-like particles. The ADM significantly improves the rotational energy prediction of particles in LES.
NASA Astrophysics Data System (ADS)
Prasad, Vinayaka N.; Juddoo, Mrinal; Masri, Assaad R.; Jones, William P.; Luo, Kai H.
2013-06-01
Extinction and re-ignition processes observed experimentally in thin reaction zones of piloted turbulent non-premixed methane flames approaching blow-off are analysed using Large Eddy Simulation (LES) along with the Eulerian stochastic field method representing the unresolved sub-grid turbulence-chemistry interactions. Eight stochastic fields in conjunction with a reduced chemical mechanism involving 19 species are employed to perform simulations of the Sydney flames L, B and M, which exhibit increasing levels of extinction. The agreement of the flame statistics of the velocities, mixture fraction and selected reactive species were found to be encouraging and highlight the ability of the method to capture quantitatively the effects of increasing jet velocity in this series. In a subsequent analysis of the flame structure using the LES simulation data, the strong three-dimensionality of the flame was emphasised. Quantitative comparisons with recent measurements using high-speed Planar Laser-Induced Fluorescence of OH (OH-PLIF) were found to be in reasonably good agreement with LES simulations and confirm the previous observations that the rates of flame breakages are greater than those of flame closures. This study, which also represents the first successful numerical attempt to describe the entire flame series, highlights the potential and complementary capabilities of a hybrid LES and high-speed imaging approach to resolve issues such as the role of out-of-plane motion in the investigation of transient processes such as flame breakages and re-ignition.
Toward perception-based navigation using EgoSphere
NASA Astrophysics Data System (ADS)
Kawamura, Kazuhiko; Peters, R. Alan; Wilkes, Don M.; Koku, Ahmet B.; Sekman, Ali
2002-02-01
A method for perception-based egocentric navigation of mobile robots is described. Each robot has a local short-term memory structure called the Sensory EgoSphere (SES), which is indexed by azimuth, elevation, and time. Directional sensory processing modules write information on the SES at the location corresponding to the source direction. Each robot has a partial map of its operational area that it has received a priori. The map is populated with landmarks and is not necessarily metrically accurate. Each robot is given a goal location and a route plan. The route plan is a set of via-points that are not used directly. Instead, a robot uses each point to construct a Landmark EgoSphere (LES) a circular projection of the landmarks from the map onto an EgoSphere centered at the via-point. Under normal circumstances, the LES will be mostly unaffected by slight variations in the via-point location. Thus, the route plan is transformed into a set of via-regions each described by an LES. A robot navigates by comparing the next LES in its route plan to the current contents of its SES. It heads toward the indicated landmarks until its SES matches the LES sufficiently to indicate that the robot is near the suggested via-point. The proposed method is particularly useful for enabling the exchange of robust route informa-tion between robots under low data rate communications constraints. An example of such an exchange is given.
NASA Astrophysics Data System (ADS)
Ayoub, Simon
Le reseau de distribution et de transport de l'electricite se modernise dans plusieurs pays dont le Canada. La nouvelle generation de ce reseau que l'on appelle smart grid, permet entre autre l'automatisation de la production, de la distribution et de la gestion de la charge chez les clients. D'un autre cote, des appareils domestiques intelligents munis d'une interface de communication pour des applications du smart grid commencent a apparaitre sur le marche. Ces appareils intelligents pourraient creer une communaute virtuelle pour optimiser leurs consommations d'une facon distribuee. La gestion distribuee de ces charges intelligentes necessite la communication entre un grand nombre d'equipements electriques. Ceci represente un defi important a relever surtout si on ne veut pas augmenter le cout de l'infrastructure et de la maintenance. Lors de cette these deux systemes distincts ont ete concus : un systeme de communication peer-to-peer, appele Ring-Tree, permettant la communication entre un nombre important de noeuds (jusqu'a de l'ordre de grandeur du million) tel que des appareils electriques communicants et une technique distribuee de gestion de la charge sur le reseau electrique. Le systeme de communication Ring-Tree inclut une nouvelle topologie reseau qui n'a jamais ete definie ou exploitee auparavant. Il inclut egalement des algorithmes pour la creation, l'exploitation et la maintenance de ce reseau. Il est suffisamment simple pour etre mis en oeuvre sur des controleurs associes aux dispositifs tels que des chauffe-eaux, chauffage a accumulation, bornes de recharges electriques, etc. Il n'utilise pas un serveur centralise (ou tres peu, seulement lorsqu'un noeud veut rejoindre le reseau). Il offre une solution distribuee qui peut etre mise en oeuvre sans deploiement d'une infrastructure autre que les controleurs sur les dispositifs vises. Finalement, un temps de reponse de quelques secondes pour atteindre 1'ensemble du reseau peut etre obtenu, ce qui est suffisant pour les besoins des applications visees. Les protocoles de communication s'appuient sur un protocole de transport qui peut etre un de ceux utilises sur l'Internet comme TCP ou UDP. Pour valider le fonctionnement de de la technique de controle distribuee et le systeme de communiction Ring-Tree, un simulateur a ete developpe; un modele de chauffe-eau, comme exemple de charge, a ete integre au simulateur. La simulation d'une communaute de chauffe-eaux intelligents a montre que la technique de gestion de la charge combinee avec du stockage d'energie sous forme thermique permet d'obtenir, sans affecter le confort de l'utilisateur, des profils de consommation varies dont un profil de consommation uniforme qui represente un facteur de charge de 100%. Mots-cles : Algorithme Distribue, Demand Response, Gestion de la Charge Electrique, M2M (Machine-to-Machine), P2P (Peer-to-Peer), Reseau Electrique Intelligent, Ring-Tree, Smart Grid
Non-linear valence electron dynamics in metallic clusters
NASA Astrophysics Data System (ADS)
Calvayrac, F.
This work deals with the response of the valence electrons of simple metal clusters to various excitations, in a purely dynamical context. It is related to various recent experiments where the methods based on linear response fail. The electronic motion is solved in direct time, the wavefunctions being discretized on an evenly spaced grid. The theoretical framework is the time dependent density functional theory, restricted to a version local in time and space (LSDA). The other parts of the clusters are either a jellium or an explicit ionic background exerting local or non-local pseudopotentials. The ionic dynamics is discussed, as well as the relevance of various observables. The corresponding numerical techniques are given: either a selfconsistent Crank-Nicholson method is used, approximated by an alternate propagation in every space direction, or a method alternating between direct and Fourier space. The equations suggest a parallel treatment. Several examples of application are given. The case of Na9+ is thoroughly discussed, then the less simple case of Na11+. Spectra obtained for sodium clusters deposited on sodium chlorine surfaces are shown. An example of a simulation with a moving ionic background is handled: the transfer to the ionic degrees of freedom of the energy deposited in a twelve sodium atoms cluster by a femtosecond laser pulse is discussed. The electronic resonance spectrum for a linear carbon cluster C5 is then given. In the conclusion, the work is discussed as well as possible improvements and developments from the theoretical or numerical point of view. Ce travail aborde la réponse des électrons de valence d'agrégats de métaux simples à diverses excitations, dans un contexte purement dynamique, en relation avec diverses expériences récentes que les méthodes fondées sur la réponse linéaire sont incapables d'aborder. Le mouvement de ces électrons est résolu directement en temps, leurs fonctions d'onde étant discrétisées sur une grille régulière en espace. Le cadre théorique repose sur la théorie de la fonctionnelle de la densité dépendant du temps, restreinte à une version locale en temps et en espace (LSDA). Les autres constituants des agrégats sont soit un “jellium”, soit un fond ionique explicite agissant par des pseudopotentiels locaux ou non-locaux. La dynamique de ce fond ionique est discutée, ainsi que la pertinence de différentes observables. Les techniques numériques correspondantes sont présentées. Il s'agit soit d'un traitement Crank-Nicholson autocohérent, approché par une propagation successive dans chacune des directions d'espace, soit d'un traitement alternant entre l'espace direct et celui de Fourier. Les équations utilisées suggèrent un traitement parallèle. Plusieurs exemples d'application sont alors donnés. Nous discutons en détail le cas de Na9^+, puis le cas moins simple de Na{11}^+. Nous donnons des spectres obtenus pour des agrégats de sodium déposés sur une surface de chlorure de sodium. Puis, nous abordons un exemple de simulation avec fond ionique mouvant par dynamique moléculaire. Nous discutons ainsi le transfert aux ions de l'énergie déposée par un laser femtoseconde dans un agrégat Na12. Nous présentons enfin le spectre obtenu pour la résonance électronique dans un agrégat de carbone linéaire C5. Nous concluons alors sur le travail effectué et les développements ou améliorations possibles sur le plan théorique comme numérique.
Filter and Grid Resolution in DG-LES
NASA Astrophysics Data System (ADS)
Miao, Ling; Sammak, Shervin; Madnia, Cyrus K.; Givi, Peyman
2017-11-01
The discontinuous Galerkin (DG) methodology has proven very effective for large eddy simulation (LES) of turbulent flows. Two important parameters in DG-LES are the grid resolution (h) and the filter size (Δ). In most previous work, the filter size is usually set to be proportional to the grid spacing. In this work, the DG method is combined with a subgrid scale (SGS) closure which is equivalent to that of the filtered density function (FDF). The resulting hybrid scheme is particularly attractive because a larger portion of the resolved energy is captured as the order of spectral approximation increases. Different cases for LES of a three-dimensional temporally developing mixing layer are appraised and a systematic parametric study is conducted to investigate the effects of grid resolution, the filter width size, and the order of spectral discretization. Comparative assessments are also made via the use of high resolution direct numerical simulation (DNS) data.
Technical Communications in Urban Operations (Les communications techniques en operations urbaines)
2010-09-01
SCUTI – Scuola Trasmissioni ed Informatica dell’Esercito Italiano Via dei Genieri, 287, 00143-Roma Cecchignola Email: Mario.DiStefano@selex...comms.com Lt. Fabrizio LAMBIASE SCUTI – Scuola Trasmissioni ed Informatica dell’Esercito Italiano Via dei Genieri, 287, 00143 Roma Cecchignola
Mesure de haute resolution de la fonction de distribution radiale du silicium amorphe pur
NASA Astrophysics Data System (ADS)
Laaziri, Khalid
1999-11-01
Cette these porte sur l'etude de la structure du silicium amorphe prepare par irradiation ionique. Elle presente des mesures de diffraction de rayons X sur de la poudre de silicium cristallin, du silicium amorphe relaxe et non relaxe, ainsi que tous les developpements mathematiques et physiques necessaires pour extraire la fonction de distribution radiale correspondant a chaque echantillon. Au Chapitre I, nous presentons une methode de fabrication de membranes minces de silicium amorphe pur. Il y a deux etapes majeures lors du processus de fabrication: l'implantation ionique, afin de creer une couche amorphe de plusieurs microns et l'attaque chimique, pour enlever le reste du materiau cristallin. Nous avons caracterise premierement les membranes de silicium amorphe par spectroscopie Raman pour verifier qu'il ne reste plus de trace de materiau cristallin dans les films amorphes. Une deuxieme caracterisation par detection de recul elastique (ERD-TOF) sur ces memes membranes a montre qu'il y a moins de 0.1% atomique de contaminants tels que l'oxygene, le carbone, et l'hydrogene. Au Chapitre II, nous proposons une nouvelle methode de correction de la contribution inelastique "Compton" des spectres de diffusion totale afin d'extraire les pics de diffusion elastique, responsable de la diffraction de Bragg. L'article presente tout d'abord une description simplifiee d'une theorie sur la diffusion inelastique dite "Impulse Approximation" (IA) qui permet de calculer des profils de Compton en fonction de l'energie et de l'angle de diffusion 2theta. Ces profils sont utilises comme fonction de lissage de la diffusion Compton experimentale. Pour lisser les pics de diffusion elastique, nous avons utilise une fonction pic de nature asymetrique. Aux Chapitre III, nous exposons de maniere detaillee les resultats des experiences de diffraction de rayons X sur les membranes de silicium amorphe et la poudre de silicium cristallin que nous avons preparees. Nous abordons aussi les differentes etapes experimentales, d'analyse ainsi que les methodes de determination et de filtrage des transformees de Fourier des donnees de diffraction. Une comparaison des fonctions de distribution radiale du silicium amorphe relaxe et non relaxe indique que la relaxation structurelle dans le silicium amorphe est probablement due en grande partie a une annihilation des defauts plutot qu'a une reorganisation atomique globale du reseau de silicium amorphe. La deduction de la coordination des pics correspondants au premiers voisins atomiques par lissage de fonctions gaussienne indique que la coordination du silicium amorphe relaxe est de 3.88, celle du non-relaxe est de 3.79, alors que la mesure de reference sur la poudre de silicium cristallin donne une valeur de 4 tel que prevu. La sous-coordination du silicium amorphe expliquerait pourquoi sa densite est inferieure a celle du silicium cristallin. (Abstract shortened by UMI.)
Large Eddy Simulation of Engineering Flows: A Bill Reynolds Legacy.
NASA Astrophysics Data System (ADS)
Moin, Parviz
2004-11-01
The term, Large eddy simulation, LES, was coined by Bill Reynolds, thirty years ago when he and his colleagues pioneered the introduction of LES in the engineering community. Bill's legacy in LES features his insistence on having a proper mathematical definition of the large scale field independent of the numerical method used, and his vision for using numerical simulation output as data for research in turbulence physics and modeling, just as one would think of using experimental data. However, as an engineer, Bill was pre-dominantly interested in the predictive capability of computational fluid dynamics and in particular LES. In this talk I will present the state of the art in large eddy simulation of complex engineering flows. Most of this technology has been developed in the Department of Energy's ASCI Program at Stanford which was led by Bill in the last years of his distinguished career. At the core of this technology is a fully implicit non-dissipative LES code which uses unstructured grids with arbitrary elements. A hybrid Eulerian/ Largangian approach is used for multi-phase flows, and chemical reactions are introduced through dynamic equations for mixture fraction and reaction progress variable in conjunction with flamelet tables. The predictive capability of LES is demonstrated in several validation studies in flows with complex physics and complex geometry including flow in the combustor of a modern aircraft engine. LES in such a complex application is only possible through efficient utilization of modern parallel super-computers which was recognized and emphasized by Bill from the beginning. The presentation will include a brief mention of computer science efforts for efficient implementation of LES.
NASA Astrophysics Data System (ADS)
Francoeur, Dany
Cette these de doctorat s'inscrit dans le cadre de projets CRIAQ (Consortium de recherche et d'innovation en aerospatiale du Quebec) orientes vers le developpement d'approches embarquees pour la detection de defauts dans des structures aeronautiques. L'originalite de cette these repose sur le developpement et la validation d'une nouvelle methode de detection, quantification et localisation d'une entaille dans une structure de joint a recouvrement par la propagation d'ondes vibratoires. La premiere partie expose l'etat des connaissances sur l'identification d'un defaut dans le contexte du Structural Health Monitoring (SHM), ainsi que la modelisation de joint a recouvrements. Le chapitre 3 developpe le modele de propagation d'onde d'un joint a recouvrement endommage par une entaille pour une onde de flexion dans la plage des moyennes frequences (10-50 kHz). A cette fin, un modele de transmission de ligne (TLM) est realise pour representer un joint unidimensionnel (1D). Ce modele 1D est ensuite adapte a un joint bi-dimensionnel (2D) en faisant l'hypothese d'un front d'onde plan incident et perpendiculaire au joint. Une methode d'identification parametrique est ensuite developpee pour permettre a la fois la calibration du modele du joint a recouvrement sain, la detection puis la caracterisation de l'entaille situee sur le joint. Cette methode est couplee a un algorithme qui permet une recherche exhaustive de tout l'espace parametrique. Cette technique permet d'extraire une zone d'incertitude reliee aux parametres du modele optimal. Une etude de sensibilite est egalement realisee sur l'identification. Plusieurs resultats de mesure sur des joints a recouvrements 1D et 2D sont realisees permettant ainsi l'etude de la repetabilite des resultats et la variabilite de differents cas d'endommagement. Les resultats de cette etude demontrent d'abord que la methode de detection proposee est tres efficace et permet de suivre la progression d'endommagement. De tres bons resultats de quantification et de localisation d'entailles ont ete obtenus dans les divers joints testes (1D et 2D). Il est prevu que l'utilisation d'ondes de Lamb permettraient d'etendre la plage de validite de la methode pour de plus petits dommages. Ces travaux visent d'abord la surveillance in-situ des structures de joint a recouvrements, mais d'autres types de defauts. (comme les disbond) et. de structures complexes sont egalement envisageables. Mots cles : joint a recouvrement, surveillance in situ, localisation et caracterisation de dommages
NASA Astrophysics Data System (ADS)
Contour, J. P.
1994-11-01
The main physical and chemical techniques of epitaxial growth of High T_c superconductor thin films are described together with their in situ analysis facilities and discussed with respect to their cost, sophistication and results (T_c, J_c growth defects, thickness and composition uniformity, crystallinity, electronic applications...). The future trends of the growth machines are then examined in connection with the present results and the development of superconductor electronics. Après la présentation des principales techniques de croissance physique et physicochimique de couches minces d'oxydes supraconducteurs à haute température critique, un bilan des résultats sera dressé par rapport aux différentes propriétés des films (transition résistive, courant critique, défauts de croissance, uniformité d'épaisseur et de composition, cristallinité...), aux difficultés de mise en œuvre et au coût de l'expérience. Les perspectives des différentes techniques seront ensuite examinées dans le cadre du développement potentiel d'une électronique utilisant les matériaux supraconducteurs H T_c.
ERIC Educational Resources Information Center
Mick, Eric; Faraone, Stephen V.; Spencer, Thomas; Zhang, Huabin F.; Biederman, Joseph
2008-01-01
Objective: The authors assessed the psychometric properties of the Quality of Life Enjoyment and Satisfaction Questionnaire-Short Form (Q-LES-QSF) in adults with ADHD. Method: One hundred fifty ADHD and 134 non-ADHD adults from a case-control study and 173 adults randomized to placebo or methylphenidate were assessed with the Q-LES-QSF and the…
NASA Astrophysics Data System (ADS)
Ollivier, J.; Farhi, E.; Ferrand, M.; Benoit, M.
2005-11-01
L'École Thématique “Neutrons et Biologie” s'est tenue du 22 au 26 Mai 2004 à Praz/Arly (Haute-Savoie, France), dans le cadre des 12 èmes Journees de la Diffusion Neutronique de la Societe Française de Neutronique. Cette école a ete organisee avec le concours financier du CNRS (formation permanente), du Laboratoire Léon Brillouin (CEA Saclay), de la region Rhône-Alpes, du conseil général de Haute-Savoie et de l'Université Joseph Fourier de Grenoble. Une cinquantaine de participants, dont une vingtaine d'intervenants, ont largement contribué à la réussite de l'École. D'un point de vue scientifique, l'École s'est déclinée en sept sessions thématiques majeures: - une première session introductive a été consacrée à une revue globale des méthodes biophysiques ayant un fort impact pour l'étude de la structure et de la dynamique des macromolécules biologiques (J. Parello). Un accent tout particulier à été apporté pour décrire les neutrons en tant que composante importante de la panoplie des techniques couramment utilisées en biophysique moléculaire (J. Schweitzer). - une session dédiée aux mesures dynamiques par diffusion incohérente de neutrons a été largement developpée. Qu'ils s'agissent de vibrations et de relaxations moléculaires dans les protéines (J.M. Zanotti), de dynamique globale des protéines (G. Zaccaï), ainsi que de dynamique de l'eau d'hydratation (F. Gabel), de nombreux exemples ont permis d'illustrer la pertinence des neutrons pour étudier la dynamique fonctionnelle des protéines sur l'échelle de temps picosecond nanoseconde. L'analyse des données de diffusion inélastique de neutrons ne peut se passer de modélisation théorique analytique des propriétés dynamique des biomolécules (D. Bicout). - une large place avait été réservée aux études structurales en biologie. Cette troisième session a rassemblé des contributions en diffusion aux petits angles de neutrons pour l'étude structurale en solution (D. Lairez), en réflectométrie de neutrons pour l'étude de systèmes des membranes ou de protéines en interaction avec des membranes (G. Fragneto), ainsi qu'en diffraction de fibres appliquée à l'étude de l'ADN (T. Forsyth). - les simulations de dynamique moléculaire constituent une méthode théorique unique pour étudier, au niveau atomique, les mouvements internes des macromolécules biologiques, que ce soit à l'équilibre (G. Kneller, S. Crouzy) ou hors équilibre (B. Gilquin). Les trajectoires de dynamique moléculaire s'étendent aujourd'hui à la centaine de nanosecondes, et peuvent être de ce fait utilisées par certains programmes pour calculer les observables expérimentales fournies par la diffusion de neutrons (G. Kneller, T. Hinsen). - l'ouverture des neutrons à des techniques instrumentales permettant d'approcher, d'une part, des états hors-équilibre par le biais d'études cinétiques couplées à des mélanges rapides pour des études de croissance de phases (I. Grillo) ou de repliement de protéines, d'autre part, des conditions expérimentales extrèmes (hautes-pressions, M. Plazanet), nous ont semblé constituer des émergences prometteuses. À ce titre, une revue sur le repliement des protéines (V. Forge) a précisé l'importance de nombreuses techniques (fluorescence intrinsèque, dichroïsme, infra-rouge, RMN) dans le domaine, tout en permettant d'entrevoir l'intérêt des études par neutrons. - en marge des sessions purement “neutrons”, il nous semblait important de pouvoir présenter des techniques et méthodes souvent reconnues comme très complémentaires des neutrons, en privilégiant un volet “études structurales” et un volet “études dynamiques”. Côté méthodes dynamiques, la RMN (M. Blackledge) a été positionnée comme une technique permettant d'étudier la flexibilité moléculaire sur des echelles de temps plus lentes (ms). Côté méthodes structurales, la bio-cristallographie des RX appliquée à l'études des structures virales (P. Gouet) a permis de mettre en évidence des aspects complémentaires entre RX et neutrons, et de souligner les avantages et inconvenients respectifs de ces techniques. - l'École Thématique s'est achevée par une session commune avec les Journées Rossat-Mignod, au cours de laquelle J. Helliwell a établi une revue comparative RX/neutrons sur les développements récents en bio-cristallographie des protéines, suivi de deux presentations portant sur la dynamique incohérente et cohérente de systèmes membranaires (F. Natali, M. Rheinstadter). Contrairement aux années précédentes, le contenu de cet ouvrage se veut davantage refléter les applications des neutrons en biologie et biophysique moléculaire, en se reportant à des travaux scientifiques précis, plutôt que d'être constitué d'un recueil de cours, certes trés pédagogiques, mais quelquefois trop éloignés de l'expérience. Nous espérons que ce choix saura satisfaire le lecteur et encourager de nouveaux biologistes à utiliser les neutrons dès que possible pour leurs systèmes d'intérêt. Bonne lecture et bonnes manips !!!!
Conception et optimisation d'une peau en composite pour une aile adaptative =
NASA Astrophysics Data System (ADS)
Michaud, Francois
Les preoccupations economiques et environnementales constituent des enjeux majeurs pour le developpement de nouvelles technologies en aeronautique. C'est dans cette optique qu'est ne le projet MDO-505 intitule Morphing Architectures and Related Technologies for Wing Efficiency Improvement. L'objectif de ce projet vise a concevoir une aile adaptative active servant a ameliorer sa laminarite et ainsi reduire la consommation de carburant et les emissions de l'avion. Les travaux de recherche realises ont permis de concevoir et optimiser une peau en composite adaptative permettant d'assurer l'amelioration de la laminarite tout en conservant son integrite structurale. D'abord, une methode d'optimisation en trois etapes fut developpee avec pour objectif de minimiser la masse de la peau en composite en assurant qu'elle s'adapte par un controle actif de la surface deformable aux profils aerodynamiques desires. Le processus d'optimisation incluait egalement des contraintes de resistance, de stabilite et de rigidite de la peau en composite. Suite a l'optimisation, la peau optimisee fut simplifiee afin de faciliter la fabrication et de respecter les regles de conception de Bombardier Aeronautique. Ce processus d'optimisation a permis de concevoir une peau en composite dont les deviations ou erreurs des formes obtenues etaient grandement reduites afin de repondre au mieux aux profils aerodynamiques optimises. Les analyses aerodynamiques realisees a partir de ces formes ont predit de bonnes ameliorations de la laminarite. Par la suite, une serie de validations analytiques fut realisee afin de valider l'integrite structurale de la peau en composite suivant les methodes generalement utilisees par Bombardier Aeronautique. D'abord, une analyse comparative par elements finis a permis de valider une rigidite equivalente de l'aile adaptative a la section d'aile d'origine. Le modele par elements finis fut par la suite mis en boucle avec des feuilles de calcul afin de valider la stabilite et la resistance de la peau en composite pour les cas de chargement aerodynamique reels. En dernier lieu, une analyse de joints boulonnes fut realisee en utilisant un outil interne nomme LJ 85 BJSFM GO.v9 developpe par Bombardier Aeronautique. Ces analyses ont permis de valider numeriquement l'integrite structurale de la peau de composite pour des chargements et des admissibles de materiaux aeronautiques typiques.
Fault Tolerance Design and Redundancy Management Techniques.
1980-09-01
de la turbulence atmosphdrique. Pour pouvoir 6tre implantdes sur le calcula- teur de bord , ces techniques doivent de plus 6tre...automatiques ia vitesse de tanga- ge et obtenua par une fausse ddrivation de laesiatta - redondance analytique. Toutes le e sures accessibles A bord ...particulier de I& preesion dynemique. 4-5 111.4 - Les capteurs A bord d’un avion, on dispose de nombreuses informations. L16quipement de base est
Notre expérience de méningiome intracrânien à Dakar: à propos de 50 cas
Thiam, Alioune Badara; Kessely, Yannick Canton; Thioub, Mbaye; Mbaye, Maguette; Faye, Mouhamed; Sy, El Hadj Cheikh Ndiaye; Ndoye, Ndaraw; Ba, Momar Codé; Sakho, Youssoupha; Badiane, Seydou Boubacar
2015-01-01
Les méningiomes sont des tumeurs bénignes extra parenchymateuses développées aux dépens des villosités arachnoïdiennes. Ils tirent leur gravité de leur localisation dans des zones hyperfonctionnelles. Le but de cette étude est d’évaluer la prise en charge des méningiomes intracrâniens depuis la réhabilitation du service de neurochirurgie en 2007. Les auteurs rapportent une série rétrospective portant sur 50 patients admis et opérés d'un méningiome intracrânien d'octobre 2007 à Juin 2013 dans leur service. Ont été inclus les patients ayant un dossier complet. Les patients étaient âgés de 08 à 70 ans avec une moyenne d’âge de 47,3 ans, 68% avaient plus de 40 ans. La sex-ratio était de 0,76. Les manifestations cliniques étaient essentiellement l'hypertension intracrânienne (46%), le déficit moteur (30%) et la comitialité (48%). La tomodensitométrie cérébrale était réalisée chez 41 patients et l'IRM chez 23. Le méningiome était localisé sur la convexité chez 24 patients. L'imagerie postopératoire immédiate était réalisée chez 15 patients. L'exérèse a consisté dans 44% des cas à un Sympson II, et dans 30% des cas à un Sympson III. L'anatomopathologie a conclu à une prédominance du type méningothélial (38%) et 60% des méningiomes étaient de grade I selon la classification de l'O.M.S. Aucun patient n'a bénéficié d'une radiothérapie. La mortalité était de 16%. Les pays d'Afrique subsaharienne continuent d'accuser un retard malgré les efforts réalisés dans les domaines diagnostic et thérapeutique des méningiomes intracrâniens. Le pronostic s'est considérablement amélioré à mesure de l'amélioration du plateau technique dans notre pays. PMID:26185569
Kibadi, K.; Moutet, F.
2015-01-01
Summary Les séquelles de brûlures de la main sont encore fréquentes dans les pays à ressources limitées. Trente-deux patients, représentant 38 mains, ont été admis et traités, entre le 1er décembre 2010 et le 1er mai 2014 aux Cliniques Universitaires de Kinshasa en République Démocratique du Congo (RDC). nous avons observé 22 patients (69 %) dans le groupe de jeunes (patients âgés de moins de 18 ans), et 10 patients (31 %) chez les adultes (18 à 59 ans). Aucun patient dans le groupe de seniors (60 ans et plus) n’a été observé. Dans le groupe de jeunes, la tranche d’âge de 1 à 5 ans a été la plus atteinte avec 13 malades (40 %). l’accident à la maison était le plus fréquent (72 %). le mécanisme de la brûlure était le plus souvent thermique par flammes (51 %) ou par liquide chaud (34 %). les rétractions et brides sont les lésions le plus observées (84 %). la rétraction dorsale globale « main en griffe» est observée chez 40 % de patients traités, associée à des cicatrices hypertrophiques et chéloïdiennes dans 84 % de cas. Chez les 32 mains traitées chirurgicalement, des excision-greffes ont été réalisées dans 43,7 %, des lambeaux locaux dans 43,7 % et des lambeaux à distance dans 12,5 % de cas. A la sortie de l’hôpital, 84 % de « bons » résultats ont été observés. le suivi a été de 18 mois. le traitement des séquelles de brûlures de la main est possible dans ces pays, exemple de la rDC. Mais les défis à surmonter dans ces pays sont nombreux : la faible accessibilité aux techniques actuelles de la chirurgie plastique, la prise en charge initiale inadéquate des brûlures, la pauvreté. PMID:26668560
NASA Astrophysics Data System (ADS)
Boussaboun, Zakariae
Les mineraux d'argile sont des catalyseurs possibles pour la formation du graphene a partir de precurseurs organiques, comme le saccharose. Les argiles sont abondantes, securitaires et economiques pour la formation du graphene. L'objectif principal de ce memoire est de demontrer qu'il est possible de synthetiser un materiau hybride contenant de l'argile et du graphene. La preparation de ces materiaux carbones a base de l'argile (bentonite et cloisite) et le saccharose a ete realisee selon deux methodes. La premiere methode est faite en trois etapes : 1) periode de contact entre l'argile et la source de carbone dans un environnement humide, 2) infiltration de la matiere carbonee et transformation au four a micro-onde, 3) chauffage a 750°C sous azote pour obtenir des materiaux carbones. Par contre la deuxieme methode est faite en deux etapes, sans micro-onde, et avec une augmentation de la quantite de source de carbone (saccharose et alginate). La caracterisation du materiau a permis de suivre les reactions de transformation de la source de carbone vers le graphene. Cette caracterisation a ete faite par la spectroscopie IRTF et Raman, l'analyse thermogravimetrique (TGA), la surface specifique (methode BET) et le microscope electronique a balayage (MEB). La conductivite electrique a ete mesuree par un spectrometre dielectrique et en fonction de la pression appliquee avec un multimetre. Le materiau realise etait incorpore dans une matrice avec un polyethylene a basse densite pour avoir un polymere avec des caracteristiques specifiques. La conductivite thermique a ete ensuite mesuree suivant la norme ASTM E1530. L'echantillon realise avec la deuxieme methode avec une proportion de bentonite pour 5 proportions de saccharose (M2 B1 : S5) signale la possibilite de produire des materiaux de graphene a partir de ressources naturelles. La surface specifique a considerablement augmente de (75,88 m2/g) pour bentonite non traiter a (139,76 m2/g) pour l'echantillon (M2 B1 : S5). Une augmentation significative de la conductivite par pression (95,3 S/m sous une pression de 6,5 MPa par rapport a 1,45*10 -3 S/m pour la bentonite) et la conductivite thermique dans le polyethylene basse densite a une concentration de 10% d'additif (0,332 W/m.K a 0,279 W/m.K) ont ete observes pour le meme echantillon M2 B1 : S5 comparativement a la bentonite non traitee. Les applications possibles sont par exemple les senseurs et les actuateurs par pression.
DOE Office of Scientific and Technical Information (OSTI.GOV)
NONE
1971-01-15
The principles of measuring k {sub infinity} for a HTGR lattice using the oscillation technique with zero reactivity were already presented at the ''9th reactor physics meeting of countries participating in the Dragon project''. A brief summary of the essential characteristics of the experiment is followed by a status report on present work.
Investigation of natural gas plume dispersion using mobile observations and large eddy simulations
NASA Astrophysics Data System (ADS)
Caulton, Dana R.; Li, Qi; Golston, Levi; Pan, Da; Bou-Zeid, Elie; Fitts, Jeff; Lane, Haley; Lu, Jessica; Zondlo, Mark A.
2016-04-01
Recent work suggests the distribution of methane emissions from fracking operations is skewed with a small percentage of emitters contributing a large proportion of the total emissions. These sites are known as 'super-emitters.' The Marcellus shale, the most productive natural gas shale field in the United States, has received less intense focus for well-level emissions and is here used as a test site for targeted analysis between current standard trace-gas advection practices and possible improvements via advanced modeling techniques. The Marcellus shale is topographically complex, making traditional techniques difficult to implement and evaluate. For many ground based mobile studies, the inverse Gaussian plume method (IGM) is used to produce emission rates. This method is best applied to well-mixed plumes from strong point sources and may not currently be well-suited for use with disperse weak sources, short-time frame measurements or data collected in complex terrain. To assess the quality of IGM results and to improve source-strength estimations, a robust study that combines observational data with a hierarchy of models of increasing complexity will be presented. The field test sites were sampled with multiple passes using a mobile lab as well as a stationary tower. This mobile lab includes a Garmin GPS unit, Vaisala weather station (WTX520), LICOR 7700 CH4 open path sensor and LICOR 7500 CO2/H2O open path sensor. The sampling tower was constructed consisting of a Metek uSonic-3 Class A sonic anemometer, and an additional LICOR 7700 and 7500. Data were recorded for at least one hour at these sites. The modeling will focus on large eddy simulations (LES) of the wind and CH4 concentration fields for these test sites. The LES model used 2 m horizontal and 1 m vertical resolution and was integrated in time for 45 min for various test sites under stable, neutral and unstable conditions. It is here considered as the reference to which various IGM approaches can be compared. Preliminary results show large variability in this region which, under the observed meteorological conditions, is determined to be a factor of 2 for IGM results. While this level of uncertainty appears adequate to identify super-emitters under most circumstances, there is large uncertainty on individual measurements. LES can provide insights into the expected variability and its sources and into sampling patterns that will allow more robust error estimates.
ERIC Educational Resources Information Center
Cooper, B. Lee
1980-01-01
Recommends that high school social studies teachers exploit student interest in contemporary musicians to teach techniques of biographical construction. Maintains that innovative classroom practices involving non-traditional subject matter can foster intellectual growth and historical understanding. (Author/DB)
Transitions de phase dans le oxyde de yttrium vanadium
NASA Astrophysics Data System (ADS)
Roberge, Benoit
Dans le mémoire qui suit, les ordres structural, magnétiques et orbital dans le YVO3 sont étudiés avec l'aide de la diffraction des rayons X,de la spectroscopie Raman et de la technique de la cavité résonnante hyperfréquence. L'objectif premier consiste à observer l'évolution de ces ordres en fonction de la température. Le mémoire met ensuite en évidence le couplage entre les différents ordres cohabitants dans le YVO3 . Les mesures effectuées par la diffraction des rayons X permettent de mesurer le caractère polycrystallin des échantillons du YVO 3. Une comparaison de nos mesures avec des mesures de diffraction des rayons X faites sur la poudre de YVO3 indique la faible présence de maclage. Les mesures effectuées avec la technique de résonnance hyperfréquence permettent de suivre l'évolution de la constante diélectrique en fonction de la température. Les changements impliquant l'ordre orbital se manifestent de manière évidente dans la constante diélectrique à 200 K et à 77 K. La transition diélectrique détectée à 77 K est une transition de premier ordre. Un couplage entre les propriétés diélectriques et magnétiques est observable à la température de Néel à 114 K. L'effet d'un champ magnétique fixe sur la température de transition de l'ordre orbital survenant à 77 K est également remarquable. Cela indique un couplage magnétodiélectrique démontrant ainsi le caractère multiferroïque du YVO 3. Finalement, l'observation d'un mécanisme de relaxation pouvant être modélisé par le modèle d'Havriliak-Negami est observé en dessous de 77 K. En utilisant le modèle d'Arrhénius et le modèle d'Havriliak-Negami, on peut caractériser le mécanisme avec son énergie d'activation et son temps de relaxation. Les mesures effectuées en spectroscopie Raman permettent de suivre l'évolution de la structure du YVO3 en fonction de la température. Les deux changements structuraux survenant à 200 K et 77 K sont observés. Le couplage entre le réseau et l'ordre orbital se manifeste par une augmentation de l'anharmonicité qui se traduit par une augmentation de l'intensité des processus de deuxième et troisième ordres. Les différentes théories expliquant comment l'ordre orbital interagit avec le réseau cristallin seront abordées en mettant l'accent sur la théorie de Van den Brink ['] qui réflète le mieux la réalité. Une comparaison de nos mesures avec d'autres travaux en spectroscopie Raman effectués sur le YVO3 sera également effectuée. Le couplage entre le réseau et l'ordre magnétique s'observe par la présence d'excitations magnétiques dans les spectres Raman et par la présence d'un ramollissement/durcissement survenant à la température de Néel. La théorie de Granado expliquant le phénomène de durcissement/ramollissement sera discutée.
DOE Office of Scientific and Technical Information (OSTI.GOV)
Collee, R.; Govaerts, J.; Winand, L.
1959-10-31
A brief resume of the classical methods of quantitative determination of thorium in ores and thoriferous products is given to show that a rapid, accurate, and precise physical method based on the radioactivity of thorium would be of great utility. A method based on the utilization of the characteristic spectrum of the thorium gamma radiation is presented. The preparation of the samples and the instruments needed for the measurements is discussed. The experimental results show that the reproducibility is very satisfactory and that it is possible to detect Th contents of 1% or smaller. (J.S.R.)
Rocket-borne Lithium ejection system for neutral wind measurement
NASA Astrophysics Data System (ADS)
Habu, H.; Yamamoto, M.; Watanabe, S.; Larsen, M. F.
2013-11-01
Chemical tracer releases represent the most widely used technique for in situ neutral wind measurements in the thermosphere/ionosphere region. Different chemicals have been used for this purpose, but lithium releases in particular provide some unique capabilities due to the strong resonant emissions that are produced when lithium is illuminated by sunlight. The majority of the lithium releases from sounding rockets were carried out in the 1960's and 1970's, but there has been recent renewed interest in the use of lithium vapor releases to extend neutral wind measurements into the F region and for daytime wind profile measurements in the E region. The rocketborne Lithium Ejection System (LES) is a chemical release device that has been developed for the Japanese space research program. Since lithium vapor acts as a neutral tracer, the winds are obtained by tracking the motion of the clouds or trails optically from the ground using the bright red emission that is characteristic of the chemical. Lithium is a solid at room temperature, so that a gas release requires rapid vaporization of the metal to make the cloud at the intended altitude. The release canister is designed to produce a high-heat chemical reaction without gaseous products. Appropriate mixtures of thermite are employed as the heat source. In early experiments, lithium pellets were mixed directly into the thermite. However, since lithium is an active chemical, the use of lithium-thermite mixtures creates potential hazards when used in a rocket-borne device. Moreover, the pyrotechnic devices used to ignite the thermite also have to be considered in the payload canister design to assure that the safety standards for sounding rockets are satisfied. The design of the LES, described in this paper, was based on the safety requirements and the reliability in storing and handling of the materials. The LES design is also flexible in that the lithium tracer material can be replaced with other chemicals without difficulties. This paper introduces the design of the LES and the method for controlling the thermite burn.
Sampling Versus Filtering in Large-Eddy Simulations
NASA Technical Reports Server (NTRS)
Debliquy, O.; Knaepen, B.; Carati, D.; Wray, A. A.
2004-01-01
A LES formalism in which the filter operator is replaced by a sampling operator is proposed. The unknown quantities that appear in the LES equations originate only from inadequate resolution (Discretization errors). The resulting viewpoint seems to make a link between finite difference approaches and finite element methods. Sampling operators are shown to commute with nonlinearities and to be purely projective. Moreover, their use allows an unambiguous definition of the LES numerical grid. The price to pay is that sampling never commutes with spatial derivatives and the commutation errors must be modeled. It is shown that models for the discretization errors may be treated using the dynamic procedure. Preliminary results, using the Smagorinsky model, are very encouraging.
NASA Astrophysics Data System (ADS)
Woirgard, J.; Salmon, E.; Gaboriaud, R. J.; Rabier, J.
1994-03-01
A very sensitive apparatus using the vibrating reed technique in a magnetic field is described. This new technic is an internal friction measurement which has been developed and applied to the study of vortex pinning in high T_c type II superconductors. The vibrating reed is simply used as a sample holder for the superconductor which can be oriented thin films, bulk samples or powders. The salient feature of this experimental set-up is the excitation mode of the reed for which the imposed vibration frequency can be freely chosen in the range 10^{-4}-10 Hz. Furthermore, the measurement sensitivity improves the performances obtained up to now by such similar apparatus as forced torsion pendulums. Damping values corresponding to phase lags between 10^{-5} and 10^{-4} radian can be readily obtained for vibration frequencies in the range 10^{-1} 10 Hz. Some preliminary results show damping peaks which might be due to the so-called fusion of the vortex network obtained with thin films whose thickness is 1000 Å and with textured bulk samples of YBaCuO. Une nouvelle technique basée sur la mesure du frottement intérieur en vibrations forcées est appliquée à l'étude de l'ancrage des vortex dans les oxydes supraconducteurs à haute température critique. Dans cette méthode la lame, excitée électrostatiquement, voit son rôle limité à celui de porte-échantillon sur lequel peuvent être disposés des couches minces, des échantillons massifs ou des poudres. L'originalité de cet appareillage réside dans la conception du mode d'excitation de la lame : la fréquence d'oscillation forcée peut être choisie dans une large gamme allant de 10^{-4} Hz à quelques dizaines de hertz. D'autre part, la sensibilité de la mesure améliore sensiblement les performances obtenues jusqu'à ce jour en vibrations forcées. Des amortissements correspondant à des déphasages compris entre à 10^{-5} et 10^{-4} radian peuvent être facilement mesurés. Les premiers essais réalisés sur une couche mince épitaxiée de 1000 Å d'épaisseur d'YBaCuO ont permis de mettre en évidence un pic d'amortissement, de grande amplitude, qui pourrait être dû à la fusion du réseau de vortex. Prochainement, cet appareillage sera employé pour l'étude de l'ancrage des lignes de flux sur les défauts du réseau cristallin, défauts naturels ou artificiels créés par implantation ionique dans les films minces ou par déformation plastique dans les échantillons massifs.
NASA Astrophysics Data System (ADS)
Zanotti, J.-M.
2005-11-01
Le présent document ne se veut pas un article de revue mais plutôt un élément d'initiation à une technique encore marginale en Biologie. Le lecteur est supposé être un non spécialiste de la diffusion de neutrons poursuivant une thématique à connotation biologique ou biophysique mettant en jeu des phénomènes dynamiques. En raison de la forte section de diffusion incohérente de l'atome d'hydrogène et de l'abondance de cet élément dans les protéines, la diffusion incohérente inélastique de neutrons est une technique irremplaçable pour sonder la dynamique interne des macromolécules biologiques. Après un rappel succinct des éléments théoriques de base, nous décrivons le fonctionnement de différents types de spectromètres inélastiques par temps de vol sur source continue ou pulsée et discutons leurs mérites respectifs. Les deux alternatives utilisées pour décrire la dynamique des protéines sont abordées: (i)l'une en termes de physique statistique, issue de la physique des verres, (ii) la seconde est une interprétation mécanistique. Nous montrons dans ce cas, comment mettre à profit les complémentarités de domaines en vecteur de diffusion et de résolution en énergie de différents spectromètres inélastiques de neutrons (temps de vol, backscattering et spin-écho) pour accéder, à l'aide d'un modèle physique simple, à la dynamique des protéines sur une échelle de temps allant d'une fraction de picoseconde à quelques nanosecondes.
NASA Astrophysics Data System (ADS)
Cornet, Alain; Broll, Norbert; Denier, Philippe
2002-07-01
Le quatrième colloque Rayons X et Matière (RX 2001) s'est tenu à Strasbourg du 4 au 7 décembre 2001. Comme lors des colloques précédents (1995, 1997 et 1999) nous avons pu réunir de nombreux chercheurs, industriels et constructeurs concernés par la caractérisation des matériaux. Cette manifestation qui se déroule tous les deux ans a pour objectifs de rendre compte périodiquement des avancées faites dans le domaine des techniques X et plus particulièrement de l'ingénierie des surfaces. Cette année nous avons ajouté deux nouveaux thèmes : étude des nanomatériaux et techniques des microfaisceaux. André GUINIER était avec nous lors du premier colloque (colloque 1995, consacré à la commémoration du centenaire de la découverte des rayons X). Nous sommes attristés par son décès et nous lui dédions le Colloque RX 2001. Les premiers articles de cet ouvrage rappellent sa vie de scientifique et ses principaux travaux. En même temps que nous écrivons ces quelques lignes, nous nous préparons à lancer le colloque RX 2003. Ces colloques ont lieu grâce à la participation constante des chercheurs et l'engagement des constructeurs et distributeurs de matériels ; nous les en remercions vivement et nous leur donnons rendez-vous à Strasbourg, en décembre 2003.
Intérêt de l’imagerie dans les tumeurs osseuses bénignes chez l’enfant
Traoré, Ousmane; Chban, Kamilia; Hode, Alzavine Fleur; Diarra, Yaya; Salam, Siham; Ouzidane, Lachen
2016-01-01
Les tumeurs osseuses bénignes sont beaucoup plus fréquentes que les tumeurs malignes en milieu pédiatrique. L’exostose (ostéchondrome) en est la plus fréquente. Les différentes techniques d'imagerie occupent une place déterminante dans l'étude de ses tumeurs notamment la radiographie standard. Le but de ce travail est de souligner l’intérêt de l’imagerie dans la prise en charge diagnostique des tumeurs bénignes osseuses chez l’enfant à travers une étude rétrospective portant sur 169 patients. Tous ces patients ont été explorés par la radiographie standard, un complément scanner avec reconstruction multiplanaires avant et après injection de PDC et/ouune IRM 1.5 Tesla a été réalisé en fonction de l’indication. L’âge moyen est de 6 ans avec une légère prédominance masculine. Cliniquement, la tuméfaction est présente dans 35% des cas. La douleur dans 29 %des cas. La localisation la plus fréquente est la métaphyse sur les os long: fémur: 25% des cas, humérus: 17 % des cas, tibia: 21% des cas. Les principales tumeurs bénignes retrouvées sont l’exostose (20,12 %), le kyste osseux (31,95%) et l’ostéoblastome (16, 57%). L’imagerie permet de préciser la topographie et l’extension de la lésion dans l’os, apporter des arguments en faveur de la bénignité et parfois, en faveur de l’origine de la lésion. La radiographie standard seule permet souvent de poser un diagnostic de certitude dans certains cas. PMID:27795776
1990-06-01
Areas of Degraded Performance," Navi- gation , Journal of the Institute of Navigation, Vol. 34, No.4, Winter 87-88, pp. 297-306. 7. Klass, Philip J...34Industry Devising GPS Receivers with Hybrid Navigation Aids," Aviation Week & Spa-e Technology 14 December 1987, p121- 3. 8. Klass, Philip J... Kotler , G., and Shaw, H. J., "Single-Mode Fiber-Optic Directional Coupler," Electron. Lett., 4 (1979), p. 29. 26 Burns, W. K., Moeller, R. P., Villarruel
Le pôle de métrologie de SOLEIL
NASA Astrophysics Data System (ADS)
Idir, M.; Brochet, S.; Delmotte, A.; Lagarde, B.; Mercere, P.; Moreno, T.; Polack, F.; Thomasset, M.
2006-12-01
Le Pôle de METROLOGIE de SOLEIL a pour objet de créer sur le synchrotron SOLEIL, une plateforme constituée : - une ligne de lumière utilisant le rayonnement synchrotron (métrologie dite à la longueur d'onde) - d'un laboratoire de métrologie associé (métrologie dite ll classique gg ) Ces deux types de Métrologie sont l'une et l'autre indispensables pour soutenir l'activité de recherche instrumentale en optique X et X-UV. Ce projet de pôle de METROLOGIE ne répondra pas seulement aux besoins des groupes chargés de l'équipement du synchrotron SOLEIL en optiques et détecteurs mais aussi pour préparer, tester et mettre au point les postes expérimentaux, ce qui concerne déjà une large communauté d'utilisateurs. Il sera aussi largement ouvert, dès sa mise en service, à l'ensemble de la communauté scientifique concernée par l'instrumentation X et XUV en Ile de France, en France, voire même en Europe si la demande continue de croître plus vite que l'offre dans ce domaine. Ligne de lumière Métrologie à la longueur d'onde La ligne de lumière sera équipée de plusieurs stations permettant de mesurer, dans la plus grande partie du spectre couvert par le synchrotron, les paramètres photométriques qui caractérisent les éléments optiques, tels que : la réflectivité de surfaces, l'efficacité de diffraction des réseaux, la diffusion des surfaces ou l'efficacité des détecteurs X et X-UV et la calibration absolue. Cette installation pourra servir également à développer des instruments et des diagnostics nécessaires à la caractérisation des faisceaux de rayons X (intensité, taille, degré de cohérence, polarisation etc.) Métrologie Classique La métrologie des surfaces optiques est devenue une nécessité critique pour les laboratoires et les industries qui utilisent les photons X et X-UV (synchrotrons, centres laser, etc. .). En effet, les progrès de calcul et de conception des systèmes optiques pour ces longueurs d'onde (optiques de microfocalisation, monochromateurs, diagnostics d'imagerie) font que les performances de ces instruments sont désormais limitées par les imperfections de fabrication des composants optiques. La métrologie des surfaces optiques est donc une nécessité impérieuse pour tous les acteurs du domaine, qui se doivent d'effectuer les contrôles appropriés. Cette pression s'exerce aussi sur les moyens utilisés pour effectuer ces mesures, car les incertitudes de mesure actuelles, notamment en ce qui concerne la régularité des surfaces, sont loin d'être négligeables vis à vis des tolérances demandées. Il est donc indispensable de faire évoluer les instruments de mesure et d'obtenir des gains significatifs de précision. Un travail particulier est en cours au laboratoire de Métrologie pour développer à côté des instruments commerciaux, des instruments prototypes sur des concepts originaux (mesures de profils de surface et mesures d'angle). Dans cet article, nous donnons des détails des choix techniques utilisés sur la ligne de METROLOGIE et TESTS et des performances attendues et nous décrirons le laboratoire de METROLOGIE en donnant des exemples d'optiques récemment testées.
Niemi, R M; Heikkilä, M P; Lahti, K; Kalso, S; Niemelä, S I
2001-06-01
Enumeration of coliform bacteria and Escherichia coli is the most widely used method in the estimation of hygienic quality of drinking water. The yield of target bacteria and the species composition of different populations of coliform bacteria may depend on the method.Three methods were compared. Three membrane filtration methods were used for the enumeration of coliform bacteria in shallow well waters. The yield of confirmed coliform bacteria was highest on Differential Coliform agar, followed by LES Endo agar. Differential Coliform agar had the highest proportion of typical colonies, of which 74% were confirmed as belonging to the Enterobacteriaceae. Of the typical colonies on Lactose Tergitol 7 TTC agar, 75% were confirmed as Enterobacteriaceae, whereas 92% of typical colonies on LES Endo agar belonged to the Enterobacteriaceae. LES Endo agar yielded many Serratia strains, Lactose Tergitol 7 TTC agar yielded numerous strains of Rahnella aquatilis and Enterobacter, whereas Differential Coliform agar yielded the widest range of species. The yield of coliform bacteria varied between methods. Each method compared had a characteristic species distribution of target bacteria and a typical level of interference of non-target bacteria. Identification with routine physiological tests to distinct species was hampered by the slight differences between species. High yield and sufficient selectivity are difficult to achieve simultaneously, especially if the target group is diverse. The results showed that several aspects of method performance should be considered, and that the target group must be distinctly defined to enable method comparisons.
Modélisation du champ magnétique d'un propulseur M.H.D. annulaire
NASA Astrophysics Data System (ADS)
Kom, C. H.; Brunet, Y.
1995-01-01
Stray fields have to be as small as possible to reduce the magnetic signature of the vessel in M.H.D. propulsion where the magnetic field has to be very high. The calculation of the magnetic field of an angular M.H.D. thruster is presented. The field is produced by a distribution of superconducting magnets in the shape of sectors. An analytical formulation of the field can be used in the active zone, outside the coil ends. An analytical method using a Fourier development of the current sheets is employed for an inductor in cylindrical sectors, and a direct method is used for a massive inductor. Numerical and analytical results are compared. Pour des raisons de discrétion, les champs de fuite doivent être minimisés en propulsion M.H.D. où les champs magnétiques doivent être intenses. Le calcul du champ magnétique d'un propulseur M.H.D. naval annulaire, constitué de secteurs inducteurs supraconducteurs est représenté. Dans la zone active, hors des têtes de bobines, une formulation analytique peut être utilisée. Une méthode analytique utilisant le développemment en série de Fourier du courant est adoptée pour les industeurs cylindriques, et une méthode directe pour les inducteurs massifs. Les résultats numériques sont comparés à ceux obtenus avec un logiciel d'éléments finis 2D.
L'ostéotomie de scarf dans le traitement de l'hallux valgus: à propos de 19 cas
Boussakri, Hassan; Bachiri, Mohammed; Elidrissi, Mohammed; Shimi, Mohammed; Elibrahimi, Abdelhalim; Elmrini, Abdelmajid
2014-01-01
L'ostéotomie de Scarf constitue une technique chirurgicale bien décrite, grâce à ses résultats excellents, elle est considérée comme un traitement de choix de l'hallux valgus. Le but de ce travail est de décrire le profil épidémiologique et radio-clinique des hallux valgus, ainsi qu’évaluer les résultats radiologiques et fonctionnels des patients traités par la technique classique d'ostéotomie de Scarf. Nous avons mené une étude rétrospective, concernant 22 ostéotomies de Scarf chez 19 patients, opérés d'hallux valgus entre mai 2009 et janvier 2013. Le recul moyen était de 22,5 mois (3-42 mois). L'âge moyen des patients au moment de l'intervention était de 49 ans, avec des extrêmes de 19 et 75 ans. Tous les patients ont bénéficié d'une évaluation clinique et radiologique préopératoire et postopératoire ainsi qu'une analyse statistique. Au dernier recul, selon des critères subjectifs, nos résultats étaient très satisfaisants dans 42%, satisfaisants dans 52% et déçus dans 6%, et en fonction du score de l'AOFAS, les résultats étaient nettement améliorée avec un AOFAS préopératoire de 57% à 84% en postopératoire. Concernant les résultats radiologiques, la déformation métatarsophalangienne (angle M1P1) a été corrigée (43,63 °-12,8°) avec une p très significative (p <0,001). D'autre part une amélioration de l'Angle moyen M1M2, passer de 18,18° préopératoire à 12,95° au dernier recul, avec une correction significative (p <0,001). Le valgus épiphysaire de premier métatarsien (AADM) a été statistiquement amélioré (p <0,001), passer de 24,45° à 7,91°. Concernant les complications nous avons noté un cas de sepsis précoce superficiel géré par une antibiothérapie adaptée, deux cas de névrome et un cas d'ostéonécrose. Par contre on n'a pas noté aucune fracture per opératoire du premier métatarsien. Nous concluons que l'ostéotomie de Scarf est une technique reproductible fiable, en pleine évolution. PMID:25848452
Kokou, Vonor; Nidain, Maneh; Kassoula, Nononsaa Batomguela; Kwassi, Fiaty- Amenouvor; Meba, Banla; Patrice, Balo Komi
2016-01-01
Introduction Le but de l’étude était décrire les aspects épidémiologiques des conjonctivites néonatales dans le canton de Glidji au Sud du Togo. Methodes Nous avons mené une étude transversale dans les 4 Unités Sanitaires Périphériques du canton de Glidji du 19 Mars au 13 Mai 2009 soit 8 semaines. Tous les nouveau-nés ont été inclus et la conjonctivite néonatale était définie par la présence chez un nouveau-né d'au moins deux des signes suivants: hyperhémie conjonctivale, œdème palpébral, chémosis, sécrétions purulentes, larmoiement. Les paramètres étudiés étaient l’âge, le sexe, les facteurs de risque, les antécédents, la présence ou non de conjonctivite, les germes en causes et l’évolution sous traitement. Resultats Sur la période, 159 nouveau-nés ont été examinés. L’âge moyen était de 10,9 jours avec des extrêmes de 0 à 28 jours. Il y avait 80 garçons pour 79 filles soit un sex-ratio de 1,01. Sur les 159 nouveau-nés, 7 cas de conjonctivite ont été diagnostiqués soit une prévalence de 4,4%. Les facteurs de risque identifiés étaient l'accouchement par voie basse et la présence d'IST chez la mère pendant la grossesse. Sur les 7 cas de conjonctivite, l'examen cytobactériologique a permis d'isoler le staphylococcus aureus dans 2 cas. L’évolution des cas de conjonctivite sous traitement était favorable avec régression des signes dès le 3è jour. Conclusion Les conjonctivites néonatales avaient une prévalence de 4,4% dans le canton de Glidji au sud du Togo et le staphylocoque doré était le germe en cause. Leur prévention passe par un bon suivi lors de la consultation prénatale et l'instillation de collyre antibiotique à la naissance PMID:27642383
NASA Astrophysics Data System (ADS)
Arsenault, Louis-Francois
Les applications reliees a la generation d'energie motivent la recherche de materiaux ayant un fort pouvoir thermoelectrique (S). De plus, S nous renseigne sur certaines proprietes fondamentales des materiaux, comme, par exemple, la transition entre l'etat coherent et incoherent des quasi-particules lorsque la temperature augmente. Empiriquement, la presence de fortes interactions electron-electron peut mener a un pouvoir thermoelectrique geant. Nous avons donc etudie le modele le plus simple qui tient compte de ces fortes interactions, le modele de Hubbard. La theorie du champ moyen dynamique (DMFT) est tout indiquee dans ce cas. Nous nous sommes concentres sur un systeme tridimensionnel (3d) cubique a face centree (fcc), et ce, pour plusieurs raisons. A) Ce type de cristal est tres commun dans la nature. B) La DMFT donne de tres bons resultats en 3d et donc ce choix sert aussi de preuve de principe de la methode. C) Finalement, a cause de la frustration electronique intrinseque au fcc, celui-ci ne presente pas de symetrie particule-trou, ce qui est tres favorable a l'apparition d'une grande valeur de S. Ce travail demontre que lorsque le materiau est un isolant a demi-remplissage a cause des fortes interactions (isolant de Mott), il est possible d'obtenir de grands pouvoirs thermoelectriques en le dopant legerement. C'est un resultat pratique important. Du point de vue methodologique, nous avons montre comment la limite de frequence infinie de S et l'approche dite de Kelvin, qui considere la limite de frequence nulle avant la limite thermodynamique pour S, donnent des estimations fiables de la vraie limite continue (DC) dans les domaines de temperature appropriee. Ces deux approches facilitent grandement les calculs en court-circuit ant la necessite de recourir a de problematiques prolongements analytiques. Nous avons trouve que la methode de calcul a frequence infinie fonctionne bien lorsque les echelles d'energie sont relativement faibles. En d'autres termes, cette approche donne une bonne representation de S lorsque le systeme devient coherent. Les calculs montrent aussi que la formule Kelvin est precise lorsque la fonction spectrale des electrons devient incoherente, soit a plus haute temperature. Dans la limite Kelvin, S est essentiellement l'entropie par particule, tel que propose il y a longtemps. Nos resultats demontrent ainsi que la vision purement entropique de S est la bonne dans le regime incoherent, alors que dans le regime coherent, l'approche a frequence infinie est meilleure. Nous avons utilise une methode a la fine pointe, soit le Monte-Carlo quantique en temps continu pour resoudre la DMFT. Pour permettre une exploration rapide du diagramme de phase, nous avons du developper une nouvelle version de la methode des perturbations iterees pour qu'elle soit applicable aussi a forte interaction au-dela de la valeur critique de la transition de Mott. Un autre sujet a aussi ete aborde. L'effet orbital du champ magnetique dans les systemes electroniques fortement correles est une question tres importante et peu developpee. Cela est d'autant plus essentiel depuis la decouverte des oscillations quantiques dans les supraconducteurs a haute temperature (haut- Tc). Par desir de developper une methode la moins biaisee possible, nous avons derive la DMFT lorsqu'un champ se couplant a l'operateur energie cinetique par la substitution de Peierls est present. Ce type d'approche est necessaire pour comprendre entre autres l'effet de la physique de Mott sur des phenomenes tels que les oscillations quantiques. Nous avons obtenu un resultat tres important en demontrant rigoureusement que la relation d'auto-coherence de la DMFT et le systeme intermediaire d'impurete quantique restent les memes. L'effet du champ peut etre contenu dans la fonction de Green locale, ce qui constitue la grande difference avec le cas habituel. Ceci permet de continuer a utiliser les solutionneurs d'impuretes standards, qui sont de plus en plus puissants. Nous avons aussi developpe la methode pour le cas d'un empilement de plans bidimensionnels selon z, ce qui permet d'etudier l'effet orbital du champ dans des nanostructures et meme dans les materiaux massifs, si le nombre de plans est suffisant pour obtenir la limite tridimensionnelle. Mots cles : Pouvoir thermoelectrique, Theorie du Champ Moyen Dynamique, Modele de Hubbard, Effet orbital du champ magnetique, Electrons fortement correles, Materiaux quantiques, Theorie des perturbations iterees
Large-Eddy / Reynolds-Averaged Navier-Stokes Simulations of a Dual-Mode Scramjet Combustor
NASA Technical Reports Server (NTRS)
Fulton, Jesse A.; Edwards, Jack R.; Hassan, Hassan A.; Rockwell, Robert; Goyne, Christopher; McDaniel, James; Smith, Chad; Cutler, Andrew; Johansen, Craig; Danehy, Paul M.;
2012-01-01
Numerical simulations of reacting and non-reacting flows within a scramjet combustor configuration experimentally mapped at the University of Virginia s Scramjet Combustion Facility (operating with Configuration A ) are described in this paper. Reynolds-Averaged Navier-Stokes (RANS) and hybrid Large Eddy Simulation / Reynolds-Averaged Navier-Stokes (LES / RANS) methods are utilized, with the intent of comparing essentially blind predictions with results from non-intrusive flow-field measurement methods including coherent anti-Stokes Raman spectroscopy (CARS), hydroxyl radical planar laser-induced fluorescence (OH-PLIF), stereoscopic particle image velocimetry (SPIV), wavelength modulation spectroscopy (WMS), and focusing Schlieren. NC State's REACTMB solver was used both for RANS and LES / RANS, along with a 9-species, 19- reaction H2-air kinetics mechanism by Jachimowski. Inviscid fluxes were evaluated using Edwards LDFSS flux-splitting scheme, and the Menter BSL turbulence model was utilized in both full-domain RANS simulations and as the unsteady RANS portion of the LES / RANS closure. Simulations were executed and compared with experiment at two equivalence ratios, PHI = 0.17 and PHI = 0.34. Results show that the PHI = 0.17 flame is hotter near the injector while the PHI = 0.34 flame is displaced further downstream in the combustor, though it is still anchored to the injector. Reactant mixing was predicted to be much better at the lower equivalence ratio. The LES / RANS model appears to predict lower overall heat release compared to RANS (at least for PHI = 0.17), and its capability to capture the direct effects of larger turbulent eddies leads to much better predictions of reactant mixing and combustion in the flame stabilization region downstream of the fuel injector. Numerical results from the LES/RANS model also show very good agreement with OH-PLIF and SPIV measurements. An un-damped long-wave oscillation of the pre-combustion shock train, which caused convergence problems in some RANS simulations, was also captured in LES / RANS simulations, which were able to accommodate its effects accurately.
Partager : des technologies de pointe au service de la société
None
2018-04-27
Médecine, climatologie, métrologie et informatique, les techniques utilisées par le LHC trouvent déjà des répercussions dans dâautres domaines scientifiques. Utilisant des techniques inédites, la physique des particules en fait bénéficier la société toute entière.
NASA Astrophysics Data System (ADS)
Ferenc, Kovats
1986-07-01
Desuis mon enfance je suis un type soidisant visuel. Cette deviation etait toujours profitable pour moi, pour le clinicien , ainsi que pour le rechercheur scientifique.I1 y a trente ans, que dans l'Atlas Radioanatomique du Thorax nous avons deja utilis6 la conception de trois dimensions. Dans les derni6res edition de cet ouvrage nous avons travaille mke avec la guatrieme, le temps facteur. DePuis cette 6poque-la je me suis ori-en-be vers les quatre dimensions, vers les mouvements dans l'espace et le temps. -:tudiant les mouvements,les mouvements ventilatoires mesure par photogrammetrie le tronc humain.En projetant sur la surface du tronc un reseau quadratique, on pent compter de 3oo-400 points d'information, si un carre est 2 This 2 cm. Simultanement on pent ainsi contraler les deplacement relatifs des differents points. Travaillant avec seriophotographie et ces dernieres annees avec Video, nous avons des documents cDntinuellement en trois dimensions sun la position actuelle en espace de notre modele.On pent mesurer, reproduire la position momentan6e du sujet d'une frequence et dans la quantite desiree. Par exemple on peut les reproduire, une a une, comme une sculpture, en domontrant les changements d'un tronc humain pendant les mouvements respiratoires, comme nous avions fait en 1969 avec le sculpteur Istvan Bencsik en realisant nos differents modeles en inspiration et expiration.flais thooriquement on pent construire tant de sculptures qu'on vent entre les deux positions extremes.La methode est tres utilisable pour l'observation des mouvements sportifs on artistiques, comme le ballet par exemple. / Figure 1./ En etudiant en plusieures series la morphometrie des mouvements respiratoires on pent acquerir une certain experience, qui concerne la phase de respiration, on se trouve un corps humain sculpte, dessine on peint. Come le mimique d'un visage explkue toujours l'6tat affectif d'un individu, le corps humain peut expliquer tart des chases entre les mains d'un artiste doue. Liais nous retournerons encore a cet argument. Avec un objet d'art l'artiste registe un seul moment dune serie de mouvements de son sujet, spit en deux dimensions, s'il est peintre on graveur , dessinateur etc., spit en trois dimensions s'il est sculpteur.i:algre cela , il y a beaucoup d'oeuvresd'art dyna-miques, qui donnent l'impression de mouvement.On pent produire cet effetavec la ROMDOSi-tion des mouvements non simultanees , comme par exemple sur les tableaux de XIX 'si8cle representant des concours hyppiques, on les extremit-ees des chevaux sort distandue an maximum en avant et en arriere; c'est un mode de galop inexistant, mais malgr6, qu'il est faux, it suggere la vitesse.
Large eddy simulation of the tidal power plant deep green using the actuator line method
NASA Astrophysics Data System (ADS)
Fredriksson, S. T.; Broström, G.; Jansson, M.; Nilsson, H.; Bergqvist, B.
2017-12-01
Tidal energy has the potential to provide a substantial part of the sustainable electric power generation. The tidal power plant developed by Minesto, called Deep Green, is a novel technology using a ‘flying’ kite with an attached turbine, moving at a speed several times higher than the mean flow. Multiple Deep Green power plants will eventually form arrays, which require knowledge of both flow interactions between individual devices and how the array influences the surrounding environment. The present study uses large eddy simulations (LES) and an actuator line model (ALM) to analyze the oscillating turbulent boundary layer flow in tidal currents without and with a Deep Green power plant. We present the modeling technique and preliminary results so far.
NASA Astrophysics Data System (ADS)
Madidi, Fatima Zahra
Les lignes aeriennes de transport et de distribution de l'energie electrique sont souvent exposees a diverses contraintes. Parmi celles-ci, la pollution des isolateurs constitue l'un des facteurs de premiere importance dans la fiabilite du transport d'energie. En effet, la presence de pollution sur les isolateurs lorsqu'elle est humidifiee entraine la diminution de leur performance electrique en favorisant l'apparition d'arcs de contournement. De telles pannes peuvent parfois causer des impacts socioeconomiques importants. Par ailleurs, le developpement de nouveaux revetements pour ces isolateurs peut s'averer un moyen efficace pour les proteger contre l'apparition de l'arc de contournement. Les revetements superhydrophobes ont fait l'objet de nombreuses etudes au cours de ces dernieres annees. Ces surfaces sont preparees en combinant une rugosite nano-microstructuree avec une faible energie de surface. En outre, de telles surfaces ont de nombreuses applications si elles sont durables et n'ont pas d'effets nocifs sur l'environnement. L'objectif principal de la presente etude vise d'abord l'elaboration de revetements superhydrophobes, puis l'etude de leur duree de vie, leurs proprietes dielectriques et photocatalytiques. Une grande variete de materiaux a faible energie de surface peuvent etre utilises pour le developpement de ces revetements. Dans cette recherche, le caoutchouc de silicone (CS) est employe car il presente de nombreuses proprietes, notamment une forte hydrophobie, une resistance aux rayonnements ultraviolets, et une bonne tenue au feu sans degagement de produits toxiques. Toutefois, le point faible de ces materiaux est la degradation de leurs proprietes hydrophobes. Afin d'ameliorer certaines proprietes du caoutchouc de silicone, des nanoparticules seront additionnees au polymere de base. La technique d'elaboration des revetements consiste a ajouter des nanoparticules de dioxyde de titane (TiO2) au polymere de base, par des methodes ayant un potentiel d'applications industrielles. Les parametres d'elaboration ont ete optimises afin d'obtenir des revetements stables presentant des angles de contact eleves avec des gouttelettes d'eau et de faibles hysteresis. Apres avoir obtenu des surfaces superhydrophobes, des tests de stabilite ont ete effectues dans des conditions de vieillissement accelere tels que l'immersion dans des solutions aqueuses avec differents pH et conductivites ou la degradation par rayonnement UV. Les resultats obtenus ont montre que l'ajout de nanoparticules de dioxyde de titane au caoutchouc de silicone permet d'ameliorer l'hydrophobie et la stabilite de ce polymere. Les revetements superhydrophobes obtenus ont pu maintenir leur superhydrophobicite apres plusieurs jours d'immersion dans differentes solutions aqueuses. Ils presentent aussi une bonne stabilite lorsqu'ils sont exposes aux rayons UV ainsi qu'une stabilite mecanique. De plus, on a pu developper des revetements nanocomposites et microcomposites avec de bonnes proprietes dielectriques. L'etude des proprietes photocatalytiques des revetements superhydrophobes ont montre que l'adsorption des molecules reactives (polluants) sur la surface du catalyseur (TiO2) est le parametre cle de l'activite photocatalytique. L'augmentation de la concentration de TiO2 conduit a une diminution de la concentration du polluant et par consequent a un excellent rendement photocatalytique.
Etude de l'affaiblissement du comportement mecanique du pergelisol du au rechauffement climatique
NASA Astrophysics Data System (ADS)
Buteau, Sylvie
Le rechauffement climatique predit pour les prochaines decennies, aura des impacts majeurs sur le pergelisol qui sont tres peu documentes pour l'instant. La presente etude a pour but d'evaluer ces impacts sur les proprietes mecaniques du pergelisol et sa stabilite a long terme. Une nouvelle technique d'essai de penetration au cone a taux de deformation controle, a ete developpee pour caracteriser en place le pergelisol. Ces essais geotechniques et la mesure de differentes proprietes physiques ont ete effectues sur une butte de pergelisol au cours du printemps 2000. Le developpement et l'utilisation d'un modele geothermique 1D tenant compte de la thermodependance du comportement mecanique ont permis d'evaluer que les etendues de pergelisol chaud deviendraient instables a la suite d'un rechauffement de l'ordre de 5°C sur cent ans. En effet, la resistance mecanique du pergelisol diminuera alors rapidement jusqu'a 11,6 MPa, ce qui correspond a une perte relative de 98% de la resistance par rapport a un scenario sans rechauffement.
NASA Astrophysics Data System (ADS)
Lepage, Martin
1998-12-01
Cette these est presentee a la Faculte de medecine de l'Universite de Sherbrooke en vue de l'obtention du grade de Ph.D. en Radiobiologie. Elle contient des resultats experimentaux enregistres avec un spectrometre d'electrons a haute resolution. Ces resultats portent sur la formation de resonances electroniques en phase condensee et de differents canaux pour leur decroissance. En premier lieu, nous presentons des mesures d'excitations vibrationnelles de l'oxygene dilue en matrice d'argon pour des energies des electrons incidents de 1 a 20 eV. Les resultats suggerent que le temps de vie des resonances de l'oxygene est modifie par la densite d'etats d'electrons dans la bande de conduction de l'argon. Nous presentons aussi des spectres de pertes d'energie d'electrons des molecules de tetrahydrofuranne (THF) et d'acetone. Dans les deux cas, la position en energie des pertes associees aux excitations vibrationnelles est en excellent accord avec les resultats trouves dans la litterature. Les fonctions d'excitation de ces modes revelent la presence de plusieurs nouvelles resonances electroniques. Nous comparons les resonances du THF et celles de la molecule de cyclopentane en phase gazeuse. Nous proposons une origine commune aux resonances ce qui implique qu'elles ne sont pas necessairement attribuees a l'excitation des electrons non-apparies de l'oxygene du THF. Nous proposons une nouvelle methode basee sur la spectroscopie par pertes d'energie des electrons pour detecter la production de fragments neutres qui demeurent a l'interieur d'un film mince condense a basse temperature. Cette methode se base sur la detection des excitations electroniques du produit neutre. Nous presentons des resultats de la production de CO dans un film de methanol. Le taux de production de CO en fonction de l'energie incidente des electrons est calibre en termes d'une section efficace totale de diffusion des electrons. Les resultats indiquent une augmentation lineaire du taux de production de CO en fonction de l'epaisseur du film et de la dose d'electrons incidente sur le film. Ces donnees experimentales cadrent dans un modele simple ou un electron cause la fragmentation de la molecule sans reaction avec les molecules avoisinantes. Le mecanisme propose pour la fragmentation unimoleculaire du methanol est la formation de resonances qui decroissent dans un etat electronique excite. Nous suggerons l'action combinee de la presence d'un trou dans une orbitale de coeur du methanol et de la presence de deux electrons dans la premiere orbitale vide pour expliquer la dehydrogenation complete du methanol pour des energies des electrons entre 8 et 18 eV. Pour des energies plus grandes, la fragmentation par l'intermediaire de l'ionisation de la molecule a deja ete suggeree. La methode de detection des etats electroniques offre une alternative a la detection des excitations vibrationnelles puisque les spectres de pertes d'energie des electrons sont congestionnes dans cette region d'energie pour les molecules polyatomiques.
NASA Astrophysics Data System (ADS)
El-Gabry, Lamyaa A.; Heidmann, James D.
2013-06-01
Film cooling is used in a wide range of industrial and engineering applications; one of the most important is in gas turbine cooling. The intent of film cooling is to provide a layer of cool film between the surface and the hot gas. Predicting film-cooling characteristics, particularly at high blowing ratios where the film is likely to be detached from the surface, is a challenge due to the complex three-dimensional and possibly anisotropic nature of the flow. Despite the growth of more sophisticated techniques for modeling turbulence, such as large eddy simulation (LES), the most commonly used methods in design are Reynolds-Averaged Navier Stokes (RANS) methods that employ a two-equation turbulence model for specifying the eddy viscosity. Although these models have deficiencies, they continue to be used throughout industry because they offer reasonable turnaround time as compared to LES or other methods. This paper studies in detail two cases, one of high blowing ratio (off-design condition) of 2.0 and low blowing ratio of 0.5, and compares RANS-based computational fluid dynamics (CFD) results with experimental data for flow field temperatures and centerline, lateral, and span-averaged film effectiveness for a 35-degree circular jet. The effects of mainstream turbulence conditions, boundary layer thickness, and numerical dissipation are evaluated and found to have minimal impact in the wake region of separated films (i.e., they cannot account for the discrepancy between measured and predicted CFD results in the wake region). Analyses of low blowing ratio cases are in good agreement with data; however, there are some smaller discrepancies, particularly in lateral spreading of the jet.
Methodes iteratives paralleles: Applications en neutronique et en mecanique des fluides
NASA Astrophysics Data System (ADS)
Qaddouri, Abdessamad
Dans cette these, le calcul parallele est applique successivement a la neutronique et a la mecanique des fluides. Dans chacune de ces deux applications, des methodes iteratives sont utilisees pour resoudre le systeme d'equations algebriques resultant de la discretisation des equations du probleme physique. Dans le probleme de neutronique, le calcul des matrices des probabilites de collision (PC) ainsi qu'un schema iteratif multigroupe utilisant une methode inverse de puissance sont parallelises. Dans le probleme de mecanique des fluides, un code d'elements finis utilisant un algorithme iteratif du type GMRES preconditionne est parallelise. Cette these est presentee sous forme de six articles suivis d'une conclusion. Les cinq premiers articles traitent des applications en neutronique, articles qui representent l'evolution de notre travail dans ce domaine. Cette evolution passe par un calcul parallele des matrices des PC et un algorithme multigroupe parallele teste sur un probleme unidimensionnel (article 1), puis par deux algorithmes paralleles l'un mutiregion l'autre multigroupe, testes sur des problemes bidimensionnels (articles 2--3). Ces deux premieres etapes sont suivies par l'application de deux techniques d'acceleration, le rebalancement neutronique et la minimisation du residu aux deux algorithmes paralleles (article 4). Finalement, on a mis en oeuvre l'algorithme multigroupe et le calcul parallele des matrices des PC sur un code de production DRAGON ou les tests sont plus realistes et peuvent etre tridimensionnels (article 5). Le sixieme article (article 6), consacre a l'application a la mecanique des fluides, traite la parallelisation d'un code d'elements finis FES ou le partitionneur de graphe METIS et la librairie PSPARSLIB sont utilises.
Large-eddy simulation of turbulent cavitating flow in a micro channel
DOE Office of Scientific and Technical Information (OSTI.GOV)
Egerer, Christian P., E-mail: christian.egerer@aer.mw.tum.de; Hickel, Stefan; Schmidt, Steffen J.
2014-08-15
Large-eddy simulations (LES) of cavitating flow of a Diesel-fuel-like fluid in a generic throttle geometry are presented. Two-phase regions are modeled by a parameter-free thermodynamic equilibrium mixture model, and compressibility of the liquid and the liquid-vapor mixture is taken into account. The Adaptive Local Deconvolution Method (ALDM), adapted for cavitating flows, is employed for discretizing the convective terms of the Navier-Stokes equations for the homogeneous mixture. ALDM is a finite-volume-based implicit LES approach that merges physically motivated turbulence modeling and numerical discretization. Validation of the numerical method is performed for a cavitating turbulent mixing layer. Comparisons with experimental data ofmore » the throttle flow at two different operating conditions are presented. The LES with the employed cavitation modeling predicts relevant flow and cavitation features accurately within the uncertainty range of the experiment. The turbulence structure of the flow is further analyzed with an emphasis on the interaction between cavitation and coherent motion, and on the statistically averaged-flow evolution.« less
NASA Technical Reports Server (NTRS)
Senocak, I.; Ackerman, A. S.; Kirkpatrick, M. P.; Stevens, D. E.; Mansour, N. N.
2004-01-01
Large-eddy simulation (LES) is a widely used technique in armospheric modeling research. In LES, large, unsteady, three dimensional structures are resolved and small structures that are not resolved on the computational grid are modeled. A filtering operation is applied to distinguish between resolved and unresolved scales. We present two near-surface models that have found use in atmospheric modeling. We also suggest a simpler eddy viscosity model that adopts Prandtl's mixing length model (Prandtl 1925) in the vicinity of the surface and blends with the dynamic Smagotinsky model (Germano et al, 1991) away from the surface. We evaluate the performance of these surface models by simulating a neutraly stratified atmospheric boundary layer.
NASA Astrophysics Data System (ADS)
Ho Thi, Thu Nga
L'objectif de cette etude fut d'etablir l'effet de l'humidite et de la temperature sur la resistance en traction et le module elastique des fibres de chanvre et de coco. Deux etudes ont ete realisees afin d'atteindre cet objectif. La premiere vise l'absorption de l'humidite dans ces fibres en exposition dans l'air (de 0%RH a 80%RH) ainsi que l'absorption de l'eau dans ces fibres immergees dans l'eau aux differentes temperatures. La deuxieme consiste a mesurer la resistance en traction et le module elastique de ces fibres sous differentes conditions d'humidite et de temperature. En basant sur les resultats experimentaux obtenus, les methodes semi empiriques et de reseaux de neurones ont ete utilisees pour but de predire les proprietes en traction (resistance et module d'elasticite) des fibres de chanvre et de coco sous l'influence de l'humidite et de la temperature.
Predicting viscous-range velocity gradient dynamics in large-eddy simulations of turbulence
NASA Astrophysics Data System (ADS)
Johnson, Perry; Meneveau, Charles
2017-11-01
The details of small-scale turbulence are not directly accessible in large-eddy simulations (LES), posing a modeling challenge because many important micro-physical processes depend strongly on the dynamics of turbulence in the viscous range. Here, we introduce a method for coupling existing stochastic models for the Lagrangian evolution of the velocity gradient tensor with LES to simulate unresolved dynamics. The proposed approach is implemented in LES of turbulent channel flow and detailed comparisons with DNS are carried out. An application to modeling the fate of deformable, small (sub-Kolmogorov) droplets at negligible Stokes number and low volume fraction with one-way coupling is carried out. These results illustrate the ability of the proposed model to predict the influence of small scale turbulence on droplet micro-physics in the context of LES. This research was made possible by a graduate Fellowship from the National Science Foundation and by a Grant from The Gulf of Mexico Research Initiative.
Turbulence and sediment transport over sand dunes and ripples
NASA Astrophysics Data System (ADS)
Bennis, A.; Le Bot, S.; lafite, R.; Bonneton, P.; Ardhuin, F.
2013-12-01
Several bedforms are present near to the surfzone of natural beaches. Dunes and ripples are frequently observed. Understanding the turbulence over these forms is essential for the sediment transport. The turbulent flow and the suspended sand particles interact with each other. At the moment, the modelling strategy for turbulence is still a challenge. According to the spatial scales, some different methods to model the turbulence are employed, in particular the RANS (Reynolds Averaged Navier-Stokes) and the LES (Large Eddy Simulation). A hybrid method combining both RANS and LES is set up here. We have adapted this method, initially developed for atmospheric flow, to the oceanic flow. This new method is implemented inside the 3D hydrodynamic model, MARS 3D, which is forced by waves. LES is currently the best way to simulate turbulent flow but its higher cost prevents it from being used for large scale applications. So, here we use RANS near the bottom while LES is set elsewhere. It allows us minimize the computational cost and ensure a better accuracy of the results than with a fully RANS model. In the case of megaripples, the validation step was performed with two sets of field data (Sandy Duck'97 and Forsoms'13) but also with the data from Dune2D model which uses only RANS for turbulence. The main findings are: a) the vertical profiles of the velocity are similar throughout the data b) the turbulent kinetic energy, which was underestimated by Dune2D, is in line with the observations c) the concentration of the suspended sediment is simulated with a better accuracy than with Dune2D but this remains lower than the observations.
Outbursts formation on low carbon and trip steel grades during hot-dip galvanisation
NASA Astrophysics Data System (ADS)
Petit, E. J.; Lamm, L.; Gilles, M.
2004-12-01
Low carbon and TRIP grade steels have been hot dip galvanised in order to study outbursts formation. Microstructure and texture of intermetallic phases have been observed after selective electrochemical etching by scanning electron microscopy. Potential versus time (chronopotentiometric) characteristics were recorded in order to monitor surface modifications. This combination of techniques enable to quantify and observe intermetallic phase one by one. The overall thickness of coating on both substrates are similar. However, microstructures of Fe-Zn intermetallic phases are very different on both grades. In particular, the V phase is dense on standard steel but develops a highly branched filament structure on TRIP steel. The transformation of V phase to d and G1 are limited on TRIP steel. Differences of texture provide clues for understanding mechanisms of formation of outbursts. They can account for the differences of mechanical properties and corrosion resistance. Silicon from the substrate influences the reactivity of TRIP steels due to capping and local reactions. La formation des outbursts a été étudiée sur un acier bas carbone et sur un acier TRIP galvanisés. Les épaisseurs des revêtements sont similaires. Néanmoins, les observations microscopiques et les érosions électrochimiques montrent que la répartition des phases intermétalliques et leurs microstructures diffèrent sensiblement en fonction de la nature du substrat. Ces différences expliquent les propriétés mécaniques et anticorrosions. L’encapsulation de la surface par les oxydes de silicium freine la transformation de la phase dzêta en delta et gamma sur l’acier TRIP.
Lamzouri, Afaf; Natiq, Abdelhafid; Tajir, Mariam; Sendid, Mohamed; Sefiani, Abdelaziz
2012-01-01
Introduction Le but de cette étude était de présenter les premiers résultats de diagnostic anténatal de la trisomie 21 par la technique d'hybridation in situ en fluorescence (FISH) au Maroc et discuter son intérêt dans le diagnostic rapide de cette aneuploïdie. Méthodes Ce travail a été réalisé chez 23 femmes avec des grossesses à haut risque de trisomie 21. La moyenne d’âge des gestantes étaient de 37,43 ans avec des extrêmes de 21 et 43 ans. Toutes étaient musulmanes mariées, mariage légitimé par la Charia, dont trois mariages consanguins, sauf une originaire de la République Démocratique du Congo qui était chrétienne et concubine. La majorité des femmes étaient fonctionnaires et avaient un niveau de scolarisation moyen à élevé. Toutes les patientes ont bénéficié d'une consultation de génétique médicale au cours de laquelle il leur a été donné des informations sur la technique, son intérêt et ses limites. Il s'agit de femmes enceintes qui avaient soit un âge maternel élevé ou des signes d'appel échographiques et/ ou biochimiques. Une des patientes était porteuse d'une translocation robertsonienne t(14;21) équilibrée. Une amniocentèse a été réalisée chez toutes les gestantes et aucun avortement n'a était induit par ce geste invasif. L’âge gestationnel moyen à la première consultation était de 14 semaines d'aménorrhée (SA) et à l'amniocentèse était de 16 SA et 5 jours. L'analyse FISH a été réalisée, après consentement des couples, sur des cellules non cultivées à partir des échantillons de liquides amniotiques, en utilisant des sondes spécifiques du chromosome 21. Résultats Parmi les 23 patientes qui ont bénéficiées d'un diagnostic anténatal de la trisomie 21 par la technique FISH, nous avons pu rassurer 21 d'entre elles, et nous avons détecté deux cas de trisomie 21 fœtal. Conclusion La technique FISH permet un diagnostic anténatal rapide, en moins de 48h, de la trisomie 21 sur une faible quantité de liquide amniotique. Elle offre aux couples l'avantage de prendre, dans des délais raisonnables, la décision qui leur convient concernant la poursuite ou non de la grossesse. Elle permet souvent, avec un résultat normal, de rassurer rapidement les femmes enceintes trop angoissées. PMID:23330029
NASA Astrophysics Data System (ADS)
Béguelin, Ph.; Barbezat, M.; Kausch, H. H.
1991-12-01
This study is concerned with the measurement of the mechanical behaviour of polymers and composites at intermediate strain rates. It illustrates with two examples, the application of a high speed servohydraulic testing machine and a newly designed optical extensometer. In the first part of the study, the dynamic nature of high speed tensile testing with servohydraulic apparatus is discussed, and a damping technique is proposed. In the second part, this technique has been applied to the measurement of the tensile properties of annealed and unannealed neat PEEK at strain rates between 3 × 10^{-2} and 2,4 × 10^2 s^{-1}. Both materials show increased yield stress and drawing stress with increasing strain rate. However, annealed specimens have been shown to exhibit superior mechanical properties. In the third part, mode I delamination tests have been performed on unidirectional IM6/PEEK composites at nominal strain rates between 1 × 10^{-6} and 8 × 10^{-1} s^{-1}. At the higher velocities the analysis is performed by means of FFT filtering. A moderate reduction in interlaminar fracture toughness was found with increasing loading rate. Cette étude aborde la mesure des propriétés mécaniques des polymères et composites soumis à des vitesses de déformation moyennes. Elle illustre au travers de deux exemples l'utilisation d'une machine d'essais servo-hydraulique à grande vitesse. Elle présente également un capteur optique d'extensométrie de conception nouvelle. Dans la première partie de l'étude, la nature vibratoire des essais de traction à vitesse élevée réalisés sur une machine servo-hydraulique est discutée, et une technique d'amortissement est proposée. Dans une deuxième partie, cette technique est appliquée à l'étude des propriétés en traction du PEEK non recuit et recuit dans le domaine des vitesses de déformation de 3 × 10^{-2} à 2,4 × 10^2 s^{-1}. Les résultats montrent un accroissement systématique de la contrainte au seuil plastique ainsi que de la contrainte conventionnelle de rupture. Ces essais confirment que le traitement thermique de recuit accroît les propriétés mécaniques. La troisième partie de l'étude porte sur des essais de délaminage en mode I d'un composite unidirectionnel IM6/PEEK à des vitesses de déformations nominales comprises entre 1 × 10^{-6} et 8 × 10^{-1} s^{-1}. Aux vitesses les plus élevées on a recours au filtrage par la FFT pour l'analyse de la mesure de la force. Les résultats mettent en évidence une légère diminution des propriétés interlaminaires lorsque les vitesses de déformation augmentent.
NASA Astrophysics Data System (ADS)
Sakhi, Said
Cette these est constituee de trois sujets de recherche distincts. Les deux premiers articles traitent du phenomene de supraconductivite dans un modele bidimensionnel, dans le troisieme article on etudie l'action effective d'un systeme electronique soumis a l'effet d'un champ magnetique (systeme de Hall) et le dernier article examine la quantification d'un systeme de particules identiques en deux dimensions d'espace et la possibilite des anyons. Le modele qu'on analyse dans les deux premiers articles est un systeme fermionique dont les particules chargees et de masse nulle interagissent entre elles avcc un couplage attractif et fort. L'analyse de l'action effective decrivant la physique a basse energie nous permet d'examiner la structure de l'espace de phase. A temperature nulle, le parametre d'ordre du systeme prend une valeur moyenne non nulle. Consequemment, la symetrie continue U(1) du modele est spontanement brisee et il en resulte l'apparition d'un mode de Goldstone. En presence d'un champ electromagnetique externe, ce mode disparait et le champ de jauge acquiert une masse donc l'effet Meissner caracteristique d'un supraconducteur. Bien que le modele ne soit pas renormalisable dans le sens perturbatif, on montre qu'il l'est dans le cadre du developpement en 1/N ou N est le nombre d'especes fermioniques. En outre, on montre que l'inclusion des effets thermiques change radicalement le mecanisme de supraconductivite. En effet, on montre que la brisure spontanee de la symetrie U(1) n'est plus possible a temperature finie a cause de tres severes divergences infrarouges. Par contre, la dynamique des tourbillons (vortex) existant dans le plan devient essentielle. On montre que le phenomene de supraconductivite resulte du confinement de ces objets topologiques et que la temperature critique s'identifie a celle de Kosterlitz -Thouless. Ce mecanisme de supraconductivite presente l'avantage d'aboutir a un rapport gap a la temperature critique plus eleve que celui du modele de BCS et la non violation de la symetrie par renversement du temps et de l'espace contrairement au modele anyonique. Dans le troisieme article, on a developpe une methode systematique pour calculer les determinants fermioniques en presence d'un champ magnetique perpendiculaire au plan de confinement des particules. Aussi bien les effets thermiques que ceux dus aux impuretes sont pris en consideration dans cette methode. La technique est illustree dans le cas du systeme de Hall quantique. Finalement, dans le dernier article, on discute la quantification d'un systeme de particules identiques dans le plan. Apres avoir correctement defini l'espace de phase classique du systeme, l'analyse fait ressortir deux parametres fondamentaux denotes par theta et alpha. Le premier parametre theta est associe a l'intensite du flux magnetique localise au vertex du cone et definit la statistique des particules. Pour des valeurs arbitraires de theta on parle d'anyons. L'autre parametre alpha est associe a l'extension auto-adjointe de l'hamiltonien et ressort de l'unitarite de la theorie. On montre par un exemple explicite que alpha peut etre vu comme le vestige d'une interaction a tres courte distance (haute energie) entre les particules du systeme. Finalement, on montre que le groupe de symetrie du systeme avec extension auto -adjointe n'est plus SO(2,1) car le generateur de dilatation de ce groupe n'est plus compatible avec un parametre alpha arbitraire. (Abstract shortened by UMI.).
Miller, Daniel J; Zhang, Zhibo; Ackerman, Andrew S; Platnick, Steven; Baum, Bryan A
2016-04-27
Passive optical retrievals of cloud liquid water path (LWP), like those implemented for Moderate Resolution Imaging Spectroradiometer (MODIS), rely on cloud vertical profile assumptions to relate optical thickness ( τ ) and effective radius ( r e ) retrievals to LWP. These techniques typically assume that shallow clouds are vertically homogeneous; however, an adiabatic cloud model is plausibly more realistic for shallow marine boundary layer cloud regimes. In this study a satellite retrieval simulator is used to perform MODIS-like satellite retrievals, which in turn are compared directly to the large-eddy simulation (LES) output. This satellite simulator creates a framework for rigorous quantification of the impact that vertical profile features have on LWP retrievals, and it accomplishes this while also avoiding sources of bias present in previous observational studies. The cloud vertical profiles from the LES are often more complex than either of the two standard assumptions, and the favored assumption was found to be sensitive to cloud regime (cumuliform/stratiform). Confirming previous studies, drizzle and cloud top entrainment of dry air are identified as physical features that bias LWP retrievals away from adiabatic and toward homogeneous assumptions. The mean bias induced by drizzle-influenced profiles was shown to be on the order of 5-10 g/m 2 . In contrast, the influence of cloud top entrainment was found to be smaller by about a factor of 2. A theoretical framework is developed to explain variability in LWP retrievals by introducing modifications to the adiabatic r e profile. In addition to analyzing bispectral retrievals, we also compare results with the vertical profile sensitivity of passive polarimetric retrieval techniques.
Miller, Daniel J.; Zhang, Zhibo; Ackerman, Andrew S.; Platnick, Steven; Baum, Bryan A.
2018-01-01
Passive optical retrievals of cloud liquid water path (LWP), like those implemented for Moderate Resolution Imaging Spectroradiometer (MODIS), rely on cloud vertical profile assumptions to relate optical thickness (τ) and effective radius (re) retrievals to LWP. These techniques typically assume that shallow clouds are vertically homogeneous; however, an adiabatic cloud model is plausibly more realistic for shallow marine boundary layer cloud regimes. In this study a satellite retrieval simulator is used to perform MODIS-like satellite retrievals, which in turn are compared directly to the large-eddy simulation (LES) output. This satellite simulator creates a framework for rigorous quantification of the impact that vertical profile features have on LWP retrievals, and it accomplishes this while also avoiding sources of bias present in previous observational studies. The cloud vertical profiles from the LES are often more complex than either of the two standard assumptions, and the favored assumption was found to be sensitive to cloud regime (cumuliform/stratiform). Confirming previous studies, drizzle and cloud top entrainment of dry air are identified as physical features that bias LWP retrievals away from adiabatic and toward homogeneous assumptions. The mean bias induced by drizzle-influenced profiles was shown to be on the order of 5–10 g/m2. In contrast, the influence of cloud top entrainment was found to be smaller by about a factor of 2. A theoretical framework is developed to explain variability in LWP retrievals by introducing modifications to the adiabatic re profile. In addition to analyzing bispectral retrievals, we also compare results with the vertical profile sensitivity of passive polarimetric retrieval techniques. PMID:29637042
NASA Astrophysics Data System (ADS)
Sanford, Ward E.; Plummer, L. Niel; McAda, Douglas P.; Bexfield, Laura M.; Anderholm, Scott K.
The calibration of a groundwater model with the aid of hydrochemical data has demonstrated that low recharge rates in the Middle Rio Grande Basin may be responsible for a groundwater trough in the center of the basin and for a substantial amount of Rio Grande water in the regional flow system. Earlier models of the basin had difficulty reproducing these features without any hydrochemical data to constrain the rates and distribution of recharge. The objective of this study was to use the large quantity of available hydrochemical data to help calibrate the model parameters, including the recharge rates. The model was constructed using the US Geological Survey's software MODFLOW, MODPATH, and UCODE, and calibrated using 14C activities and the positions of certain flow zones defined by the hydrochemical data. Parameter estimation was performed using a combination of nonlinear regression techniques and a manual search for the minimum difference between field and simulated observations. The calibrated recharge values were substantially smaller than those used in previous models. Results from a 30,000-year transient simulation suggest that recharge was at a maximum about 20,000 years ago and at a minimum about 10,000 years ago. Le calibrage d'un modèle hydrogéologique avec l'aide de données hydrochimiques a démontré que la recharge relativement faible dans le Grand Bassin du Middle Rio est vraisemblablement responsable d'une dépression des eaux souterraines dans le centre du bassin et de la présence d'une quantité substantielle d'eau du Rio Grande dans l'aquifère du Groupe de Santa Fe. Les modèles antérieurs avaient des difficultés à reproduire ses conclusions sans l'aide de données hydrochimiques pour contraindre les taux et la distribution de la recharge. L'objectif de cette étude était d'utiliser une grande quantité de données hydrochimiques permettant de calibrer les paramètres du modèle, et notamment les taux de recharge. Le modèle a été construit avec les logiciels MODFLOW, MODPATH et UCODE, et calibré en utilisant les concentrations en 14C et la position de certaines zones définies par les données hydrochimiques. L'estimation de certains paramètres a été réalisée en utilisant une combinaison de techniques de régression non linéaire et une méthode de recherche exhaustive (Brute Force Search) de l'erreur minimum entre les résultats des observations et les simulations. Les valeurs de la recharge calibrée sont substantiellement plus basses que celles estimées dans les modèles antérieurs. Les résultats d'une simulation en régime transitoire sur 30.000 ans suggèrent que la recharge au maximum de la dernière glaciation (last glacial maximum, LGM) était 10 fois supérieure au taux actuel, mais que la recharge qui a suivit la LGM était plus bas que la recharge actuelle. La calibración de un modelo de aguas subterráneas con el apoyo de datos hidroquímicos ha demostrado que la recarga relativamente baja en la cuenca media del Río Grande es probablemente responsable de una depresión de aguas subterráneas en el centro de la cuenca y de la presencia de una cantidad considerable de agua del Río Grande en el acuífero del Grupo Santa Fe. Los modelos propuestos con anterioridad para la cuenca tenían dificultades para reproducir estas características ya que no tenían datos hidroquímicos que permitieran delimitar los ritmos y distribución de recarga. El objetivo del presente estudio consistió en utilizar una gran cantidad de datos hidroquímicos disponibles para ayudar a calibrar los parámetros del modelo, incluyendo los ritmos de recarga. El modelo se construyó utilizando los modelos MODFLOW, MODPATH, y UCODE del USGS, mientras que la calibración se realizó en base a concentraciones de 14C y a la posición de ciertas zonas definidas con los datos hidroquímicos. La estimación de parámetros se realizó en base a una combinación de técnicas de regresiones no lineares y a una búsqueda a viva fuerza del error mínimo entre los datos observados y los simulados. Los valores de recarga calibrados fueron significativamente más bajos que los estimados en los modelos anteriores. Los resultados de una simulación transitoria de 30,000 años sugieren que la recarga durante la última glacial máxima (LGM) fue diez veces el ritmo moderno, pero que la recarga que ocurrió inmediatamente después de la LGM fue más baja que el ritmo moderno.
Poupeau, Céline; Roland, Christel; Bussières, Jean-François
2016-01-01
RÉSUMÉ Contexte Il existe de plus en plus de données sur la présence de traces de médicaments dangereux dans l’urine des professionnels de la santé exposés à ces médicaments. Objectif Présenter une revue de la littérature scientifique concernant la surveillance urinaire de professionnels de la santé exposés aux anti-néoplasiques dans le cadre de leur travail. Sources de données Recherche sur PubMed avec les Medical Subject Headings (MeSH) « occupational exposure » et « antineoplastic agents » ainsi que sur Google Scholar avec les termes « antineoplastic », « urine » et « occupational exposure ». Sélection des études et extraction des données L’examen a porté sur tous les articles en anglais et en français ayant trait aux professionnels de la santé exposés à des médicaments dangereux dans le cadre de leur travail, publiés entre le 1er janvier 2010 et le 31 décembre 2015. Les articles ne comportant pas de résultats urinaires et ceux concernant les vétérinaires ainsi que les revues de littérature, les éditoriaux, les lettres à la rédaction et les résumés de congrès ont été exclus. Synthèse des données Vingt-quatre articles ont été retenus. Les études ont été menées dans 52 établissements de santé provenant de sept pays. Elles regroupaient 826 travailleurs exposés à des médicaments dangereux et 175 témoins, notamment des infirmiers (n = 16 études), des pharmaciens (n = 10), des assistants techniques en pharmacie (n = 8), des médecins (n = 7), des aides-soignants (n = 2) et autres (n = 8). Différentes méthodes analytiques ont été utilisées pour quantifier la présence de 13 médicaments dangereux, principalement le cyclophosphamide (n = 16 études), les platines (n = 7) et l’alpha-fluoro-béta-alanine, un métabolite urinaire du 5-fluorouracile (n = 3). La proportion de travailleurs qui ont étés déclarés positifs s’étendait de 0 % (n = 10 études) à 100 % (n = 4). Si l’on ne retient que les études permettant de calculer le taux de travailleurs comportant au moins un prélèvement urinaire positif (n = 23), la proportion totale était de 21 % (173/809 travailleurs, toutes méthodes et tous médicaments confondus). Conclusion Vingt-quatre études de surveillance urinaire ont été réalisées au sein de sept pays entre 2010 et 2015. Dans plusieurs études, aucune trace de médicaments n’a été mesurée dans l’urine. PMID:27826155
Stochasticity of convection in Giga-LES data
NASA Astrophysics Data System (ADS)
De La Chevrotière, Michèle; Khouider, Boualem; Majda, Andrew J.
2016-09-01
The poor representation of tropical convection in general circulation models (GCMs) is believed to be responsible for much of the uncertainty in the predictions of weather and climate in the tropics. The stochastic multicloud model (SMCM) was recently developed by Khouider et al. (Commun Math Sci 8(1):187-216, 2010) to represent the missing variability in GCMs due to unresolved features of organized tropical convection. The SMCM is based on three cloud types (congestus, deep and stratiform), and transitions between these cloud types are formalized in terms of probability rules that are functions of the large-scale environment convective state and a set of seven arbitrary cloud timescale parameters. Here, a statistical inference method based on the Bayesian paradigm is applied to estimate these key cloud timescales from the Giga-LES dataset, a 24-h large-eddy simulation (LES) of deep tropical convection (Khairoutdinov et al. in J Adv Model Earth Syst 1(12), 2009) over a domain comparable to a GCM gridbox. A sequential learning strategy is used where the Giga-LES domain is partitioned into a few subdomains, and atmospheric time series obtained on each subdomain are used to train the Bayesian procedure incrementally. Convergence of the marginal posterior densities for all seven parameters is demonstrated for two different grid partitions, and sensitivity tests to other model parameters are also presented. A single column model simulation using the SMCM parameterization with the Giga-LES inferred parameters reproduces many important statistical features of the Giga-LES run, without any further tuning. In particular it exhibits intermittent dynamical behavior in both the stochastic cloud fractions and the large scale dynamics, with periods of dry phases followed by a coherent sequence of congestus, deep, and stratiform convection, varying on timescales of a few hours consistent with the Giga-LES time series. The chaotic variations of the cloud area fractions were captured fairly well both qualitatively and quantitatively demonstrating the stochastic nature of convection in the Giga-LES simulation.
Zonal PANS: evaluation of different treatments of the RANS-LES interface
NASA Astrophysics Data System (ADS)
Davidson, L.
2016-03-01
The partially Reynolds-averaged Navier-Stokes (PANS) model can be used to simulate turbulent flows either as RANS, large eddy simulation (LES) or DNS. Its main parameter is fk whose physical meaning is the ratio of the modelled to the total turbulent kinetic energy. In RANS fk = 1, in DNS fk = 0 and in LES fk takes values between 0 and 1. Three different ways of prescribing fk are evaluated for decaying grid turbulence and fully developed channel flow: fk = 0.4, fk = k3/2tot/ɛ and, from its definition, fk = k/ktot where ktot is the sum of the modelled, k, and resolved, kres, turbulent kinetic energy. It is found that the fk = 0.4 gives the best results. In Girimaji and Wallin, a method was proposed to include the effect of the gradient of fk. This approach is used at RANS- LES interface in the present study. Four different interface models are evaluated in fully developed channel flow and embedded LES of channel flow: in both cases, PANS is used as a zonal model with fk = 1 in the unsteady RANS (URANS) region and fk = 0.4 in the LES region. In fully developed channel flow, the RANS- LES interface is parallel to the wall (horizontal) and in embedded LES, it is parallel to the inlet (vertical). The importance of the location of the horizontal interface in fully developed channel flow is also investigated. It is found that the location - and the choice of the treatment at the interface - may be critical at low Reynolds number or if the interface is placed too close to the wall. The reason is that the modelled turbulent shear stress at the interface is large and hence the relative strength of the resolved turbulence is small. In RANS, the turbulent viscosity - and consequently also the modelled Reynolds shear stress - is only weakly dependent on Reynolds number. It is found in the present work that it also applies in the URANS region.
Diffuse Scattering in the Icosahedral AL-Li-Cu Quasicrystal
NASA Astrophysics Data System (ADS)
Proult, A.; Donnadieu, P.; Wang, K.; Garoche, P.
1995-12-01
Electron diffraction patterns of icosahedral quasicrystals frequently exhibit diffuse scattering features. We report a detailed analysis of diffuse scattering in Al{6}Li{3}Cu (T2) quasicrystalline samples. The samples have been specifically heat-treated which allows to observe pronounced diffuse effects. Diffuse streaks are observed along the 5-fold and 2-fold symmetry axes and are elongated perpendicularly to these directions. These streaks are due to discs in the 3-dimensional reciprocal space. The diffuse disc positions are only indexable in the 6-dimensional hyperspace but the disc intensities do not agree with the ones predicted by the Cut-and-Project method. The diffuse discs we observed seem to be related to an original quasicrystalline phenomenon overlapping with the icosahedral phase. Les diagrammes de diffraction électronique des quasicristaux icosaédriques présentent fréquemment des diffusions diffuses. Nous les analysons ici en détails sur des échantillons de phase quasicristalline Al{6}Li{3}Cu (T2) traités thermiquement dans lesquels les diffusions diffuses sont trés prononcées. Les intensités diffuses forment des batônnets centrés sur des positions appartenant aux rangées réciproques d'ordre 5 et d'ordre 2 et allongés perpendiculairement à ces directions. On montre qu'il s'agit en fait de disques diffus. dans le réseau réciproque à 3 dimensions, dont les positions ne peuvent s'indexer que sur le réseau à 6 dimensions. Toutefois, les intensités ne correspondent pas à celle prédites par l'algorithme de Coupe-et-Projection. Les disques de diffusion diffuse semblent relever d'une organisation quasicristalline originale se superposant à la phase icosaédrique.
Dynamic Load Predictions for Launchers Using Extra-Large Eddy Simulations X-Les
NASA Astrophysics Data System (ADS)
Maseland, J. E. J.; Soemarwoto, B. I.; Kok, J. C.
2005-02-01
Flow-induced unsteady loads can have a strong impact on performance and flight characteristics of aerospace vehicles and therefore play a crucial role in their design and operation. Complementary to costly flight tests and delicate wind-tunnel experiments, unsteady loads can be calculated using time-accurate Computational Fluid Dynamics. A capability to accurately predict the dynamic loads on aerospace structures at flight Reynolds numbers can be of great value for the design and analysis of aerospace vehicles. Advanced space launchers are subject to dynamic loads in the base region during the ascent to space. In particular the engine and nozzle experience aerodynamic pressure fluctuations resulting from massive flow separations. Understanding these phenomena is essential for performance enhancements for future launchers which operate a larger nozzle. A new hybrid RANS-LES turbulence modelling approach termed eXtra-Large Eddy Simulations (X-LES) holds the promise to capture the flow structures associated with massive separations and enables the prediction of the broad-band spectrum of dynamic loads. This type of method has become a focal point, reducing the cost of full LES, driven by the demand for their applicability in an industrial environment. The industrial feasibility of X-LES simulations is demonstrated by computing the unsteady aerodynamic loads on the main-engine nozzle of a generic space launcher configuration. The potential to calculate the dynamic loads is qualitatively assessed for transonic flow conditions in a comparison to wind-tunnel experiments. In terms of turn-around-times, X-LES computations are already feasible within the time-frames of the development process to support the structural design. Key words: massive separated flows; buffet loads; nozzle vibrations; space launchers; time-accurate CFD; composite RANS-LES formulation.
Gouran, Hossein; Chakraborty, Sandeep; Rao, Basuthkar J; Asgeirsson, Bjarni; Dandekar, Abhaya
2014-01-01
Duplication of genes is one of the preferred ways for natural selection to add advantageous functionality to the genome without having to reinvent the wheel with respect to catalytic efficiency and protein stability. The duplicated secretory virulence factors of Xylella fastidiosa (LesA, LesB and LesC), implicated in Pierce's disease of grape and citrus variegated chlorosis of citrus species, epitomizes the positive selection pressures exerted on advantageous genes in such pathogens. A deeper insight into the evolution of these lipases/esterases is essential to develop resistance mechanisms in transgenic plants. Directed evolution, an attempt to accelerate the evolutionary steps in the laboratory, is inherently simple when targeted for loss of function. A bigger challenge is to specify mutations that endow a new function, such as a lost functionality in a duplicated gene. Previously, we have proposed a method for enumerating candidates for mutations intended to transfer the functionality of one protein into another related protein based on the spatial and electrostatic properties of the active site residues (DECAAF). In the current work, we present in vivo validation of DECAAF by inducing tributyrin hydrolysis in LesB based on the active site similarity to LesA. The structures of these proteins have been modeled using RaptorX based on the closely related LipA protein from Xanthomonas oryzae. These mutations replicate the spatial and electrostatic conformation of LesA in the modeled structure of the mutant LesB as well, providing in silico validation before proceeding to the laborious in vivo work. Such focused mutations allows one to dissect the relevance of the duplicated genes in finer detail as compared to gene knockouts, since they do not interfere with other moonlighting functions, protein expression levels or protein-protein interaction.
Rao, Basuthkar J.; Asgeirsson, Bjarni; Dandekar, Abhaya
2014-01-01
Duplication of genes is one of the preferred ways for natural selection to add advantageous functionality to the genome without having to reinvent the wheel with respect to catalytic efficiency and protein stability. The duplicated secretory virulence factors of Xylella fastidiosa (LesA, LesB and LesC), implicated in Pierce's disease of grape and citrus variegated chlorosis of citrus species, epitomizes the positive selection pressures exerted on advantageous genes in such pathogens. A deeper insight into the evolution of these lipases/esterases is essential to develop resistance mechanisms in transgenic plants. Directed evolution, an attempt to accelerate the evolutionary steps in the laboratory, is inherently simple when targeted for loss of function. A bigger challenge is to specify mutations that endow a new function, such as a lost functionality in a duplicated gene. Previously, we have proposed a method for enumerating candidates for mutations intended to transfer the functionality of one protein into another related protein based on the spatial and electrostatic properties of the active site residues (DECAAF). In the current work, we present in vivo validation of DECAAF by inducing tributyrin hydrolysis in LesB based on the active site similarity to LesA. The structures of these proteins have been modeled using RaptorX based on the closely related LipA protein from Xanthomonas oryzae. These mutations replicate the spatial and electrostatic conformation of LesA in the modeled structure of the mutant LesB as well, providing in silico validation before proceeding to the laborious in vivo work. Such focused mutations allows one to dissect the relevance of the duplicated genes in finer detail as compared to gene knockouts, since they do not interfere with other moonlighting functions, protein expression levels or protein-protein interaction. PMID:25717364
Sangwa, Cedrick Milindi; Mukuku, Olivier; Tshisuz, Christian; Panda, Jules Mulefu; Kakinga, Mireille; Kitembo, Marius Feruzi; Mutomb, Jean-Felix; Odimba, Bwana Fwamba
2014-01-01
Les fentes labiopalatines sont les malformations les plus rencontrées de la sphère orofaciale. L'objectif est de décrire le profil épidémiologique, anatomoclinique et thérapeutique des fentes labiopalatines observées dans la province minière du Katanga au sud-est de la République Démocratique du Congo. Il s'agit d'une étude transversale réalisée dans quatre institutions hospitalières de la province du Katanga dans des districts sanitaires différents (Hôpital Jason Sendwe à Lubumbashi, Hôpital Gécamines Panda à Likasi, Hôpital Gécamines du personnel à Kolwezi, Hôpital General de référence de Kamina) et qui a porté sur 154 cas de fentes labiopalatines enregistrés au cours de la période allant du 1er mai 2010 au 30 septembre 2012. L'âge moyen de consultation était de 11,8 ans et une prédominance masculine (55,2%) était notée. Un pic était noté chez les deux premiers nés de la famille (55,8%). Nous avons enregistré 20,7% des cas de consanguinité dont 54,2% de premier degré. La fréquence des différents types de fentes labiopalatines diminue au fur à mesure que la fente s'étend de la lèvre supérieure au palais en passant par l'alvéole : 72% (labiales), 21,4% (labiopalatines) et 7,7% (palatines). Les variétés unilatérales sont plus fréquentes (76,7%) que les bilatérales (16,1%). Dans les formes unilatérales, le côté gauche est plus concerné (47,1%) par rapport au côté droit (38,6%). L'évaluation de la gravité selon Anastassov montre que 50,6% de nos patients étaient de degré moyen et 16,2% étaient à un degré sévère. Les malformations associées ont été retrouvées dans 5% des cas et elles sont à prédominance squelettique. C'est la technique de Millard qui a été la plus pratiquée (72/130). Les résultats étaient excellents dans 71,5% contre 1,5% de mauvais. Le séjour d'hospitalisation était de 3 jours et le taux de complications post opératoire était de 2,98%. PMID:25328615
NASA Astrophysics Data System (ADS)
Onishi, Keiji; Tsubokura, Makoto
2016-11-01
A methodology to eliminate the manual work required for correcting the surface imperfections of computer-aided-design (CAD) data, will be proposed. Such a technique is indispensable for CFD analysis of industrial applications involving complex geometries. The CAD geometry is degenerated into cell-oriented values based on Cartesian grid. This enables the parallel pre-processing as well as the ability to handle 'dirty' CAD data that has gaps, overlaps, or sharp edges without necessitating any fixes. An arbitrary boundary representation is used with a dummy-cell technique based on immersed boundary (IB) method. To model the IB, a forcing term is directly imposed at arbitrary ghost cells by linear interpolation of the momentum. The mass conservation is satisfied in the approximate domain that covers fluid region except the wall including cells. Attempts to Satisfy mass conservation in the wall containing cells leads to pressure oscillations near the IB. The consequence of this approximation will be discussed through fundamental study of an LES based channel flow simulation, and high Reynolds number flow around a sphere. And, an analysis comparing our results with wind tunnel experiments of flow around a full-vehicle geometry will also be presented.
1998-02-01
provide the aircrew and passengers with a level of protection commensurate with the risk of operating aircraft in the military and civilian...the time taken to reach peak acceleration and upon the peak acceleration level attained. Long duration acceleration, which can be experienced in...acceleration depends principally on the plateau level of the acceleration imposed on the body, as the response to long duration acceleration is due
1990-01-01
critical examination of the rotary-balance techniques used in the AGARD community for the analysis of high-angle-of-attack dynamic behavior of aircraft. It...aircraft. It was felt that sudi a critical examination should encompass both the experimental techniques used to obtain rotary-flow aerodynamic data and the...monitor the vibrational and critical structural characteristies of the apparatus and tunnel support system. Many of these systems are integrated directly
2003-10-01
Chapter 1 – Introduction 1-1 Chapter 2 – Boundary Layer Transition and Laminar Flow Concepts 2-1 2.1 Transition Mechanisms and Transition Prediction 2...Laminar flow control LSTM Lehrstuhl für Strömungsmechanik der Universität Erlangen LWK Laminarwindkanal Stuttgart L2F Laser two-focus anemometer MMO...2.1 Transition mechanisms and transition prediction Modern transonic transport aircraft are characterized by a swept wing resulting in high cruise
Numerical and Experimental Study of Wake Redirection Techniques in a Boundary Layer Wind Tunnel
NASA Astrophysics Data System (ADS)
Wang, J.; Foley, S.; Nanos, E. M.; Yu, T.; Campagnolo, F.; Bottasso, C. L.; Zanotti, A.; Croce, A.
2017-05-01
The aim of the present paper is to validate a wind farm LES framework in the context of two distinct wake redirection techniques: yaw misalignment and individual cyclic pitch control. A test campaign was conducted using scaled wind turbine models in a boundary layer wind tunnel, where both particle image velocimetry and hot-wire thermo anemometers were used to obtain high quality measurements of the downstream flow. A LiDAR system was also employed to determine the non-uniformity of the inflow velocity field. A high-fidelity large-eddy simulation lifting-line model was used to simulate the aerodynamic behavior of the system, including the geometry of the wind turbine nacelle and tower. A tuning-free Lagrangian scale-dependent dynamic approach was adopted to improve the sub-grid scale modeling. Comparisons with experimental measurements are used to systematically validate the simulations. The LES results are in good agreement with the PIV and hot-wire data in terms of time-averaged wake profiles, turbulence intensity and Reynolds shear stresses. Discrepancies are also highlighted, to guide future improvements.
NASA Astrophysics Data System (ADS)
Hameury, Jean-Marie
2001-01-01
Two techniques are frequently used to produce images of the accretion disc in an eclipsing binary: eclipse mapping and Doppler tomography. From the light curve, one can deduce the radial distribution of the effective temperature, assuming axial symmetry. On the other hand, from the variation of the line profile one can reconstruct an image in the velocity space, which can be converted into a real image if one knows the kinematics of the system. Deux techniques sont couramment utilisées pour obtenir des images des disques dans les systèmes binaires à éclipses. En utilisant la courbe de lumière, on peut remonter à la distribution radiale de la brillance de surface, en supposant que celle-ci a une symètrie axiale. D'autre part, les profils de raies renseignent sur la distribution de vitesse des régions émissives leur variation temporelle permet de réaliser une image dans l'espace des vitesses, que l'on peut ensuite transformer en carte dans l'espace (x,y) si on connaît la cinématique du système.
NASA Astrophysics Data System (ADS)
Freuchet, Florian
Dans le milieu marin, l'abondance du recrutement depend des processus qui vont affecter les adultes et le stock de larves. Sous l'influence de signaux fiables de la qualite de l'habitat, la mere peut augmenter (effet maternel anticipatoire, 'anticipatory mother effects', AME) ou reduire (effet maternel egoiste, 'selfish maternai effects', SME) la condition physiologique de la progeniture. Dans les zones tropicales, generalement plus oligotrophes, la ressource nutritive et la temperature sont deux composantes importantes pouvant limiter le recrutement. Les effets de l'apport nutritionnel et du stress thermique sur la production de larves et sur la stategie maternelle adoptee ont ete testes dans cette etude. Nous avons cible la balane Chthamalus bisinuatus (Pilsbry) comme modele biologique car el1e domine les zones intertidales superieures le long des cotes rocheuses du Sud-Est du Bresil (region tropicale). Les hypotheses de depart stipulaient que l'apport nutritionnel permet aux adultes de produire des larves de qualite elevee et que le stress thermique genere une ponte precoce, produisant des larves de faible qualite. Afin de tester ces hypotheses, des populations de C. bisinuatus ont ete elevees selon quatre groupes experimentaux differents, en combinant des niveaux d'apport nutritionnel (eleve et faible) et de stress thermique (stresse et non stresse). Des mesures de survie et de conditions physiologiques des adultes et des larves ont permis d'identifier les reponses parentales pouvant etre avantageuses dans un environnement tropical hostile. L'analyse des profils en acides gras a ete la methode utilisee pour evaluer la qualite physiologique des adultes et de larves. Les resultats du traitement alimentaire (fort ou faible apport nutritif), ne montrent aucune difference dans l'accumulation de lipides neutres, la taille des nauplii, l'effort de reproduction ou le temps de survie des nauplii en condition de jeune. Il semble que la faible ressource nutritive est compensee par les meres qui adoptent un modele AME qui se traduit par l'anticipation du milieu par les meres afin de produire des larves au phenotype approprie. A l'ajout d'un stress thermique, on observe des diminutions de 47% de la production de larves et celles-ci etaient 18 microm plus petites. Les meres semblent utiliser un modele SME caracterise par une diminution de la performance des larves. Suite a ces resultats, nous emettons l'hypothese qu'en zone subtropicale, comme sur les cotes de l'etat de Sao Paulo, l'elevation de la temperature subie par les balanes n'est, a priori, pas dommageable pour leur organisme si eIle est combinee a un apport nutritif suffisant.
Molecular Dynamics in a Liquid Crystal with Reentrant Mesophases
NASA Astrophysics Data System (ADS)
Sebastião, P. J.; Ribeiro, A. C.; Nguyen, H. T.; Noack, F.
1995-11-01
It is well known that liquid crystalline compounds with a cyano terminal group can present peculiar polymorphisms in particular different types of smectic A mesophases and a reentrant behaviour for both nematic and smectic A mesophases. In this work we study by proton NMR relaxation the influence of these features on the molecular dynamics of the compound 4-cyanobenzoate-4'-octylbenzoyloxyphenyl (DB8CN Sym) in its nematic (N), partial bilayer smectic A (SAd), reentrant nematic (Nre) and reentrant smectic A (SA1) mesophases. Standard and fast field-cycling techniques were used for our spin-lattice relaxation's study over a broad frequency range of 6 decades (200 Hz up to 300 MHz). It was found that the molecular dynamics in the nematic mesophases is rather different from the molecular dynamics in the smectic A mesophases. However, the reentrant aspect present in both nematic and smectic A states is not associated to a major difference on the molecular dynamics of the nematic and reentrant nematic or smectic and reentrant smectic A mesophases. Order director fluctuations and rotations/reorientations are the most important relaxation mechanisms in the nematic mesophases in the lower and higher frequency limits, respectively, while self-diffusion has a very small contribution to the overall relaxation. As for the smectic A mesophases, self-diffusion and rotations/reorientations are the predominant relaxation mechanisms for frequencies above 20 kHz. The collective motions, which for these mesophases have to be associated with layer undulations with the frequency law T_1sim ν, are only important to the spin-lattice relaxation on the low part of the frequency spectrum (ν<10 kHz). The inclusion in the relaxation study of a contribution from the cross-relaxation between protons and nitrogen nuclei improves the quality of the 1/T_1 data fits in both kinds of mesophases. The combined study of the molecular dynamics in the N, SAd, Nre and SA1 mesophases of DB8CN Sym reveals that it is necessary to consider one more contribution to the relaxation in the analysis of the 1/T_1 data in the SAd and high temperature N mesophases. This contribution is associated with a dynamic process of dissociation and recombination of molecules in groups that could be present in this kind of systems as predicted in the literature to explain the layer thickness detected in the SAd mesophases. The characteristic time for this process was estimated. Les composés cristaux liquides à groupe terminal cyano peuvent présenter de curieux polymorphismes, en particulier différents types de mésophases smectiques A et un compotement réentrant pour les mésophases nématiques et smectiques A. Dans ce travail nous étudions par RMN l'influence de ces caractéristiques sur la dynamique moléculaire du composé 4-cyanobenzoate-4'-octylbenzoyloxyphenyl (DB8CN Sym) dans ces phases nématique (N), smectique partiellement bicouche A (SAd), nématique réentrant (Nre) et réentrant smectique A(SA1). Nous avons utilisé dans notre étude de la relaxation spin-réseau des techniques classiques et de champ cyclique rapide sur un intervalle de fréquence de 6 décales (200 Hz à 300 MHz). Nous avons trouvé que la dynamique moléculaire des mésophases nématiques est particulièrement différente de celle des mésophases smectiques A. Toutefois, l'effet de réentrance présent dans les états nématique et smectique A n'est pas associé à une différence majeure de la dynamique moléculaire des mésophases nématique, nématique réentrante ou smectique et smectique A réentrante. Les mécanismes de relaxation les plus importants dans les mésophases nématiques à basse et haute fréquences sont respectivement les fluctuations du vecteur d'ordre et des rotations/réorientations, alors que l'auto-diffusion apporte une très faible contribution à la relaxation totale. Dans les mésophases smectiques A l'auto-diffusion et les rotations/réorientations sont les mécanismes de relaxation dominants pour des fréquences au dessus de 20 kHz. Les mouvements collectifs (qui doivent dans ce cas être associés à des ondulations de couche avec une loi de dispersion T_1sim ν) ne doivent être pris en compte pour la relaxation spin-réseau que pour les basses fréquences de Larmor (ν<10 kHz). L'inclusion d'une contribution de la relaxation croisée entre protons et noyaux d'azote dans le modèle de relaxation augmente la qualité des fits de 1/T_1 dans les deux sortes de mésophases. L'étude combinée de la dynamique moléculaire dans les mésophases N, SAd, Nre et SA1 du DB8CN Sym montre qu'il faut en fait considérer une contribution supplémentaire pour la relaxation dans l'analyse des données 1/T_1 dans les mésophases SAd et nématique à haute température. Cette contribution est associée à un processus dynamique de dissociation et recombinaison de molécules en groupes qui pourraient être présentes dans ces types de systèmes, ce qui permettrait d'expliquer l'épaisseur observée pour les couches dans les mésophases SAd, comme prévu dans la littérature. Le temps caractéristique de ce processus a été estimé.
Experiments with explicit filtering for LES using a finite-difference method
NASA Technical Reports Server (NTRS)
Lund, T. S.; Kaltenbach, H. J.
1995-01-01
The equations for large-eddy simulation (LES) are derived formally by applying a spatial filter to the Navier-Stokes equations. The filter width as well as the details of the filter shape are free parameters in LES, and these can be used both to control the effective resolution of the simulation and to establish the relative importance of different portions of the resolved spectrum. An analogous, but less well justified, approach to filtering is more or less universally used in conjunction with LES using finite-difference methods. In this approach, the finite support provided by the computational mesh as well as the wavenumber-dependent truncation errors associated with the finite-difference operators are assumed to define the filter operation. This approach has the advantage that it is also 'automatic' in the sense that no explicit filtering: operations need to be performed. While it is certainly convenient to avoid the explicit filtering operation, there are some practical considerations associated with finite-difference methods that favor the use of an explicit filter. Foremost among these considerations is the issue of truncation error. All finite-difference approximations have an associated truncation error that increases with increasing wavenumber. These errors can be quite severe for the smallest resolved scales, and these errors will interfere with the dynamics of the small eddies if no corrective action is taken. Years of experience at CTR with a second-order finite-difference scheme for high Reynolds number LES has repeatedly indicated that truncation errors must be minimized in order to obtain acceptable simulation results. While the potential advantages of explicit filtering are rather clear, there is a significant cost associated with its implementation. In particular, explicit filtering reduces the effective resolution of the simulation compared with that afforded by the mesh. The resolution requirements for LES are usually set by the need to capture most of the energy-containing eddies, and if explicit filtering is used, the mesh must be enlarged so that these motions are passed by the filter. Given the high cost of explicit filtering, the following interesting question arises. Since the mesh must be expanded in order to perform the explicit filter, might it be better to take advantage of the increased resolution and simply perform an unfiltered simulation on the larger mesh? The cost of the two approaches is roughly the same, but the philosophy is rather different. In the filtered simulation, resolution is sacrificed in order to minimize the various forms of numerical error. In the unfiltered simulation, the errors are left intact, but they are concentrated at very small scales that could be dynamically unimportant from a LES perspective. Very little is known about this tradeoff and the objective of this work is to study this relationship in high Reynolds number channel flow simulations using a second-order finite-difference method.
Gong, Cai-xia; Zheng, Qian; Shi, Bing
2011-02-01
To evaluate the psychological conditions of parents of children with cleft lip and palate, and to discuss the clinical psychological treatment methods of these parents. 100 parents of children with cleft lip and palate were selected as the parents of children with cleft lip and palate group, and 34 normal adults were selected as the control group. Two groups were tested by the life event scale (LES) and self-rating anxiety scale (SAS) to analyze their psychological states. After the study group was treated by psychological counseling, two groups were tested by the LES and SAS again. The LES total scores of the patients of children with cleft lip and palate had significant differences compared with the normal adults (P < 0.05) before and after psychological counseling, and the LES scores of negative life event of these patients also significantly decreased before and after psychological counseling (P < 0.05). While the SAS total scores of the patients of children with cleft lip and palate had no significant differences compared with the normal adults before and after psychological counseling (P > 0.05). Analyzing the psychological conditions of parents of children with cleft lip and palate by using psychological scales and then treating them by counseling, is an effective psychological treatment method.
Étude expérimentale de cristaux photoniques bi-dimensionnels
NASA Astrophysics Data System (ADS)
Labilloy, D.
Experimental study of two-dimensional photonic crystals Photonic bandgap materials (PBGs), the so-called photonic crystals, are structures with a periodic dielectric constant. For strong enough index contrast, it was theoretically predicted that they should prevent light propagation in all directions, because they create spectral regions with zero-density of states. We study the optical properties of two-dimensional photonic crystals etched through waveguiding semiconductor heterostructures. Photoluminescence of quantum wells or quantum dots embedded in the waveguide are used as internal probe source. This technique allows a full characterization of these objects, giving access to quantitative values of the transmission, reflection and diffraction coefficients. Weak transmissions correspond to high reflection or diffraction values, which indicates that light remains guided upon interaction with the crystals, confirming their high potential for integrated optics. These reflectors are next used as cavity mirrors. One-dimensional cavities demonstrate a high finesse through transmission measurements, confirming the low amount of out-of-plane losses. Small volume three-dimensional cavities (sim5 μm^3) are also probed, using the photoluminescence of the emitters placed inside the cavity. Narrow peaks in the photoluminescence spectrum prove the strong confinement and allow to envision applications for spontaneous emission control. Les matériaux à bande interdite de photons (BIPs) ou cristaux photoniques, sont des structures, généralement artificielles, dont l'indice diélectrique varie périodiquement. Lorsque le contraste d'indice est fort, on prédit théoriquement qu'elles doivent empêcher la propagation de la lumière dans toutes les directions en créant des plages spectrales (les bandes interdites) à densité d'état de photons nulle. Nous avons étudié le comportement optique de cristaux photoniques bidimensionnels gravés dans des hétérostructures semiconductrices guidantes. L'originalité consiste à utiliser la photoluminescence de boîtes ou puits quantiques comme source lumineuse interne. Cette technique a permis d'effectuer une caractérisation complète de ces objets en mesurant quantitativement les coefficients de transmission et de réflexion ainsi que les propriétés de diffraction. Aux zones de faible transmission correspondent de forts coefficients de réflexion ou de diffraction, ce qui indique que l'onde reste guidée lors de l'interaction avec les cristaux et confirme leur fort potentiel pour l'optique intégrée. Nous avons utilisé ces réflecteurs pour réaliser des cavités, d'abord unidimensionnelles, qui montrent une bonne finesse en transmission, confirmant que les pertes hors du plan du guide sont faibles. Nous avons ensuite étudié des cavités tridimensionnelles de faible volume (sim 5 μm^3), sondées cette fois-ci à l'aide d'émetteurs internes à la cavité. L'apparition de pics étroits montre que l'effet de confinement est important et laisse présager de réelles potentialités de modification de l'émission spontanée.
Mise à jour technique sur la physiologie et l'évaluation du liquide amniotique.
Lim, Kenneth I; Butt, Kimberly; Naud, Kentia; Smithies, Mila
2017-01-01
RéSULTATS: SOURCES DES DONNéES PROBANTES: Nous avons effectué une recherche sur MEDLINE et Kfinder pour trouver des articles pertinents, puis avons examiné les bibliographies des articles retenus, notamment des revues Cochrane et des articles de revue récents. Les données recueillies ont été analysées par le Comité d'imagerie diagnostique de la Société des obstétriciens et gynécologues du Canada. Les recommandations ont été classées selon les critères établis par le Groupe d'étude canadien sur les soins de santé préventifs (Tableau 1). AVANTAGES, DéSAVANTAGES ET COûTS: En obstétrique moderne, l'évaluation du volume de liquide amniotique par échographie fait partie intégrante de l'évaluation fœtale. Toute anomalie donne lieu à une intervention obstétricale et à des examens approfondis. Au Canada, il n'existe aucune définition normalisée associée à l'estimation du volume de liquide amniotique ni aucune approche d'évaluation uniforme. Plusieurs essais randomisés semblent indiquer que l'évaluation de poche unique, plutôt que de plusieurs poches (indice de liquide amniotique), diminue les interventions obstétricales sans augmenter l'incidence de résultats indésirables. La littérature récente laisse croire que des changements légers, mais détectables du liquide amniotique peuvent survenir une heure ou deux suivant des manœuvres physiologiques normales, ce qui pourrait expliquer la variabilité et le manque de cohérence des résultats d'évaluations répétées en peu de temps et ainsi créer de la confusion et donner lieu à d'autres examens. Le présent article vise à décrire les limites de l'évaluation du volume de liquide amniotique, à promouvoir une méthode d'évaluation normalisée et à proposer un ensemble commun de définitions. DéCLARATIONS SOMMAIRES: RECOMMANDATION. Copyright © 2017. Published by Elsevier Inc.
LES-Modeling of a Partially Premixed Flame using a Deconvolution Turbulence Closure
NASA Astrophysics Data System (ADS)
Wang, Qing; Wu, Hao; Ihme, Matthias
2015-11-01
The modeling of the turbulence/chemistry interaction in partially premixed and multi-stream combustion remains an outstanding issue. By extending a recently developed constrained minimum mean-square error deconvolution (CMMSED) method, to objective of this work is to develop a source-term closure for turbulent multi-stream combustion. In this method, the chemical source term is obtained from a three-stream flamelet model, and CMMSED is used as closure model, thereby eliminating the need for presumed PDF-modeling. The model is applied to LES of a piloted turbulent jet flame with inhomogeneous inlets, and simulation results are compared with experiments. Comparisons with presumed PDF-methods are performed, and issues regarding resolution and conservation of the CMMSED method are examined. The author would like to acknowledge the support of funding from Stanford Graduate Fellowship.
Kelsh, H.T.
1949-01-01
Le ste??re??orestituteur Kelsh est un appareil de restitution a?? double projection base?? sur le principe des anaglyphes, comme le Multiplex par exemple, mais il a une plus grande pre??cision que ce dernier, vu que les ne??gatifs sont utilise??s directement pour la restitution, sans que l'on soit oblige?? de les re??duire au pre??alable. Une telle solution devient possible lorsque l'e??chelle de l'image plastique (mode??le) est au moins 7 fois plus grande que celle des cliche??s. L'appareil comprend un support reposant par 4 pieds sur la table a?? dessin. Sa partie supe??rieure porte, par l'interme??diaire de trois vis calantes, un cadre dans lequel les deux chambres de projection sont suspendues. Des leviers de commande, agissant sur les chambres, permettent d'introduire la base, le de??versement et les inclinaisons transversale et longitudinale. Les cliche??s conjugue??s ou des diapositifs sont directement place??s dans les chambres de projection munies d'objectifs. En projetant les deux cliche??s au moyen de couleurs comple??mentaires, l'observateur - muni de lunettes a?? verres colore??s (couleurs comple??mentaires) - observe l'image plastique audessus de la table a?? dessin, l'orientation relative des chambres ayant e??te?? e??tablie au pre??alable. Pour le report des points de l'image plastique sur la minute, l'ope??rateur dispose d'une tablette amovible a?? marque-repe??re lumineuse qu'il de??place a?? la main et dont la hauteur au-dessus de la table a?? dessin peut e??tre commande??e par une molette. Pour e??tablir l'orientation absolue de l'image plastique, il suffit d'incliner convenablement le cadre de suspension a?? l'aide des vis calantes, l'orientation relative n'e??tant pas de??truite par cette ope??ration. Les deux cliche??s sont e??claire??s par des projecteurs munis d'une suspension a?? la cardan et relie??s a?? la tablette de restitution par des tiges te??lescopiques. Moyennant ce dispositif, l'e??clairage est concentre?? sur deux petites re??gions conjugue??es des cliche??s et l'observateur ne voit ainsi qu'une petite partie de l'image spatiale, ce qui pre??sente l'avantage de ne pas l'e??blouir. D'autre part, les tiges te??lescopiques impriment, suivant l'inclinaison, un de??placement vertical plus ou moins prononce?? aux objectifs de projection, ce qui permet d'e??liminer les erreurs de distorsion. Pour les travaux de triangulation ae??rienne, l'auteur propose d'appliquer la me??thode des plaques a?? fontes radiales (templets). Pour le passage d'un mode??le a?? l'autre, l'orientation spatiale des chambres de restitution est de??termine??e au moyen d'une nivelle place??e sur les cliche??s. Un premier essai a e??te?? effectue?? sur 7 mode??les (e??chelle des cliche??s 1/34000) et apre??s compensation l'erreur probable altime??trique des douze points connus s'est e??leve??e a?? 1.50 m tandis que l'erreur maximum e??tait de 4 m. L'erreur altime??trique des restitutions effectue??es par le U.S. Forest Service en Californie avec des cliche??s ou 1/48000, ou?? les diffe??rences de niveau de??passaient parfois 600 m par cliche??, varie entre 1 m et 2.70 m. ?? 1949.
NASA Astrophysics Data System (ADS)
Ryzhenkov, V.; Ivashchenko, V.; Vinuesa, R.; Mullyadzhanov, R.
2016-10-01
We use the open-source code nek5000 to assess the accuracy of high-order spectral element large-eddy simulations (LES) of a turbulent channel flow depending on the spatial resolution compared to the direct numerical simulation (DNS). The Reynolds number Re = 6800 is considered based on the bulk velocity and half-width of the channel. The filtered governing equations are closed with the dynamic Smagorinsky model for subgrid stresses and heat flux. The results show very good agreement between LES and DNS for time-averaged velocity and temperature profiles and their fluctuations. Even the coarse LES grid which contains around 30 times less points than the DNS one provided predictions of the friction velocity within 2.0% accuracy interval.
Rowan-Legg, Anne
2017-01-01
Résumé Les familles des militaires font face à de nombreux facteurs de stress, tels que les réinstallations fréquentes, les longues pério des de séparation familiale, l’isolement géographique du réseau de soutien de la famille élargie et le déploiement en zones très dangereuses. Les enfants et les adolescents des familles des militaires vivent les mêmes trajectoires développementales et motivationnelles que leurs homologues civils, mais ils sont également aux prises avec des pressions et des facteurs de stress liés à leur développement qui sont inhabituels et qui leur sont imposés par les exigences de la vie militaire. Les effets de la vie militaire sur les familles et les enfants commencent à être admis et mieux caractérisés. Il est essentiel de comprendre les préoccupations propres aux enfants et aux adolescents des familles des militaires et de mobiliser les ressources nécessaires pour les soutenir afin de répondre à leurs besoins en matière de santé.
Mihaescu, Mihai; Murugappan, Shanmugam; Kalra, Maninder; Khosla, Sid; Gutmark, Ephraim
2008-07-19
Computational fluid dynamics techniques employing primarily steady Reynolds-Averaged Navier-Stokes (RANS) methodology have been recently used to characterize the transitional/turbulent flow field in human airways. The use of RANS implies that flow phenomena are averaged over time, the flow dynamics not being captured. Further, RANS uses two-equation turbulence models that are not adequate for predicting anisotropic flows, flows with high streamline curvature, or flows where separation occurs. A more accurate approach for such flow situations that occur in the human airway is Large Eddy Simulation (LES). The paper considers flow modeling in a pharyngeal airway model reconstructed from cross-sectional magnetic resonance scans of a patient with obstructive sleep apnea. The airway model is characterized by a maximum narrowing at the site of retropalatal pharynx. Two flow-modeling strategies are employed: steady RANS and the LES approach. In the RANS modeling framework both k-epsilon and k-omega turbulence models are used. The paper discusses the differences between the airflow characteristics obtained from the RANS and LES calculations. The largest discrepancies were found in the axial velocity distributions downstream of the minimum cross-sectional area. This region is characterized by flow separation and large radial velocity gradients across the developed shear layers. The largest difference in static pressure distributions on the airway walls was found between the LES and the k-epsilon data at the site of maximum narrowing in the retropalatal pharynx.
Self-similarity and flow characteristics of vertical-axis wind turbine wakes: an LES study
NASA Astrophysics Data System (ADS)
Abkar, Mahdi; Dabiri, John O.
2017-04-01
Large eddy simulation (LES) is coupled with a turbine model to study the structure of the wake behind a vertical-axis wind turbine (VAWT). In the simulations, a tuning-free anisotropic minimum dissipation model is used to parameterise the subfilter stress tensor, while the turbine-induced forces are modelled with an actuator line technique. The LES framework is first validated in the simulation of the wake behind a model straight-bladed VAWT placed in the water channel and then used to study the wake structure downwind of a full-scale VAWT sited in the atmospheric boundary layer. In particular, the self-similarity of the wake is examined, and it is found that the wake velocity deficit can be well characterised by a two-dimensional multivariate Gaussian distribution. By assuming a self-similar Gaussian distribution of the velocity deficit, and applying mass and momentum conservation, an analytical model is developed and tested to predict the maximum velocity deficit downwind of the turbine. Also, a simple parameterisation of VAWTs for LES with very coarse grid resolutions is proposed, in which the turbine is modelled as a rectangular porous plate with the same thrust coefficient. The simulation results show that, after some downwind distance (x/D ≈ 6), both actuator line and rectangular porous plate models have similar predictions for the mean velocity deficit. These results are of particular importance in simulations of large wind farms where, due to the coarse spatial resolution, the flow around individual VAWTs is not resolved.
Recherches sur l'histoire de l'astronomie ancienne
NASA Astrophysics Data System (ADS)
Tannery, Paul
2015-04-01
Préface; 1. Ce que les Hellènes ont appelé astronomie; 2. Ce que les Hellènes ont appelé astrologie (cont.); 3. Les mathématiciens alexandrins; 4. Les postulats de l'astronomie d'après Ptlolémée et les auteurs élémentaires; 5. La sphéricité de la terre et la mesure de sa circonférence; 6. Le mouvement général des planètes; 7. Les cercles de la sphère; 8. La longueur de l'année solaire; 9. Les tables du soleil; 10. Les périodes d'Hipparque pour les mouvements lunaires; 11. Les tables de la lune; 12. Les parallaxes du soleil et de la lune; 13. Les prédictions d'éclipses; 14. La théorie des planètes; 15. Le catalogue des fixes; Appendice; Errata.
Kamga, Danielle Victoire Tiako; Nana, Philip Njotang; Fouelifack, Florent Ymele; Fouedjio, Jeanne Hortence
2017-01-01
Introduction L'organisation mondiale de santé (OMS) estime que chaque année dans le monde 585 000 femmes meurent de complications liés à la grossesse, à l'accouchement, aux suites de couche et à l'avortement (ce dernier contribuant pour 13% des décès maternels). La GEU est responsable de 10% de mortalité maternelle au premier trimestre de la grossesse. Le taux de mortalité maternelle reste élevé au Cameroun, estimé à 782 pour 100 000 naissances vivantes selon EDS-MICS 2011. La contribution de ces deux entités dans la mortalité maternelle étant peu documentée dans notre pays, nous avons entrepris de réaliser cette étude avec pour objectif d'évaluer la contribution des avortements et des GEU dans la mortalité maternelle au Cameroun. Méthodes il s'agissait d'une étude rétrospective et analytique. Nous avons colligé tous les dossiers des patientes enceintes et décédées avant la 28ème semaine de grossesse, dans trois hôpitaux universitaires: Hôpital Central de Yaoundé (HCY), Hôpital Gynéco-Obstétrique et Pédiatrique de Yaoundé (HGOPY), Centre Hospitalier et Universitaire (CHU), sur la période allant du 1er juin 2011 au 31 mai 2016, soit sur cinq ans. Les données étaient compilées sur une fiche technique préétablie et testée, saisies en utilisant le logiciel CS pro 6.2 et analysées par le logiciel SPSS 20. Les tests statistiques de comparaison utilisés étaient le Khi 2 et le test de Fischer en fonction des effectifs. Le seuil de significativité était retenu pour P < 005. Résultats Tous avons enregistré 524 décès maternels pour 31116 naissances vivantes, soit un taux de mortalité maternelle (TMM) de 1538.9/100 000 naissances vivantes. Sur les 524 décès maternels, 414 dossiers étaient exploitables, parmi lesquels, 100 (soit 24.2%) concernaient les avortements et 24 (soit 5.8%) concernaient les grossesses extra-utérines, ces 2 entités contribuaient ainsi pour 30% de décès maternels (124 dossiers sur 414). L'analyse des 124 dossiers montre que l'âge moyen était de 27.58 +/-6 ans avec des extrêmes de 18 et 48. La tranche d'âge de 20 à 24 ans était la plus représentée (33.1%), suivie de celle de 25 à 29 ans (24.19%). Les célibataires constituaient 75%, les ménagères 36.7 %, de niveau d'instruction secondaire dans 62.5% et multigestes constituaient 36.1% de notre échantillon. Aucune consultation prénatale n'avait été initiée dans 73.4% et seulement 2.4% en avaient fait au moins 4. Les complications ayant conduit au décès étaient dominées par les hémorragies et les infections. Conclusion Les avortements et grossesse extra-utérines restent des causes majeures de la mortalité maternelle dans notre pays. Nous recommandons un renforcement de la planification familiale pour limiter les grossesses non désirées et une prise en charge par assistance socio-économique des patientes à risques. PMID:28979649
Le Laboratoire de Mécanique Appliquée Raymond Chaléat a 40 ans !
NASA Astrophysics Data System (ADS)
Comité D'Organisation Du Colloque Ime 2002, Le
2002-12-01
Le LMARC a été créé par Raymond Chaléat dans les locaux de l'École Nationale d'Horlogerie (a présent Lycée Technique Jules Haag).L'équipe de recherche était alors constituée de 2 enseignants-chercheurs (Raymond Chaléat et Gérard Lallement) et d'un technicien (Bernard Prêtre). Les travaux de recherche se situaient naturellement dans le domaine de la chronométrie et en particulier dans la mécanique non linéaire analytique inhérente à la montre en fonctionnement. En effet, Raymond Chaléat fut l'élève, puis le collaborateur du Professeur Jules Haag, mathématicien et mécanicien, lui-même élève de Poincarré.Le LMARC a étendu ses activités avec l'arrivée de Claude Oudet, puis de Claude Oytana à la rhéologie des matériaux solides qui est devenue plus tard l'Équipe Propriétés Mécaniques des Matériaux. En parallèle, G. Lallement a créé une équipe Vibrations devenue à ce jour Dynamique des Structures. À ce jour, le Laboratoire compte plus de 110 personnes dont 40 doctorants.Il a depuis diversifié ses activités avec 3 nouvelles équipes tournées vers la Modélisation et la Mise en Forme des Matériaux, les Micromachines et la Biomécanique et les Mécanismes. Il a su également prendre toute sa place au sein de l'Institut des Microtechniques de Franche-Comté en contribuant à plusieurs thèmes.Notre Laboratoire a été l'un des premiers laboratoires associé au CNRS (4ème) et a toujours été rattaché à l'Université de Franche-Comté (Présidence par C. Oytana de 1996 a 2001) par l'entremise de I'UFR Sciences et Techniques. Il a toujours maintenu des liens forts avec I'ENSMM (École Nationale Supérieure de Mécanique et des Microtechniques) d'une part par ses enseignants-chercheurs et d'autre part deux de ses directeurs, Raymond Chaléat et actuellement Jean-Claude Gelin.En plus de ses relations constantes avec l'industrie régionale, le LMARC a développé des actions contractuelles avec de grands groupes tels que EDF, Peugeot SA, Renault, SNECMA, EADS, ...Il a su s'ouvrir aux collaborations internationales tout d'abord avec la Tchécoslovaquie, le Brésil, la Pologne, maintenant la Chine, la Russie, Corée du Sud, la Hongrie, la Roumanie ...Tout ce travail n'aurait pas pu se faire sans des ingénieurs, techniciens et des services techniques et administratifs épaulant efficacement les chercheurs CNRS et les enseignants-chercheurs.Globalement, si les aspects appliqués en mécanique sont un point fort du laboratoire, ce qui justifie son nom, son activité de recherche est restée plus généralement orientée vers les interactions entre expériences et modélisation en mécanique du solide.À l'occasion de ses 40 ans Le LMARC a souhaité organiser une conférence sur ce thème regroupant des chercheurs, collègues et amis pour faire le point sur ce sujet. Grâce à 6 conférences plénières et de 52 conférences en deux sessions, des sujets traitant du comportement des matériaux, de leur mise en forme, de la dynamique des structures, de la biomécanique et de la robotique ont pu être abordés. Ce livre regroupe l'ensemble des papiers présentés lors de cette conférence.
Compressible Boundary Layer Predictions at High Reynolds Number using Hybrid LES/RANS Methods
NASA Technical Reports Server (NTRS)
Choi, Jung-Il; Edwards, Jack R.; Baurle, Robert A.
2008-01-01
Simulations of compressible boundary layer flow at three different Reynolds numbers (Re(sub delta) = 5.59x10(exp 4), 1.78x10(exp 5), and 1.58x10(exp 6) are performed using a hybrid large-eddy/Reynolds-averaged Navier-Stokes method. Variations in the recycling/rescaling method, the higher-order extension, the choice of primitive variables, the RANS/LES transition parameters, and the mesh resolution are considered in order to assess the model. The results indicate that the present model can provide good predictions of the mean flow properties and second-moment statistics of the boundary layers considered. Normalized Reynolds stresses in the outer layer are found to be independent of Reynolds number, similar to incompressible turbulent boundary layers.
NASA Astrophysics Data System (ADS)
Goyette, Stephane
1995-11-01
Le sujet de cette these concerne la modelisation numerique du climat regional. L'objectif principal de l'exercice est de developper un modele climatique regional ayant les capacites de simuler des phenomenes de meso-echelle spatiale. Notre domaine d'etude se situe sur la Cote Ouest nord americaine. Ce dernier a retenu notre attention a cause de la complexite du relief et de son controle sur le climat. Les raisons qui motivent cette etude sont multiples: d'une part, nous ne pouvons pas augmenter, en pratique, la faible resolution spatiale des modeles de la circulation generale de l'atmosphere (MCG) sans augmenter a outrance les couts d'integration et, d'autre part, la gestion de l'environnement exige de plus en plus de donnees climatiques regionales determinees avec une meilleure resolution spatiale. Jusqu'alors, les MCG constituaient les modeles les plus estimes pour leurs aptitudes a simuler le climat ainsi que les changements climatiques mondiaux. Toutefois, les phenomenes climatiques de fine echelle echappent encore aux MCG a cause de leur faible resolution spatiale. De plus, les repercussions socio-economiques des modifications possibles des climats sont etroitement liees a des phenomenes imperceptibles par les MCG actuels. Afin de circonvenir certains problemes inherents a la resolution, une approche pratique vise a prendre un domaine spatial limite d'un MCG et a y imbriquer un autre modele numerique possedant, lui, un maillage de haute resolution spatiale. Ce processus d'imbrication implique alors une nouvelle simulation numerique. Cette "retro-simulation" est guidee dans le domaine restreint a partir de pieces d'informations fournies par le MCG et forcee par des mecanismes pris en charge uniquement par le modele imbrique. Ainsi, afin de raffiner la precision spatiale des previsions climatiques de grande echelle, nous developpons ici un modele numerique appele FIZR, permettant d'obtenir de l'information climatique regionale valide a la fine echelle spatiale. Cette nouvelle gamme de modeles-interpolateurs imbriques qualifies d'"intelligents" fait partie de la famille des modeles dits "pilotes". L'hypothese directrice de notre etude est fondee sur la supposition que le climat de fine echelle est souvent gouverne par des forcages provenant de la surface plutot que par des transports atmospheriques de grande echelle spatiale. La technique que nous proposons vise donc a guider FIZR par la Dynamique echantillonnee d'un MCG et de la forcer par la Physique du MCG ainsi que par un forcage orographique de meso-echelle, en chacun des noeuds de la grille fine de calculs. Afin de valider la robustesse et la justesse de notre modele climatique regional, nous avons choisi la region de la Cote Ouest du continent nord americain. Elle est notamment caracterisee par une distribution geographique des precipitations et des temperatures fortement influencee par le relief sous-jacent. Les resultats d'une simulation d'un mois de janvier avec FIZR demontrent que nous pouvons simuler des champs de precipitations et de temperatures au niveau de l'abri beaucoup plus pres des observations climatiques comparativement a ceux simules a partir d'un MCG. Ces performances sont manifestement attribuees au forcage orographique de meso-echelle de meme qu'aux caracteristiques de surface determinees a fine echelle. Un modele similaire a FIZR peut, en principe, etre implante sur l'importe quel MCG, donc, tout organisme de recherche implique en modelisation numerique mondiale de grande echelle pourra se doter d'un el outil de regionalisation.
Study of Hydrokinetic Turbine Arrays with Large Eddy Simulation
NASA Astrophysics Data System (ADS)
Sale, Danny; Aliseda, Alberto
2014-11-01
Marine renewable energy is advancing towards commercialization, including electrical power generation from ocean, river, and tidal currents. The focus of this work is to develop numerical simulations capable of predicting the power generation potential of hydrokinetic turbine arrays-this includes analysis of unsteady and averaged flow fields, turbulence statistics, and unsteady loadings on turbine rotors and support structures due to interaction with rotor wakes and ambient turbulence. The governing equations of large-eddy-simulation (LES) are solved using a finite-volume method, and the presence of turbine blades are approximated by the actuator-line method in which hydrodynamic forces are projected to the flow field as a body force. The actuator-line approach captures helical wake formation including vortex shedding from individual blades, and the effects of drag and vorticity generation from the rough seabed surface are accounted for by wall-models. This LES framework was used to replicate a previous flume experiment consisting of three hydrokinetic turbines tested under various operating conditions and array layouts. Predictions of the power generation, velocity deficit and turbulence statistics in the wakes are compared between the LES and experimental datasets.
Opinions of South African optometry students about working in rural areas after graduation
Oduntan, Olalekan A.; Hansraj, Rekha
2015-01-01
Background Eye and vision problems have been reported to be more prevalent in rural than urban areas; and a large proportion of South Africans live in the rural areas. Aim To investigate the opinions of South African optometry students about working in rural areas after completion of their training and to identify factors that may influence their decisions. Method This was a cross-sectional quantitative study using a survey instrument containing both closed and open-ended, semi-structured questions. Results Four hundred and thirty-eight students responded to the questionnaire (85.4% response rate). Overall, many of the respondents did not want to open their first (66%) or second practices (64.6%) in the rural areas. However, most respondents from rural backgrounds reported that they would open their first (77.2%) or second (79.4%) practice in the rural areas. The main reasons cited by the respondents for their unwillingness to work in the rural areas were financial concerns (81.2%), personal safety (80.1%) and poor living conditions (75.3%), with a significantly higher number (p < 0.05) being from urban respondents for the latter two issues only. Conclusion Many students were not in favour of opening practices in rural areas, but were willing to work for the government or a non-governmental organisation after graduation. Efforts should be made to address financial incentives, safety and living conditions in the rural areas. The results of this study have implications for the future of availability and accessibility of eye care services to those living in the rural and remote areas of the country. Opinions des étudiants sud-africains en optométrie sur la possibilité de travailler dans les zones rurales après l’obtention de leur diplôme. Contexte Les problèmes des yeux et de vision sont plus courants dans les zones rurales qu’en ville; et une forte proportion de Sud-africains vit dans les zones rurales. Objectif Examiner les opinions des étudiants sud-africains en optométrie sur la possibilité de travailler dans les zones rurales après avoir terminé leur formation et identifier les facteurs pouvant influencer leur décision. Méthode C’est une étude quantitative transversale utilisant un instrument de sondage contenant des questions semi-structurées fermée et ouvertes. Résultats Quatre cent trente-huit étudiants ont répondu au questionnaire (un taux de réponse de 85.4%). En général, un grand nombre de répondants ne voulaient pas ouvrir leur premier (66%) ou deuxième cabinet (64.6%) dans les zones rurales. Cependant, la plupart des répondants originaires de la campagne ont répondu qu’ils ouvriraient leur premier cabinet (77.2%) ou leur second (79.4%) dans les zones rurales. Les raisons principales citées par les répondants pour ne pas vouloir travailler dans les zones rurales étaient des préoccupations financières (81.2%), la sécurité personnelle (80.1%) et les mauvaises conditions de vie (75.3%), avec un plus grand nombre (p < 0.05) de la part des répondants urbains pour les deux derniers problèmes. Conclusion Beaucoup d’étudiants ne voulaient pas ouvrir de cabinet dans les zones rurales, mais étaient prêts à travailler pour le gouvernement ou une organisation non-gouvernementale après l’obtention de leur diplôme. Il faudra s’occuper des incitations financières, de la sécurité et des conditions de vie dans les zones rurales. Les résultats de cette étude ont des implications pour le futur de la disponibilité et de l’accessibilité des services de soins oculaires pour ceux qui vivent dans les zones rurales et les régions reculées du pays. PMID:26245620
Formability Extension of Aerospace Alloys for Tube Hydroforming Applications =
NASA Astrophysics Data System (ADS)
Anderson, Melissa
L'hydroformage de tube est un procede novateur de mise en forme du metal qui utilise la pression d'un fluide, generalement de l'eau, dans une matrice fermee pour deformer plastiquement des pieces d'epaisseur faible et fabriquer ainsi des composants tubulaires de geometries complexes. Ce procede possede de nombreux avantages tels que la reduction du poids des pieces, la diminution des couts lies a l'outillage et l'assemblage, la reduction du nombre d'etapes de fabrication et l'excellent etat de surface des pieces hydroformees. Cependant, malgre tous ces atouts, l'hydroformage reste un procede marginal dans le domaine aerospatial a cause de plusieurs facteurs dont la formabilite limitee des alliages aeronautiques. L'objectif principal de la recherche conduite dans le cadre de cette these est d'etudier une methode pour augmenter la formabilite de deux alliages aeronautiques designes par l'utilisation d'un procede de mise en forme multi-etapes qui inclue des cycles de mise en forme suivis d'etapes de traitement thermique intermediaires. Une revue de litterature exhaustive sur les methodes existantes pour ameliorer la formabilite des materiaux vises ainsi que les traitements thermiques d'adoucissement disponibles a permis d'etablir une procedure experimentale appropriee. Ce procede comprend plusieurs sequences de mise en forme suivie de traitement thermique successives jusqu'a l'obtention de la piece finale. L'insertion d'etapes de traitements thermiques intermediaires ainsi que la combinaison " deformation + traitement thermique " influencent le comportement mecanique et metallurgique des alliages. De ce fait, une caracterisation complete des materiaux a ete conduite a chaque etape du procede. D'un point de vue mecanique, l'effet des traitements thermiques et plus generalement du procede multi-etapes sur les proprietes mecaniques et lois constitutives des alliages a ete etudie en detail. Au niveau metallurgique, l'influence du procede sur les caracteristiques microstructurales des alliages tels la taille de grains, les phases en presence et la texture a ete analysee. Ces deux etudes paralleles ont permis de comprendre de facon complete et detaillee l'impact des modifications metallurgiques induites par le procede multietapes sur le comportement mecanique macroscopique et les proprietes finales de la piece.
Peroral endoscopic myotomy for achalasia in patients aged ≥ 65 years
Li, Chen-Jie; Tan, Yu-Yong; Wang, Xue-Hong; Liu, De-Liang
2015-01-01
AIM: To investigate the safety and efficacy of peroral endoscopic myotomy (POEM) for achalasia in patients aged ≥ 65 years. METHODS: From November 2011 to August 2014, 15 consecutive patients (aged ≥ 65 years) diagnosed with achalasia were prospectively recruited and all underwent POEM at our institution. Eckardt score, lower esophageal sphincter (LES) pressure, esophageal diameter, SF-36 questionnaire, and procedure-related complications were used to evaluate the outcomes. RESULTS: All 15 patients were treated successfully by POEM, with a median operation time of 55 min. Median myotomy length was 10 cm. Three patients underwent circular myotomy and 12 full-thickness myotomies. Symptoms remitted in all cases during post-POEM follow-up of 6-39 mo. Eckardt score reduced significantly (pre-operation vs post-operation: 8.0 vs 1.0, P < 0.05). Median LES pressure decreased from 27.4 to 9.6 mmHg (P < 0.05). Median diameter of the esophagus was significantly decreased (pre-operation vs post-operation: 51.0 mm vs 30.0 mm, P < 0.05). Only one patient had reflux, which was resolved with oral proton pump inhibitors. No serious complications related to POEM were found. The quality of life of the 15 patients improved significantly after POEM. CONCLUSION: POEM is a safe and effective technique for treatment of achalasia in patients aged ≥ 65 years, with improvement in symptoms and quality of life. PMID:26290645
PARALLEL PERTURBATION MODEL FOR CYCLE TO CYCLE VARIABILITY PPM4CCV
DOE Office of Scientific and Technical Information (OSTI.GOV)
Ameen, Muhsin Mohammed; Som, Sibendu
This code consists of a Fortran 90 implementation of the parallel perturbation model to compute cyclic variability in spark ignition (SI) engines. Cycle-to-cycle variability (CCV) is known to be detrimental to SI engine operation resulting in partial burn and knock, and result in an overall reduction in the reliability of the engine. Numerical prediction of cycle-to-cycle variability (CCV) in SI engines is extremely challenging for two key reasons: (i) high-fidelity methods such as large eddy simulation (LES) are required to accurately capture the in-cylinder turbulent flow field, and (ii) CCV is experienced over long timescales and hence the simulations needmore » to be performed for hundreds of consecutive cycles. In the new technique, the strategy is to perform multiple parallel simulations, each of which encompasses 2-3 cycles, by effectively perturbing the simulation parameters such as the initial and boundary conditions. The PPM4CCV code is a pre-processing code and can be coupled with any engine CFD code. PPM4CCV was coupled with Converge CFD code and a 10-time speedup was demonstrated over the conventional multi-cycle LES in predicting the CCV for a motored engine. Recently, the model is also being applied to fired engines including port fuel injected (PFI) and direct injection spark ignition engines and the preliminary results are very encouraging.« less
Effects of Eddy Viscosity on Time Correlations in Large Eddy Simulation
NASA Technical Reports Server (NTRS)
He, Guowei; Rubinstein, R.; Wang, Lian-Ping; Bushnell, Dennis M. (Technical Monitor)
2001-01-01
Subgrid-scale (SGS) models for large. eddy simulation (LES) have generally been evaluated by their ability to predict single-time statistics of turbulent flows such as kinetic energy and Reynolds stresses. Recent application- of large eddy simulation to the evaluation of sound sources in turbulent flows, a problem in which time, correlations determine the frequency distribution of acoustic radiation, suggest that subgrid models should also be evaluated by their ability to predict time correlations in turbulent flows. This paper compares the two-point, two-time Eulerian velocity correlation evaluated from direct numerical simulation (DNS) with that evaluated from LES, using a spectral eddy viscosity, for isotropic homogeneous turbulence. It is found that the LES fields are too coherent, in the sense that their time correlations decay more slowly than the corresponding time. correlations in the DNS fields. This observation is confirmed by theoretical estimates of time correlations using the Taylor expansion technique. Tile reason for the slower decay is that the eddy viscosity does not include the random backscatter, which decorrelates fluid motion at large scales. An effective eddy viscosity associated with time correlations is formulated, to which the eddy viscosity associated with energy transfer is a leading order approximation.
NASA Astrophysics Data System (ADS)
Jumeau, Daniel; André, Daniel
La phase plastique (c.f.c.) de la quinuclidine est étudiée à différentes températures par la méthode de Monte Carlo utilisant la technique des matrices de compatibilité. Afin de ne pas modifier la symétrie moyenne du réseau, les centres de masse de molécules sont supposés fixes. Les orientations moléculaires sont choisies de façon aléatoire parmi les 48 orientations équivalentes et discernables du groupe c.f.c. Cela permet une mémorisation préalable des énergies d'interaction entre molécules voisines et un gain de temps de calcul considérable. Nous observons alors un blocage des réorientations moléculaires à basse température, tandis que la symétrie cristalline devient monoclinique. Ceci est interprété en termes de transition de phase dont la température (215 K) et la variation d'énergie (5 kJ mol-1) sont très proches des valeurs expérimentales.
Capturing remote mixing due to internal tides using multi-scale modeling tool: SOMAR-LES
NASA Astrophysics Data System (ADS)
Santilli, Edward; Chalamalla, Vamsi; Scotti, Alberto; Sarkar, Sutanu
2016-11-01
Internal tides that are generated during the interaction of an oscillating barotropic tide with the bottom bathymetry dissipate only a fraction of their energy near the generation region. The rest is radiated away in the form of low- high-mode internal tides. These internal tides dissipate energy at remote locations when they interact with the upper ocean pycnocline, continental slope, and large scale eddies. Capturing the wide range of length and time scales involved during the life-cycle of internal tides is computationally very expensive. A recently developed multi-scale modeling tool called SOMAR-LES combines the adaptive grid refinement features of SOMAR with the turbulence modeling features of a Large Eddy Simulation (LES) to capture multi-scale processes at a reduced computational cost. Numerical simulations of internal tide generation at idealized bottom bathymetries are performed to demonstrate this multi-scale modeling technique. Although each of the remote mixing phenomena have been considered independently in previous studies, this work aims to capture remote mixing processes during the life cycle of an internal tide in more realistic settings, by allowing multi-level (coarse and fine) grids to co-exist and exchange information during the time stepping process.
NASA Astrophysics Data System (ADS)
Plante, Jacinthe
1998-09-01
Les resultats presentes ici proviennent d'une etude systematique portant sur les collisions a vitesse constante, entre les projectiles d'hydrogene (H+, H2+ et H3+ a 1 MeV/nucleon) et deux cibles gazeuses (N2 et O2), soumises a differentes pressions. Les collisions sont analysees a l'aide des spectres d'emission (de 400 A a 6650 A) et des graphiques intensite/pression. Les spectres ont revele la presence des raies d'azote atomique, d'azote moleculaire, d'oxygene atomique, d'oxygene moleculaire et d'hydrogene atomique. Les raies d'hydrogene sont observees seulement avec les projectiles H2+ et H3+. Donc les processus responsables de la formation de ces raies sont des mecanismes de fragmentation des projectiles. Pour conclure, il existe une difference notable entre les projectiles et les differentes pressions. Les raies d'azote et d'oxygene augmentent selon la pression et les raies d'hydrogene atomique presentent une relation non lineaire avec la pression.
Studies of the flow and turbulence fields in a turbulent pulsed jet flame using LES/PDF
NASA Astrophysics Data System (ADS)
Zhang, Pei; Masri, Assaad R.; Wang, Haifeng
2017-09-01
A turbulent piloted jet flame subject to a rapid velocity pulse in its fuel jet inflow is proposed as a new benchmark case for the study of turbulent combustion models. In this work, we perform modelling studies of this turbulent pulsed jet flame and focus on the predictions of its flow and turbulence fields. An advanced modelling strategy combining the large eddy simulation (LES) and the probability density function (PDF) methods is employed to model the turbulent pulsed jet flame. Characteristics of the velocity measurements are analysed to produce a time-dependent inflow condition that can be fed into the simulations. The effect of the uncertainty in the inflow turbulence intensity is investigated and is found to be very small. A method of specifying the inflow turbulence boundary condition for the simulations of the pulsed jet flame is assessed. The strategies for validating LES of statistically transient flames are discussed, and a new framework is developed consisting of different averaging strategies and a bootstrap method for constructing confidence intervals. Parametric studies are performed to examine the sensitivity of the predictions of the flow and turbulence fields to model and numerical parameters. A direct comparison of the predicted and measured time series of the axial velocity demonstrates a satisfactory prediction of the flow and turbulence fields of the pulsed jet flame by the employed modelling methods.
Simultaneous identification of transfer functions and combustion noise of a turbulent flame
NASA Astrophysics Data System (ADS)
Merk, M.; Jaensch, S.; Silva, C.; Polifke, W.
2018-05-01
The Large Eddy Simulation/System Identification (LES/SI) approach allows to deduce a flame transfer function (FTF) from LES of turbulent reacting flow: Time series of fluctuations of reference velocity and global heat release rate resulting from broad-band excitation of a simulated turbulent flame are post-processed via SI techniques to derive a low order model of the flame dynamics, from which the FTF is readily deduced. The current work investigates an extension of the established LES/SI approach: In addition to estimation of the FTF, a low order model for the combustion noise source is deduced from the same time series data. By incorporating such a noise model into a linear thermoacoustic model, it is possible to predict the overall level as well as the spectral distribution of sound pressure in confined combustion systems that do not exhibit self-excited thermoacoustic instability. A variety of model structures for estimation of a noise model are tested in the present study. The suitability and quality of these model structures are compared against each other, their sensitivity regarding certain time series properties is studied. The influence of time series length, signal-to-noise ratio as well as acoustic reflection coefficient of the boundary conditions on the identification are examined. It is shown that the Box-Jenkins model structure is superior to simpler approaches for the simultaneous identification of models that describe the FTF as well as the combustion noise source. Subsequent to the question of the most adequate model structure, the choice of optimal model order is addressed, as in particular the optimal parametrization of the noise model is not obvious. Akaike's Information Criterion and a model residual analysis are applied to draw qualitative and quantitative conclusions on the most suitable model order. All investigations are based on a surrogate data model, which allows a Monte Carlo study across a large parameter space with modest computationally effort. The conducted study constitutes a solid basis for the application of advanced SI techniques to actual LES data.
Dispositif de mesure calorimétrique des pertes dans les condensateurs de puissance
NASA Astrophysics Data System (ADS)
Seguin, B.; Gosse, J. P.
1997-02-01
A calorimetric technique is used to measure the power losses in capacitors. The power dissipated in the component is measured as the difference between the heat powers delivered by a temperature regulation when the capacitor is energetized or not. The original feature of the apparatus lies in the use of the isothermal calorimetry and in the measurement of an electrical power, in condradistinction with previous and dissatisfacting attempts based on the measurement of a temperature increase. The result is an improvement of the accuracy and sensibility of the apparatus which can be used to determine the equivalent series resistance of capacitors having very low losses. Measurements realized on a polypropylene capacitor and a sinusoidal applied voltage have allowed us to separate the ohmic losses from the dielectric ones and to study their variations with temperature. Une technique de calorimétrie isotherme est appliquée à la mesure des pertes électriques dans les condensateurs. La puissance calorifique dissipée par le composant est mesurée comme la différence des puissances de chauffe délivrées par une régulation de température quand le condensateur est hors tension ou sous tension. L'originalité du dispositif réside dans l'utilisation du principe de calorimétrie isotherme et dans la nature de la grandeur physique mesurée qui est une puissance électrique alors que les tentatives antérieures de mesures calorimétriques reposaient sur la mesure d'une élévation de température. Il en résulte une amélioration de la précision et de la sensibilité de ce type d'appareillage qui peut être employé pour caractériser la résistance série équivalente des condensateurs à très faibles pertes. Une série de mesures, réalisée sur un condensateur au polypropylène soumis à une tension sinusoïdale, a permis de séparer les pertes ohmiques des pertes diélectriques et d'étudier leurs variations avec la température.
Lawson-Ananissoh, Laté Mawuli; Bouglouga, Oumboma; Bagny, Aklesso; Kaaga, Laconi; Redah, Datouda
2014-01-01
Introduction Notre étude consistera à rapporter les indications et les lésions objectivées à la fibroscopie digestive haute et relever les particularités selon le sexe. Méthodes Étude rétrospective, descriptive sur des résultats de compte-rendu de la fibroscopie digestive haute menée en unité d'endoscopie digestive du service d'hépato-gastro-entérologie du CHU Campus de Lomé du 15 Mai 2009 au 31 Décembre 2013. Résultats La fibroscopie digestive haute a été réalisée chez 2795 patients dont 1188 hommes et 1607 femmes. L’âge moyen était de 40,65 ans (Extrêmes: 5 et 93 ans). La fibroscopie digestive haute était normale chez les femmes que chez les hommes avec une différence statistiquement significative (p = 0,000). Les principales indications étaient: les épigastralgies chez les femmes (p = 0,000); les hémorragies digestives hautes (p = 0,000) et l'hypertension portale (p = 0,000) chez les hommes; 3485 lésions pathologiques ont été observées. La pathologie inflammatoire prédominait (56,3%), la pathologie ulcéreuse (13,89%), la pathologie tumorale (2,01%). Les varices et la candidose œsophagiennes étaient significativement notées chez les hommes. Les ulcérations gastriques (p = 0,000), le reflux biliaire duodéno-gastrique (p = 0,017) étaient plus retrouvés chez les femmes et la gastropathie hypertensive beaucoup plus chez les hommes (p = 0,000). Que les lésions duodénales soient inflammatoires ou ulcéreuses associées ou non à une sténose bulbaire, elles étaient plus fréquentes chez les hommes. Conclusion De manière générale, il y avait une prédominance des lésions inflammatoires chez les femmes, les lésions tumorales et ulcéreuses chez les hommes PMID:25852805
NASA Astrophysics Data System (ADS)
Charlebois, Serge
De nombreux travaux theoriques et experimentaux ont ete publies sur les excitations topologiques de gaz electroniques bidimensionnels (GE2D), appellees skyrmions, dans le regime de l'effet Hall quantique a remplissage unitaire. On attend des excitations semblables appellees bimerons dans les systemes formes de deux GE2D couples. Contrairement au cas des GE2D simples, aucune experience n'a, a notre connaissance, presente la mesure d'une propriete specifique aux bimerons. Nous presentons dans cette these des travaux experimentaux ayant pour objectif l'etude d'excitations topologiques dans les heterostructures a double puits quantique. Une manifestation attendue (les bimerons est la presence d'une anisotropie dans la conductivite a travers une constriction. Nous avons concu un dispositif original a point de contact a trois grilles non-coplanaires. Ce dispositif a trois grilles a la particularite de permettre la creation d'une constriction etroite dans le double GE2D tout en permettant l'equilibrage de la densite electronique entre les deux puits dans l'etroit canal de conduction. Nous avons fabrique ce dispositif de taille submicronique par electrolithographie sur des heterostructures a double puits. Les dispositifs ainsi fabriques ont ete etudies a basse temperature (0.3K) et ont montre un fonctionnement conforme aux attentes. Les travaux n'ont pas permis de mettre en evidence une anisotropie de transport revelatrice de l'existence de bimerons. Cette these est a notre connaissance la premiere etude experimentale visant la realisation de l'experience d'anisotropie de transport et est ainsi une contribution significative a l'avancement des connaissances dans ce domaine. Les travaux theoriques que nous presentons ont permis de montrer l'effet des excitations topologiques sur la capacite grille-GE2D du systeme. Ces travaux ouvrent la voie de la detection des bimerons par l'intermediaire de la mesure de la capacite grille-GE2D ou encore de la susceptibilite electrique du GE2D. Poursuivant cet objectif, nous avons concu, realise et teste un dispositif de mesure in situ de la capacite grille-GE2D d'une heterostructure. Nous avons egalement suggere d'autres methodes experimentales pour la mise en evidence des bimerons par le couplage de la texture de pseudospin a la capacite du GE2D.
Relaxation diélectrique de solutions aqueuses d'éthylène glycol aux micro-ondes
NASA Astrophysics Data System (ADS)
Vicq, G.; Delbos, G.; Forniés Marquina, J. M.; Lamkaouchi, K.
1999-09-01
The study of dielectric properties of aqueous solutions of ethylene glycol in the frequency range 10 MHz - 20 GHz is reported as a function of water concentration at 20 circC. Some complex permittivity measurements were carried out using a precise reflectrometric method at 1.20, 3.26 and 9.45 GHz and some others using HP 8510 B network analyser from 45 MHz to 20 GHz and measurements by time domain reflectometry (T.D.R.). The dielectric relaxation analysis shows two domains of “Debye" dispersion for pure ethylene glycol and his aqueous solutions. Using a spectral decomposition, the static and high frequency dielectric constant and the relaxation time have been determined. The dielectric behaviour is interpreted by using the concept of Schallamach, concerning the mixtures of associated-associated liquids. Les auteurs présentent des séries de résultats de mesures en hyperfréquences concernant les permittivités diélectriques de l'éthylène-glycol et de ses solutions aqueuses à 20 circC, pour diverses concentrations, entre 100 MHz et 20 GHz. Ils ont utilisé trois techniques différentes : des mesures précises à trois fréquences fixes parfaitement stabilisées en guides d'ondes 1,20 ; 3,26 et 9,45 GHz par une méthode réflectométrique ; des mesures utilisant l'analyseur de réseau vectoriel HP 8510 B fonctionnant entre 45 MHz et 20 GHz ; et des mesures par réflectométrie en domaine de temps (R.D.T.). Ils montrent que l'analyse de la relaxation peut être représentée par la superposition de deux domaines de dispersion de type “Debye" pour l'éthylène glycol et ses solutions aqueuses. Par décomposition spectrales, ils déduisent la permittivité statique, les temps de relaxation et la permittivité à fréquence infinie à 20 circC? Ils proposent que ces mélanges soient de type associé-associé suivant le concept de Schallamach, qui montre que pour des mélanges de ce type, il existe des relaxations d'agrégats contenant les deux types de molécules plutôt que des relaxations de molécules individuelles.
NASA Technical Reports Server (NTRS)
Drozda, Tomasz G.; Quinlan, Jesse R.; Pisciuneri, Patrick H.; Yilmaz, S. Levent
2012-01-01
Significant progress has been made in the development of subgrid scale (SGS) closures based on a filtered density function (FDF) for large eddy simulations (LES) of turbulent reacting flows. The FDF is the counterpart of the probability density function (PDF) method, which has proven effective in Reynolds averaged simulations (RAS). However, while systematic progress is being made advancing the FDF models for relatively simple flows and lab-scale flames, the application of these methods in complex geometries and high speed, wall-bounded flows with shocks remains a challenge. The key difficulties are the significant computational cost associated with solving the FDF transport equation and numerically stiff finite rate chemistry. For LES/FDF methods to make a more significant impact in practical applications a pragmatic approach must be taken that significantly reduces the computational cost while maintaining high modeling fidelity. An example of one such ongoing effort is at the NASA Langley Research Center, where the first generation FDF models, namely the scalar filtered mass density function (SFMDF) are being implemented into VULCAN, a production-quality RAS and LES solver widely used for design of high speed propulsion flowpaths. This effort leverages internal and external collaborations to reduce the overall computational cost of high fidelity simulations in VULCAN by: implementing high order methods that allow reduction in the total number of computational cells without loss in accuracy; implementing first generation of high fidelity scalar PDF/FDF models applicable to high-speed compressible flows; coupling RAS/PDF and LES/FDF into a hybrid framework to efficiently and accurately model the effects of combustion in the vicinity of the walls; developing efficient Lagrangian particle tracking algorithms to support robust solutions of the FDF equations for high speed flows; and utilizing finite rate chemistry parametrization, such as flamelet models, to reduce the number of transported reactive species and remove numerical stiffness. This paper briefly introduces the SFMDF model (highlighting key benefits and challenges), and discusses particle tracking for flows with shocks, the hybrid coupled RAS/PDF and LES/FDF model, flamelet generated manifolds (FGM) model, and the Irregularly Portioned Lagrangian Monte Carlo Finite Difference (IPLMCFD) methodology for scalable simulation of high-speed reacting compressible flows.
Fabrication par injection flexible de pieces coniques pour des applications aerospatiales
NASA Astrophysics Data System (ADS)
Shebib Loiselle, Vincent
Les materiaux composites sont presents dans les tuyeres de moteurs spatiaux depuis les annees soixante. Aujourd'hui, l'avenement des tissus tridimensionnels apporte une solution innovatrice au probleme de delamination qui limitait les proprietes mecaniques de ces composites. L'utilisation de ces tissus necessite toutefois la conception de procedes de fabrication mieux adaptes. Une nouvelle methode de fabrication de pieces composites pour des applications aerospatiales a ete etudiee tout au long de ce travail. Celle-ci applique les principes de l'injection flexible (procede Polyflex) a la fabrication de pieces coniques de fortes epaisseurs. La piece de validation a fabriquer represente un modele reduit de piece de tuyere de moteur spatial. Elle est composee d'un renfort tridimensionnel en fibres de carbone et d'une resine phenolique. La reussite du projet est definie par plusieurs criteres sur la compaction et la formation de plis du renfort et sur la formation de porosites de la piece fabriquee. Un grand nombre d'etapes ont ete necessaires avant la fabrication de deux pieces de validation. Premierement, pour repondre au critere sur la compaction du renfort, la conception d'un outil de caracterisation a ete entreprise. L'etude de la compaction a ete effectuee afin d'obtenir les informations necessaires a la comprehension de la deformation d'un renfort 3D axisymetrique. Ensuite, le principe d'injection de la piece a ete defini pour ce nouveau procede. Pour en valider les concepts proposes, la permeabilite du renfort fibreux ainsi que la viscosite de la resine ont du etre caracterisees. A l'aide de ces donnees, une serie de simulations de l'ecoulement pendant l'injection de la piece ont ete realisees et une approximation du temps de remplissage calculee. Apres cette etape, la conception du moule de tuyere a ete entamee et appuyee par une simulation mecanique de la resistance aux conditions de fabrication. Egalement, plusieurs outillages necessaires pour la fabrication ont ete concus et installes au nouveau laboratoire CGD (composites grandes dimensions). En parallele, plusieurs etudes ont ete effectuees pour comprendre les phenomenes influencant la polymerisation de la resine.
DNS and LES of a Shear-Free Mixing Layer
NASA Technical Reports Server (NTRS)
Knaepen, B.; Debliquy, O.; Carati, D.
2003-01-01
The purpose of this work is twofold. First, given the computational resources available today, it is possible to reach, using DNS, higher Reynolds numbers than in Briggs et al.. In the present study, the microscale Reynolds numbers reached in the low- and high-energy homogeneous regions are, respectively, 32 and 69. The results reported earlier can thus be complemented and their robustness in the presence of increased turbulence studied. The second aim of this work is to perform a detailed and documented LES of the shear-free mixing layer. In that respect, the creation of a DNS database at higher Reynolds number is necessary in order to make meaningful LES assessments. From the point of view of LES, the shear-free mixing-layer is interesting since it allows one to test how traditional LES models perform in the presence of an inhomogeneity without having to deal with difficult numerical issues. Indeed, as argued in Briggs et al., it is possible to use a spectral code to study the shear-free mixing layer and one can thus focus on the accuracy of the modelling while avoiding contamination of the results by commutation errors etc. This paper is organized as follows. First we detail the initialization procedure used in the simulation. Since the flow is not statistically stationary, this initialization procedure has a fairly strong influence on the evolution. Although we will focus here on the shear-free mixing layer, the method proposed in the present work can easily be used for other flows with one inhomogeneous direction. The next section of the article is devoted to the description of the DNS. All the relevant parameters are listed and comparison with the Veeravalli & Warhaft experiment is performed. The section on the LES of the shear-free mixing layer follows. A detailed comparison between the filtered DNS data and the LES predictions is presented. It is shown that simple eddy viscosity models perform very well for the present test case, most probably because the flow seems to be almost isotropic in the small-scale range that is not resolved by the LES.
Large eddy simulation for predicting turbulent heat transfer in gas turbines
Tafti, Danesh K.; He, Long; Nagendra, K.
2014-01-01
Blade cooling technology will play a critical role in the next generation of propulsion and power generation gas turbines. Accurate prediction of blade metal temperature can avoid the use of excessive compressed bypass air and allow higher turbine inlet temperature, increasing fuel efficiency and decreasing emissions. Large eddy simulation (LES) has been established to predict heat transfer coefficients with good accuracy under various non-canonical flows, but is still limited to relatively simple geometries and low Reynolds numbers. It is envisioned that the projected increase in computational power combined with a drop in price-to-performance ratio will make system-level simulations using LES in complex blade geometries at engine conditions accessible to the design process in the coming one to two decades. In making this possible, two key challenges are addressed in this paper: working with complex intricate blade geometries and simulating high-Reynolds-number (Re) flows. It is proposed to use the immersed boundary method (IBM) combined with LES wall functions. A ribbed duct at Re=20 000 is simulated using the IBM, and a two-pass ribbed duct is simulated at Re=100 000 with and without rotation (rotation number Ro=0.2) using LES with wall functions. The results validate that the IBM is a viable alternative to body-conforming grids and that LES with wall functions reproduces experimental results at a much lower computational cost. PMID:25024418
Comparaison de méthodes d'identification des paramètres d'une machine asynchrone
NASA Astrophysics Data System (ADS)
Bellaaj-Mrabet, N.; Jelassi, K.
1998-07-01
Interests, in Genetic Algorithms (G.A.) expands rapidly. This paper consists initially to apply G.A. for identifying induction motor parameters. Next, we compare the performances with classical methods like Maximum Likelihood and classical electrotechnical methods. These methods are applied on three induction motors of different powers to compare results following a set of criteria. Les algorithmes génétiques sont des méthodes adaptatives de plus en plus utilisée pour la résolution de certains problèmes d'optimisation. Le présent travail consiste d'une part, à mettre en œuvre un A.G sur des problèmes d'identification des machines électriques, et d'autre part à comparer ses performances avec les méthodes classiques tels que la méthode du maximum de vraisemblance et la méthode électrotechnique basée sur des essais à vides et en court-circuit. Ces méthodes sont appliquées sur des machines asynchrones de différentes puissances. Les résultats obtenus sont comparés selon certains critères, permettant de conclure sur la validité et la performance de chaque méthode.
Caracterisation pratique des systemes quantiques et memoires quantiques auto-correctrices 2D
NASA Astrophysics Data System (ADS)
Landon-Cardinal, Olivier
Cette these s'attaque a deux problemes majeurs de l'information quantique: - Comment caracteriser efficacement un systeme quantique? - Comment stocker de l'information quantique? Elle se divise done en deux parties distinctes reliees par des elements techniques communs. Chacune est toutefois d'un interet propre et se suffit a elle-meme. Caracterisation pratique des systemes quantiques. Le calcul quantique exige un tres grand controle des systemes quantiques composes de plusieurs particules, par exemple des atomes confines dans un piege electromagnetique ou des electrons dans un dispositif semi-conducteur. Caracteriser un tel systeme quantique consiste a obtenir de l'information sur l'etat grace a des mesures experimentales. Or, chaque mesure sur le systeme quantique le perturbe et doit done etre effectuee apres avoir reprepare le systeme de facon identique. L'information recherchee est ensuite reconstruite numeriquement a partir de l'ensemble des donnees experimentales. Les experiences effectuees jusqu'a present visaient a reconstruire l'etat quantique complet du systeme, en particulier pour demontrer la capacite de preparer des etats intriques, dans lesquels les particules presentent des correlations non-locales. Or, la procedure de tomographie utilisee actuellement n'est envisageable que pour des systemes composes d'un petit nombre de particules. Il est donc urgent de trouver des methodes de caracterisation pour les systemes de grande taille. Dans cette these, nous proposons deux approches theoriques plus ciblees afin de caracteriser un systeme quantique en n'utilisant qu'un effort experimental et numerique raisonnable. - La premiere consiste a estimer la distance entre l'etat realise en laboratoire et l'etat cible que l'experimentateur voulait preparer. Nous presentons un protocole, dit de certification, demandant moins de ressources que la tomographie et tres efficace pour plusieurs classes d'etats importantes pour l'informatique quantique. - La seconde approche, dite de tomographie variationnelle, propose de reconstruire l'etat en restreignant l'espace de recherche a une classe variationnelle plutot qu'a l'immense espace des etats possibles. Un etat variationnel etant decrit par un petit nombre de parametres, un petit nombre d'experiences peut suffire a identifier les parametres variationnels de l'etat experimental. Nous montrons que c'est le cas pour deux classes variationnelles tres utilisees, les etats a produits matriciels (MPS) et l'ansatz pour intrication multi-echelle (MERA). Memoires quantiques auto-correctrices 2D. Une memoire quantique auto-correctrice est un systeme physique preservant de l'information quantique durant une duree de temps macroscopique. Il serait done l'equivalent quantique d'un disque dur ou d'une memoire flash equipant les ordinateurs actuels. Disposer d'un tel dispositif serait d'un grand interet pour l'informatique quantique. Une memoire quantique auto-correctrice est initialisee en preparant un etat fondamental, c'est-a-dire un etat stationnaire de plus basse energie. Afin de stocker de l'information quantique, il faut plusieurs etats fondamentaux distincts, chacun correspondant a une valeur differente de la memoire. Plus precisement, l'espace fondamental doit etre degenere. Dans cette these, on s'interesse a des systemes de particules disposees sur un reseau bidimensionnel (2D), telles les pieces sur un echiquier, qui sont plus faciles a realiser que les systemes 3D. Nous identifions deux criteres pour l'auto-correction: - La memoire quantique doit etre stable face aux perturbations provenant de l'environnement, par exemple l'application d'un champ magnetique externe. Ceci nous amene a considerer les systemes topologiques 2D dont les degres de liberte sont intrinsequement robustes aux perturbations locales de l'environnement. - La memoire quantique doit etre robuste face a un environnement thermique. Il faut s'assurer que les excitations thermiques n'amenent pas deux etats fondamentaux distincts vers le meme etat excite, sinon l'information aura ete perdue. Notre resultat principal montre qu'aucun systeme topologique 2D n'est auto-correcteur: l'environnement peut changer l'etat fondamental en deplacant aleatoirement de petits paquets d'energie, un mecanisme coherent avec l'intuition que tout systeme topologique admet des excitations localisees ou quasiparticules. L'interet de ce resultat est double. D'une part, il oriente la recherche d'un systeme auto-correcteur en montrant qu'il doit soit (i) etre tridimensionnel, ce qui est difficile a realiser experimentalement, soit (ii) etre base sur des mecanismes de protection nouveaux, allant au-dela des considerations energetiques. D'autre part, ce resultat constitue un premier pas vers la demonstration formelle de l'existence de quasiparticules pour tout systeme topologique.
2012-11-01
de loin sans correction, la chirurgie réfractive permet aux jeunes recrues ou militaires du rang de satisfaire aux normes de vision sans...correction exigées pour le métier militaire de leur choix, d’où une augmentation du nombre de candidats et la possibilité pour les individus...réfractive risquent d’engendrer des handicaps visuels et d’écourter des carrières militaires. Pour cette raison, la qualité du service fourni
1994-03-01
reality the structure of even one individual aircraft consists of many bat- ches and the tens of thousand of cars of one type manufactured in even...generated neural network power spectral densities of surface pressures are used to augment existing data and then load an elastic finite clement...investigated for possible use in augmenting this information which is required for fatigue life calculations. Since empennage environments on fighter
Strategies facilitant les tests en pre-certification pour la robustesse a l'egard des radiations =
NASA Astrophysics Data System (ADS)
Souari, Anis
Les effets des radiations cosmiques sur l'electronique embarquee preoccupent depuis. quelques decennies les chercheurs interesses par la robustesse des circuits integres. Plusieurs. recherches ont ete menees dans cette direction, principalement pour les applications spatiales. ou lâenvironnement de leur deploiement est hostile. En effet, ces environnements sont denses. en termes de particules qui, lorsquâelles interagissent avec les circuits integres, peuvent. mener a leur dysfonctionnement, voir meme a leur destruction. De plus, les effets des. radiations sâaccentuent pour les nouvelles generations des circuits integres ou la diminution. de la taille des transistors et lâaugmentation de la complexite de ces circuits augmentent la. probabilite dâapparition des anomalies et par consequence la croissance des besoins de test. Lâexpansion de lâelectronique grand public (commercial off-the-shelf, COTS) et lâadoption. de ces composants pour des applications critiques comme les applications avioniques et. spatiales incitent egalement les chercheurs a doubler les efforts de verification de la fiabilite. de ces circuits. Les COTS, malgre leurs meilleures caracteristiques en comparaison avec les. circuits durcis tolerants aux radiations qui sont couteux et en retard en termes de technologie. utilisee, sont vulnerables aux radiations. Afin dâameliorer la fiabilite de ces circuits, une evaluation de leur vulnerabilite dans les. differents niveaux dâabstraction du flot de conception est recommandee. Ceci aide les. concepteurs a prendre les mesures de mitigation necessaires sur le design au niveau. dâabstraction en question. Enfin, afin de satisfaire les exigences de tolerance aux pannes, des. tests tres couteux de certification, obtenus a lâaide de bombardement de particules (protons, neutrons, etc.), sont necessaires. Dans cette these, nous nous interessons principalement a definir une strategie de precertification. permettant dâevaluer dâune facon realiste la sensibilite des circuits integres face. aux effets des radiations afin dâeviter dâenvoyer des circuits non robustes a la phase tres. couteuse de la certification. Les circuits cibles par nos travaux sont les circuits integres. programmables par lâusager (FPGA) a base de memoire SRAM et le type de pannes ciblees, causees par les radiations, est les SEU (single event upset) consistant a un basculement de. lâetat logique dâun element de memoire a son complementaire. En effet, les FPGA a base de. memoire SRAM sont de plus en plus demandes par la communaute de lâaerospatial grace a. leurs caracteristiques de prototypage rapide et de reconfiguration sur site mais ils sont. vulnerables face aux radiations ou les SEU sont les pannes les plus frequentes dans les. elements de memoire de type SRAM. Nous proposons une nouvelle approche dâinjection de. pannes par emulation permettant de mimer les effets des radiations sur la memoire de. configuration des FPGA et de generer des resultats les plus fideles possibles des resultats des. tests de certification. Cette approche est basee sur la consideration de la difference de. sensibilite des elements de memoire de configuration lorsquâils sont a lâetat '1' et a lâetat '0', observee sous des tests acceleres sous faisceaux de protons au renomme laboratoire. TRIUMF, dans la procedure de generation des sequences de test dans le but de mimer la. distribution des pannes dans la memoire de configuration. Les resultats des experimentations. de validation montrent que la strategie proposee est efficace et genere des resultats realistes. Ces resultats revelent que ne pas considerer la difference de sensibilite peut mener a une. sous-estimation de la sensibilite des circuits face aux radiations. Dans la meme optique dâoptimisation de la procedure dâinjection des pannes par emulation, a. savoir le test de pre-certification, nous proposons une methodologie permettant de maximiser. la detection des bits critiques (bits provoquant une defaillance fonctionnelle sâils changent. dâetat) pour un nombre bien determine de SEU (qui est le modele de pannes adopte) ou de. maximiser la precision de lâestimation de nombre des bits critiques. Pour ce faire, une. classification des bits de configuration en differents ensembles est tout dâabord mise en. oeuvre, selon leur contenu, les ressources quâils configurent et leur criticite. Ensuite, une. evaluation de la sensibilite de chaque ensemble est accomplie. Enfin, la priorisation. dâinjection des pannes dans les ensembles les plus sensibles est recommandee. Plusieurs. scenarios dâoptimisation dâinjection des pannes sont proposes et les resultats sont compares. avec ceux donnes par la methode conventionnelle dâinjection aleatoire des pannes. La. methodologie dâoptimisation proposee assure une amelioration de plus de deux ordres de. grandeur. Une derniere approche facilitant lâevaluation de la sensibilite des bits configurant les LUT. (look up table) de FPGA, les plus petites entites configurables du FPGA permettant. dâimplementer des fonctions combinatoires, utilises par un design est presentee. Elle permet. lâidentification facile et sans cout en termes dâutilisation du materiel ou dâoutils externes des. bits des LUT. Lâapproche proposee est simple et efficace, offrant une couverture de pannes. de 100 % et applicable aux nouvelles generations des FPGA de Xilinx. Les approches proposees contribuent a repondre aux exigences du cahier des charges de cette. these et a achever les objectifs definis. Le realisme et la maximisation de lâestimation de la. vulnerabilite des circuits sous test offerts par les nouvelles approches assurent le. developpement dâune strategie de test en pre-certification efficace. En effet, la premiere. approche dâinjection de pannes considerant la difference de sensibilite relative des elements. de memoire selon leur contenu genere des resultats donnant une erreur relative atteignant. 3.1 % quand compares aux resultats obtenus a TRIUMF alors que lâerreur relative donnee. par la comparaison des resultats dâune injection conventionnelle aleatoire de pannes avec. ceux de TRIUMF peut atteindre la valeur de 75 %. De plus, lâapplication de cette approche a. des circuits plus conventionnels montre que 2.3 fois plus dâerreurs sont detectees en. comparaison avec lâinjection aleatoire des pannes. Ceci suggere que ne pas considerer la. difference de sensibilite relative dans la procedure dâemulation peut mener a une sousestimation. de la sensibilite du design face aux radiations. Les resultats de la deuxieme. approche proposee ont ete aussi compares aux resultats dâune injection aleatoire de pannes. Lâapproche proposee, maximisant le nombre des bits critiques inverses, permet dâatteindre. un facteur dâacceleration de 108 de la procedure dâinjection des pannes en comparaison a. lâapproche aleatoire. Elle permet aussi de minimiser lâerreur dâestimation du nombre des bits. critiques pour atteindre une valeur de ±1.1 % calculee pour un intervalle de confiance de. 95 % tandis que la valeur dâerreur dâestimation des bits critiques generee par lâapproche. aleatoire dâinjection des pannes pour le meme intervalle de confiance peut atteindre ±8.6 %. Enfin, la derniere approche proposee dâinjection de pannes dans les LUT se distingue des. autres approches disponibles dans la litterature par sa simplicite tout en assurant une. couverture maximale de pannes de 100 %. En effet, lâapproche proposee est independante. des outils externes permettant dâidentifier les bits configurant les LUT qui sont obsoletes ou. ne supportent pas les nouvelles generations des FPGA. Elle agit directement sur les fichiers. generes par lâoutil de synthese adopte.
Nouvelles morphologies de fibres electrofilees de polymere thermosensible =
NASA Astrophysics Data System (ADS)
Sta, Marwa
Ce memoire presente une etude sur la possibilite d'obtenir des membranes a base de polymeres thermosensibles avec differentes morphologies pour des applications d'administration de medicaments. Ces membranes ont ete obtenues par electrofilage du Poly (N vinylcaprolactame) (PNVCL), un polymere thermosensible, soit seul ou en melange avec du Polycaprolactone (PCL), un polymere biodegradable. Les parametres de procede ainsi que les proprietes de la solution a electrofiler ont ete optimises dans le but de creer des fibres de PNVCL lisses, continues et sans perles. Des solutions du melange (PNVCL) / (PCL) ont ete ensuite preparees en suivant quatre methodes differentes de preparation. Ces methodes se basent sur l'emploi de solvants distincts, eau distillee et chloroforme, avec differentes concentrations de polymere, 42wt% et 30wt% respectivement. Ces solutions ont ete electrofilees en utilisant les parametres de procede qui correspondaient aux meilleures conditions pour l'electrofilage du PNVCL. Ensuite, le ketophofene, un medicament hydrophobe, a ete ajoute au PNVCL et au melange PNVCL/PCL avant l'electrofilage afin d'etudier la capacite des fibres de PNVCL et de melanges de retenir le medicament hydrophobe et a en faire sa liberation. Enfin, des fibres noyau-enveloppes ont ete obtenues par electrofilage coaxial, en utilisant une solution aqueuse du melange PNVCL/PCL (42 wt%) pour l'enveloppe et une solution aqueuse du PEG (30 wt%) pour le noyau. Les morphologies des membranes resultantes et de leurs fibres ont ete caracterisees par microscopie electronique a balayage (MEB). La temperature de solution critique inferieure (LCST) de ces fibres, qui est la temperature en dessous de laquelle le polymere est soluble dans l'eau et au-dessus duquel il precipite, a ete evaluee par calorimetrie differentielle a balayage (DSC). L'efficacite d'encapsulation (EE) et la liberation du medicament ont ete evaluees en utilisant la technique de spectrophotometrie UV-visible. Des coupes transversales des fibres du melange (PNVCL) / (PCL) et des fibres preparees par electrofilage coaxial ont ete caracterisees par microscopie electronique a balayage (MEB) a haute resolution dans le but de determiner la taille des particules de PCL a l'interieur des fibres et de visualiser la morphologie noyau/enveloppe des fibres resultantes. Une membrane a nanofibres lisses et continues a ete obtenue par l'optimisation de l'electrofilage de PNVCL. L'addition de PCL au melange a conduit a un controle de la LCST et de l'hydrophobicite de la membrane. Il a egalement ete demontre que la liberation de medicament hydrophobe peut etre controlee par la morphologie de ce melange PCL/PNVCL. Finalement, il a ete possible de fabriquer des fibres noyau-enveloppe par l'electrofilage coaxial de PNVCL.
Sbiti, Mohammed; Lahmadi, khalid; louzi, Lhoussaine
2017-01-01
Résumé Les infections urinaires à entérobactéries productrices de bêtalactamases à spectre élargi (E-BLSE) constituent un risque infectieux, un enjeu thérapeutique de taille et peuvent même conduire dans certains cas à des impasses du fait de leur multi-résistance aux antibiotiques. Le but de ce travail est de préciser le profil épidémiologique des (E-BLSE) uropathogènes et décrire leur niveau actuel de résistance aux antibiotiques pour une meilleure prise en charge des patients selon les données locales. Il s'agit d'une étude rétrospective sur une période de trois ans (du 1er janvier 2013 au 31 décembre 2015) concernant toutes les souches d'E-BLSE isolées de tous les ECBU traités au laboratoire de microbiologie de à l'Hôpital Militaire Moulay Ismail de Meknès. La culture a été faite selon les techniques usuelles, et l'antibiogramme a été réalisé par méthode de disque diffusion sous gélose Muller-Hinton selon les recommandations du Comité de l'antibiogramme de la Société française de microbiologie CA-SFM 2013/2014. Cette étude a permis de noter une importante prévalence globale d'isolement des E-BLSE (12.2%), particulièrement chez les patients hospitalisés (54.8%) dont la plus grande prévalence (72%) a été enregistrée dans le service d'urologie. Parmi ces E-BLSE Escherichia coli constitue la majorité (61%) des isolats, cependant au sein de la même espèce Klebsiella pneumoniae est le plus producteur de BLSE (25.8%). L'étude de l'antibioresistance des E-BLSE durant ces trois ans a mis en évidence des co-résistances à la ciprofloxacine (92.5%), au sulfametoxazole-trimethoprime (88,4%), à la gentamycine (67,2%). Globalement nos résultats sont en accord avec les données des autres pays méditerranéens exception faite pour l'amikacine dont la résistance est très basse (6.1%) dans notre étude. Cette étude a montré que la prévalence des E-BLSE en milieu hospitalier est importante et que sa diffusion en milieu communautaire est un fait préoccupant. Ces E-BLSE sont généralement résistantes aux antibiotiques, notamment des aux molécules utiles en urologie. PMID:29138665
NASA Astrophysics Data System (ADS)
Doucet, Alexandre
Ce manuscrit presente la conception et la fabrication d'un miroir polarisant fabrique avec la methode de deposition par incidence oblique communement appelee en anglais GLAD (GLancing Angle Deposition). Cette methode de deposition par GLAD permet de changer la nanostructure des revetements avec l'inclinaison et la rotation du substrat par rapport au flux de materiau evapore. Ceci nous permet d'ajuster l'indice de refraction et d'obtenir des revetements birefringents avec un materiau intrinsequement isotrope. Puisque l'indice de refraction peut etre change, les miroirs sont fabriques avec un seul materiau contrairement aux methodes usuelles qui necessite deux materiaux. Les proprietes optiques des echantillons sont mesurees avec l'aide de l'ellipsometrie. Des images avec un microscope electronique a balayage par transmission permettent de verifier Ia structure des revetements deposes. Les miroirs sont utilises comme coupleurs de sortie du resonateur d'un laser avec un milieu actif d'(Yb3+0.1 Y 0.9)3Al5O12, ou plus simplement Yb: YAG, pompe optiquement avec une diode laser. Ces cristaux presentent des proprietes optiques interessantes pour leur utilisation comme milieu actif, mais avec une structure cristalline cubique, ils donnent lieu a des faisceaux polarises aleatoirement. Les miroirs que nous fabriquons permettent d'obtenir une emission polarisee lineairement sans avoir a ajouter d'autres elements au resonateur. Les tests sont faits en regime continu et pulse avec un absorbant saturable de Cr : Y AG. Deux materiaux sont etudies, soit le WO3 et le TiO2, et ils nous permettent d'obtenir une emission polarisee lineairement dans le mode TEM 00 avec un rapport d'extinction de 1000 (30 dB), mais seuls les miroirs de TiO2 permettent une emission pulsee periodique avec une densite de puissance crete pres de 700+/-80 MW/cm2. En etudiant le rapport d'extinction en fonction du temps de pompage, nous remarquons que l'etat de polarisation est beaucoup plus stable que celui obtenu avec un miroir isotrope. Des mesures du spectre d'emission avec un spectrometre de haute resolution permettent de constater le caractere multimode longitudinal en regime continu et une emission monomode longitudinale en regime pulse. None None None None None None None None None None None None None None None None None None None None None None None
Role of the lower esophageal sphincter on esophageal acid exposure - a review of over 2000 patients.
Tsuboi, Kazuto; Hoshino, Masato; Sundaram, Abhishek; Yano, Fumiaki; Mittal, Sumeet K
2012-01-01
Three lower esophageal sphincter (LES) characteristics associated with gastro-esophageal reflux disease (GERD) are, LES pressure = 6 mmHg, abdominal length (AL) <1 cm and overall length (OL) <2 cm. The objective of this study was to validate this relationship and evaluate the extent of impact various LES characteristics have on the degree of distal esophageal acid exposure. A retrospective review of a prospectively maintained database identified patients who underwent esophageal manometry and pH studies at Creighton University Medical Center between 1984 and 2008. Patients with esophageal body dysmotility, prior foregut surgery, missing data, no documented symptoms or no pH study, were excluded. Study subjects were categorized as follows: (1) normal LES (N-LES): patients with LES pressure of 6-26 mmHg, AL = 1.0 cm and OL = 2 cm; (2) incompetent LES (Inc-LES): patients with LES pressure <6.0 mmHg orAL <1 cm or OL <2 cm; and (3) hypertensive LES (HTN-LES): patients with LES pressure >26.0 mmHg with AL = 1 cm and OL = 2 cm. The DeMeester score was used to compare differences in acid exposure between different groups. Two thousand and twenty patients satisfied study criteria. Distal esophageal acid exposure as reflected by the DeMeester score in patients with Inc-LES (median=20.05) was significantly higher than in patients with an N-LES (median=9.5), which in turn was significantly higher than in patients with an HTN-LES. Increasing LES pressure and AL provided protection against acid exposure in a graded fashion. Increasing number of inadequate LES characteristics were associated with an increase both in the percentage of patients with abnormal DeMeester score and the degree of acid exposure. LES pressure (=6 mmHg) and AL (<1 cm) are associated with increased lower esophageal acid exposure, and need to be addressed for definitive management of GERD.
NASA Astrophysics Data System (ADS)
Lachaine, Remi
Les chirurgiens generent des bulles dans le corps humain a l'aide d'irradiation laser depuis plusieurs decennies. Ils utilisent ces bulles comme de petits scalpels, leur permettant de faire des incisions precises et localisees. Une des applications de cet outil chirurgical est la perforation cellulaire. Au lieu d'utiliser une aiguille pour perforer la membrane des cellules, il est possible de focaliser des impulsions laser en surface d'une cellule, formant un plasma au point focal du laser et generant une bulle qui perfore la membrane cellulaire. Toutefois, ce procede est assez lent et la perforation massive de cellules in-vivo n'est pas envisageable. Pour accelerer le processus, il est possible d'utiliser des nanoparticules plasmoniques. Ces dernieres agissent comme des nano-antennes qui permettent de concentrer la lumiere sur une echelle nanometrique. La possibilite d'irradier un grand nombre de nanoparticules simultanement a donne un nouvel elan a la generation de bulle comme outil de perforation cellulaire. L'utilisation de nanoparticules dans un contexte biomedical comporte toutefois certains risques. En particulier, la fragmentation de nanoparticules peut augmenter la toxicite du traitement. Dans un cas ideal, il est preferable d'utiliser des nanoparticules qui ne sont pas endommagees par l'irradiation laser. Cette these a pour but de developper une methode d'ingenierie de nanoparticules robustes permettant la generation efficace de bulles a des fins biomedicales. Il est tout d'abord demontre experimentalement que la formation de plasma est bel et bien le mecanisme physique principal menant a la generation de bulles lors de l'irradiation infrarouge (longueur d'onde de 800 nm) et ultrarapide (temps d'impulsion entre 45 fs et 1 ps) de nanoparticules d'or de 100 nm. Pour realiser cette demonstration, une methode pompe-sonde de detection de bulles d'environ 1 mum a ete elaboree. Cette methode a permis de mettre en evidence une difference de taille de 18% entre les bulles generees avec une irradiation de polarisation lineaire par rapport a une polarisation circulaire lorsque la duree d'impulsion etait inferieure a la picoseconde. Pour des impulsions plus longues, il est montre que les tailles de bulles sont independantes de la polarisation des impulsions incidentes. Ce comportement particulier est en accord avec les predictions theoriques qui incluent la formation non-lineaire de plasma et ne peut pas etre explique en considerant uniquement l'absorption des particules. Ensuite, une methode de conception de nanoparticules robustes pour la generation de bulles est elaboree. Cette methode se base sur les proprietes optiques des nanostructures.
NASA Astrophysics Data System (ADS)
Torkelson, G. Q.; Stoll, R., II
2017-12-01
Large Eddy Simulation (LES) is a tool commonly used to study the turbulent transport of momentum, heat, and moisture in the Atmospheric Boundary Layer (ABL). For a wide range of ABL LES applications, representing the full range of turbulent length scales in the flow field is a challenge. This is an acute problem in regions of the ABL with strong velocity or scalar gradients, which are typically poorly resolved by standard computational grids (e.g., near the ground surface, in the entrainment zone). Most efforts to address this problem have focused on advanced sub-grid scale (SGS) turbulence model development, or on the use of massive computational resources. While some work exists using embedded meshes, very little has been done on the use of grid refinement. Here, we explore the benefits of grid refinement in a pseudo-spectral LES numerical code. The code utilizes both uniform refinement of the grid in horizontal directions, and stretching of the grid in the vertical direction. Combining the two techniques allows us to refine areas of the flow while maintaining an acceptable grid aspect ratio. In tests that used only refinement of the vertical grid spacing, large grid aspect ratios were found to cause a significant unphysical spike in the stream-wise velocity variance near the ground surface. This was especially problematic in simulations of stably-stratified ABL flows. The use of advanced SGS models was not sufficient to alleviate this issue. The new refinement technique is evaluated using a series of idealized simulation test cases of neutrally and stably stratified ABLs. These test cases illustrate the ability of grid refinement to increase computational efficiency without loss in the representation of statistical features of the flow field.
Large-eddy simulations of compressible convection on massively parallel computers. [stellar physics
NASA Technical Reports Server (NTRS)
Xie, Xin; Toomre, Juri
1993-01-01
We report preliminary implementation of the large-eddy simulation (LES) technique in 2D simulations of compressible convection carried out on the CM-2 massively parallel computer. The convective flow fields in our simulations possess structures similar to those found in a number of direct simulations, with roll-like flows coherent across the entire depth of the layer that spans several density scale heights. Our detailed assessment of the effects of various subgrid scale (SGS) terms reveals that they may affect the gross character of convection. Yet, somewhat surprisingly, we find that our LES solutions, and another in which the SGS terms are turned off, only show modest differences. The resulting 2D flows realized here are rather laminar in character, and achieving substantial turbulence may require stronger forcing and less dissipation.
Syndromes drépanocytaires majeurs et infections associées chez l ’enfant au Burkina Faso
Douamba, Sonia; Nagalo, Kisito; Tamini, Laure; Traoré, Ismaël; Kam, Madibèlè; Kouéta, Fla; Yé, Diarra
2017-01-01
Introduction Le but de cette étude était d’étudier les infections chez les enfants présentant un syndrome drépanocytaire majeur. Méthodes Étude hospitalière monocentrique, rétrospective descriptive sur dix années menée à Ouagadougou, Burkina Faso. Étaient inclus tous les enfants porteurs d'un syndrome drépanocytaire majeur (homozygote SS et double hétérozygote SC, SDPunjab, Sβ thalassémique, SOArab et SE) hospitalisés pour une infection bactérienne confirmée à la microbiologie. Résultats Cent trente trois patients répondaient à nos critères d’inclusion. Le phénotype SS représentait 63,2% des cas et le SC 36,8%. La fréquence des infections était de 21,8%. Celles-ci touchaient dans 45,9% des cas les enfants âgés de 0 à 5 ans. Les signes les plus fréquents étaient les douleurs ostéoarticulaires (42,1%), la toux (25,7%), les douleurs abdominales (23,3%), la pâleur (43,6%). Les broncho-pneumopathies (31,6%), le paludisme (16,5%), les ostéomyélites (12,8%) et les septicémies (10,5%) étaient les principaux diagnostics trouvés. Les agents pathogènes isolés étaient Streptococcus pneumoniae (35,5%) et Salmonella sp (33,3%). Les céphalosporines de 3e génération étaient les antibiotiques les plus fréquemment prescrits. Le taux brut de mortalité était de 7,5%. Conclusion Les infections bactériennes et le paludisme dominent le tableau des infections chez l'enfant drépanocytaire majeur au Centre Hospitalier Universitaire Pédiatrique Charles De Gaulle. Les auteurs recommandent la mise en place d’un programme national de prise en charge de la drépanocytose, ce qui permettrait de prévenir voire réduire la survenue des infections chez les enfants drépanocytaires. PMID:28450986
Misombo-Kalabela, André; Nguefack-Tsague, Georges; Kalla, Ginette Claude Mireille; Ze, Emmanuel Afane; Diangs, Kimpanga; Panda, Tshapenda; Kebela, Ilunga; Fueza, Serge Bisuta; Magazani, Nzanzu; Mbopi-Kéou, François-Xavier
2016-01-01
Introduction L'objectif de cette étude était de déterminer les facteurs de risque associés à la tuberculose multi résistance à Kinshasa en République Démocratique du Congo. Méthodes Il s'agissait d'une étude cas témoins. Les cas comprenaient tous les patients tuberculeux résistants à la rifampicine et à l'isoniazide notifiés à Kinshasa de janvier 2012 à juin 2013. Les témoins étaient les patients tuberculeux traités durant la même période que les cas et qui à la fin du traitement étaient déclarés guéris. Pour cette étude, nous avons obtenu une clairance éthique. Résultats L’échantillon était constitué de 213 participants dont 132 hommes (62%) et 81 femmes (38%). L’âge médian était de 31ans (16-73 ans). Les facteurs associés significatifs (p< 0,05) à la tuberculose multi résistante étaient le non-respect des heures de prise de médicaments (0R = 111) (80% chez les cas et 4% chez les témoins), l’échec au traitement (0R = 20) (76% chez les cas et 13% chez les témoins); la notion de tuberculose multi résistante dans la famille (0R = 6.4) (28% chez les cas et 6% chez les témoins); la méconnaissance de la tuberculose multi résistante (0R = 3.2) (31% chez les cas et 59% chez les témoins); un séjour en prison (0R = 7.6) (10% chez les cas et 1% chez les témoins) et l'interruption du traitement (0R = 6.1) ( 59% chez les cas et 19% chez les témoins). Conclusion L’émergence de la tuberculose multi résistante peut être évitée par la mise en place des stratégies de diagnostic et de traitement appropriées. PMID:27516818
Disordered porous solids : from chord distributions to small angle scattering
NASA Astrophysics Data System (ADS)
Levitz, P.; Tchoubar, D.
1992-06-01
Disordered biphasic porous solids are examples of complex interfacial media. Small angle scattering strongly depends on the geometrical properties of the internal surface partitioning a porous system. Properties of the second derivative of the bulk autocorrelation function quantitatively defines the level of connection between the small angle scattering and the statistical properties of this interface. A tractable expression of this second derivative, involving the pore and the mass chord distribution functions, was proposed by Mering and Tchoubar (MT). Based on the present possibility to make a quantitative connection between imaging techniques and the small angle scattering, this paper tries to complete and to extend the MT approach. We first discuss how chord distribution functions can be used as fingerprints of the structural disorder. An explicit relation between the small angle scattering and these chord distributions is then proposed. In a third part, the application to different types of disorder is critically discussed and predictions are compared to available experimental data. Using image processing, we will consider three types of disorder : the long-range Debye randomness, the “ correlated " disorder with a special emphasis on the structure of a porous glass (the vycor), and, finally, complex structures where length scale invariance properties can be observed. Les solides poreux biphasiques sont des exemples de milieux interfaciaux complexes. La diffusion aux petits angles (SAS) dépend fortement des propriétés géométriques de l'interface partitionant le milieu poreux. Les propriétés de la dérivée seconde de la fonction d'autocorrélation de densité définit quantitativement le niveau de connection entre la diffusion aux petits angles et les caractéristiques statistiques de cette interface. Une expression utilisable de cette seconde dérivée, impliquant les distributions de cordes associées à la phase massique et au réseau de pores, fut proposée par Mering et Tchoubar (MT). Mettant à profit la possibilité actuelle d'une comparaison quantitative entre les techniques d'imagerie et la diffusion aux petits angles, ce papier tente de compléter et d'étendre l'approche MT. Dans un premier temps, nous montrons en quoi la connaissance de ces distributions de cordes permet de distinguer certains types de désordres structuraux. Une relation explicite entre le spectre de diffusion aux petits angles et les distributions de cordes est alors proposée. Dans une troisième partie, l'application à différents types de désordre est discutée et les prédictions du modèle comparées aux résultats expérimentaux disponibles. Par utilisation du traitement d'images, nous nous intéressons à trois types de désordre : le milieu aléatoire de Debye, pour ses propriétés à grandes distances, le désordre “ corrélé " avec une attention particulière pour le cas d'un verre poreux (le Vycor) et enfin des organisations complexes où des propriétés d'invariance d'échelle de longueur peuvent être observées.
ERIC Educational Resources Information Center
Crelinsten, Michael, Ed.
Part of the documentation for Katimavik, a nine-month volunteer community service and learning program for 17 to 21-year-old Canadians, the bilingual student manual focuses on the work skills portion of the learning program. The manual includes learning program objectives, trimester guidelines and a checklist for activity participation, optional…
Quand le Sens n'est pas toujours dans les mots (When the Meaning Isn't Always in the Words).
ERIC Educational Resources Information Center
Bault, Danielle
1990-01-01
Problems and techniques in teaching the translation of idioms that make little or no sense literally are examined, using as an example the translation of a French idiom into German. Use of bilingual dictionaries and other related activities to deepen and enrich understanding of the language are stressed. (MSE)
DOE Office of Scientific and Technical Information (OSTI.GOV)
Pei, Yuanjiang; Som, Sibendu; Pomraning, Eric
2015-12-01
An n-dodecane spray flame (Spray A from Engine Combustion Network) was simulated using a detailed combustion model along with a dynamic structure LES model to evaluate its performance at engine-relevant conditions and understand the transient behavior of this turbulent flame. The liquid spray was treated with a traditional Lagrangian method and the gas-phase reaction was modeled using a detailed combustion model. A 103-species skeletal mechanism was used for the n-dodecane chemical kinetic model. Significantly different flame structures and ignition processes are observed for the LES compared to those of RANS predictions. The LES data suggests that the first ignition initiatesmore » in lean mixture and propagates to rich mixture, and the main ignition happens in rich mixture, preferable less than 0.14 in mixture fraction space. LES was observed to have multiple ignition spots in the mixing layer simultaneously while the main ignition initiates in a clearly asymmetric fashion. The temporal flame development also indicates the flame stabilization mechanism is auto-ignition controlled and modulated by flame propagation. Soot predictions by LES present much better agreement with experiments compared to RANS both qualitatively and quantitatively. Multiple realizations for LES were performed to understand the realization to realization variation and to establish best practices for ensemble-averaging diesel spray flames. The relevance index analysis suggests that an average of 2 and 5 realizations can reach 99\\% of similarity to the target average of 16 realizations on the temperature and mixture fraction fields, respectively. However, more realizations are necessary for OH and soot mass fraction due to their high fluctuations.« less
Response of Esophagus to High and Low Temperatures in Patients With Achalasia
Ren, Yutang; Fang, Xiucai; Zhu, Liming; Sun, Xiaohong; Wang, Zhifeng; Wang, Ruifeng; Wei, Zhao; Wen, Ping; Xin, Haiwei; Chang, Min
2012-01-01
Background/Aims Achalasia patients would feel exacerbated dysphagia, chest pain and regurgitation when they drink cold beverages or eat cold food. But these symptoms would relieve when they drink hot water. Reasons are unknown. Methods Twelve achalasia patients (mean age, 34 ± 10 years; F:M, 3:9) who never had any invasive therapies were chosen from Peking Union Medical College Hospital. They were asked to fill in the questionnaire on eating habits including food temperature and related symptoms and to receive high-resolution manometry examination. The exam was done in 2 separated days, at swallowing room temperature (25℃) then hot (50℃) water, and at room temperature (25℃) then cold (2℃) water, respectively. Parameters associated with esophageal motility were analyzed. Results Most patients (9/12) reported discomfort when they ate cold food. All patients reported no additional discomfort when they ate hot food. Drinking hot water was effective in 5/8 patients who ever tried to relieve chest pain attacks. On manometry, cold water increased lower esophageal sphincter (LES) resting pressure (P = 0.003), and prolonged the duration of esophageal body contraction (P = 0.002). Hot water decreased LES resting pressure and residue pressure during swallow (P = 0.008 and P = 0.002), increased LES relaxation rate (P = 0.029) and shortened the duration of esophageal body contraction (P = 0.003). Conclusions Cold water could increase LES resting pressure, prolong the contraction duration of esophageal body, and exacerbate achalasia symptoms. Hot water could reduce LES resting pressure, assist LES relaxation, shorten the contraction duration of esophageal body and relieve symptoms. Thus achalasia patients are recommended to eat hot and warm food and avoid cold food. PMID:23105999
NASA Astrophysics Data System (ADS)
Piriou, F.; Razek, A.
1991-03-01
In this paper a 3D model for coupling of magnetic and electric equations is presented. The magnetic equations are solved with the help of finite element method using the magnetic vector potential formulation. To take into account the effects of magnetic saturation we use the Newton-Raphson algorithm. We develop the analysis permitting the coupling of magnetic and electric equations to obtain a difrerential system equations which can be solved with numerical integration. As example we model an iron core coil and the validity of our model is verified by a comparison of the obtained results with an analytical solution and a 2D code calculation. Dans cet article est présenté un modèle 3D qui permet de coupler les équations magnétiques et électriques. Les équations magnétiques sont résolues à l'aide de la méthode des éléments finis en utilisant une formulation en potentiel vecteur magnétique. Dans le modèle proposé les effets de la saturation du circuit magnétique sont pris en compte en utilisant l'algorithme de Newton-Raphson. On montre comment relier les équations magnétiques avec celles du circuit électrique pour aboutir à un système d'équations différentielles que l'on résout avec une intégration numérique. A titre d'exemple on modélise une bobine à noyau ferromagnétique et pour montrer la validité du modèle on compare les résultats obtenus avec une solution analytique et un code de calcul 2D.
Pei, Yuanjiang; Som, Sibendu; Pomraning, Eric; ...
2015-10-14
An n-dodecane spray flame (Spray A from Engine Combustion Network) was simulated using a δ function combustion model along with a dynamic structure large eddy simulation (LES) model to evaluate its performance at engine-relevant conditions and to understand the transient behavior of this turbulent flame. The liquid spray was treated with a traditional Lagrangian method and the gas-phase reaction was modeled using a δ function combustion model. A 103-species skeletal mechanism was used for the n-dodecane chemical kinetic model. Significantly different flame structures and ignition processes are observed for the LES compared to those of Reynolds-averaged Navier—Stokes (RANS) predictions. Themore » LES data suggests that the first ignition initiates in a lean mixture and propagates to a rich mixture, and the main ignition happens in the rich mixture, preferably less than 0.14 in mixture fraction space. LES was observed to have multiple ignition spots in the mixing layer simultaneously while the main ignition initiates in a clearly asymmetric fashion. The temporal flame development also indicates the flame stabilization mechanism is auto-ignition controlled. Soot predictions by LES present much better agreement with experiments compared to RANS, both qualitatively and quantitatively. Multiple realizations for LES were performed to understand the realization to realization variation and to establish best practices for ensemble-averaging diesel spray flames. The relevance index analysis suggests that an average of 5 and 6 realizations can reach 99% of similarity to the target average of 16 realizations on the mixture fraction and temperature fields, respectively. In conclusion, more realizations are necessary for the hydroxide (OH) and soot mass fractions due to their high fluctuations.« less
NASA Astrophysics Data System (ADS)
Debnath, M.; Santoni, C.; Leonardi, S.; Iungo, G. V.
2017-03-01
The dynamics of the velocity field resulting from the interaction between the atmospheric boundary layer and a wind turbine array can affect significantly the performance of a wind power plant and the durability of wind turbines. In this work, dynamics in wind turbine wakes and instabilities of helicoidal tip vortices are detected and characterized through modal decomposition techniques. The dataset under examination consists of snapshots of the velocity field obtained from large-eddy simulations (LES) of an isolated wind turbine, for which aerodynamic forcing exerted by the turbine blades on the atmospheric boundary layer is mimicked through the actuator line model. Particular attention is paid to the interaction between the downstream evolution of the helicoidal tip vortices and the alternate vortex shedding from the turbine tower. The LES dataset is interrogated through different modal decomposition techniques, such as proper orthogonal decomposition and dynamic mode decomposition. The dominant wake dynamics are selected for the formulation of a reduced order model, which consists in a linear time-marching algorithm where temporal evolution of flow dynamics is obtained from the previous temporal realization multiplied by a time-invariant operator. This article is part of the themed issue 'Wind energy in complex terrains'.
Detection de la fin de la compaction des anodes par le son
NASA Astrophysics Data System (ADS)
Sanogo, Bazoumana
L'objectif de ce projet etait de developper un outil de controle en temps reel du temps de compaction en se servant du son genere par le vibrocompacteur pendant le formage des anodes crues. Ainsi, une application a ete developpee pour l'analyse des sons enregistres. Des essais ont ete realises avec differents microphones pour une meilleure qualite des mesures et un a ete choisi pour la suite du projet. De meme, differents tests ont ete realises sur des anodes de laboratoire ainsi que des anodes a l'echelle industrielle afin de mettre en place une methode pour la detection du temps optimal necessaire au formage des anodes. Les travaux au laboratoire de carbone a l'Universite du Quebec a Chicoutimi (UQAC) ont consiste a l'enregistrement de son des anodes fabriquees sur place avec differentes configurations; et a la caracterisation de certaines anodes de l'usine. Les anodes fabriquees au laboratoire sont reparties en deux groupes. Le premier regroupe les anodes pour la validation de notre methode. Ce sont des anodes produites avec des temps de compaction differents. Le laboratoire de carbone a l'UQAC est unique et il est possible de produire des anodes avec les memes proprietes que celles des anodes industrielles. Par consequent, la validation initialement prevue a l'usine a ete effectuee avec les anodes de laboratoire. Le deuxieme groupe a servi a etudier les effets des matieres premieres sur le temps de compaction. Le type de coke et le type de brai ont constitue les differentes variations dans ce deuxieme groupe. Quant aux tests et mesures a l'usine, ils ont ete realises en trois campagnes de mesure. La premiere campagne en juin 2014 a servi a standardiser et a trouver le meilleur positionnement des appareils pour les mesures, a regler le logiciel et a faire les premieres mesures. Une deuxieme campagne en mai 2015 a fait l'objet d'enregistrement de son en classant les anodes selon differents temps de compaction. La troisieme et derniere campagne en decembre 2015 a ete le lieu de tests finaux a l'usine en fabriquant des anodes avec differents criteres (variation du temps de compaction, taux de brai, arret manuel du compacteur, variation de la pression des ballons du haut du compacteur). Ces anodes ont ete ensuite analysees au laboratoire a l'UQAC. En parallele a ces travaux precites, l'amelioration de l'application d'analyse du son a ete faite avec le choix des parametres d'analyse et leur standardisation. Les resultats des premiers tests au laboratoire et ceux de la campagne de juin 2014 ont montre que la formation des anodes se fait suivant trois etapes : rearrangement des particules et du brai, compaction et consolidation et enfin la finition. Ces travaux ont montre en outre que le temps de compaction joue un role tres important dans la definition des proprietes finales des anodes. Ainsi, en plus du type de brai, du taux de brai et du type de coke, il faut tenir compte du temps de sur-compaction et de sous-compaction. En effet, ceci a ete demontre a travers les deux validations qui ont ete realisees. Les resultats de la caracterisation des echantillons (venant des anodes de la campagne de decembre 2015) ont montre qu'une anode compactee a un temps optimal acquiert une bonne resistance a la compression et sa resistivite electrique baisse. En outre, on note que le temps de compaction dans notre cas a baisse legerement avec l'augmentation de la pression des ballons de haut du vibrocompacteur. Ce qui a eu pour effet d'augmenter la densite crue de l'anode. Toutefois, il faut s'abstenir de generaliser ce constat car le nombre d'anodes testees est faible dans notre cas. Par ailleurs, cette etude montre que le temps necessaire pour le formage d'une anode croit avec l'augmentation du taux de brai et baisse legerement avec l'augmentation de la pression des ballons. (Abstract shortened by ProQuest.).
Aerodynamic study of different cyclist positions: CFD analysis and full-scale wind-tunnel tests.
Defraeye, Thijs; Blocken, Bert; Koninckx, Erwin; Hespel, Peter; Carmeliet, Jan
2010-05-07
Three different cyclist positions were evaluated with Computational Fluid Dynamics (CFD) and wind-tunnel experiments were used to provide reliable data to evaluate the accuracy of the CFD simulations. Specific features of this study are: (1) both steady Reynolds-averaged Navier-Stokes (RANS) and unsteady flow modelling, with more advanced turbulence modelling techniques (Large-Eddy Simulation - LES), were evaluated; (2) the boundary layer on the cyclist's surface was resolved entirely with low-Reynolds number modelling, instead of modelling it with wall functions; (3) apart from drag measurements, also surface pressure measurements on the cyclist's body were performed in the wind-tunnel experiment, which provided the basis for a more detailed evaluation of the predicted flow field by CFD. The results show that the simulated and measured drag areas differed about 11% (RANS) and 7% (LES), which is considered to be a close agreement in CFD studies. A fair agreement with wind-tunnel data was obtained for the predicted surface pressures, especially with LES. Despite the higher accuracy of LES, its much higher computational cost could make RANS more attractive for practical use in some situations. CFD is found to be a valuable tool to evaluate the drag of different cyclist positions and to investigate the influence of small adjustments in the cyclist's position. A strong advantage of CFD is that detailed flow field information is obtained, which cannot easily be obtained from wind-tunnel tests. This detailed information allows more insight in the causes of the drag force and provides better guidance for position improvements. Copyright 2010 Elsevier Ltd. All rights reserved.
Pringsheim, Tamara; Doja, Asif; Belanger, Stacey; Patten, Scott
2012-01-01
HISTORIQUE ET OBJECTIF : L’utilisation d’antipsychotiques augmente chez les enfants. Le présent article visait à orienter les cliniciens quant à la prise en charge clinique des effets secondaires extrapyramidaux des antipsychotiques de deuxième génération. MÉTHODOLOGIE : Les publications, les entrevues avec des informateurs clés et des échanges avec les membres d’un groupe de discussion et les partenaires ont permis de déterminer les principaux secteurs cliniques d’orientation et les préférences quant à la structure des présentes recommandations. Les membres responsables des lignes directrices ont reçu le projet de recommandations, ont évalué l’information recueillie grâce à une analyse bibliographique systématique et ont utilisé un processus de groupe nominal pour parvenir à un consensus quant aux recommandations thérapeutiques. Les lignes directrices contiennent une description des anomalies neurologiques souvent observées avec l’utilisation d’antipsychotiques ainsi que les recommandations sur le moyen d’examiner et de quantifier ces anomalies. Une démarche séquentielle sur la prise en charge des anomalies neurologiques est présentée. RÉSULTATS : On peut observer plusieurs types de symptômes extrapyramidaux attribuables à l’utilisation d’antipsychotiques chez les enfants, y compris la dystonie aiguë, l’akathisie, le parkinsonisme et la dyskinésie tardive, toutes induites par les neuroleptiques, de même que la dystonie tardive, l’akathisie tardive et les dyskinésies de sevrage. La forte majorité des données probantes sur le traitement des troubles du mouvement induits par les antipsychotiques proviennent de patients adultes atteints de schizophrénie. Étant donné le peu de données pédiatriques, les recommandations découlent de publications portant tant sur des adultes que sur des enfants. Compte tenu des limites de généralisation des données provenant de sujets adultes pour des enfants, il faudrait évaluer ces recommandations d’après les avis d’experts plutôt que d’après les données probantes. CONCLUSION : Les cliniciens doivent savoir que les antipsychotiques de deuxième génération ont le potentiel d’induire des effets secondaires neurologiques et devraient faire preuve d’une extrême vigilance lorsqu’ils en prescrivent. PMID:24082814
Gain Measurement of a Cavity-Backed Spiral Antenna from 4 to 18 GHz Using the Three-Antenna Method
1998-11-01
Research Laboratory (DDARLing). RESUME Ce rapport pr~sente les r~sultats de mesures de gain d’une antenne A cavit6 en spirale qui op~re dans la plage de... antennes . Comme l’antenne d tester 6tait polarisre circulairement, la mrthode fuit dtendue pour obtenir les gains d polarisation circulaire copolaire et...contrapolaire. Cette mrthode requiert l’emploi de deux autres antennes ou comets A polarisation linraire. Deux sessions de mesures de gains ont W
Facteurs de risque dans le trouble déficitaire de l’attention et de l’hyperactivité: étude familiale
Poissant, Hélène; Rapin, Lucile
2012-01-01
Résumé Objectif: Notre étude a pour but d’évaluer les facteurs de risque associés au trouble déficitaire de l’attention et de l’hyperactivité (TDAH) en termes de comorbidités et de facteurs d’adversité à l’intérieur des familles avec un TDAH. Méthodologie: 137 parents de 104 enfants avec un TDAH et 40 parents de 34 enfants contrôles ont répondu aux items d’un questionnaire. Des tests Chi-carrés et des tests de Student ont mesuré l’association de chaque item avec les groupes et les différences entre les groupes. Résultats: Les enfants avec un TDAH avaient des performances scolaires plus faibles et une plus forte prévalence des troubles d’apprentissage, oppositionnel, des conduites et anxieux que celle des enfants contrôles. Des difficultés d’apprentissage étaient plus souvent rapportées chez les pères d’enfants avec un TDAH. Par ailleurs, l’isolement social et les accidents de la route étaient davantage présents chez les mères d’enfants avec un TDAH. Ces dernières souffraient plus de dépression et de trouble anxieux et prenaient davantage de médicaments que les mères contrôles. Conclusion: L’étude de facteurs de risque révèle un lien entre les parents et les enfants, spécifiquement la présence de dépression parmi les mères d’enfants avec un TDAH et de difficultés d’apprentissage chez les pères, suggérant une composante familiale dans le trouble. La sous-représentation du TDAH chez les pères d’enfants avec un TDAH est discutée. PMID:23133459
Adjoint Sensitivity Analysis for Scale-Resolving Turbulent Flow Solvers
NASA Astrophysics Data System (ADS)
Blonigan, Patrick; Garai, Anirban; Diosady, Laslo; Murman, Scott
2017-11-01
Adjoint-based sensitivity analysis methods are powerful design tools for engineers who use computational fluid dynamics. In recent years, these engineers have started to use scale-resolving simulations like large-eddy simulations (LES) and direct numerical simulations (DNS), which resolve more scales in complex flows with unsteady separation and jets than the widely-used Reynolds-averaged Navier-Stokes (RANS) methods. However, the conventional adjoint method computes large, unusable sensitivities for scale-resolving simulations, which unlike RANS simulations exhibit the chaotic dynamics inherent in turbulent flows. Sensitivity analysis based on least-squares shadowing (LSS) avoids the issues encountered by conventional adjoint methods, but has a high computational cost even for relatively small simulations. The following talk discusses a more computationally efficient formulation of LSS, ``non-intrusive'' LSS, and its application to turbulent flows simulated with a discontinuous-Galkerin spectral-element-method LES/DNS solver. Results are presented for the minimal flow unit, a turbulent channel flow with a limited streamwise and spanwise domain.
NASA Technical Reports Server (NTRS)
Mankbadi, Mina R.; Georgiadis, Nicholas J.; DeBonis, James R.
2015-01-01
The objective of this work is to compare a high-order solver with a low-order solver for performing Large-Eddy Simulations (LES) of a compressible mixing layer. The high-order method is the Wave-Resolving LES (WRLES) solver employing a Dispersion Relation Preserving (DRP) scheme. The low-order solver is the Wind-US code, which employs the second-order Roe Physical scheme. Both solvers are used to perform LES of the turbulent mixing between two supersonic streams at a convective Mach number of 0.46. The high-order and low-order methods are evaluated at two different levels of grid resolution. For a fine grid resolution, the low-order method produces a very similar solution to the highorder method. At this fine resolution the effects of numerical scheme, subgrid scale modeling, and filtering were found to be negligible. Both methods predict turbulent stresses that are in reasonable agreement with experimental data. However, when the grid resolution is coarsened, the difference between the two solvers becomes apparent. The low-order method deviates from experimental results when the resolution is no longer adequate. The high-order DRP solution shows minimal grid dependence. The effects of subgrid scale modeling and spatial filtering were found to be negligible at both resolutions. For the high-order solver on the fine mesh, a parametric study of the spanwise width was conducted to determine its effect on solution accuracy. An insufficient spanwise width was found to impose an artificial spanwise mode and limit the resolved spanwise modes. We estimate that the spanwise depth needs to be 2.5 times larger than the largest coherent structures to capture the largest spanwise mode and accurately predict turbulent mixing.
NASA Technical Reports Server (NTRS)
Mankbadi, M. R.; Georgiadis, N. J.; DeBonis, J. R.
2015-01-01
The objective of this work is to compare a high-order solver with a low-order solver for performing large-eddy simulations (LES) of a compressible mixing layer. The high-order method is the Wave-Resolving LES (WRLES) solver employing a Dispersion Relation Preserving (DRP) scheme. The low-order solver is the Wind-US code, which employs the second-order Roe Physical scheme. Both solvers are used to perform LES of the turbulent mixing between two supersonic streams at a convective Mach number of 0.46. The high-order and low-order methods are evaluated at two different levels of grid resolution. For a fine grid resolution, the low-order method produces a very similar solution to the high-order method. At this fine resolution the effects of numerical scheme, subgrid scale modeling, and filtering were found to be negligible. Both methods predict turbulent stresses that are in reasonable agreement with experimental data. However, when the grid resolution is coarsened, the difference between the two solvers becomes apparent. The low-order method deviates from experimental results when the resolution is no longer adequate. The high-order DRP solution shows minimal grid dependence. The effects of subgrid scale modeling and spatial filtering were found to be negligible at both resolutions. For the high-order solver on the fine mesh, a parametric study of the spanwise width was conducted to determine its effect on solution accuracy. An insufficient spanwise width was found to impose an artificial spanwise mode and limit the resolved spanwise modes. We estimate that the spanwise depth needs to be 2.5 times larger than the largest coherent structures to capture the largest spanwise mode and accurately predict turbulent mixing.
Elbouti, Anass; Rafai, Mostafa; Chouaib, Naoufal; Jidane, Said; Belkouch, Ahmed; Bakkali, Hicham; Belyamani, Lahcen
2016-01-01
Cette étude à pour objectifs de décrire les pratiques des prescriptions, évaluer leur pertinence et leur conformité aux règles d’utilisations et étudier les facteurs susceptibles de les influencer. Il s’agit d’une étude transversale d’évaluation des prescriptions antibiotiques portant sur 105 patients réalisée au service des urgences médico-chirurgicales de l’H.M.I.Med V de Rabat sur une période d’un mois. Le recueil des données était fait à l’aide d’un questionnaire rapportant les données démographiques et anamnestiques, les antécédents, la notion d’allergie, les données spécifiques de l’examen clinique, les données para cliniques, la prescription détaillée de l’antibiotique. Les données récoltées ont été ensuite évaluées par un médecin référent, chargé d’indiquer les éventuelles erreurs de traitement. Parmi les infections ayant motivé la prescription des antibiotiques, les affections des systèmes respiratoires et urinaires étaient au premier rang, les familles d’antibiotiques les plus couramment employées sont les pénicillines, les quinolones et les céphalosporines. 74 prescriptions soit (70,5%) étaient à la fois pertinentes et conformes contre 9 prescriptions soit (8,6%) justifiées mais non pertinentes et 6 prescriptions soit (5,7%) étaient jugées injustifiées par le médecin référent par absence d’infection. Les évaluations des pratiques médicales sont rarement menées dans les établissements de santé; c’est dans ce cadre que nous avons voulu nous inscrire en produisant cette étude afin d’améliorer la pertinence de nos prescriptions antibiotiques et d’optimiser leur conformité aux différentes recommandations. PMID:28292124
La prévention des blessures causées par les véhicules tout-terrains
Yanchar, Natalie L
2012-01-01
RÉSUMÉ Les véhicules tout-terrains (VTT) sont largement utilisés au Canada dans le cadre des loisirs, du transport et du travail, tel que l’agriculture. En qualité de véhicules automobiles, ils peuvent être particulièrement dangereux lorsqu’ils sont utilisés par des enfants et des jeunes adolescents qui ne possèdent pas les connaissances, la taille physique, la force et les compétences cognitives et motrices nécessaires pour les conduire en toute sécurité. La magnitude du risque de blessures pour les jeunes conducteurs est exposée de manière explicite dans les avertissements figurant dans le manuel du conducteur et sur les étiquettes des modèles les plus récents. Elle est également et démontrée par le nombre important d’hospitalisations et de décès pédiatriques attribuables à des traumatismes liés aux VTT. Cependant, le port du casque est loin d’être universel chez les jeunes conducteurs, et les comportements de conduite non sécuritaires demeurent courants, tels que la conduite sans supervision ou avec des passagers. Malgré les avertissements de l’industrie et l’éducation publique qui font ressortir l’importance de comportements sécuritaires et les risques de graves blessures chez les enfants et les adolescents, on continue de recenser des blessures et des décès liés aux VTT. Tant que des mesures n’auront pas été prises pour réduire ces blessures de manière substantielle et efficace, il est essentiel de limiter la conduite par des jeunes, notamment ceux de moins de 16 ans, afin de réduire le fardeau des traumatismes liés aux VTT chez les enfants et les adolescents. Le présent document remplace le document de principes de la Société canadienne de pédiatrie publié en 2004.
A Parallel, Finite-Volume Algorithm for Large-Eddy Simulation of Turbulent Flows
NASA Technical Reports Server (NTRS)
Bui, Trong T.
1999-01-01
A parallel, finite-volume algorithm has been developed for large-eddy simulation (LES) of compressible turbulent flows. This algorithm includes piecewise linear least-square reconstruction, trilinear finite-element interpolation, Roe flux-difference splitting, and second-order MacCormack time marching. Parallel implementation is done using the message-passing programming model. In this paper, the numerical algorithm is described. To validate the numerical method for turbulence simulation, LES of fully developed turbulent flow in a square duct is performed for a Reynolds number of 320 based on the average friction velocity and the hydraulic diameter of the duct. Direct numerical simulation (DNS) results are available for this test case, and the accuracy of this algorithm for turbulence simulations can be ascertained by comparing the LES solutions with the DNS results. The effects of grid resolution, upwind numerical dissipation, and subgrid-scale dissipation on the accuracy of the LES are examined. Comparison with DNS results shows that the standard Roe flux-difference splitting dissipation adversely affects the accuracy of the turbulence simulation. For accurate turbulence simulations, only 3-5 percent of the standard Roe flux-difference splitting dissipation is needed.
Pertinence de l'implantation de la filiere granule de bois pour le Quebec
NASA Astrophysics Data System (ADS)
Tremblay, Stephan
Les spécialistes avancent que le marché mondial de l'énergie en forte demande et en offre limitée nécessitera bientôt toutes les formes d'énergie disponibles. Le granulé de bois est une forme de bioénergie principalement utilisée pour le chauffage des bâtiments et pourrait être davantage considéré dans l'offre énergétique du Québec. Comme le Québec est un territoire où il fait froid et donc susceptible de pouvoir se tourner vers cette forme d'énergie, l'objectif de ce mémoire est d'en analyser les avantages. Pour ce faire, nous commencerons par démontrer la croissance des besoins énergétiques sur les plans national et international et dresser un portrait des différentes formes d'énergies consommées au Québec. Puisque la majorité des Québécois chauffent leurs bâtiments à l'hydroélectricité, nous analyserons à travers le plan d'approvisionnement d'Hydro-Québec le portrait de la production et de la consommation de cette forme d'énergie renouvelable. Cela nous permettra de constater le défi face à la gestion de surplus importants, sauf pendant la période hivernale, et ce faisant, l'obligation de la société d'État d'utiliser davantage ses centrales au gaz ou de se tourner vers l'importation de l'électricité. Dans la même lignée, un regard sera porté sur les perspectives d'utilisation de l'hydroélectricité sur les plans de la production d'aluminium, de l'exportation et de l'utilisation dans l'électrification des transports au Québec. Cette analyse se fera dans l'objectif de s'interroger sur la pertinence d'utiliser cette source d'énergie dans le chauffage plutôt que dans des secteurs plus créateurs de richesse. Nous poserons ensuite l'hypothèse que le granulé de bois pourrait être un bon substitut à une autre forme d'énergie utilisée dans le chauffage, soit le mazout. Avant de dresser un portrait de ce combustible fossile, nous ferons celui de la production et de la consommation de granulés sur les plans régional, québécois, canadien, européen et mondial. Cela nous amènera par la suite à comparer les deux formes d'énergie sous les angles de l'économie et des émissions de gaz à effet de serre (GES). Après cette comparaison théorique, a suivi une comparaison réelle faite à partir des résultats d'une expérience terrain où cinq maisons chauffant au mazout ont été converties aux granulés de bois. Cela nous a permis de constater d'une part la véracité de nos comparaisons théoriques, mais aussi d'évaluer les différentes techniques relatives au fait de passer d'une forme d'énergie liquide (le mazout) à une forme solide (le granulé).
Van Camp, Tinneke; Hébert, Martine; Fernet, Mylène; Blais, Martin; Lavoie, Francine
2016-01-01
Cette étude explore les pires expériences vécues dans les relations amoureuses de jeunes qui ont rapporté avoir vécu de la violence sexuelle dans une relation de couple récente. Quelles sont les situations perçues comme étant les plus difficiles par les jeunes et est-ce que celles-ci se limitent à des incidents violents? Le questionnaire sur les parcours amoureux des jeunes (PAJ) a été complété par des jeunes Québécois âgés de 14 à 18 ans. Au total, plus de 600 participants ont rapporté au moins un épisode de violence sexuelle (souvent en combinaison avec d’autres formes de violence). Nous présentons les résultats de l’analyse qualitative inductive fondée sur une question ouverte concernant la pire expérience vécue. Les observations suggèrent que, en plus des expériences de violence, les difficultés relationnelles, les ruptures amoureuses et les sentiments amoureux non réciproques sont des situations particulièrement difficiles selon les propos des jeunes. Ces différents enjeux vécus par les jeunes devraient être pris en considération dans l’offre de services d’intervention à leur intention. PMID:28191266
Model-Invariant Hybrid Computations of Separated Flows for RCA Standard Test Cases
NASA Technical Reports Server (NTRS)
Woodruff, Stephen
2016-01-01
NASA's Revolutionary Computational Aerosciences (RCA) subproject has identified several smooth-body separated flows as standard test cases to emphasize the challenge these flows present for computational methods and their importance to the aerospace community. Results of computations of two of these test cases, the NASA hump and the FAITH experiment, are presented. The computations were performed with the model-invariant hybrid LES-RANS formulation, implemented in the NASA code VULCAN-CFD. The model- invariant formulation employs gradual LES-RANS transitions and compensation for model variation to provide more accurate and efficient hybrid computations. Comparisons revealed that the LES-RANS transitions employed in these computations were sufficiently gradual that the compensating terms were unnecessary. Agreement with experiment was achieved only after reducing the turbulent viscosity to mitigate the effect of numerical dissipation. The stream-wise evolution of peak Reynolds shear stress was employed as a measure of turbulence dynamics in separated flows useful for evaluating computations.
Linear approximations of global behaviors in nonlinear systems with moderate or strong noise
NASA Astrophysics Data System (ADS)
Liang, Junhao; Din, Anwarud; Zhou, Tianshou
2018-03-01
While many physical or chemical systems can be modeled by nonlinear Langevin equations (LEs), dynamical analysis of these systems is challenging in the cases of moderate and strong noise. Here we develop a linear approximation scheme, which can transform an often intractable LE into a linear set of binomial moment equations (BMEs). This scheme provides a feasible way to capture nonlinear behaviors in the sense of probability distribution and is effective even when the noise is moderate or big. Based on BMEs, we further develop a noise reduction technique, which can effectively handle tough cases where traditional small-noise theories are inapplicable. The overall method not only provides an approximation-based paradigm to analysis of the local and global behaviors of nonlinear noisy systems but also has a wide range of applications.
Déprescription des antihyperglycémiants chez les personnes âgées
Farrell, Barbara; Black, Cody; Thompson, Wade; McCarthy, Lisa; Rojas-Fernandez, Carlos; Lochnan, Heather; Shamji, Salima; Upshur, Ross; Bouchard, Manon; Welch, Vivian
2017-01-01
Résumé Objectif Formuler des lignes directrices fondées sur les données probantes afin d’aider les cliniciens à décider du moment et de la façon sécuritaire de réduire la dose des antihyperglycémiants, de mettre fin au traitement ou de passer à un autre agent chez les personnes âgées. Méthodes Nous nous sommes concentrés sur les données les plus probantes disponibles et avons cherché à obtenir les commentaires des professionnels de première ligne durant le processus de rédaction, de révision et d’adoption des lignes directrices. L’équipe était formée de 7 professionnels de la santé (2 médecins de famille, 3 pharmaciens, 1 infirmière praticienne et 1 endocrinologue) et d’une spécialiste de la méthodologie; les membres ont divulgué tout conflit d’intérêts. Nous avons eu recours à un processus rigoureux, y compris l’approche GRADE (Grading of Recommendations Assessment, Development and Evaluation) pour formuler les lignes directrices. Nous avons effectué une revue systématique dans le but d’évaluer les données probantes indiquant les bienfaits et les torts liés à la déprescription des antihyperglycémiants. Nous avons révisé les revues des torts liés à la poursuite du traitement antihyperglycémiant, et effectué des synthèses narratives des préférences des patients et des répercussions sur les ressources. Ces synthèses et évaluations de la qualité des données selon l’approche GRADE ont servi à formuler les recommandations. L’équipe a peaufiné le texte sur le contenu et les recommandations des lignes directrices par consensus et a synthétisé les considérations cliniques afin de répondre aux questions courantes des cliniciens de première ligne. Une version préliminaire des lignes directrices a été distribuée aux cliniciens et aux intervenants aux fins d’examen, et des révisions ont été apportées au texte à chaque étape. Un algorithme d’appui décisionnel a été conçu pour accompagner les lignes directrices. Recommandations Nous recommandons de déprescrire les antihyperglycémiants reconnus pour contribuer à l’hypoglycémie chez les personnes âgées à risque ou dans les situations où les antihyperglycémiants pourraient causer d’autres effets indésirables, et d’individualiser les cibles et de déprescrire en conséquence chez les personnes frêles, atteintes de démence ou dont l’espérance de vie est limitée. Conclusion Les présentes lignes directrices émettent des recommandations pratiques pour décider du moment et de la façon de déprescrire les antihyperglycémiants. Elles visent à contribuer au processus de décision conjointement avec le patient et non à le dicter. PMID:29138168
Harrison, Megan E.; Norris, Mark L.; Obeid, Nicole; Fu, Maeghan; Weinstangel, Hannah; Sampson, Margaret
2015-01-01
Résumé Objectif Effectuer une révision systématique des effets de repas en famille fréquents sur les résultats psychosociaux chez les enfants et les adolescents et examiner s’il existe des différences dans les résultats selon le sexe. Sources des données Des études ont été cernées à la suite d’une recherche dans MEDLINE (de 1948 à la dernière semaine de juin 2011) et dans PsycINFO (de 1806 à la première semaine de juillet 2011) à l’aide de l’interface Ovide. Les expressions et mots clés MeSH utilisés seuls ou en combinaisons étaient les suivants : family, meal, food intake, nutrition, diets, body weight, adolescent attitudes, eating behaviour, feeding behaviour et eating disorders. Les bibliographies des articles jugés pertinents ont aussi été passées en revus. Sélection des études La recherche initiale a produit 1783 articles. Pour être incluses dans l’analyse, les études devaient répondre aux critères suivants : être publiées en anglais dans une revue révisée par des pairs; porter sur des enfants ou des adolescents; traiter de l’influence des repas en famille sur les paramètres psychosociaux (p. ex. consommation de drogues et autres substances, troubles de l’alimentation, dépression) chez les enfants ou les adolescents; avoir une conception d’étude appropriée, notamment des méthodes statistiques acceptables pour l’analyse des paramètres. Quatorze articles satisfaisaient aux critères d’inclusion. Deux examinateurs indépendants ont étudié et analysé les articles. Synthèse Dans l’ensemble, les résultats font valoir que la fréquence des repas en famille est inversement proportionnelle aux troubles de l’alimentation, à la consommation d’alcool et de drogues, aux comportements violents, aux sentiments de dépression ou aux pensées suicidaires chez les adolescents. Il existe une relation positive entre de fréquents repas en famille, une bonne estime de soi et la réussite scolaire. Les études révèlent des différences considérables dans les résultats chez les enfants et adolescents masculins et féminins, les sujets féminins ayant des résultats plus positifs. Conclusion Cette révision systématique vient confirmer davantage qu’il convient de préconiser de fréquents repas en famille. Tous les professionnels de la santé devraient renseigner les familles concernant les bienfaits de prendre régulièrement ensemble des repas.
L’infection bactérienne chez le patient brûlé
Le Floch, R.; Naux, E.; Arnould, J.F.
2015-01-01
Summary La mort d’un patient brûlé est le plus souvent causée par une infection, bactérienne dans la grande majorité des cas. La perte de la barrière cutanée, les dispositifs invasifs et l’immunodépression liée à la brûlure sont trois mécanismes concourant à la survenue de ces infections. Chez un patient inflammatoire, les signes infectieux généraux d’infection sont peu discriminants. Du fait de la gravité des infections chez ce patient, leur prévention est un paramètre essentiel de la prise en charge. En raison des particularités pharmacocinétiques des brûlés, les posologies d’antibiotiques doivent être adaptés et les dosages sanguins doivent être systématiques. A l’heure où les résistances deviennent préoccupantes, les recherches sur les thérapeutiques sur les alternatives thérapeutiques parmi lesquels les inhibiteurs de facteurs de virulence, les peptides antimicrobiens, les polyphénols, l’immunothérapie…) deviennent cruciales. L’une des possibilités thérapeutiques les plus prometteuses semble être la phagothérapie. PMID:27252607
Large eddy simulation for predicting turbulent heat transfer in gas turbines.
Tafti, Danesh K; He, Long; Nagendra, K
2014-08-13
Blade cooling technology will play a critical role in the next generation of propulsion and power generation gas turbines. Accurate prediction of blade metal temperature can avoid the use of excessive compressed bypass air and allow higher turbine inlet temperature, increasing fuel efficiency and decreasing emissions. Large eddy simulation (LES) has been established to predict heat transfer coefficients with good accuracy under various non-canonical flows, but is still limited to relatively simple geometries and low Reynolds numbers. It is envisioned that the projected increase in computational power combined with a drop in price-to-performance ratio will make system-level simulations using LES in complex blade geometries at engine conditions accessible to the design process in the coming one to two decades. In making this possible, two key challenges are addressed in this paper: working with complex intricate blade geometries and simulating high-Reynolds-number (Re) flows. It is proposed to use the immersed boundary method (IBM) combined with LES wall functions. A ribbed duct at Re=20 000 is simulated using the IBM, and a two-pass ribbed duct is simulated at Re=100 000 with and without rotation (rotation number Ro=0.2) using LES with wall functions. The results validate that the IBM is a viable alternative to body-conforming grids and that LES with wall functions reproduces experimental results at a much lower computational cost. © 2014 The Author(s) Published by the Royal Society. All rights reserved.
Nouvelle approche à la prise en charge des condylomes
Lopaschuk, Catharine C.
2013-01-01
Résumé Objectif Faire le résumé des anciens et des nouveaux moyens de traitement des verrues génitales ou condylomes et déterminer comment les utiliser de manière appropriée. Sources des données Une recherche documentaire a été effectuée dans les bases de données suivantes: MEDLINE, PubMed, EMBASE, base de données des synthèses systématiques et registre central des études contrôlées de la Collaboration Cochrane (en anglais), ACP Journal Club et Trip. Les bibliographies des articles extraits ont aussi été examinées. Les études cliniques, les articles de révision qualitative, les rapports consensuels et les guides de pratique clinique ont été retenus. Message principal Les verrues symptomatiques sont présentes chez au moins 1 % des personnes âgées entre 15 et 49 ans et on estime que jusqu’à 50 % des gens sont infectés par le virus du papillome humain à un moment donné de leur vie. L’imiquimod et la podophyllotoxine sont 2 nouveaux traitements pour les verrues génitales externes qui sont moins douloureux et peuvent être appliqués par les patients à la maison. De plus, il a été démontré que le vaccin quadrivalent contre le virus du papillome humain est efficace pour prévenir les condylomes et le cancer du col. Les plus anciennes méthodes thérapeutiques ont aussi leur place dans certaines situations, comme les verrues intravaginales, urétrales, anales ou récalcitrantes ou encore pour les patientes enceintes. Conclusion Les nouveaux traitements des verrues génitales externes peuvent réduire la douleur causée par la thérapie et le nombre de visites au cabinet. Les autres méthodes thérapeutiques demeurent utiles dans certaines situations.
Production du baryon Sigma+ dans les collisions e+e- au LEP
NASA Astrophysics Data System (ADS)
Joly, Andre
Les mécanismes de production des baryons dans les interactions e+e- font l'objet de nombreuses études. De plus, les modes de production des baryons étranges semblent faire appel A des processus spécifiques, qui sont encore mal compris. Notre étude de la production des baryons Σ+ dans les interactions e+e- nous permet de formuler certaines remarques sur l'état des connaîssances acquises sur le sujet. Une methode de reconstruction originale et des critères de sélection spécifiques ont été développés afin d'identifier des baryons Σ+ de haute Energie ( ES+ > 5 GeV), partir de leur canal de désintégration en un proton et un π0 (S+-->p+p0 ). Trois mesures principales sont réalisées à partir de notre échantillon de baryons reconstruits. Le nombre mesuré de baryons Σ+ produits par événement e +e- à 91 GeV est de:
NASA Astrophysics Data System (ADS)
Giometto, M. G.; Christen, A.; Egli, P. E.; Schmid, M. F.; Tooke, R. T.; Coops, N. C.; Parlange, M. B.
2017-08-01
Large-eddy simulations (LES) are used to gain insight into the effects of trees on turbulence, aerodynamic parameters, and momentum transfer rates characterizing the atmosphere within and above a real urban canopy. Several areas are considered that are part of a neighborhood in the city of Vancouver, BC, Canada where a small fraction of trees are taller than buildings. In this area, eight years of continuous wind and turbulence measurements are available from a 30 m meteorological tower. Data from airborne light detection and ranging (LiDAR) are used to represent both buildings and vegetation at the LES resolution. In the LES algorithm, buildings are accounted through an immersed boundary method, whereas vegetation is parameterized via a location-specific leaf area density. LES are performed including and excluding vegetation from the considered urban areas, varying wind direction and leaf area density. Surface roughness lengths (z0) from both LES and tower measurements are sensitive to the 0 ≤ LAI /λfb < 3 parameter, where LAI is the leaf area index and λfb is the frontal area fraction of buildings characterizing a given canopy. For instance, tower measurements predict a 19% seasonal increase in z0, slightly lower than the 27% increase featured by LES for the most representative canopy (leaves-off LAI / λfSUP>b = 0.74 , leaves-on LAI /λfb = 2.24). Removing vegetation from such a canopy would cause a dramatic drop of approximately 50% in z0 when compared to the reference summer value. The momentum displacement height (d) from LES also consistently increases as LAI / λfb increases, due in large part to the disproportionate amount of drag that the (few) relatively taller trees exert on the flow. LES and measurements both predict an increase in the ratio of turbulent to mean kinetic energy (TKE/MKE) at the tower sampling height going from winter to summer, and LES also show how including vegetation results in a more (positive) negatively skewed (horizontal) vertical velocity distribution - reflecting a more intermittent velocity field which favors sweep motions when compared to ejections. Within the urban canopy, the effects of trees are twofold: on one hand, they act as a direct momentum sink for the mean flow; on the other, they reduce downward turbulent transport of high-momentum fluid, significantly reducing the wind intensity at the heights where people live and buildings consume energy.
Geochemistry and the understanding of ground-water systems
NASA Astrophysics Data System (ADS)
Glynn, Pierre D.; Plummer, L. Niel
2005-03-01
Geochemistry has contributed significantly to the understanding of ground-water systems over the last 50 years. Historic advances include development of the hydrochemical facies concept, application of equilibrium theory, investigation of redox processes, and radiocarbon dating. Other hydrochemical concepts, tools, and techniques have helped elucidate mechanisms of flow and transport in ground-water systems, and have helped unlock an archive of paleoenvironmental information. Hydrochemical and isotopic information can be used to interpret the origin and mode of ground-water recharge, refine estimates of time scales of recharge and ground-water flow, decipher reactive processes, provide paleohydrological information, and calibrate ground-water flow models. Progress needs to be made in obtaining representative samples. Improvements are needed in the interpretation of the information obtained, and in the construction and interpretation of numerical models utilizing hydrochemical data. The best approach will ensure an optimized iterative process between field data collection and analysis, interpretation, and the application of forward, inverse, and statistical modeling tools. Advances are anticipated from microbiological investigations, the characterization of natural organics, isotopic fingerprinting, applications of dissolved gas measurements, and the fields of reaction kinetics and coupled processes. A thermodynamic perspective is offered that could facilitate the comparison and understanding of the multiple physical, chemical, and biological processes affecting ground-water systems. La géochimie a contribué de façon importante à la compréhension des systèmes d'eaux souterraines pendant les 50 dernières années. Les avancées ont portées sur le développement du concept des faciès hydrochimiques, sur l'application de la théorie des équilibres, l'étude des processus d'oxydoréduction, et sur la datation au radiocarbone. D'autres concepts, outils et techniques, ont aidé à l' élucidation des élucider les mécanismes d'écoulement et de transport dans les systèmes d'eaux souterraines, et à la compréhension des archives informations paléo-environnementales. Les informations hydrochimiques et isotopiques peuvent être utilisées pour interpréter l'origine et le mode de recharge des eaux souterraines, affiner l'estimation des temps de recharge et d' écoulements, déchiffrer les processus de réaction, apporter une meilleure information paléohydrogéologique et calibrer les modèles d'écoulement des eaux souterraines. Beaucoup de progrès ont besoin d'être réalisés pour obtenir des échantillons représentatifs. Des améliorations sont nécessaires dans l'interprétation des informations obtenues, et dans la construction et l'interprétation de modèles numériques utilisant des données hydrochimiques. La meilleure approches arsurément un processus itératif optimisé entre la collection de données de terrain et l'analyse, l'interprétation, et l'application d'outils de modélisation statistique, inverse et direct. Des avancées sont anticipées par les dans le demeine des études microbiologiques, dans la caractérisation des matières organiques naturelles, le marquage isotopique, les mesures de gaz dissous, les réactions cinétiques la compréhension des couplages. Une perspectives thermodynamique pourraient faciliter la comparaison et la compréhension des multiples processus physiques, chimiques et biologiques qui affectent les systèmes hydrogéologiques. La geoquímica ha contribuido significativamente al entendimiento de los sistemas de aguas subterráneas durante los últimos 50 años. Entre los avances históricos puede incluirse el desarrollo del concento de facies hidroquímicas, la aplicación de la teoría de equilibrio, investigación de los procesos oxidación-reducción, y datación con radiocarbono. Otros conceptos, herramientas y técnicas hidroquímicas han ayudado a esclarecer los mecanismos de flujo y transporte en sistemas de agua subterránea, y han ayudado a descifrar un archivo de información paleoambiental. Información hidroquímica e isotópica puede utilizarse para interpretar el origen y modo de recarga de agua subterránea, descifrar procesos reactivos, aportar información paleohidrológica, y calibrar modelos de flujo de agua subterránea. Necesita avanzarse en la obtención de muestras representativas. Se necesitan mejoras en la interpretación de la información obtenida y en la construcción e interpretación de modelos numéricos que utilizan datos hidroquímicos. El mejor enfoque asegurará un proceso iterativo optimizado entre toma y análisis de datos de campo, interpretación, y la aplicación de herramientas de modelizado estadísticas, directas, e inversas. Se anticipan avancesa partir de investigaciones microbiológicas, la caracterización de orgánicos naturales, caracterización isotópica, aplicaciones de mediciones de gas disuelto, y los campos de cinética de reacción y procesos acoplados. Se ofrece una perspectiva termodinámica que podría facilitar la comparación y entendimiento de los múltiples procesos físicos, químicos, y biológicos que afectan sistemas de aguas subterráneas.
Problemes et methodes de la lexicographie quebecoise (Problems and Methods of Quebec Lexicography).
ERIC Educational Resources Information Center
Cormier, Monique C., Ed.; Francoeur, Aline, Ed.
Papers on lexicographic research in Quebec (Canada) include: "Indications semantiques dans les dictionnaires bilingues" ("Semantic Indications in Bilingual Dictionaries) (Johanne Blais, Roda P. Roberts); "Definitions predictionnairiques de 'maison, batiment, et pavillon'" ("Pre-dictionary definitions of 'house,…
NCEA Scientists - Past and Present
Dr. Les Grant, Director of EPA's National Center for Environmental Assessment's Research Triangle Park Divisi...
Purcell, Laura K
2012-01-01
RÉSUMÉ Les commotions sont des blessures sportives fréquentes, et elles sont particulièrement courantes chez les enfants et les adolescents qui participent à des sports organisés ou à des activités récréatives. Les symptômes de commotion peuvent être subtils et négligés par les athlètes, les entraîneurs et les parents. Un enfant ou un adolescent qui est victime d’une commotion devrait être immédiatement retiré du jeu et être évalué par un médecin dans les plus brefs délais. Il devrait éviter les activités physiques et cognitives pour se remettre de la commotion. Une fois les symptômes complètement résorbés au repos, l’athlète peut suivre un protocole d’effort graduel, supervisé par un médecin, avant d’obtenir l’autorisation médicale de retourner au jeu. Il est essentiel que tous ceux qui participent aux activités sportives pour les enfants et les adolescents connaissent les signes et symptômes de commotion afin qu’on puisse poser un diagnostic exact et rapide et amorcer une évaluation et une prise en charge convenables. Le présent document de principes remplace celui qui a été publié en 2006.
Delevoye, Cédric; Giordano, Francesca; van Niel, Guillaume; Raposo, Graça
2012-01-01
Les mélanocytes situés à la base de l’épiderme produisent des mélanosomes qui sont transférés aux kératinocytes pour assurer la pigmentation de l’épiderme et sa photoprotection contre les rayons ultraviolets. Les mélanosomes, organites apparentés aux lysosomes, sont le lieu de synthèse et de stockage d’un pigment, la mélanine. Leur formation dépend de protéines mélanosomales qui transitent par les voies de biosynthèse et d’endocytose et exploitent les mécanismes moléculaires du trafic intracellulaire. Les acteurs moléculaires impliqués dans le transport des protéines mélanosomales et la biogenèse des mélanosomes sont la cible de mutations dans des maladies génétiques accompagnées d’hypopigmentation comme l’albinisme et les maladies lysosomales. Les études menées sur les mélanocytes issus de souris modèles de ces maladies permettent de comprendre certaines des étapes-clés de la mélanogenèse ainsi que les dysfonctionnements associés à ces pathologies. De plus, décrypter la mélanogenèse facilite également la compréhension d’autres processus physiologiques, comme l’illustrent les similitudes inattendues avec l’amyloïdogenèse dans les maladies neurodégénératives. PMID:21382323
Wangata, Jemima; Elenge, Myriam; De Brouwer, Christophe
2014-01-01
Introduction Le transport en commun urbain constitue un secteur où les travailleurs sont très exposés aux accidents du travail. Cette étude visait une description épidémiologique des accidents du travail dans le secteur informel du transport en commun à Kinshasa en vue d'apporter les pistes d'amélioration de la sécurité des travailleurs dans cette activité. Méthodes Un questionnaire sur les accidents du travail, administré en Décembre 2012 a permis d'explorer les tendances significatives entre les accidents et leurs circonstances, leurs facteurs associés, leurs conséquences au sein d'une population des travailleurs (n = 472) du transport en commun à Kinshasa. Résultats Durant les 12 derniers précédant l’étude 76.5% des travailleurs ont connu au moins un accident du travail, 54,8% ont connu un arrêt d'au moins 1jour. Les accidents liés à la circulation routière étaient plus important suivis des chutes. Les facteurs ayant montré des différences significatives étaient le travail sous l'influence de l'alcool et le port des équipements de protection individuelle. Les plaies (46,3%) et les contusions (39,4%) étaient les lésions les plus courantes. Les membres supérieurs (51,3%) et inférieurs (30,7%) étaient les plus atteints. 76,6% des travailleurs ont assumé seuls leur prise en charge médicale. Conclusion L'incidence des accidents du travail dans ce secteur est très élevée. La mise en place d'une politique de prévention et gestion de différents facteurs associés ainsi qu'un système de déclaration d'accidents est nécessaire dans ce secteur. Les patrons ainsi que les politiques devraient veiller à une prise en charge médicale correcte pour des travailleurs accidentés. PMID:25667703
Possibilité d'une nouvelle technologie de traitement des minerais de fer de l'Ouenza par radiométrie
NASA Astrophysics Data System (ADS)
Idres, A.; Bounouala, M.
2005-05-01
En l'absence d'une technologie fiable de traitement des haldes de minerais de fer, les caractéristiques minéralogiques et chimiques complexes et les effets néfastes des résidus miniers posent réellement un problème environnemental. A cet effet, une étude minéralogique et chimique du minerai de fer a été menée en utilisant des techniques multiples (microscopie optique, DRX, FX, MEB). En tenant compte de la nature des résidus, des échantillons représentatifs ont été testés par séparation radiométrique. Plusieurs paramètres ont été caractérisés tels que la vitesse de la bande transporteuse, le temps d'émission des rayons gamma et la granulométrie d'alimentation du procédé. Les résultats ainsi obtenus par cette méthode de séparation sont très significatifs en récupération et en teneur fer. Cependant, cette nouvelle technologie permet d'une part une meilleure valorisation des minerais de fer et d'autre part une réduction du tonnage stocké sur le carreau de la mine.
NASA Astrophysics Data System (ADS)
Lantz, Jonas; Ebbers, Tino; Karlsson, Matts
2012-11-01
In this study, turbulent kinetic energy (TKE) in an aortic coarctation was studied using both a numerical technique (large eddy simulation, LES) and in vivo measurements using magnetic resonance imaging (MRI). High levels of TKE are undesirable, as kinetic energy is extracted from the mean flow to feed the turbulent fluctuations. The patient underwent surgery to widen the coarctation, and the flow before and after surgery was computed and compared to MRI measurements. The resolution of the MRI was about 7 × 7 voxels in axial cross-section while 50x50 mesh cells with increased resolution near the walls was used in the LES simulation. In general, the numerical simulations and MRI measurements showed that the aortic arch had no or very low levels of TKE, while elevated values were found downstream the coarctation. It was also found that TKE levels after surgery were lowered, indicating that the diameter of the constriction was increased enough to decrease turbulence effects. In conclusion, both the numerical simulation and MRI measurements gave very similar results, thereby validating the simulations and suggesting that MRI measured TKE can be used as an initial estimation in clinical practice, while LES results can be used for detailed quantification and further research of aortic flows.
A Partially-Stirred Batch Reactor Model for Under-Ventilated Fire Dynamics
NASA Astrophysics Data System (ADS)
McDermott, Randall; Weinschenk, Craig
2013-11-01
A simple discrete quadrature method is developed for closure of the mean chemical source term in large-eddy simulations (LES) and implemented in the publicly available fire model, Fire Dynamics Simulator (FDS). The method is cast as a partially-stirred batch reactor model for each computational cell. The model has three distinct components: (1) a subgrid mixing environment, (2) a mixing model, and (3) a set of chemical rate laws. The subgrid probability density function (PDF) is described by a linear combination of Dirac delta functions with quadrature weights set to satisfy simple integral constraints for the computational cell. It is shown that under certain limiting assumptions, the present method reduces to the eddy dissipation concept (EDC). The model is used to predict carbon monoxide concentrations in direct numerical simulation (DNS) of a methane slot burner and in LES of an under-ventilated compartment fire.
NASA Astrophysics Data System (ADS)
Fernandez, Pablo; Nguyen, Ngoc-Cuong; Peraire, Jaime
2017-11-01
Over the past few years, high-order discontinuous Galerkin (DG) methods for Large-Eddy Simulation (LES) have emerged as a promising approach to solve complex turbulent flows. Despite the significant research investment, the relation between the discretization scheme, the Riemann flux, the subgrid-scale (SGS) model and the accuracy of the resulting LES solver remains unclear. In this talk, we investigate the role of the Riemann solver and the SGS model in the ability to predict a variety of flow regimes, including transition to turbulence, wall-free turbulence, wall-bounded turbulence, and turbulence decay. The Taylor-Green vortex problem and the turbulent channel flow at various Reynolds numbers are considered. Numerical results show that DG methods implicitly introduce numerical dissipation in under-resolved turbulence simulations and, even in the high Reynolds number limit, this implicit dissipation provides a more accurate representation of the actual subgrid-scale dissipation than that by explicit models.
How do rigid-lid assumption affect LES simulation results at high Reynolds flows?
NASA Astrophysics Data System (ADS)
Khosronejad, Ali; Farhadzadeh, Ali; SBU Collaboration
2017-11-01
This research is motivated by the work of Kara et al., JHE, 2015. They employed LES to model flow around a model of abutment at a Re number of 27,000. They showed that first-order turbulence characteristics obtained by rigid-lid (RL) assumption compares fairly well with those of level-set (LS) method. Concerning the second-order statistics, however, their simulation results showed a significant dependence on the method used to describe the free surface. This finding can have important implications for open channel flow modeling. The Reynolds number for typical open channel flows, however, could be much larger than that of Kara et al.'s test case. Herein, we replicate the reported study by augmenting the geometric and hydraulic scales to reach a Re number of one order of magnitude larger ( 200,000). The Virtual Flow Simulator (VFS-Geophysics) model in its LES mode is used to simulate the test case using both RL and LS methods. The computational results are validated using measured flow and free-surface data from our laboratory experiments. Our goal is to investigate the effects of RL assumption on both first-order and second order statistics at high Reynolds numbers that occur in natural waterways. Acknowledgment: Computational resources are provided by the Center of Excellence in Wireless & Information Technology (CEWIT) of Stony Brook University.
Radio Frequency Simulation System (RFSS) Capabilities Summary
1977-04-01
rooms to facilitate data transfer 1977 Addition of radome boresight positioner. 1977 Target array real-time display. 1977 Two additional targets, two ECK ...tabLes on the Datacraft. 28 The RFSS ECK capability is extremely diverse. Either denial or deceptive jamming techniques can be simulated with prerent...DDC-TCA 2 Development Activity Cameron Station Fort Leavenworth, Kansas 66027 Alexandria, Virginia 22314 Commander Commander US Army Frankford
5. international workshop on the identification of transcribed sequences
DOE Office of Scientific and Technical Information (OSTI.GOV)
NONE
1995-12-31
This workshop was held November 5--8, 1995 in Les Embiez, France. The purpose of this conference was to provide a multidisciplinary forum for exchange of state-of-the-art information on mapping the human genome. Attention is focused on the following topics: transcriptional maps; functional analysis; techniques; model organisms; and tissue specific libraries and genes. Abstracts are included of the papers that were presented.
Jamal, Louaste; Cherrad, Taoufik; Bousbaa, Hicham; Wahidi, Mohammed; Amhajji, Larbi; Rachid, Khalid
2016-01-01
L’enclouage centromédullaire antérograde s’est imposé comme un des traitements de référence des fractures céphalotubérositaires à deux, trois et quatre fragments. Nous présentons une étude rétrospective de 06 patients ayant bénéficié d’un enclouage centromédullaire depuis janvier 2012. Le Recul moyen est de 12 mois, l’âge moyen était de 57 ans. Evaluation clinique se basait sur le score de Constant et Murley, en brut et pondéré en fonction de l’âge et du sexe, avec un comparatif avec le coté sain. Le bilan radiologique nous a permis d’évaluer la consolidation osseuse, l’apparition d’Ostéonécrose de la tête ou arthrose post traumatique. Surveille aussi l’Etat des tubérosités avec l’existence ou non d’ostéolyse du trochiter. Elle recherche aussi les critères de bonne réduction à savoir l’angle calotte céphalique et l’axe diaphysaire (αF) sur les clichés de face. Tous les patients ont été traités selon la même technique chirurgicale. Le score de Constant et Murley sur l’ensemble des patients était de 64.13 points. Le score pondéré en fonction de l’age et du sexe était de 73%. Les mobilités articulaires étaient en moyenne sur l’ensemble des patients 116° en élévation antérieure, 99.9° en élévation latérale, et 42° en rotation externe. Angle αF moyen s’élève à 42°. Tous les patients présentaient des critères de bonne réduction à savoir αF. L’enclouage centromédullaire permet une synthèse osseuse simple et au prix d’un abord limité avec des résultats fonctionnels très prometteurs. La comminution fracturaire et l’ostéoporose peuvent limiter ces indications. PMID:28250878
Profil pressionnel de l’adolescent en milieu scolaire à Lubumbashi, République Démocratique du Congo
Kakoma, Placide Kambola; Muyumba, Emmanuel Kiyana; Mukeng, Clarence Kaut; Musung, Jaques Mbaz; Kakisingi, Christian Ngama; Mukuku, Olivier; Nkulu, Dophra Ngoy
2018-01-01
Introduction L'objectif de cette étude était de donner le profil de la pression artérielle (PA) des adolescents âgés de 15 à 19 ans en milieu scolaire à Lubumbashi, République Démocratique du Congo. Méthodes il s'agit d'une étude transversale, portant sur les adolescents âgés de 15 à 19 ans au moyen d'un échantillonnage aléatoire des écoles secondaires de Lubumbashi durant les années scolaires 2013-2014, 2014-2015 et 2015-2016. Trois mesures de PA étaient effectuées le même jour. Résultats 1766 adolescents âgés de 15-19 ans ont été inclus parmi eux 995 étaient de sexe féminin et 771 garçons. Les garçons avaient significativement une pression artérielle systolique élevée que les filles dans les tranches d'âges de 17, 18 et 19 ans. La pression artérielle diastolique n'était pas différente statistiquement dans toutes les tranches d'âges dans les deux sexes. Par contre, dans les deux sexes, la pression artérielle systolique été en corrélation significative avec le poids, la taille, l'indice de masse corporelle, le tour de taille et la fréquence cardiaque. Quant à la pression artérielle diastolique, des corrélations significatives étaient retrouvées avec le poids et l'indice de masse corporelle chez les filles alors que la fréquence cardiaque était en corrélation significative dans les deux sexes. Discussion Au cours de notre étude, il était question de déterminer les valeurs moyennes de PA et sa corrélation avec les paramètres anthropométriques, la FC et le poids de naissance chez les adolescents d'âge compris entre 15 et 19 ans. Notre étude a révélé des valeurs moyennes de PAS chez les garçons qui étaient plus élevées que les filles statistiquement significatives dans les tranches d'âges de 17, 18 et 19 ans alors que les valeurs moyennes de PAD n'avait pas de différence statistiquement significative dans toutes les tranches d'âges dans les deux sexes. Harrabi et al. [16], dans leur étude incluant 1569 sujets âgés de 13 à 19 ans, avaient trouvé que les garçons de 16, 17 et 18 ans avaient des PAS élevées sans différence statistiquement significatives mais les différences statistiquement significatives étaient remarquées chez les filles de 13 et 14 ans concernant la PAD. Dans son étude chez les enfants, Forrester et al. [17] avaient rapporté une corrélation positive entre la PAS et l'âge chez les garçons et négative chez les filles. Cette corrélation négative trouvée entre la PAS et l'âge chez les filles pourrait être expliquée par les modifications hormonales liées à la puberté qui commencent plus tôt chez les filles que chez les garçons. Se référant à la littérature, la PA augmente avec la croissance en âge plus chez les garçons suite à l'augmentation de la masse musculaire pendant la puberté [18-20]. Notre étude a montré que la PAS était en corrélation significative avec le poids, la taille, l'IMC, le tour de taille et la FC dans les deux sexes. Ce constat est similaire à celui faite par l'étude de Harrabi et al. [16] qui rapportait que la PAS était en corrélation positive avec la taille (garçons: r = 0,33; p < 0,0001; filles: r = 0,08; p = 0,02), le poids (garçons: r = 0,47, p < 0,0001; filles: r = 0,35; p < 0,0001) et l'âge (r = 0,12; p < 0,0001). Quant à la PAD dans notre étude, les corrélations significatives positives étaient retrouvées avec le poids (r = 0,093; p = 0,003) et l'IMC (r = 0,079; p = 0,012) seulement chez les filles, alors que la FC était en corrélation significative positive chez les garçons (r = 0,168; p < 0,0001) mais non chez les filles (r = 0,12, p < 0,0001) [16]. Dans une étude similaire chez les adolescents réalisée par Sinaiko et al. [21], une corrélation a été trouvée entre le poids et la PAS chez les garçons (r = 0,167, p < 0,0001) et les filles (r = 0,112, p < 0,0001). L'effet de la taille et du poids sur la PA a déjà été démontré dans plusieurs études transversales antérieures sur les enfants concluant en une forte corrélation positive [22,23]. L'insuffisance de déclaration des naissances à l'état civil dans plusieurs pays en développement, conséquente au recours aux poids de naissance déclarés auprès des parents ou tuteurs, serait un biais dans la réalisation des résultats statistiquement comparables. Conclusion Malgré les faiblesses potentielles de la présente étude dans sa conception transversale et les mesures de la PA le même jour, les données pourraient aider les responsables de la santé à adopter une stratégie nationale de prévention de l'hypertension artérielle dans notre population. PMID:29875975
Intérêt de l’algorithme rocuronium - sugammadex dans la laryngoscopie directe en suspension
El jaouhari, Sidi Driss; Meziane, Mohamed; Ahtil, Redouane; Bensghir, Mustapha; Haimeur, Charki
2017-01-01
La laryngoscopie directe en suspension est un geste chirurgical diagnostique et/ou thérapeutique des lésions endo-laryngées. Sa gestion anesthésique est compliquée. Différentes techniques anesthésiques peuvent être proposées. Malgré les contraintes, les curares gardent tout leur intérêt. L’association rocuronium et sugammadex est envisageable, elle permet une inversion rapide du bloc neuromusculaire profond et par conséquent une réduction de la morbidité postopératoire. Nous rapportons un cas d’une laryngoscopie directe en suspension réalisée sous anesthésie générale dont l’utilisation de l’association rocuronium-sugammadex a permis une facilité du geste chirurgicale, une sécurité pour le patient et un confort pour l’anesthésiste. PMID:28690746
Analyse experimentale des performances d'une batterie au lithium pour l'aeronautique
NASA Astrophysics Data System (ADS)
Bonnin, Romain
Ce memoire a pour objectif d'identifier et d'etudier les performances necessaires pour qu'une batterie au lithium puisse etre utilisee dans le secteur de l'aeronautique. C'est pourquoi dans le cadre de notre recherche, nous allons proposer une procedure de tests permettant d'analyser et de determiner si la batterie au lithium peut etre implantee dans un avion. En vue de repondre a l'analyse des performances, une etude des fonctionnalites demandees par l'avion ainsi que des normes preexistantes vont etre effectuees. Suite a cette etape, nous allons elaborer un banc d'essais. Une fois le banc d'essais acheve, nous allons tester une batterie au lithium qui est supposee disposer de toutes les caracteristiques techniques requises pour etre implantee dans un avion. Ces tests nous permettront donc d'emettre un avis sur l'utilisation des batteries au lithium dans le domaine de l'aeronautique.
(Low-level waste disposal facility siting and site characterization)
DOE Office of Scientific and Technical Information (OSTI.GOV)
Mezga, L.J.; Ketelle, R.H.; Pin, F.G.
A US team consisting of representatives of Oak Ridge National Laboratory (ORNL), Savannah River Plant (SRP), Savannah river Laboratory (SRL), and the Department of Energy Office of Defense Waste and Byproducts Management participated in the fourth meeting held under the US/French Radioactive Waste Management Agreement between the US Department of Energy and the Commissariat a l'Energie Atomique. This meeting, held at Agence Nationale pour les Gestion des Dechets Radioactifs' (ANDRA's) Headquarters in Paris, was a detailed, technical topical workshop focusing on Low-Level Waste Disposal Facility Siting and Site Characterization.'' The meeting also included a visit to the Centre de lamore » Manche waste management facility operated by ANDRA to discuss and observe the French approach to low-level waste management. The final day of the meeting was spent at the offices of Societe Generale pour les Techniques Nouvelles (SGN) discussing potential areas of future cooperation and exchange. 20 figs.« less
Dermatoses gériatriques en hospitalisation dermatologique à Bamako (Mali)
Fofana, Youssouf; Traoré, Bekaye; Faye, Ousmane; Dicko, Adama; Berthé, Siritio; Tall, Koureissi; Kéita, Lassine; Kéita, Somita
2016-01-01
Introduction Les pathologies cutanées du sujet âgé sont variées et constituent une véritable préoccupation pour les médecins en termes de diagnostic, de prise en charge et de suivi. Le but de ce travail était de décrire les motifs d’hospitalisation chez les sujets âgés hospitalisés dans le service de dermatologie du centre national d’appui à la lutte contre la maladie à Bamako. Méthodes Du 1er Janvier 2010 au 31 Décembre 2014, nous avons mené une étude transversale des cas de dermatoses gériatriques hospitalisées dans le service de dermatologie du centre national d’appui à la lutte contre la maladie. Sur un total de 398 patients hospitalisés, 76 malades âgés de 60 ans et plus avaient été inclus. Les données ont été saisies sur le logiciel Epidata 3.1 et analysées à l’aide du logiciel stata 14. Résultats La fréquence des pathologies cutanées chez les sujets âgés hospitalisés était de 19,10%. L’âge des malades variait de 60 à 95 ans avec une moyenne d’âge de 68,85 ans. Les malades se répartissaient en 29 hommes et 47 femmes soit un sex-ratio de 0,60. Les principales affections recensées étaient les dermohypodermites (44,74%), les dermatoses bulleuses auto-immunes (13,16%), les toxidermies (10,53%), les ulcères veineux (6,58%), les ulcères artériels (3,95%), les tumeurs malignes (5,27%), les plaies diabétiques (3,95%). Nous avons noté 4 décès (5,26%). Conclusion Cette étude a montré une proportion élevée des sujets âgés de 60 ans et plus en milieu dermatologique à Bamako. Par ailleurs, elle confirme que les dermohypodermites sont les pathologies cutanées les plus fréquentes chez le sujet âgé hospitalisé au Mali. PMID:28292163
NASA Astrophysics Data System (ADS)
Aspect, Alain
2004-11-01
COLOQ est une conférence regroupant, tous les deux ans, la communauté scientifique et industrielle nationale travaillant dans les domaines des lasers, de l'optique non-linéaire et de l'optique quantique. Elle s'est tenue pour sa huitième édition à Toulouse, du 3 au 5 septembre 2004, sur le campus de I'INSA. Comme il est de tradition tous les quatre ans, COLOQ était couplé avec Horizons de l'optique, avec en particulier une journée commune dont le programme avait été préparé en concertation par les deux comités scientifiques. Depuis sa création, COLOQ a pour but de favoriser les rencontres entre les chercheurs des différents laboratoires nationaux publics ou privés travaillant sur les lasers et l'optique quantique au sens large. C'est un moyen privilégié de resserrer les liens de cette communauté et d'y intégrer les jeunes chercheurs. Ces derniers y trouvent l'occasion de se connaître, de se faire connaître, de découvrir la communauté à laquelle ils appartiennent et d'élargir leurs connaissances des thèmes qui la structurent. La participation de 230 chercheurs et d'une vingtaine d'exposants de matériels spécialisés dans les lasers et l'optoélectronique témoigne de la vitalité de COLOQ et de son audience dans les laboratoires et chez les industriels de l'optique. Le programme de COLOQ 8 comportait d'une vingtaine de conférences générales données par des chercheurs de renom international, et des séances de communications par affiches, occasions privilégiées de rencontres et d'échanges. Les exposés ont porté sur des sujets particulièrement actifs au niveau national et international, avec un accent sur des thèmes importants pour la région toulousaine : contrôle cohérent, optique et nanosciences, optique et astronomie, sans oublier la traditionnelle rubrique phénomènes fondamentaux, éclectique pour ne pas dire hétéroclite, mais si représentative d'une des ambitions de COLOQ qui est d'offrir à ses participants une ouverture sur les recherches de base d'aujourd'hui qui seront peut-être les outils quotidiens de l'optique de demain. Quant aux 169 communications par affiches elles ont, suivant la règle, couvert sans restriction tous les sujets de l'optique actuelle. Ce volume spécial du Journal de Physique IV regroupe la majorité des conférences invitées et des communications par affiches. Profitant de la participation des mondes académique et industriel, un forum sur “innovation et nouveaux débouchés pour l'optique” a permis de dégager des raisons d'espoir pour l'emploi des chercheurs en optique. Enfin, renouvelant l'expérience d'éditions précédentes, la dernière demi journée a été consacrée à deux conférences qui étaient ouvertes à un public élargi, notamment les étudiants de l'université et des classes préparatoires ainsi que leurs enseignants. Si Antoine Labeyrie nous a laissés sans voix avec ses projets “hyperfuturistes” d'hypertélescopes à l'échelle du million de kilomètres, Pierre Lena nous a donné un moment de vrai bonheur en célébrant le mariage sans cesse renouvelé du toujours jeune couple que sont l'optique et l'astronomie : qu'il soit remercié aussi pour le magnifique teste publié dans ce volume. COLOQ se devait d'honorer la mémoire de deux personnalités hors du commun de l'optique, Jean Brossel et Gilbert Grynberg. Tous ceux qui avaient connu l'un ou l'autre ont pu apprécier la justesse des évocations, par d'anciens collaborateurs, de l'oeuvre scientifique mais aussi des personnalités de ces deux grands physiciens. On trouvera les textes de ces interventions émouvantes dans ce recueil. La réussite de COLOQ 8 est évidemment due; avant tout, à la qualité scientifique des présentations, mais elle repose aussi sur l'action conjuguée des comités d'organisation national et local. Au niveau local, Françoise Lozes et Jacques Vigué ont mobilisé les membres du LCAR-IRSAMC et du LAAS pour l'organisation conjointe - particulièrement réussie - de COLOQ et Horizons de l'Optique, qui ont pu bénéficier de l'aide de I'INSA pour les locaux. COLOQ ne serait pas ce qu'il est sans le généreux soutien des diverses instances publiques nationales, régionales, locales, et à la forte participation des sociétés industrielles du secteur optoélectronique et laser qui nous ont permis de maintenir les frais d'inscription à un niveau particulièrement raisonnable, en particulier pour les jeunes. Que tous ces donateurs, dont on trouvera la liste dans ce volume soient ici remerciés ! Une mention spéciale à la Société Française d'Optique qui facilite tellement l'organisation de COLOQ depuis de nombreuses années. Au moment de quitter la présidence du comité scientifique national de COLOQ, après quatre éditions m'ayant permis de parcourir l'hexagone du nord an sud et de l'est à l'ouest, je tiens à témoigner de la richesse et de la vitalité de la communauté française de l'optique, que j'ai pu apprécier aussi bien au sein du comité scientifique national que des divers comités locaux de Strasbourg, Bordeaux, Rennes, Toulouse. C'est aussi l'occasion de dire mon émerveillement renouvelé devant la vitalité de notre discipline, qui ne cesse d'ouvrir de nouveaux champs de recherche, et où des sujets très “amonts”, parfois exotiques, donnent régulièrement lieu à des développements techniques et industriels qui ont un impact sur toute la société. Je ne vois pas que cette vitalité donne le moindre signe d'essoufflement, bien au contraire - je suis sûr que les prochaines éditions de COLOQ en témoigneront, et je souhaite que ce message soit entendu par les plus jeunes qui s'interrogent sur leur avenir professionnel. Alain Aspect Orsay, printemps 2004
2003-02-01
Beam Weld Repair and Qualification of Titanium Fan Blades for Military Gas Turbine Engines”, NATO-RTO-AVT Workshop on Cost Effective Applications of...announced in the Meeting Announcement Research of Extension of the Life Cycle of Helicopter Rotor Blade in Hungary 39 by M. Balaskó, G. Endröczi, J...and Power Systems MP-069(I), February 2003 Low Cost Composite Structures / Cost Effective Application of Titanium Alloys in Military Platforms MP-069
1992-11-01
coivergence. PROPAGATION CHARACTERISTICS OF THE IONOSPHERIC TRANSMISSION WINDOW RELATING TO LONG WAVE RADIO LOCATION ISSUES Paul A. Kossey Phillips...aý iteil wed as tt~onthi. ’o~ar li: i i~e froiti Janitarx 1:1hiý t brotuli FeI,riiar% l, withi 1\\: trott I) o~ .- o ; , ::tr--t’rh -li- axitnuti...the great circle path at the midpoint. meters on a leg. Both arrays are in an "L" Experimental evidence ( Paul , 1985)indicates configuration using seven
DRDC Toronto Technical Stream Integrated Capabilities and Vision
2011-09-01
du RT, et les présenter à la séance d’information 2010 destinée à tout le personnel, puis à la réunion du Comité de gestion . Reposant sur une...profession technique, c) adoption d’une culture de collaboration et de réseautage, d ) élargissement de l’influence de la profession technique. Grâce à...d’information 2010 destinée à tout le personnel, puis à la réunion du Comité de gestion . Résultats : Une équipe de projet, composée de huit membres du
Les caractéristiques de la collaboration mère-enfant à 48 mois dans deux tâches de numération
Caron, Lisbeth; Parent, Sophie; Normandeau, Sylvie; Tremblay, Richard E.; Séguin, Jean R.
2017-01-01
RÉSUMÉ Afin d’étudier les connaissances relatives au développement de la numération à l’âge préscolaire, cette recherche examine les manifestations de ces compétences dans un contexte de collaboration mère-enfant. La collaboration entre les mères et leur enfant de 4 ans (n = 193) est observée et analysée dans le contexte de deux tâches de numération. Les résultats complètent les études antérieures sur les compétences maîtrisées par les enfants d’âge préscolaire en performance individuelle en identifiant les compétences en cours d’acquisition exercées avec le soutien de la mère. Les résultats montrent ainsi que les mères ajustent les exigences de la tâche aux compétences de leur enfant afin d’étayer l’exercice de leurs compétences : elles modèlent les compétences numéraires nouvelles et elles soutiennent l’exercice par l’enfant des compétences maîtrisées ou en voie de l’être. Les résultats indiquent également qu’au-delà de l’encadrement de la participation et du transfert progressif des responsabilités cognitives à l’enfant, l’étayage maternel en contexte de numération favorise aussi le soutien de la motivation de l’enfant et le maintien d’un climat affectif harmonieux. PMID:28566773
Etude de la dynamique des porteurs dans des nanofils de silicium par spectroscopie terahertz
NASA Astrophysics Data System (ADS)
Beaudoin, Alexandre
Ce memoire presente une etude des proprietes de conduction electrique et de la dynamique temporelle des porteurs de charges dans des nanofils de silicium sondes par rayonnement terahertz. Les cas de nanofils de silicium non intentionnellement dopes et dopes type n sont compares pour differentes configurations du montage experimental. Les mesures de spectroscopie terahertz en transmission montre qu'il est possible de detecter la presence de dopants dans les nanofils via leur absorption du rayonnement terahertz (˜ 1--12 meV). Les difficultes de modelisation de la transmission d'une impulsion electromagnetique dans un systeme de nanofils sont egalement discutees. La detection differentielle, une modification au systeme de spectroscopie terahertz, est testee et ses performances sont comparees au montage de caracterisation standard. Les instructions et des recommendations pour la mise en place de ce type de mesure sont incluses. Les resultats d'une experience de pompe optique-sonde terahertz sont egalement presentes. Dans cette experience, les porteurs de charge temporairement crees suite a l'absorption de la pompe optique (lambda ˜ 800 nm) dans les nanofils (les photoporteurs) s'ajoutent aux porteurs initialement presents et augmentent done l'absorption du rayonnement terahertz. Premierement, l'anisotropie de l'absorption terahertz et de la pompe optique par les nanofils est demontree. Deuxiemement, le temps de recombinaison des photoporteurs est etudie en fonction du nombre de photoporteurs injectes. Une hypothese expliquant les comportements observes pour les nanofils non-dopes et dopes-n est presentee. Troisiemement, la photoconductivite est extraite pour les nanofils non-dopes et dopes-n sur une plage de 0.5 a 2 THz. Un lissage sur la photoconductivite permet d'estimer le nombre de dopants dans les nanofils dopes-n. Mots-cles: nanofil, silicium, terahertz, conductivite, spectroscopie, photoconductivite.