Spherical shock waves in general relativity
NASA Astrophysics Data System (ADS)
Nutku, Y.
1991-11-01
We present the metric appropriate to a spherical shock wave in the framework of general relativity. This is a Petrov type-N vacuum solution of the Einstein field equations where the metric is continuous across the shock and the Riemann tensor suffers a step-function discontinuity. Spherical gravitational waves are described by type-N Robinson-Trautman metrics. However, for shock waves the Robinson-Trautman solutions are unacceptable because the metric becomes discontinuous in the Robinson-Trautman coordinate system. Other coordinate systems that have so far been introduced for describing Robinson-Trautman solutions also suffer from the same defect. We shall present the C0-form of the metric appropriate to spherical shock waves using Penrose's approach of identification with warp. Further extensions of Penrose's method yield accelerating, as well as coupled electromagnetic-gravitational shock-wave solutions.
Symmetries in tetrad theories. [of gravitational fields and general relativity
NASA Technical Reports Server (NTRS)
Chinea, F. J.
1988-01-01
The isometry conditions for gravitational fields are given directly at the tetrad level, rather than in terms of the metric. As an illustration, an analysis of the curvature collineations and Killing fields for a twisting type-N vacuum gravitational field is made.
Digitalisierung und Energie 4.0 - Wie schaffen wir die digitale Energiewende?
NASA Astrophysics Data System (ADS)
Irlbeck, Maximilian
Die digitale Energiewende verändert nachhaltig die Systeme der "alten" Energiewelt. Ein Zusammenwachsen verschiedener Domänen im Energiesystem, die durch digitale Technologie möglich wird, birgt enorme Herausforderungen, ist aber notwendig, um die Energiewende und ihre Ziele zu meistern. Dieser Beitrag beschreibt die Wirkung der Digitalisierung auf das Energiesystem, listet Charakteristika der digitalen Energiewende auf und schildert für verschiedene Domänen mögliche Zielvorstellungen, die durch digitale Technologie umsetzbar sind. Am Ende erläutert der Beitrag Handlungsschritte, die auf dem Weg zu einem erneuerbaren Energiesystem gegangen werden sollten und zeigt Probleme und Risiken einer Fehlentwicklung auf.
The Impacts of Social Media on Citizen Security Behavior in Mexico
2012-03-01
consumo -de-medios- digitales -2010. 72 Guillermo Perezbolde V, “Twitter en México 2011, slide 9 of 16,” Mente Digital Presentation, June 9, 2011, http...recent times.68 67 Millward Brown, “Estudio de Consumo de Medios Digitales en México 2010,” IAB...México, http://www.slideshare.net/iabmexico/estudio-de- consumo -de-medios- digitales -2010. 68 Ibid. 28 Figure 2.3. Devices Used to Connect to the
NASA Astrophysics Data System (ADS)
Niehoff, Wolfgang
Für die drahtlose Übertragung von Audiosignalen werden elektromagnetische Wellen als Trägersignale genutzt. Auch der Rundfunk bedient sich dieser Wellen auf unterschiedlichen Frequenzen, ebenso Kommunikationsdienste wie der Mobilfunk, WLAN, Bluetooth und andere Funkdienste (Abb. 19.1).
La replantation digitale, résultats et complications: étude d’une série de 18 cas
Idrissi, Mohammed El; Elibrahimi, Abdelhalim; Shimi, Mohammed; Elmrini, Abdelmajid
2016-01-01
Les amputations digitales sont des lésions fréquentes, la majorité étant provoquée par des accidents de travail. Les techniques microchirurgicales représentent une alternative pour réparer ces amputations. L'objectif de ce travail est de rapporter notre expérience dans la replantation digitale à travers l'étude de 18 cas. Nous avons mené une étude rétrospective, étalée entre Juin 2013 et Janvier 2015, incluant 14 patients présentant une amputation totale ou subtotale des doigts. Nous avons inclus dans notre série toutes les replantations unidigitales et multidigitales réalisées en aval de l'insertion distale du tendon fléchisseur superficiel ainsi que les replantations digitales réalisées en amont de l'insertion distale du tendon fléchisseur superficiel. Nous avons opéré ces patients selon le procédé classique de réimplantation digitale. Cinq replantations ont été secondairement régularisées. Parmi les 18 replantations, huit replantions digitales ont favorablement évolué puisque la replantation a permis de restituer un secteur complet de mobilité passive et active du doigt opéré sans chirurgie de reprise et sans complication secondaire précoce et tardive. Dans notre étude nous avons noté des résultats satisfaisants, malgré les conditions difficiles notamment le conditionnement initial du doigt amputé, et le délai de prise en charge retardé. Le développement et la maîtrise de la microchirurgie a permis de changer le pronostic de ces amputations à retentissement fonctionnel et psychologique difficile, les résultats de notre série sont encourageants pour a mise en place d'un service SOS main au Maroc. PMID:27795781
Ganzheitliche Digitalisierungsansätze im Stadtwerk: Von der Strategie bis zur Umsetzung
NASA Astrophysics Data System (ADS)
Dudenhausen, Roman; Hahn, Heike
Digitalisierung muss im Stadtwerk dazu führen, Kundenerwartungen, die heutzutage schon vielfach durch digitales Know-how und Erfahrungen geprägt sind, in einzigartiger Weise zu entsprechen - in Form digitaler Kundenkontaktpunkte, automatisierter Prozesse oder plattformbasierter Geschäftsmodelle. Eine große Rolle spielen dabei unternehmensweit nutzbare Informationen, die eine 360-Grad-Sicht auf den Kunden ermöglichen. Nur in dieser Kombination werden sich nachhaltig Wettbewerbsvorteile generieren lassen. Manch ein Kunde wird die Lust, einen Prozess zu Ende zu gehen, schon vor dem Abschluss verlieren, wenn er nicht unmittelbar und ohne die digitale Welt zu verlassen zum Ziel kommt. Eine nur "halb digitale Kundenerfahrung" wird weder zu Neugeschäft noch zur positiven emotionalen Bindung zwischen Kunden und Stadtwerk führen. Nicht zu unterschätzen sind zudem Erwartungen hinsichtlich zukünftiger Geschäftsmodelle, aus denen sich disruptive Bedrohungen für die herkömmlichen Strom- und Gasangebote ergeben werden. Erste innovative Ansätze finden sich bereits im Markt, die erahnen lassen, dass zurzeit viel diskutierte Technologien wie die Blockchain nicht mehr nur hypothetischer Natur sind. Die Auseinandersetzung mit der Digitalisierung erfolgt dabei sinnvollerweise in einem unternehmensweit abgestimmten Rahmen, der eine zielgerichtete und ganzheitliche Vorgehensweise ermöglicht.
Digitalisierung in der Energiewirtschaft - empirische Untersuchung und Wertschöpfungskette
NASA Astrophysics Data System (ADS)
Dell, Timo
Die Energiewirtschaft nutzt seit je her digitale Strukturen zur Umsetzung ihrer Prozesse. Durch den (neuen) verabschiedeten politischen Ordnungsrahmen - dem Gesetz zur Digitalisierung der Energiewende - und durch die rasante Fortentwicklung technologischer Strukturen ergeben sich jedoch die Wertschöpfungsstufen erweiternde, diversifizierende und innovative Möglichkeiten für Energieversorger (EVU) Geschäftsfelder auszubauen bzw. neue zu erschließen. Dabei ist die digitale (R)Evolution keine rein technische Umsetzung, sondern insbesondere auch eine unternehmensinterne, strategische und intern-kulturelle Herausforderung.
Digitale Transformation, aber wie? - Von der Spielwiese zur Umsetzungsplanung
NASA Astrophysics Data System (ADS)
Kaiser, Thomas
Es besteht wohl kaum Anlass zur Annahme, dass die seit Jahrzehnten etablierten Markt- und Technologiestrukturen der Energiewirtschaft sich nicht in einem radikalen Ablöseprozess mit Gewinnern und Verlierern befinden. Aber Vorsicht - vordergründig bereits verloren erscheinende Geschäftsmodelle erfahren im Zuge der Digitalisierung einerseits noch intensiveren Wettbewerbsdruck, können aber andererseits von diesem "technologischen Jungbrunnen" profitieren, um verlorenes Terrain zurückzugewinnen. Im folgenden Kapitel wird ein Managementzyklus aufgezeigt, der in Anlehnung an die bereits erfolgreiche Implementierung digitaler R/Evolutionen anderer Branchen aufzeigt, wie die Geschäftsleitung systematisch kostenbewusst und zielorientiert die Digitalisierung umsetzen kann.
Winter, S; Smith, A; Lappin, D; McDonagh, G; Kirk, B
2017-12-01
Dental handpieces are required to be sterilized between patient use. Vacuum steam sterilization processes with fractionated pre/post-vacuum phases or unique cycles for specified medical devices are required for hollow instruments with internal lumens to assure successful air removal. Entrapped air will compromise achievement of required sterilization conditions. Many countries and professional organizations still advocate non-vacuum sterilization processes for these devices. To investigate non-vacuum downward/gravity displacement, type-N steam sterilization of dental handpieces, using thermometric methods to measure time to achieve sterilization temperature at different handpiece locations. Measurements at different positions within air turbines were undertaken with thermocouples and data loggers. Two examples of widely used UK benchtop steam sterilizers were tested: a non-vacuum benchtop sterilizer (Little Sister 3; Eschmann, Lancing, UK) and a vacuum benchtop sterilizer (Lisa; W&H, Bürmoos, Austria). Each sterilizer cycle was completed with three handpieces and each cycle in triplicate. A total of 140 measurements inside dental handpiece lumens were recorded. The non-vacuum process failed (time range: 0-150 s) to reliably achieve sterilization temperatures within the time limit specified by the international standard (15 s equilibration time). The measurement point at the base of the handpiece failed in all test runs (N = 9) to meet the standard. No failures were detected with the vacuum steam sterilization type B process with fractionated pre-vacuum and post-vacuum phases. Non-vacuum downward/gravity displacement, type-N steam sterilization processes are unreliable in achieving sterilization conditions inside dental handpieces, and the base of the handpiece is the site most likely to fail. Copyright © 2017 The Healthcare Infection Society. Published by Elsevier Ltd. All rights reserved.
Standard Engineering Installation Package AN/TSQ-117, Aircraft Control Central.
1979-10-31
OF THIS PAGE (When Dis Enter ed) SECURITY CLASSIFICATION OF THIS PAGE(’nS Dots Ented) SECURITY CLASSIFICATION OF THIS PAGE(hon Data ZRntorEcD...19271% CONDUIT,. ENT, 21,’.10 L & ANY 160 48 ZM3?t 6(6. 6161640. 1060054(10. 6/SNT6O ANSNR 17 119171E SF61LANT, SIL11640 RAIER. 3.7. TUBE 110 46 070347...HASHES. RU0,940 . 1 /2" 0330-01-089-3179 ER 0 AS ~ .k 2 21 2111S F CONNECTOR. COAXIAL. UG-Z1C 08 119111 TYPEN 5843&00-241-1945 EA I5 v - l -g. FA -AL ?o
Stufenweise Integration von eLearning an der Technischen Universität München
NASA Astrophysics Data System (ADS)
Pätzold, Sebastian; Graf, Stephan; Gergintchev, Ivan; Pongratz, Hans; Rathmayer, Sabine
Der vorliegende Beitrag beschreibt als Best Practice Beispiel die stufenweise Integration eines Learning Management Systems (LMS) in die Infrastruktur von Information und Kommunikation (IuK) der Technischen Universität München (TUM). Dabei wird sowohl die Konsolidierung mehrfach angebotener Funktionalitäten und Dienste in den verschiedenen Portalen der Universität als auch die sukzessive Optimierung der Abläufe aufgezeigt. Gleichzeitig wird auf zukünftige weitere Entwicklungen hin zu einer vollständigen Integration der IuK, aber auch auf die Probleme in den unterschiedlichen Stadien der Entwicklung eingegangen.
Verbindungsprogrammierte Steuerung
NASA Astrophysics Data System (ADS)
Linke, Petra
Verbindungsprogrammierte Steuerungen werden eingesetzt, wenn die Anzahl der Verknüpfungsfunktionen gering ist oder spezifische Funktionen es erfordern. Nachteilig gegenüber Speicherprogrammierbaren Steuerungen sind die geringere Flexibilität, ein geringerer Funktionsumfang und die Tatsache, dass sich analoge oder digitale Daten praktisch nicht verarbeiten lassen.
NASA Astrophysics Data System (ADS)
Scheler, Fabian; Mitzlaff, Martin; Schröder-Preikschat, Wolfgang
Die Entscheidung, einen zeit- bzw. ereignisgesteuerten Ansatz für ein Echtzeitsystem zu verwenden, ist schwierig und sehr weitreichend. Weitreichend vor allem deshalb, weil diese beiden Ansätze mit äußerst unterschiedlichen Kontrollflussabstraktionen verknüpft sind, die eine spätere Migration zum anderen Paradigma sehr schwer oder gar unmöglich machen. Wir schlagen daher die Verwendung einer Zwischendarstellung vor, die unabhängig von der jeweils verwendeten Kontrollflussabstraktion ist. Für diesen Zweck verwenden wir auf Basisblöcken basierende Atomic Basic Blocks (ABB) und bauen darauf ein Werkzeug, den Real-Time Systems Compiler (RTSC) auf, der die Migration zwischen zeit- und ereignisgesteuerten Systemen unterstützt.
Unfallaufnahme und Datenerhebung
NASA Astrophysics Data System (ADS)
Brösdorf, Klaus-Dieter; Moser, Andreas; Burg, Jürgen
Unfälle ereignen sich in unterschiedlichen Schweregraden. Man unterscheidet zwischen Unfälle mit nur Sachschaden und in Unfälle mit Personenschaden. Gemäß Statistik [1] machten in Deutschland im Jahr 2005 Unfälle mit Personenschaden (336.619) etwa 15 % der Gesamtanzahl der polizeilich erfassten Unfälle (2.253.992) aus. In den amtlichen Statistiken sind nur polizeilich erfasste Unfälle enthalten. Eine größere Zahl von Unfällen, insbesondere leichtere Unfälle, wird offensichtlich polizeilich nicht gemeldet. Mit den Daten der Versicherungswirtschaft wird die Anzahl der Kfz-Schäden pro Jahr in Deutschland mit 8.673.000 angegeben [2].
NASA Astrophysics Data System (ADS)
Labisch, Susanna
Konstruktion und Fertigung erfolgen in der Praxis fast ausschließlich rechnerunterstützt. Mit diesem Rechnereinsatz beim Konstruieren (CAD, Computer Aided Design) und Fertigen CAM (Computer Aided Manufacturing) scheint die technische Zeichnung an Bedeutung zu verlieren, da die Verständigung zwischen Konstruktions- und Fertigungsabteilung primär durch den Austausch digitaler Daten erfolgen kann.
1987-04-02
ATTERRAGGIO " 4 . A MICR00NDE • FIBRE OTTICHE 7.. ► SISTEMA INTERAMENTE DIGITALE DI COMANDO E CONTROLLO 8. • ATTERRAGGIO AUTOMATIK...Aircraft t PRESTAZIONI 1. ,.* •CONTROLU S 3 INTERAMENTE AEREINUOVAGENERAZ.ONE >1 ’ ELETTR0N,C1 y » SISTEMA 01
Zuverlässigkeit digitaler Schaltungen unter Einfluss von intrinsischem Rauschen
NASA Astrophysics Data System (ADS)
Kleeberger, V. B.; Schlichtmann, U.
2011-08-01
Die kontinuierlich fortschreitende Miniaturisierung in integrierten Schaltungen führt zu einem Anstieg des intrinsischen Rauschens. Um den Einfluss von intrinsischem Rauschen auf die Zuverlässigkeit zukünftiger digitaler Schaltungen analysieren zu können, werden Methoden benötigt, die auf CAD-Verfahren wie Analogsimulation statt auf abschätzenden Berechnungen beruhen. Dieser Beitrag stellt eine neue Methode vor, die den Einfluss von intrinsischem Rauschen in digitalen Schaltungen für eine gegebene Prozesstechnologie analysieren kann. Die Amplituden von thermischen, 1/f und Schrotrauschen werden mit Hilfe eines SPICE Simulators bestimmt. Anschließend wird der Einfluss des Rauschens auf die Schaltungszuverlässigkeit durch Simulation analysiert. Zusätzlich zur Analyse werden Möglichkeiten aufgezeigt, wie die durch Rauschen hervorgerufenen Effekte im Schaltungsentwurf mit berücksichtigt werden können. Im Gegensatz zum Stand der Technik kann die vorgestellte Methode auf beliebige Logikimplementierungen und Prozesstechnologien angewendet werden. Zusätzlich wird gezeigt, dass bisherige Ansätze den Einfluss von Rauschen bis um das Vierfache überschätzen.
Dürre, Waldbrände, gravitative Massenbewegungen und andere klimarelevante Naturgefahren
NASA Astrophysics Data System (ADS)
Glade, Thomas; Hoffmann, Peter; Thonicke, Kirsten
Klimarelevante Naturgefahren sind auf vielfältige Faktoren zurückzuführen, deren Zusammenwirken in der Gesamtheit betrachtet werden muss. Die vorbereitenden, auslösenden und kontrollierenden Faktoren werden in unterschiedlichster Weise vom Klimawandel beeinflusst. Die Autoren beschreiben beobachtete Trends und Projektionen zu Dürre, Waldbränden, gravitativen Massenbewegungen (Muren, Fels- und Bergstürze, Hangrutschungen) und Schneelawinen sowie das Zusammenspiel der unterschiedlichen Ursachen. Sie diskutieren darüber hinaus, welche der Veränderungen in der Häufigkeit oder Stärke von Naturgefahren tatsächlich ausschließlich dem Klimawandel zuzuschreiben sein könnten und welche Anteile hierbei der direkte menschliche Einfluss hat und konstatieren, dass eine eindeutige Trennung häufig nicht vollzogen werden kann.
ERIC Educational Resources Information Center
Berger, Andrea; Croll, Jutta
2012-01-01
With the progress of Digital Inclusion, it becomes important to address marginalised groups that face specific barriers in being part of the information society. From 2009 to 2011 within the framework of the nation-wide Initiative "Internet erfahren", funded by the German Federal Ministry of Economics, Stiftung Digitale Chancen has…
Smart Home, Smart Grid, Smart Meter - digitale Konzepte und das Recht an Daten
NASA Astrophysics Data System (ADS)
Spiecker genannt Döhmann, Indra
Modernes Energiemanagement setzt auf ein intelligent gesteuertes Energieinformationsnetz, das Smart Grid. In diesem ist der Smart Meter, die intelligente Messstelle beim Nutzer, ein zentrales Instrument für den wechselseitigen Austausch von Informationen. Allerdings werfen die über diverse Gesetze forcierten Informationsströme erhebliche datenschutzrechtliche Fragen auf. Der Beitrag stellt zentrale datenschutzrechtliche Leitlinien und Probleme vor und behandelt auch offene Fragestellungen.
Satellitenbewegung, band III: Natiirliche und gesteuerte bewegung.
NASA Astrophysics Data System (ADS)
Jochim, E. F.
2014-12-01
Im dritten Band der Satellitenbewegung werden in fortlaufender Nummerierung einige für Untersuchungen der Bewegung der künstlichen Satelliten wichtige Grundlagen der Astrodynamik mit ausführlichen mathematischen Formelsystemen behandelt. Dazu zählen die unterschiedlichen Aspekte der Bewegung der natürlichen Himmelskörper, die Steuerung und Kontrolle von künstlichen Objekten, und insbesondere die für eine Satellitenbahnanalyse wichtigen physikalischen Beeinflussungen einer Satellitenbewegung. Mathematisch entscheidend ist die Wahl geeigneter Bahnparameter, die ein bestimmtes Bewegungsproblem widerspruchsfrei und singularitätenfrei zu behandeln gestatten. Für die Behandlung routinemäßiger Aufgabenstellungen der Satellitenbewegung, in erster Linie einer präzisen Bahnbestimmung und Bahnverbesserung, kann auf eine Fülle von lehrbuchartigen Monographien verwiesen werden, so dass diese Problematik in der vorliegenden Arbeit nur angedeutet werden soll.
Aktuelle Entwicklungen - Orthopädische Implantate
NASA Astrophysics Data System (ADS)
Riner, Marc A.
Die guten Resultate und langen Standzeiten von bis zu 15 und 20 Jahren von implantierten Hüftendoprothesen führen dazu, immer jüngere Patienten mit einem Hüftgelenkersatz zu behandeln. Die Versorgung von jungen aktiven Patienten mit einer Hüftendoprothese stellt jedoch eine besondere Herausforderung dar [1]. Trotz umfangreicher Materialentwicklungen, Designoptimierungen und Verbesserungen der Operationstechnik, haben sich die Standzeiten der Prothesen zwar wesentlich verbessert, ist jedoch bei jungen Patienten verglichen mit denen von älteren Patienten deutlich verkürzt [2, 3]. Zudem kann die Hüftprothesenverankerung durch Knochenresektion im Rahmen der Erstimplantation, Adaptionsvorgängen im Knochen (stress shielding) aufgrund unphysiologischer Krafteinleitung, abriebbedingte Osteolyse und während der Implantat- bzw. Knochenzemententfernung auftretende knöcherne Defekte zu unbefriedigende Reimplantationsbedingungen im Fall einer Revision führen [4]. Dies hat in jüngerer Zeit zur Entwicklung von verschiedenen Endoprothesensystemen mit einem möglichst geringen Knochenverlust und damit einhergehenden verbesserten Rückzugsmöglichkeit im Revisionsfall geführt. Bei den knochensparend verankerten Hüftprothesen werden allgemein zwei Typen, die Schenkelhalsprothese und der Oberflächenersatz, unterschieden.
Scheduling periodic jobs that allow imprecise results
NASA Technical Reports Server (NTRS)
Chung, Jen-Yao; Liu, Jane W. S.; Lin, Kwei-Jay
1990-01-01
The problem of scheduling periodic jobs in hard real-time systems that support imprecise computations is discussed. Two workload models of imprecise computations are presented. These models differ from traditional models in that a task may be terminated any time after it has produced an acceptable result. Each task is logically decomposed into a mandatory part followed by an optional part. In a feasible schedule, the mandatory part of every task is completed before the deadline of the task. The optional part refines the result produced by the mandatory part to reduce the error in the result. Applications are classified as type N and type C, according to undesirable effects of errors. The two workload models characterize the two types of applications. The optional parts of the tasks in an N job need not ever be completed. The resulting quality of each type-N job is measured in terms of the average error in the results over several consecutive periods. A class of preemptive, priority-driven algorithms that leads to feasible schedules with small average error is described and evaluated.
2007-04-01
Dergelijke omngevingen zijn tot op heden vrijwel uitsluitend gebruikt voor training en onderwijs , maar slechts zeer sporadisch voor wetenschappelijk...Onderstaande instanties/personen ontvangen een volledig exemplaar van het rapport. 1 DMO/SC-DR&D standaard inclusief digitale versie bijgeleverd op cd
Worldwide Report, Telecommunications Policy, Research and Development, No. 258
1983-01-28
3379, December 1979. [20] F. Vatalaro: Caratteristiche di un filtro digitale dpplicato al sistema DME di precisione per MLS, F.U.B., Relazione 43...Spring 1980. [8] F. Chiarini, M. Gori: Possibilitä di miglioramento della precisione di un DME in banda L öfferta da u’n sistema di antenne a...Vecchio, G. Pedrini, F. Vatalaro: Rapporto sul programma per la determinazione delta forma d’onda impulsiva ottima per un sistema DME di precisione in
Machine Perception (La Perception de l’Environment par Senseurs Automatiques).
1992-08-01
France, January 25-27, 1984, Lectures. Volumes 1 & 2 Reconnaissance des formes et intelligence artificielle ; Congres Francais, 4th, Paris, France, January...capteurs intelligents intkgris - traitement cellulaire et neuronal - operateurs visuels de base -implantation analogique vs digitale A smart retina is a...I’I riscc Li li mttlL’ dliitrlt ITTIC dies % eiicule it dsitisitl Ct Lie"IIN10%Ct ,v,,temcs intelligents dfaidc a [a perception de lai situatiotn. O
Bildanalyse in Medizin und Biologie
NASA Astrophysics Data System (ADS)
Athelogou, Maria; Schönmeyer, Ralf; Schmidt, Günther; Schäpe, Arno; Baatz, Martin; Binnig, Gerd
Heutzutage sind bildgebende Verfahren aus medizinischen Untersuchungen nicht mehr wegzudenken. Diverse Methoden - basierend auf dem Einsatz von Ultraschallwellen, Röntgenstrahlung, Magnetfeldern oder Lichtstrahlen - werden dabei spezifisch eingesetzt und liefern umfangreiches Datenmaterial über den Körper und sein Inneres. Anhand von Mikroskopieaufnahmen aus Biopsien können darüber hinaus Daten über die morphologische Eigenschaften von Körpergeweben gewonnen werden. Aus der Analyse all dieser unterschiedlichen Arten von Informationen und unter Konsultation weiterer klinischer Untersuchungen aus diversen medizinischen Disziplinen kann unter Berücksichtigung von Anamnesedaten ein "Gesamtbild“ des Gesundheitszustands eines Patienten erstellt werden. Durch die Flut der erzeugten Bilddaten kommt der Bildverarbeitung im Allgemeinen und der Bildanalyse im Besonderen eine immer wichtigere Rolle zu. Gerade im Bereich der Diagnoseunterstützung, der Therapieplanung und der bildgeführten Chirurgie bilden sie Schlüsseltechnologien, die den Forschritt nicht nur auf diesen Gebieten maßgeblich vorantreiben.
Nichtkontinuierliche (zeitdiskrete) Signale
NASA Astrophysics Data System (ADS)
Plaßmann, Wilfried
Zeitdiskrete Signale werden häufig aus zeitkontinuierlichen Signalen durch Abtastung erzeugt. Dass beide Signale gleichwertig sind, zeigt das Abtasttheorem (Kap. 116) von Shannon, sofern die Bedingung nach (116.2), f_{ab}≈(2{,}2 {\\ldots} 4)\\cdot fg) eingehalten wird. Digitale Signale haben Vorteile: Einfache Speicherung, Weiterverarbeitung in Rechnern, wenig störanfällige Übertragung. Für die Bearbeitung dieser Signale dienen die im Kapitel dargestellten Hilfsmittel: Diskrete Fouriertransformation; Schnelle Fouriertransformation; z-Transformation: Darstellung, Sätze zur z-Transformation, Korrespondenzen zu Zeitfunktionen, Beispiele.
Der deutsche Röntgensatellit ABRIXAS: Mission und wissenschaftliche Zielsetzung.
NASA Astrophysics Data System (ADS)
Predehl, P.
ABRIXAS (A BRoad band Imaging X-ray All-sky Survey) ist ein Röntgensatellit mit sieben 27-fach genesteten Wolterteleskopen, die sich in ihren Brennpunkten eine pn-CCD Kamera teilen. ABRIXAS soll im Frühjahr 1999 auf einer russischen Cosmos-Rakete gestartet werden und die erste abbildende Himmelsdurchmusterung oberhalb von 2.4 keV durchführen. Man erwartet während der dreijährigen Mission wenigstens 10.000 neue Röntgenquellen zu entdecken. Dies sind vor allem solche Quellen, die durch vorgelagerte Staub- und Gasschichten für den ABRIXAS-Vorgänger ROSAT unsichtbar blieben. Darüber hinaus wird ABRIXAS hervorragend geeignet sein, ausgedehnte, diffuse Quellen spektroskopisch zu studieren und Intensitätsvariationen von Röntgenquellen auf sehr unterschiedlichen Zeitskalen zu untersuchen. Das Projekt ist eine wissenschaftliche Zusammenarbeit zwischen dem Astrophysikalischen Institut Potsdam (AIP), dem Institut für Astronomie und Astrophysik der Universität Tübingen (IAAT) und dem Max-Planck-Institut für extraterrestrische Physik (MPE).
Zahlen und Rechenvorgänge auf unterschiedlichen Abstraktionsniveaus
NASA Astrophysics Data System (ADS)
Rödler, Klaus
"Das Verständnis geht langsam vor sich!" Diesen wichtigen Satz hörte ich bei einem Vortrag von Martin Lowsky. Auf die hier behandelte Fragestellung übertragen heißt das: Was eine Zahl ist und wie ich sie im Rechenvorgang einsetzen und interpretieren kann, das erschließt sich erst allmählich. Die Zahl des Rechenanfängers ist nicht dieselbe wie die des kompetenten Rechners und es ist nicht die Zahl des Lehrers oder der Lehrerin. Die Zahlen sind nur auf der Oberfläche der Worte und Zeichen gleich. Im Innern, im Verständnis, sind sie völlig verschieden! Ich glaube, dass die Missachtung dieser Divergenz dazu führt, dass manche Kinder in für den Lehrer und Lehrerin nicht nachvollziehbaren Routinen stecken bleiben, einfachste Informationen nicht wirklich integrieren. Die auf beiden Seiten wachsende Verunsicherung durch die nicht erkannte und daher nicht kommunizierbare Diskrepanz im inneren Zahlkonzept stört den allmählichen Aufbau strukturierter Zahlvorstellungen.
Kundenfokus: Startpunkt für die digitale Transformation bei Stadtwerken
NASA Astrophysics Data System (ADS)
Fett, Perry; Küller, Philipp
Big Data, Internet der Dinge, Mobile Computing und soziale Medien - die modernen Informationstechnologien durchdringen den Alltag der meisten Menschen und lösen hierdurch eine digitale Transformation aus. Im Unternehmenskontext manifestiert sich die Digitalisierung durch eine neue Qualität der wissensbasierten Entscheidungsunterstützung und der Automatisierung bzw. Autonomisierung der Geschäftsprozesse. Für Stadtwerke gilt es nun, die Chancen der Digitalisierung zu ihren Gunsten zu nutzen. Ein Startpunkt könnte hierbei sein, wie Stadtwerke zukünftig mit ihren Kunden interagieren. Ausgelöst durch die Liberalisierung der Märkte rückt der Kunde heute stärker in den Mittelpunkt - die Energiewirtschaft steht nun vor der Herausforderung, dem Wettbewerb einen Schritt voraus zu sein und dem Kunden ein absolut positives Kundenerlebnis (Customer Experience) sowohl als Maßnahme zur Kundenbindung als auch zum Kundenaufbau zu bieten. Das vorliegende Kapitel zeigt hierfür die Erfolgskriterien für die gelungene Etablierung des Kundenfokus im eigenen Unternehmen auf. Mit dem Customer-Focus-Cycle-Modell von Fujitsu, angelehnt an den Deming-Kreislauf, wird ein allgemeingültiger Ansatz für ein mögliches Vorgehen beim Aufbau des Kundenfokus vorgestellt. Die sechs Phasen werden dabei anhand praktischer Beispiele erläutert und geben zudem Hinweise zu Methoden und Tools. Aus dem vorgestellten "Werkzeugkasten" wird ferner die Customer-Journey-Methode im Detail erläutert. Weiter soll das präsentierte Reifegradmodell Unternehmen dabei unterstützen, den eigenen Status quo festzustellen und die persönlichen Ziele auf dem Weg zur kundenzentrierten Organisation festzulegen.
Al Ghazal, Philipp; Grönemeyer, Lisa-Lena; Schön, Michael P
2018-03-01
Als Lipomatosen bezeichnet man gutartige, meist ohne eindeutige Auslöser auftretende Vermehrungen des Fettgewebes, oft mit typischem Verteilungsmuster. Im Gegensatz zu umschriebenen Lipomen entwickeln sie sich meist diffus-symmetrisch und sind nicht von einer fibrösen Pseudokapsel umgeben. Am häufigsten ist die benigne symmetrische Lipomatose (BSL; Launois-Bensaude-Syndrom), von der aufgrund des Verteilungsmusters des hyperplastischen Fettgewebes vier Typen unterschieden werden. Ätiologie und Pathogenese der Erkrankung sind noch weitgehend unbekannt, wobei manche Formen eine hereditäre Basis zu haben oder mit vermehrtem Alkoholkonsum assoziiert zu sein scheinen. In einigen Fällen wurden mitochondriale Fehlfunktionen nachgewiesen. Lipomatosen können isoliert, aber auch mit Begleitsymptomen oder -erkrankungen (Komorbidität) vergesellschaftet auftreten. Wirksame medikamentöse Therapien sind nicht bekannt; chirurgische Verfahren können hingegen zur Besserung der Symptome führen. Die von der BSL abzugrenzende Lipomatosis dolorosa tritt bevorzugt bei Frauen mittleren Alters auf und ist durch Vermehrung des Fettgewebes sowie starke Schmerzen in den betroffenen Bereichen gekennzeichnet. Verschiedene Differenzialdiagnosen und Begleiterkrankungen sind abzuklären, insbesondere Depressionen. Evidenzbasierte Therapieempfehlungen existieren nicht. Repetitive Lidocain-Infusionen können temporäre Besserungen bewirken; nach chirurgischen Interventionen treten häufig Rezidive auf, allerdings werden auch langfristige Erfolge erzielt. © 2018 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Wie verstehen Schülerinnen und Schüler den Begriff der Unendlichkeit?
NASA Astrophysics Data System (ADS)
Schimmöller, Tabea
Wie Hilbert bereits feststellte, wirkt die Idee der Unendlichkeit, wie keine andere, schon seit Zeiten sehr anregend und fruchtbar auf den Verstand und bewegt das Gemüt der Menschen. Der Begriff der Unendlichkeit bedarf aber auch, wie kein anderer, der Aufklärung, denn mit ihm eröffnet sich ein weites Feld, welches nicht nur aus vielen verschiedenen Definitionen besteht, sondern auch aus völlig unterschiedlichen Disziplinen. Physiker suchen immer dringender nach einer "Theorie für Alles" oder einer "Weltformel", Kosmologen beschäftigen sich unter anderem mit der Ewigkeit des Universums, Theologen interessiert eher die Unendlichkeit Gottes, Philosophen diskutieren unter anderem Grenzfragen zwischen Naturwissenschaft und Philosophie und die Mathematiker versuchen den Paradoxien des Unendlichen einen Sinn zu geben. Und so wird ersichtlich, dass nichts abstrakter ist als das Unendliche: Obwohl die Unendlichkeit für die unterschiedlichsten Wissenschaften von großer Bedeutung ist, "[ist] in der Wirklichkeit das Unendliche nirgends zu finden, [egal] was für Erfahrungen und Beobachtungen und welcherlei Wissenschaft wir auch heranziehen".
Qualitätsmanagement in molekularbiologischen Laboratorien
NASA Astrophysics Data System (ADS)
Schulze, Manuela
Jedes Laboratorium führt Untersuchungen nach bestem Wissen und Gewissen durch, und jeder Analytiker weiß von sich, dass er/sie gute Arbeit macht. Trotzdem können Analysen des gleichen Probenmaterials in verschiedenen Laboren zu unterschiedlichen Ergebnissen führen. Sofern es sich dabei nicht um Untersuchungen im Bereich der Nachweisgrenze und damit letztlich um statistisch bedingte Unterschiede oder Inhomogenitäten im Probenmaterial handelt, trägt dies nicht zur Vertrauenswürdigkeit von analytischen Untersuchungsergebnissen bei. Mit der zunehmenden Globalisierung der Märkte rückt die gegenseitige Anerkennung von analytischen Resultaten immer stärker in den Vordergrund. Die Vergleichbarkeit von Laborresultaten wird erleichtert, wenn sich die Laboratorien auf die gleichen Richtlinien zur Vorgehensweise und Handhabung ihrer Arbeiten verständigen. Im Bereich der Laboruntersuchungen von Lebensmitteln, Futtermitteln und Saatgut ist als derartige Rischt-Schnur die EN ISO/IEC 17025 [1] anerkannt. Diese Norm enthält alle Anforderungen, die Prüflaboratorien erfüllen müssen, wenn sie nachweisen wollen, dass sie ein Qualitätsmanagementsystem betreiben, technisch (meint: fachlich) kompetent und fähig sind, fachlich fundierte Ergebnisse zu erzielen.
Rotter, Gabriele; Brinkhaus, Benno
2017-01-01
Hintergrund: Das Vorhandensein einer Hiatushernie kann das Auftreten einer gastroösophagealen Refluxerkrankung (GERD) als Komplikation bedingen. Konventionelle medizinische Therapiemaßnahmen können zu unerwünschten Ereignissen und Rezidiven führen. Bisher sind die Effekte von osteopathischen Behandlungen bei Hiatushernie und GERD nicht bekannt. Fallbericht: Eine 59-jährige Patientin mit endoskopisch diagnostizierter chronischer Gastritis, GERD und Hiatushernie beklagte einen persistierenden gastroösophagealen Reflux trotz konventionell-medizinischer konservativer Therapie. Die osteopathische Diagnostik ergab eine funktionelle Störung im Bereich des Magens und der Kardia mit einer Beteiligung zugehöriger Reflexzonen. Nach einer osteopathischen Behandlung als individuelle, befundorientierte Therapie ließen die Beschwerden erheblich nach. Die Hiatushernie war nach einer dieser Behandlung endoskopisch nicht mehr nachweisbar. Schlussfolgerungen: Dieser Fallbericht schildert die Symptomreduktion einer GERD nach osteopathischer Behandlung. In der endoskopischen Folgeuntersuchung fand sich die initial diagnostizierte Hiatushernie nicht mehr, diese Befund änderung könnte jedoch auf die unterschiedlichen Untersucher zurückgeführt werden. Prospektive kontrollierte klinische Studien sind notwendig, um den Stellenwert von osteopathischen Behandlungen bei GERD mit Hiatushernie zu untersuchen. © 2017 The Author(s). Published by S. Karger GmbH, Freiburg.
Messen, Kalibrieren, Eichen in der Radiologie: Prinzipien und Praxis
NASA Astrophysics Data System (ADS)
Wagner, Siegfried R.
Nach einleitender Erläuterung der unterschiedlichen Meßbedingungen in der Strahlentherapie und im Strahlenschutz werden die metrologischen Probleme am Beispiel der Größenkategorie Äquivalentdosis diskutiert. Als spezielle Größen werden effektive Äquivalentdosis und Umgebungs-Äquivalentdosis eingeführt. Es wird gezeigt, wie richtiges Messen durch ein konsistentes System von Bauartanforderungen an Meßgeräte, durch Kalibrieren und durch Eichen gewährleistet werden kann. Die Bedeutung von Meßunsicherheiten und Fehlergrenzen wird erläutert und ihre Auswirkung auf die Interpretation von Meßergebnissen behandelt.Translated AbstractMeasurements, Calibration, Verification in Radiology: Principles and PracticeThe different measuring conditions in radiotherapy and in radiation protection are discussed in the introduction. Then, the metrological problems are discussed exemplarily with the dose equivalent as a category of quantity. Effective dose equivalent and ambient dose equivalent are introduced as special quantities. It is demonstrated, how correct measurements can be secured by a consistent system of instrument pattern requirements, by calibration and verification. The importance of uncertainties of measurements and of error limits is illustrated and their influence on the interpretation of the results of measurements is treated.
NASA Astrophysics Data System (ADS)
Silva, H.; Monasterios, G.
2016-01-01
The first key comparison in microwave frequencies within the SIM (Sistema Interamericano de Metrología) region has been carried out. The measurands were the S-parameters of 50 ohm coaxial devices with Type-N connectors and were measured at 2 GHz, 9 GHz and 18 GHz. SIM.EM.RF-K5b.CL was the identification assigned and it was based on a parent CCEM key comparison named CCEM.RF-K5b.CL. For this reason, the measurements standards and their nominal values were selected accordingly, i.e. two one-port devices (a matched and a mismatched load) to cover low and high reflection coefficients and two attenuators (3dB and 20 dB) to cover low and high transmission coefficients. This key comparison has met the need for ensuring traceability in high-frequency measurements across America by linking SIM's results to CCEM. Six NMIs have participated in this comparison which was piloted by the Instituto Nacional de Tecnología Industrial (Argentina). A linking method of multivariate values was proposed and implemented in order to allow the linking of 2-dimensional results. KEY WORDS FOR SEARCH Main text To reach the main text of this paper, click on Final Report. Note that this text is that which appears in Appendix B of the BIPM key comparison database kcdb.bipm.org/. The final report has been peer-reviewed and approved for publication by the CCEM, according to the provisions of the CIPM Mutual Recognition Arrangement (CIPM MRA).
DOE Office of Scientific and Technical Information (OSTI.GOV)
Aimthikul, Y.
This thesis reviews the essential aspects of speech synthesis and distinguishes between the two prevailing techniques: compressed digital speech and phonemic synthesis. It then presents the hardware details of the five speech modules evaluated. FORTRAN programs were written to facilitate message creation and retrieval with four of the modules driven by a PDP-11 minicomputer. The fifth module was driven directly by a computer terminal. The compressed digital speech modules (T.I. 990/306, T.S.I. Series 3D and N.S. Digitalker) each contain a limited vocabulary produced by the manufacturers while both the phonemic synthesizers made by Votrax permit an almost unlimited set ofmore » sounds and words. A text-to-phoneme rules program was adapted for the PDP-11 (running under the RSX-11M operating system) to drive the Votrax Speech Pac module. However, the Votrax Type'N Talk unit has its own built-in translator. Comparison of these modules revealed that the compressed digital speech modules were superior in pronouncing words on an individual basis but lacked the inflection capability that permitted the phonemic synthesizers to generate more coherent phrases. These findings were necessarily highly subjective and dependent on the specific words and phrases studied. In addition, the rapid introduction of new modules by manufacturers will necessitate new comparisons. However, the results of this research verified that all of the modules studied do possess reasonable quality of speech that is suitable for man-machine applications. Furthermore, the development tools are now in place to permit the addition of computer speech output in such applications.« less
NASA Astrophysics Data System (ADS)
Pell, Wolfgang
Energie wird zum Gebrauchsgegenstand, zur Commodity und rückt doch in den Blickpunkt der Aufmerksamkeit. Volkswirtschaftliche, politische, gesellschaftliche und betriebswirtschaftliche Ansprüche lassen Services rund um die Energieversorgung (Energy-related Services) entstehen. Convenience Services, die den Ansprüchen der Konsumenten gerecht werden, wie Visualisierung von (dezentraler) Energieerzeugung und -verbrauch auf Basis digitaler Smart Meter, die den analogen Ferraris-Zähler ersetzen, sowie optimierter Energieeinsatz halten in Haushalten als digitalisierten Standorten (Smart Sites) Einzug. Energieoptimierung auf Basis des Paradigmas "Verbrauch folgt Erzeugung" stellt Nachfrageflexibilität industrieller Prozesse (Demand Response) als Energie-Effizienz-Faktor in den Vordergrund und lässt Services wie ihre Vermarktung als Regelenergie zur Stabilisierung der Netzfrequenz entstehen. Ein Innovation Action Plan liefert einen Ausblick, wohin die Integration neuer Technologien, die Steigerung der Kundennähe und die Entwicklung neuer Geschäftsmodelle die Energiewirtschaft führen kann. Mit Eco-Home und Power-Pool werden zwei konkrete Beispiele für Energy as a Service vorgestellt.
Defense on the Move: Ant-Based Cyber Defense
DOE Office of Scientific and Technical Information (OSTI.GOV)
Fink, Glenn A.; Haack, Jereme N.; McKinnon, Archibald D.
Many common cyber defenses (like firewalls and IDS) are as static as trench warfare allowing the attacker freedom to probe them at will. The concept of Moving Target Defense (MTD) adds dynamism to the defender side, but puts the systems to be defended themselves in motion, potentially at great cost to the defender. An alternative approach is a mobile resilient defense that removes attackers’ ability to rely on prior experience without requiring motion in the protected infrastructure itself. The defensive technology absorbs most of the cost of motion, is resilient to attack, and is unpredictable to attackers. The Ant-Based Cybermore » Defense (ABCD) is a mobile resilient defense providing a set of roaming, bio-inspired, digital-ant agents working with stationary agents in a hierarchy headed by a human supervisor. The ABCD approach provides a resilient, extensible, and flexible defense that can scale to large, multi-enterprise infrastructures like the smart electric grid.« less
Directional Bias and Pheromone for Discovery and Coverage on Networks
DOE Office of Scientific and Technical Information (OSTI.GOV)
Fink, Glenn A.; Berenhaut, Kenneth S.; Oehmen, Christopher S.
2012-09-11
Natural multi-agent systems often rely on “correlated random walks” (random walks that are biased toward a current heading) to distribute their agents over a space (e.g., for foraging, search, etc.). Our contribution involves creation of a new movement and pheromone model that applies the concept of heading bias in random walks to a multi-agent, digital-ants system designed for cyber-security monitoring. We examine the relative performance effects of both pheromone and heading bias on speed of discovery of a target and search-area coverage in a two-dimensional network layout. We found that heading bias was unexpectedly helpful in reducing search time andmore » that it was more influential than pheromone for improving coverage. We conclude that while pheromone is very important for rapid discovery, heading bias can also greatly improve both performance metrics.« less
Exact ghost-free bigravitational waves
NASA Astrophysics Data System (ADS)
Ayón-Beato, Eloy; Higuita-Borja, Daniel; Méndez-Zavaleta, Julio A.; Velázquez-Rodríguez, Gerardo
2018-04-01
We study the propagation of exact gravitational waves in the ghost-free bimetric theory. Our focus is on type-N spacetimes compatible with the cosmological constants provided by the bigravity interaction potential, and particularly in the single class known by allowing at least a Killing symmetry: the AdS waves. They have the advantage of being represented by a generalized Kerr-Schild transformation from AdS spacetime. This entails a notorious simplification in bigravity by allowing to straightforwardly compute any power of its interaction square root matrix, opening the door to explore physically meaningful exact configurations. For these exact gravitational waves the complex dynamical structure of bigravity decomposes into elementary exact massless or massive excitations propagating on AdS. We use a complexified formulation of the Euler-Darboux equations to provide for the first time the general solutions to the massive version of the Siklos equation which rules the resulting AdS-wave dynamics, using an integral representation originally due to Poisson. Inspired by this progress, we tackle the subtle problem of how matter couples to bigravity and, more concretely, if this occurs through a composite metric, which is hard to handle in a general setting. Surprisingly, the Kerr-Schild ansatz brings again a huge simplification in how the related energy-momentum tensors are calculated. This allows us to explicitly characterize AdS waves supported by either a massless free scalar field or a wavefront-homogeneous Maxwell field. Considering the most general allowed Maxwell source instead is a highly nontrivial task, which we accomplish by again exploiting the complexified Euler-Darboux description and taking advantage of the classical Riemann method. In fact, this eventually allows us to find the most general configurations for any matter source.
Anisotropic Thermoelectric Devices Made from Single-Crystal Semimetal Microwires in Glass Coating
NASA Astrophysics Data System (ADS)
Konopko, L. A.; Nikolaeva, A. A.; Kobylianskaya, A. K.; Huber, T. E.
2018-04-01
Thermoelectric heat conversion based on the Seebeck and Peltier effects generated at the junction between two materials of type-n and type-p is well known. Here, we present a demonstration of an unconventional thermoelectric energy conversion that is based on a single element made of an anisotropic material. In such materials, a heat flow generates a transverse thermoelectric electric field lying across the heat flow. Potentially, in applications involving miniature devices, the anisotropic thermoelectric (AT) effect has the advantage over traditional thermoelectrics that it simplifies the thermoelectric generator architecture. This is because the generator can be made of a single thermoelectric material without the complexity of a series of contacts forming a pile. A feature of anisotropic thermoelectrics is that the thermoelectric voltage is proportional to the element length and inversely proportional to the effective thickness. The AT effect has been demonstrated with artificial anisotropic thin film consisting of layers of alternating thermoelectric type, but there has been no demonstration of this effect in a long single-crystal. Electronic transport measurements have shown that the semimetal bismuth is highly anisotropic. We have prepared an experimental sample consisting of a 10-m-long glass-insulated single-crystal tin-doped bismuth microwire (d = 4 μm). Crucial for this experiment is the ability to grow the microwire as a single-crystal using a technique of recrystallization with laser heating and under a strong electric field. The sample was wound as a spiral, bonded to a copper disk, and used in various experiments. The sensitivity of the sample to heat flow is as high as 10-2 V/W with a time constant τ of about 0.5 s.
Quantensprung Digitalisierung - Energiewirtschaft im 21. Jahrhundert
NASA Astrophysics Data System (ADS)
Thyen, Elmar
Die Energiewende wird ohne eine umfassende Digitalisierung der Energiewirtschaft Stückwerk bleiben. Die historisch gewachsene, aus hunderten fossilen Großkraftwerken getriebene Energieversorgung hat sich durch den Zubau von mehr als einer Millionen dezentraler Erzeugungseinheiten innerhalb der vergangenen 15 Jahren radikal verändert. Zum Ausgleich von Last und Erzeugung, aber auch zum Aufbau neuer Geschäftsfelder ist die digitale Technik unverzichtbar. Ihre Möglichkeiten scheinen nahezu unbegrenzt, ihre Rolle wird in einer zukünftig nahezu vollständig elektrifizierten Gesellschaft zunehmend wichtiger werden. Neue Anbieter drängen auf den Markt und setzen die traditionelle Energiewirtschaft unter Druck. Energieversorger, die sich dem Wandel nicht stellen, drohen den Anschluss zu verpassen. Noch werden Verbundunternehmen und Stadtwerke von weitreichenden regulatorischen Vorgaben geschützt. Beispiele aus anderen Branchen zeigen aber, dass die Digitalisierung im Stande ist, regulatorische Mechanismen außer Kraft zu setzen. Zugleich verhindert die enge Regulierung und ein falsch verstandener Datenschutzbegriff in Deutschland die Entwicklung neuer Geschäftsmodelle, die energie- und volkswirtschaftlich sinnvoll wären.
Brandt, Caroline L; Dalum, Peter; Thomsen, Tine T
2013-09-01
This study aimed to investigate how users perceive the different elements of an internet based smoking cessation intervention and to see if the program meet needs and expectations of people in a smoking cessation process. Nine semi-structured interviews were conducted in February 2010. Participants were recruited via the homepage of the smoking cessation program Dit Digitale Stopprogram (Your Digital Quit Program) operated by the Danish Cancer Society. The main result was that participants established a relationship to the program which influenced their smoking cessation process. Participants perceived the program as caring and found it supportive. However, the program also created feelings of frustration, disappointment and anger. Some participants in the last phase of cessation experienced text messages from the program as smoking cues. The study concluded that individual interpretations of the different elements in an Internet-based smoking cessation intervention can have both positive and negative impact on the smoking cessation process of participants.
NASA Astrophysics Data System (ADS)
Gens, Rüdiger
One of the most important uses of SAR interferometry is in the generation of digital elevation models (DEMs). However, a standard procedure for quality estimation of DEMs does not exist. This paper proposes a method of quality estimation using an adapted Monte Carlo simulation, which has the advantage that it could be used in areas where appropriate reference DEMs are not available. This paper also addresses interferometric processing, with special emphasis on the influence of the input parameters. Practical implementation of the proposed technique is shown on a data set from Lower Saxony in Germany. The error map generated, which is a measure of the quality of the DEM, is also presented. For further analysis of the critical aspects of quality, a reference DEM has also been used.
Kompressionstherapie bei Patienten mit Ulcus cruris venosum.
Dissemond, Joachim; Assenheimer, Bernd; Bültemann, Anke; Gerber, Veronika; Gretener, Silvia; Kohler-von Siebenthal, Elisabeth; Koller, Sonja; Kröger, Knut; Kurz, Peter; Läuchli, Severin; Münter, Christian; Panfil, Eva-Maria; Probst, Sebastian; Protz, Kerstin; Riepe, Gunnar; Strohal, Robert; Traber, Jürg; Partsch, Hugo
2016-11-01
Wund-D.A.CH. ist der Dachverband deutschsprachiger Fachgesellschaften, die sich mit den Thematiken der Wundbehandlung beschäftigen. Experten verschiedener Fachgesellschaften aus Deutschland, Österreich und der Schweiz haben nun einen aktuellen Konsens der Kompressionstherapie für Patienten mit Ulcus cruris venosum erstellt. In Europa ist das Ulcus cruris venosum eine der häufigsten Ursachen für chronische Wunden. Neben der konservativen und interventionellen Wund- und Venentherapie, ist die Kompressionstherapie die Basis der Behandlungsstrategien. Die Kompressionstherapie kann heute mit sehr unterschiedlichen Materialien und Systemen durchgeführt werden. Während in der Entstauungsphase insbesondere Verbände mit Kurzzugbinden oder Mehrkomponentensysteme zur Anwendung kommen, sind es anschließend überwiegend Ulkus-Strumpfsysteme. Eine weitere, bislang wenig verbreitete Alternative sind adaptive Kompressionsbandagen. Insbesondere für die Rezidivprophylaxe werden medizinische Kompressionsstrümpfe empfohlen. Durch die Vielzahl der heute zur Verfügung stehenden Behandlungsoptionen, kann für nahezu alle Patienten ein Konzept entwickelt werden, dass sich an den individuellen Bedürfnissen und Fähigkeiten orientiert und daher auch akzeptiert und durchgeführt wird. Die Kompressionstherapie ist für die Behandlung von Patienten mit Ulcus cruris venosum essentiell. In den letzten Jahren sind viele verschiedene Therapieoptionen verfügbar, die in den deutschsprachigen Ländern unterschiedlich angewendet oder durchgeführt werden. Daher soll dieser Expertenkonsens dazu beitragen, konkrete Empfehlungen für die praktische Durchführung der Kompressionstherapie von Patienten mit Ulcus cruris venosum darzustellen. © 2016 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Drought Variability in Eastern Part of Romania and its Connection with Large-Scale Air Circulation
NASA Astrophysics Data System (ADS)
Barbu, Nicu; Stefan, Sabina; Georgescu, Florinela
2014-05-01
Drought is a phenomenon that appears due to precipitation deficit and it is intensified by strong winds, high temperatures, low relative humidity and high insolation; in fact, all these factors lead to increasing of evapotranspiration processes that contribute to soil water deficit. The Standardized Precipitation Evapotranspiration Index (SPEI) take into account all this factors listed above. The temporal variability of the drought in Eastern part of Romania for 50 years, during the period 1961-2010, is investigated. This study is focused on the drought variability related to large scale air circulation. The gridded dataset with spatial resolution of 0.5º lat/lon of SPEI, (https://digital.csic.es/handle/10261/72264) were used to analyze drought periods in connection with large scale air circulation determinate from the two catalogues (GWT - GrossWetter-Typen and WLK - WetterLargenKlassifikation) defined in COST733Action. The GWT catalogue uses at input dataset the sea level pressure and the WLK catalogue uses as input dataset the geopotential field at 925 hPa and 500 hPa, wind at 700 hPa and total water content for entire atmospheric column. In this study we use the GWT catalogue with 18 circulation types and the WLK catalogue with 40 circulation types. The analysis for Barlad Hydrological Basin indicated that the negative values (that means water deficit - drought period) of SPEI are associated with prevailing anticyclonic regime and positive values (that means water excess - rainy period) of SPEI are associated with prevailing cyclonic regime as was expected. In last decade was observed an increase of dry period associated with an increase of anticyclonic activity over Romania. Using GWT18 catalogue the drought are associated with the north-eastern anticyclonic circulation type (NE-A). According to the WLK40 catalogue, the dominant circulation type associated with the drought is north-west-anticyclonic-dry anticyclonic (NW-AAD) type. keywords: drought, SPEI, large-scale atmospheric circulation
NASA Astrophysics Data System (ADS)
Doleski, Oliver D.
Die Energiewirtschaft benötigt neue, digitale Geschäftsmodelle. Gegenwärtig folgt auf Liberalisierung und Energiewende die nächste Stufe einer weitreichenden Bereinigung des Versorgungsmarktes. Digitalisierung und Dezentralisierung sind heute in aller Munde und verlangen nach neuen Produkten und Dienstleistungen. Dabei wirken die immensen Herausforderungen einer digitalen Energiewelt wie Beschleuniger für die Transformation im Versorgungssektor und tragen damit zur breiten Etablierung von Utilities 4.0 bei. Dieser Entwicklungsprozess vollzieht sich mithilfe unterschiedlicher Methoden zur Realisierung neuer Geschäftsideen. Allerdings greifen die gängigen Konzepte zur Entwicklung von Geschäftsmodellen gerade im Hinblick auf die Berücksichtigung komplexer, unbeständiger Rahmenbedingungen und spezifischer Anforderungen der digitalen Energiewelt mitunter zu kurz. Vor diesem Hintergrund wird das auf dem ganzheitlichen St. Galler Management-Konzept beruhende Integrierte Geschäftsmodell iOcTen als geeignetes Instrumentarium zur Geschäftsmodellentwicklung vorgestellt. Neben der Modellbeschreibung unterstützt ein intuitiv verständlicher Leitfaden den Praktiker bei der Transformation vom klassischen Versorgungsunternehmen zum digitalen Energiedienstleistungsunternehmen.
Big Biology: Supersizing Science During the Emergence of the 21st Century
Vermeulen, Niki
2017-01-01
Ist Biologie das jüngste Mitglied in der Familie von Big Science? Die vermehrte Zusammenarbeit in der biologischen Forschung wurde in der Folge des Human Genome Project zwar zum Gegenstand hitziger Diskussionen, aber Debatten und Reflexionen blieben meist im Polemischen verhaftet und zeigten eine begrenzte Wertschätzung für die Vielfalt und Erklärungskraft des Konzepts von Big Science. Zur gleichen Zeit haben Wissenschafts- und Technikforscher/innen in ihren Beschreibungen des Wandels der Forschungslandschaft die Verwendung des Begriffs Big Science gemieden. Dieser interdisziplinäre Artikel kombiniert eine begriffliche Analyse des Konzepts von Big Science mit unterschiedlichen Daten und Ideen aus einer Multimethodenuntersuchung mehrerer großer Forschungsprojekte in der Biologie. Ziel ist es, ein empirisch fundiertes, nuanciertes und analytisch nützliches Verständnis von Big Biology zu entwickeln und die normativen Debatten mit ihren einfachen Dichotomien und rhetorischen Positionen hinter sich zu lassen. Zwar kann das Konzept von Big Science als eine Mode in der Wissenschaftspolitik gesehen werden – inzwischen vielleicht sogar als ein altmodisches Konzept –, doch lautet meine innovative Argumentation, dass dessen analytische Verwendung unsere Aufmerksamkeit auf die Ausweitung der Zusammenarbeit in den Biowissenschaften lenkt. Die Analyse von Big Biology zeigt Unterschiede zu Big Physics und anderen Formen von Big Science, namentlich in den Mustern der Forschungsorganisation, der verwendeten Technologien und der gesellschaftlichen Zusammenhänge, in denen sie tätig ist. So können Reflexionen über Big Science, Big Biology und ihre Beziehungen zur Wissensproduktion die jüngsten Behauptungen über grundlegende Veränderungen in der Life Science-Forschung in einen historischen Kontext stellen. PMID:27215209
Smartes System für die Energiewende - der Übertragungsnetzbetreiber in der digitalen Zukunft
NASA Astrophysics Data System (ADS)
Pflaum, Rainer; Egeler, Tobias
Die Übertragungsnetze stellen eine zuverlässige Versorgung von Haushalt, Gewerbe und Industrie mit elektrischer Energie sicher und sind damit Grundlage einer modernen Wirtschaft und Gesellschaft. Die mittlerweile unumkehrbaren Entwicklungen der nationalen und europäischen Energiewende stellen den Übertragungsnetzbetreiber in seinen Kernaufgaben, dem Bau und Betrieb von Netzen, dem Markt- und Netzzugang und der Integration der erneuerbaren Energien vor neue und große Herausforderungen. Verbrauchsnahe dezentrale Erzeugung wie verbrauchsferne zentrale Erzeugung muss im Sinne der Gewährleistung der Systemstabilität gemanagt und in Einklang mit dem Verbrauch gebracht werden. Erneuerbare Energien müssen zudem in einem solchen System ihren Beitrag zur System- und Marktintegration leisten. All das erfordert mehr Daten, um in einem Gesamtsystem dynamische Reaktionsmöglichkeiten gewährleisten zu können. Erst die "Digitalisierung" schafft dabei die notwendigen Voraussetzungen die Komplexität zu stemmen. Die Digitalisierung stellt daher ein Kernelement dieses Wandels des Übertragungsnetzbetreibers dar, die einerseits mit zum Entstehen der neuen Herausforderungen beiträgt, andererseits aber auch hilft Werkzeuge bereitzustellen, diesen Herausforderungen zu begegnen. Im folgenden Beitrag wird aufgezeigt, wie die Digitalisierung die Aufgaben und Instrumente des Übertragungsnetzbetreibers verändern. Ausgehend von den heutigen Aufgaben eines Übertragungsnetzbetreibers und dem gültigen Rechtsrahmen werden unter dem Begriff "Notwendiges Set für morgen" smarte Elemente und Werkzeuge beschrieben, die bereits heute im Einsatz sind oder in den nächsten Jahren notwendig werden. Im Anschluss erfolgt anhand einiger Beispiele aus unterschiedlichen Bereichen eine Konkretisierung der Einsatzzwecke der Digitalisierung beim Übertragungsnetzbetreiber. Ein kurzer Ausblick mit Fokus auf den weiteren Veränderungsprozess rundet den Beitrag ab.
Freeman, Gary
1983-12-01
The normal embryology of the trachymedusa Aglantha digitale and the siphonophores Nanomia cara and Muggiaea atlantica is described. Marking experiments on these embryos indicate that the site of first cleavage initiation corresponds to the oral pole of the oral-aboral axis. In Muggiaea the plane of the first cleavage corresponds to the plane of bilateral symmetry. Experiments in which presumptive aboral and oral regions are isolated from these embryos at different stages of development indicate that there is an early determination of different regions along this axis. Only the oral region of the Muggiaea embryo has the ability to regulate. These eggs have a pronounced centrolecithal organization. As a consequence of cleavage, the outer ectoplasmic layer of the egg ends up in the cells that form the ectoderm, while the inner or endoplasmic region of the egg ends up in the cells that form the endoderm. Experimentally created fragments of fertilized eggs that contain only ectoplasm differentiate to form an unorganized ectodermal cell mass, indicating that endoplasm is necessary in order to differentiate endoderm. The process of embryogenesis in these animals and the developmental mechanisms they use are very different from those used by hydrozoans with indirect development. These embryos use a suite of developmental mechanisms which are very similar to those used by ctenophores. The significance of this similarity is discussed.
Electrogenesis in the lower Metazoa and implications for neuronal integration
Meech, Robert W.
2015-01-01
Electrogenic communication appears to have evolved independently in a variety of animal and plant lineages. Considered here are metazoan cells as disparate as the loose three-dimensional parenchyma of glass sponges, the two-dimensional epithelial sheets of hydrozoan jellyfish and the egg cell membranes of the ctenophore Beroe ovata, all of which are capable of generating electrical impulses. Neuronal electrogenesis may have evolved independently in ctenophores and cnidarians but the dearth of electrophysiological data relating to ctenophore nerves means that our attention is focused on the Cnidaria, whose nervous systems have been the subject of extensive study. The aim here is to show how their active and passive neuronal properties interact to give integrated behaviour. Neuronal electrogenesis, goes beyond simply relaying ‘states of excitement’ and utilizes the equivalent of a set of basic electrical ‘apps’ to integrate incoming sensory information with internally generated pacemaker activity. A small number of membrane-based processes make up these analogue applications. Passive components include the decremental spread of current determined by cellular anatomy; active components include ion channels specified by their selectivity and voltage dependence. A recurring theme is the role of inactivating potassium channels in regulating performance. Although different aspects of cnidarian behaviour are controlled by separate neuronal systems, integrated responses and coordinated movements depend on interactions between them. Integrative interactions discussed here include those between feeding and swimming, between tentacle contraction and swimming and between slow and fast swimming in the hydrozoan jellyfish Aglantha digitale. PMID:25696817
Relationship between climate extremes in Romania and their connection to large-scale air circulation
NASA Astrophysics Data System (ADS)
Barbu, Nicu; Ştefan, Sabina
2015-04-01
The aim of this paper is to investigate the connection between climate extremes (temperature and precipitation) in Romania and large-scale air circulation. Daily observational data of maximum air temperature and amount of precipitation for the period 1961-2010 were used to compute two seasonal indices associated with temperature and precipitation, quantifying their frequency, as follows: frequency of very warm days (FTmax90 ≥ 90th percentile), frequency of very wet days (FPp90; daily precipitation amount ≥ 90th percentile). Seasonally frequency of circulation types were calculated from daily circulation types determined by using two objective catalogues (GWT - GrossWetter-Typen and WLK - WetterLargenKlassifikation) from the COST733Action. Daily reanalysis data sets (sea level pressure, geopotential height at 925 and 500 hPa, u and v components of wind vector at 700 hPa and precipitable water content for the entire atmospheric column) build up by NCEP/NCAR, with 2.5°/2.5° lat/lon spatial resolution, were used to determine the circulation types. In order to select the optimal domain size related to the FTmax90 and the FPp90, the explained variance (EV) has been used. The EV determines the relation between the variance among circulation types and the total variance of the variable under consideration. This method quantifies the discriminatory power of a classification. The relationships between climate extremes in Romania and large-scale air circulation were investigated by using multiple linear regression model (MLRM), the predictands are FTmax90 and FPp90 and the circulation types were used as predictors. In order to select the independent predictors to build the MLRM the collinearity and multicollinearity analysis were performed. The study period is dividend in two periods: the period 1961-2000 is used to train the MLRM and the period 2001-2010 is used to validate the MLRM. The analytical relationship obtained by using MLRM can be used for future projection of the considered predictand. Preliminari results sows that in case of the FTmax90 the optimal domain size must by larger compared to TPp90. We have obtained some good correlation between registered and estimated values of the FTmax90 and the TPp90. Author Barbu N. work was supported by the strategic grant POSDRU/159/1.5/9.137750, "Project Doctoral and Postdoctoral programs support for increased competitiveness in Exact Sciences research" co-financed by the European Social Founds within the Sectoral Operational Program Human Resources Development 2007 - 2013.
Detección automática de NEOs en imágenes CCD utilizando la transformada de Hough
NASA Astrophysics Data System (ADS)
Ruétalo, M.; Tancredi, G.
El interés y la dedicación por los objetos que se acercan a la órbita de la Tierra (NEOs) ha aumentado considerablemente en los últimos años, tanto que se han iniciado varias campañas de búsqueda sistemática para aumentar la población identificada de éstos. El uso de placas fotográficas e identificación visual está siendo sustituído, progresivamente, por el uso de cámaras CCD y paquetes de detección automática de los objetos en las imágenes digitales. Una parte muy importante para la implementación exitosa de un programa automatizado de detección de este tipo es el desarrollo de algoritmos capaces de identificar objetos de baja relación señal-ruido y con requerimientos computacionales no elevados. En el presente trabajo proponemos la utilización de la transformada de Hough (utilizada en algunas áreas de visión artificial) para detectar automáticamente trazas, aproximadamente rectilíneas y de baja relación señal-ruido, en imágenes CCD. Desarrollamos una primera implementación de un algoritmo basado en ésta y lo probamos con una serie de imágenes reales conteniendo trazas con picos de señales de entre ~1 σ y ~3 σ por encima del nivel del ruido de fondo. El algoritmo detecta, sin inconvenientes, la mayoría de los casos y en tiempos razonablemente adecuados.
NASA Astrophysics Data System (ADS)
Meyer-Aurich, Andreas
1999-11-01
Mit der vorliegenden Arbeit werden exemplarisch Chancen und Grenzen der Integration von Umwelt- und Naturschutz in Verfahren der ackerbaulichen Landnutzung aufgezeigt. Die Umsetzung von Zielen des Umwelt- und Naturschutzes in Verfahren der Landnutzung ist mit verschiedenen Schwierigkeiten verbunden. Diese liegen zum einen in der Konkretisierung der Ziele, um diese umsetzen zu können, zum anderen in vielfach unzulänglichem Wissen über den Zusammenhang zwischen unterschiedlichen Formen der Landnutzung und insbesondere den biotischen Naturschutzzielen. Zunächst wird die Problematik der Zielfestlegung und Konkretisierung erörtert. Das Umweltqualitätszielkonzept von Fürst et al. (1992) stellt einen Versuch dar, Ziele des Umwelt- und Naturschutzes zu konkretisieren. Dieses Konzept haben Heidt et al. (1997) auf einen Landschaftsausschnitt von ca. 6000 ha im Biosphärenreservat Schorfheide-Chorin im Nordosten Brandenburgs angewendet. Eine Auswahl der von Heidt et al. (1997) formulierten Umweltqualitätsziele bildet die Basis dieser Arbeit. Für die ausgewählten Umweltqualitätsziele wurden wesentliche Einflussfaktoren der Landnutzung identifiziert und ein Bewertungssystem entwickelt, mit dem die Auswirkungen von landwirtschaftlichen Anbauverfahren auf diese Umweltqualitätsziele abgebildet werden können. Die praktizierte Landnutzung von 20 Betrieben im Biosphärenreservat Schorfheide-Chorin wurde von 1994 bis 1997 hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele analysiert. Die Analyse ergab ein sehr differenziertes Bild, das zum Teil Unterschiede in der Auswirkung auf die Umweltqualitätsziele für den Anbau einzelner Kulturen oder für bestimmte Betriebstypen zeigte. Es zeigte sich aber auch, dass es bei der Gestaltung des Anbaus einzelner Kulturarten große Unterschiede gab, die für Umweltqualitätsziele Bedeutung haben. Neben der Analyse der Landnutzung im Biosphärenreservat Schorfheide-Chorin wurde ein System entwickelt, mit dem die modellhafte Abbildung von Verfahren der Landnutzung möglich ist. Die Modellverfahren wurden in eine umfangreiche Datenbank eingebunden. Sie wurden mit Hilfe eines Fuzzy- Regelsystems hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele bewertet. Die systematisch bewerteten Verfahren wurden in ein Betriebsmodell integriert, womit eine weitergehende Analyse der Zielbeziehungen und die Berechnung von Szenarien mit unterschiedlichen Rahmenbedingungen ermöglicht wurde. Die Analyse der Beziehung verschiedener Ziele zueinander (Zieldivergenz, Zielkonvergenz) zeigte, dass sich mit der Verfolgung vieler Umweltqualitätsziele auch positive Effekte für andere Umweltqualitätsziele ergaben. Teilweise konnte allerdings auch eine Zieldivergenz festgestellt werden, die auf mögliche Zielkonflikte hinweist. Bei der Analyse der Szenarienergebnisse zeigte sich, dass die vorgeschlagenen Veränderungen von Rahmenbedingungen vielfach eine Verschlechterung für verschiedene Umweltqualitätsziele mit sich bringen. Eine Ursache dafür liegt darin, dass bei der Definition der Szenarien die Bedeutung der Stilllegungen unterschätzt wurde. The objective of this research was to show the opportunities and limitations associated with integrating of environmental goals into agricultural land use management. For this purpose, the impact of agricultural land uses on six environmental quality goals was analysed for an approximately 16.000 ha study region within the biosphere reserve Schorfheide-Chorin in north-eastern Brandenburg (Germany). The environmental quality goals considered were protection of ground water, preservation of groundwater recharge, protection of the soil against wind and water erosion and preservation of animal species typical of the agricultural landscape, in particular partridge, amphibians and cranes. For each environmental quality goal, an evaluation framework is presented which enables an assessment of the impact of agricultural land uses on the environmental quality goals. The evaluation framework was applied to assess the impact of land uses of twenty farms in the study area from 1994 to 1997. It was demonstrated that the impact of agricultural land uses on the environmental quality of the region is very complex, and - although some crops did significantly impact certain aspects, one factor did not overwhelmingly contribute to the overall environmental quality. The evaluation framework was integrated further into a system of modelled cropping practices for optimisation calculations. For this purpose, a model framework was established based on a MS Access database. In the database, cropping practices for 17 crops are stored. Inputs and yields are adapted to the site-specific yield potential. In addition to the cropping practices, the model framework is comprised of an evaluation module and optimisation module. Hence, the impact of the cropping practices can be assessed for each site. This model framework provides the basis for optimisation calculations to forecast various land uses under different conditions. A step-wise integration of the environmental quality goals into the optimisation algorithm of a model farm allows for showing trade-offs between economic and ecological goals. The results of the trade-offs show that an improvement of ecological goal achievement is possible with little impact on the gross margin, as long as the improvement is less than 30% of the starting situation. If improvements greater than 30% are desired, very high losses of gross margin must be taken into consideration. Another result of the calculations shows that high achievements of environmental quality goals often correlate with the percentage of set-aside land within the total area.
OMEGACAM and Gravitational Lensing
NASA Astrophysics Data System (ADS)
Christen, Fabrice Frédéric Thiébaut
2007-04-01
Het proefschrift van Fabrice Christen gaat over de ontwikkeling van nieuwe methoden voor het corrigeren van (digitale) foto's van melkwegstelsels. Met deze methoden kunnen de beelden uit het heelal beter worden geanalyseerd. Het eerste gedeelte is gewijd aan het werk dat bij ESO is uitgevoerd aan de CCD's van de OmegaCAM camera, het enige instrument van de VST. OmegaCAM is een optische groothoekcamera met een beeldveld van een vierkante graad, opgebouwd uit een mozaiek van 8 bij 4 CCD's. Van elk onderdeel moeten alle kenmerken volledig bekend zijn voordat het in het CCD mozaiek geplaatst kan worden. In het tweede deel van dit proefschrift wordt de ontwikkeling van een nieuwe methode voor het corrigeren van de ``point-spread function'' (PSF) en schatten van de ellipticiteit van de melkwegstelsels besproken. De nieuwe techniek wordt getest en vergeleken met een door sterrenkundigen algemeen gebruikte methode in het veld van zwaartekrachtslenzen, de Kaiser, Squire en Broadhurst (KSB) methode. De nieuwe methode, gebaseerd op shapelet ontleding (vergelijkbaar met wavelet ontleding), gaat verder, en is sneller en theoretisch preciezer dan de KSB methode. Door gebruik te maken van de gecorrigeerde ellipticiteit, kunnen we een statistische analyse uitvoeren om er een kosmisch vervormingssignaal uit te halen. De licht vervormde beelden van de melkwegstelsels bewij zen dat de niet-homogene massaverdeling op megaparsec-schaal voornamelijk bestaat uit grote hoeveelheden donkere materie. Verder vergelijken we de schattingen van de ellipticiteit van de shapelet en KSB methode. Bovendien voeren we ook nog een melkwegstelsel-melkwegstelsel lens analyse uit op de 50 VLT Fors1 afbeeldingen en slagen we erin de belangrijkste eigenschappen van de halo's van de stelsels, die zich op een afstand van een- tot tweeduizend megaparsec (1 parsec = 3,26 lichtjaar = 3,085 x 10^16 meter) bevinden, te bepalen door gebruik te maken van twee modellen van melkwegstelselhalo's. Vergeleken met andere overzichtsmetingen vinden we vergelijkbare resultaten.
Zhu, An-You; Zhu, Fang-Bing; Wang, Feng-Chao; Zhang, Lun-Jun; Ma, Yue; Hu, Jian-Guo
2017-10-01
To explore the relationship between serum total light chain κ/λ ratio (sTLC-κ/λ) and proportion of bone marrow plasma cells (BMPC) in patients with IgG type and IgA type multiple myeloma (MM) and its clinical significance. The levels of serum IgG, IgA, κ type and λ type total light chain were detected in 79 newly diagnosed patients with IgG type (n=52) and IgA type (n=27) MM by immuno-nephelometric assay and the sTLC-κ/λ ratio was calculated. The proportion of BMPC was determined by bone marrow smears in the corresponding period, and the changes in sTLC-κ/λ ratio and the proportion of BMPC were observed in 19 patients with IgG type(n=16) and IgA type (n=3) MM undergoing treatment, 26 cases of non-phasmocytic proliferative diseases were enrolled in control group. In MM patients with IgGκ type and IgAκ type, the sTLC-κ/λ ratio was significantly higher than that in the control group (P<0.01), while in MM patients with IgGλ type and IgAλ type, the sTLC-κ/λ ratio was significantly lower than that in the control group (P<0.01). In MM patients with IgGκ, the sTLC-κ/λ ratio was significantly higher than that in MM patients with IgAκ(P<0.01), while the sTLC-κ/λ ratio in MM patients with IgGλ was significantly lower than that in MM patients with IgAλ. The sTLC-κ/λ ratios in MM patients with IgGκ and IgAκ were positively correlated with the concentrations of IgG (r=0.778,P=0.000) and IgA (r=0.601,P=0.039), while the sTLC-κ/λ ratios of patients with IgGλ and IgAλ were negativily correlated with the IgG(r=-0.586,P=0.01) and IgA level(r=-0.718,P=0.003). In addition, a correlation between each type MM was not found except the IgGκ type MM which had a positive correlation between the sTLC-κ/λ ratio and proportion of BMPC (r=0.579,P=0.002). Nonetheless, 18 of 19 patients with IgG type and IgA type MM undergoing treatment showed concordance between the sTLC-κ/λ ratio and proportion of BMPC change. There is a lower correlation between the sTLC-κ/λ ratio and the proportion of BMPC in MM patients with IgG type and IgA type, but there is a high concordance between the sTLC-κ/λ ratio and the proportion of BMPC change in the same patient and it suggests that the sTLC-κ/λ ratio plays an important role in the diagnosis and monitoring of IgG type and IgA type MM.
Central circuitry in the jellyfish Aglantha. II: The ring giant and carrier systems
Mackie; Meech
1995-01-01
1. The ring giant axon in the outer nerve ring of the jellyfish Aglantha digitale is a multinucleate syncytium 85 % of which is occupied by an electron-dense fluid-filled vacuole apparently in a GibbsDonnan equilibrium with the surrounding band of cytoplasmic cortex. Micropipette recordings show small (-15 to -25 mV) and large (-62 to -66 mV) resting potentials. Low values, obtained with a high proportion of the micropipette penetrations, are assumed to be from the central vacuole; high values from the cytoplasmic cortex. Background electrical activity includes rhythmic oscillations and synaptic potentials representing hair cell input caused by vibration. 2. After the ring giant axon has been cut, propagating action potentials evoked by stimulation are conducted past the cut and re-enter the axon on the far side. The system responsible (the carrier system) through-conducts at a velocity approximately 25 % of that of the ring giant axon and is probably composed of small neurones running in parallel with it. Numerous small neurones are seen by electron microscopy, some making one-way and some two-way synapses with the ring giant. 3. Despite their different conduction velocities, the two systems normally appear to fire in synchrony and at the velocity of the ring giant axon. We suggest that, once initiated, ring giant spikes propagate rapidly around the margin, firing the carrier neurones through serial synapses and giving them, in effect, the same high conduction velocity. Initiation of ring giant spikes can, however, require input from the carrier system. The spikes are frequently seen to be mounted on slow positive potentials representing summed carrier postsynaptic potentials. 4. The carrier system fires one-for-one with the giant axons of the tentacles and may mediate impulse traffic between the latter and the ring giant axon. We suggest that the carrier system may also provide the pathways from the ring giant to the motor giant axons used in escape swimming. 5. The findings show that the ring giant axon functions in close collaboration with the carrier system, increasing the latter's effective conduction velocity, and that interactions with other neuronal sub-systems are probably mediated exclusively by the carrier system.
Power estimation on functional level for programmable processors
NASA Astrophysics Data System (ADS)
Schneider, M.; Blume, H.; Noll, T. G.
2004-05-01
In diesem Beitrag werden verschiedene Ansätze zur Verlustleistungsschätzung von programmierbaren Prozessoren vorgestellt und bezüglich ihrer Übertragbarkeit auf moderne Prozessor-Architekturen wie beispielsweise Very Long Instruction Word (VLIW)-Architekturen bewertet. Besonderes Augenmerk liegt hierbei auf dem Konzept der sogenannten Functional-Level Power Analysis (FLPA). Dieser Ansatz basiert auf der Einteilung der Prozessor-Architektur in funktionale Blöcke wie beispielsweise Processing-Unit, Clock-Netzwerk, interner Speicher und andere. Die Verlustleistungsaufnahme dieser Bl¨ocke wird parameterabhängig durch arithmetische Modellfunktionen beschrieben. Durch automatisierte Analyse von Assemblercodes des zu schätzenden Systems mittels eines Parsers können die Eingangsparameter wie beispielsweise der erzielte Parallelitätsgrad oder die Art des Speicherzugriffs gewonnen werden. Dieser Ansatz wird am Beispiel zweier moderner digitaler Signalprozessoren durch eine Vielzahl von Basis-Algorithmen der digitalen Signalverarbeitung evaluiert. Die ermittelten Schätzwerte für die einzelnen Algorithmen werden dabei mit physikalisch gemessenen Werten verglichen. Es ergibt sich ein sehr kleiner maximaler Schätzfehler von 3%. In this contribution different approaches for power estimation for programmable processors are presented and evaluated concerning their capability to be applied to modern digital signal processor architectures like e.g. Very Long InstructionWord (VLIW) -architectures. Special emphasis will be laid on the concept of so-called Functional-Level Power Analysis (FLPA). This approach is based on the separation of the processor architecture into functional blocks like e.g. processing unit, clock network, internal memory and others. The power consumption of these blocks is described by parameter dependent arithmetic model functions. By application of a parser based automized analysis of assembler codes of the systems to be estimated the input parameters of the Correspondence to: H. Blume (blume@eecs.rwth-aachen.de) arithmetic functions like e.g. the achieved degree of parallelism or the kind and number of memory accesses can be computed. This approach is exemplarily demonstrated and evaluated applying two modern digital signal processors and a variety of basic algorithms of digital signal processing. The resulting estimation values for the inspected algorithms are compared to physically measured values. A resulting maximum estimation error of 3% is achieved.
Assessing natural hazards in NE Colombia using Sentinel-1 interferometry
NASA Astrophysics Data System (ADS)
Olen, Stephanie; Bookhagen, Bodo
2017-04-01
The DIGENTI project (Digitaler Entscheidertisch für das Naturgefahrenmanagement auf Basis von Satellitendaten und VGI (Volunteered Geographic Information)) aims to assess the natural hazard threat to the Cesar and La Guajira departments of northeast Colombia as guidance for decision makers and disaster relief workers. As members of the DIGENTI project, we use Sentinel-1 synthetic aperture radar (SAR) interferometry to detect hillslope movements, delineate settlements, and monitor damage to urban areas. Our study area, located in the remote Serranía del Perijá mountain range on the border of Colombia and Venezuela, is mountainous, highly vegetated, and experiences high and spatially variable rainfall (between 1 and 4 m a-1). The remote nature of the region, coupled with the favorable conditions for mass movements and other hillslope instabilities, make it an ideal location to employ remote sensing techniques to monitor potential natural hazards. In the highly vegetated Serranía del Perijá mountain range, traditional damage proxy mapping is complicated by vegetation-related coherence loss between SAR scenes. Cross-referencing existing maps, we define regions of consistently high coherence as settled or urban areas. Using the spatial extent of settled or urban areas as a mask, we establish an algorithm to use coherence loss only in these regions as a damage proxy in urban areas where the local population will be most affected. Outside of settlements, hillslope instabilities and movements are quantified and mapped using a two-prong approach: (1) Horizontal ground displacement is be calculated by dense amplitude cross-correlation using the topsOffsetApp in the InSAR Scientific Computing Environment (ISCE). This allows the location, direction, and magnitude of mass movements and hillslope instabilities to be identified and mapped; (2) We use a timeseries of interferograms to quantify vertical ground deformation (e.g., as caused by landsliding) during the Sentinel-1 time window. To do this we employ the small baseline subset (SBAS) technique to create a timeseries of potential landslides in our study area. This technique has the added advantage of overcoming poor coherence between individual InSAR scenes (e.g., caused by vegetation cover). The output of the SBAS analysis will be used to designate natural hazard "hot spots" that will enhance static estimates of factor of safety and landslide risk (e.g., based on digital elevation models). Both the timeseries of horizontal and vertical surface movements and their spatial extent are compared to regional rainfall and vegetation patterns to aid in future natural hazard assessment. Preliminary work is being done to apply these algorithms to other regions with markedly different climate and tectonic settings (NW Argentine Andes and the Arun Valley, Nepal).
Multispectral Digital Image Analysis of Varved Sediments in Thin Sections
NASA Astrophysics Data System (ADS)
Jäger, K.; Rein, B.; Dietrich, S.
2006-12-01
An update of the recently developed method COMPONENTS (Rein, 2003, Rein & Jäger, subm.) for the discrimination of sediment components in thin sections is presented here. COMPONENTS uses a 6-band (multispectral) image analysis. To derive six-band spectral information of the sediments, thin sections are scanned with a digital camera mounted on a polarizing microscope. The thin sections are scanned twice, under polarized and under unpolarized plain light. During each run RGB images are acquired which are subsequently stacked to a six-band file. The first three bands (Blue=1, Green=2, Red=3) result from the spectral behaviour in the blue, green and red band with unpolarized light conditions, and the bands 4 to 6 (Blue=4, Green=5, Red=6) from the polarized light run. The next step is the discrimination of the sediment components by their transmission behaviour. Automatic classification algorithms broadly used in remote sensing applications cannot be used due to unavoidable variations of sediment particle or thin section thicknesses that change absolute grey values of the sediment components. Thus, we use an approach based on band ratios, also known as indices. By using band ratios, the grey values measured in different bands are normalized against each other and illumination variations (e.g. thickness variations) are eliminated. By combining specific ratios we are able to detect all seven major components in the investigated sediments (carbonates, diatoms, fine clastic material, plant rests, pyrite, quartz and resin). Then, the classification results (compositional maps) are validated. Although the automatic classification and the analogous classification show high concordances, some systematic errors could be identified. For example, the transition zone between the sediment and resin filled cracks is classified as fine clastic material and very coarse carbonates are partly classified as quartz because coarse carbonates can be very bright and spectra are partly saturated (grey value 255). With reduced illumination intensity "carbonate image pixels" get unsaturated and can be well distinguished from quartz grains. During the evaluation process we identify all falsely classified areas using neighbourhood matrices and reclassify them. Finally, we use filter techniques to derive downcore component frequencies from the classified thin section images for variable thick virtual samples. The filter conducts neighbourhood analyses. After filtering, each pixel of the filtered images carries the information about the frequency of any given component in a defined neighbourhood around (virtual sampling). References Rein, B. (2003) In-situ Reflektionsspektroskopie und digitale Bildanalyse Gewinnung hochauflösender Paläoumweltdaten mit fernerkundlichen Methoden, Habilitation Thesis, Univ. Mainz, 104 p. Jäger, K. and Rein, B. (2005): Identifying varve components using digital image analysis techniques. - in: Heidi Haas, Karl Ramseyer & Fritz Schlunegger (eds.): Sediment 2005 (18th-20th July 2005), Schriftenreihe der Deutschen Gesellschaft für Geowissenschaften, 38, p. 81 Rein, B. and Jäger, K. (subm.) COMPONENTS - Sediment component detection in thin sections by multispectral digital image analysis. Sedimentology.
NASA Astrophysics Data System (ADS)
Tost, Jordi; Olen, Stephanie M.; Bookhagen, Bodo; Heidmann, Frank
2017-04-01
The DIGENTI project ("DIGitaler ENtscheiderTIsch für das Naturgefahrenmanagement auf Basis von Satellitendaten und Volunteered Geographic Information") has the goal of quantifying and communicating the threat of natural hazards in the Cesar and La Guajira departments of northeast Colombia. The end-goal of the project is to provide an interactive guide for policy and decision makers, and for disaster relief coordination. Over the last years, abundant research has been done in order to analyze risk and to provide relevant information that improves effectiveness in disaster management. The communication of natural hazards risk has traditionally been built upon the estimation of hazard maps. In the context of landslides, hazard maps are used to depict potential danger from landslides and visualize the possibility of future landsliding throughout a given area. Such hazard maps provide a static snapshot of the local estimated threat in a region. However, in mountainous regions, a sufficiently large landslide in remote mountainous areas may represent a potential threat to settlements located downstream of a landslide event. The research presented here proposes an approach to visualize and interactively explore landslide risk by combining static hazard maps, hydrologic networks, and OpenStreetMap data. We estimated the potential for hillslope instabilities scenarios in the region of interest by using the TanDEM-X World DEM to calculate a suite Factor of Safety (FOS) maps. The FOS estimates the ratio of total resisting and driving forces to hillslope mass movements. By combining the World DEM with other environmental data (e.g., the Harmonized World Soil Database), we were able to create a suite of high-resolution landslide potential maps for the region of interest. The suite of FOS maps are calculated based on user-selectable parameters (e.g, total mass sliding thickness) that are not well constrained by field observations. We additionally use the TanDEM-X World DEM to calculate the hydrologic network for our study area. This allows not only to delineate the stream network, but also to calculate the area upstream of settlements located near rivers or streams that may be impacted by distal landsliding. By integrating the potential landslide hazard in the upstream area, we create a more robust threat estimate for vulnerable settlements. Disaster relief is not only affected by the physical consequences of a hazardous event, but also by the area's accessibility and mobility capability for internal displacements. We therefore also estimate the threat along roads and to other infrastructure (e.g. bridges). Decisions based on the area's road network have to be constantly taken, for instance, to send rescue teams or to coordinate humanitarian logistics. With our approach, we are able to identify critical spots along roads with high likelihood of getting damaged. Furthermore, given a particular potential landslide location and the calculation of its downstream hydrologic network, it is possible to estimate which settlements, roads or bridges may be at risk. This approach could be integrated into flooding early warning systems and into the disaster management response phase to foresee dangers and losses and plan evacuations on time.
BoLA class I polymorphism and in vitro immune response to M. bovis antigens.
Longeri, M; Polli, M; Ponti, W; Zanotti, M
1993-01-12
From a sample of 119 Friesian calves, serologically typed for BoLA class I, 47 subjects were chosen expressing 9 different MHC types (A6, A6.9, A10, A11, A14, A15, A30, W16, M103) with the same age and reared in the same farm conditions. The animals were s.c. injected with a water in oil suspension of killed M. bovis and the treatment was repeated two days later. Before the treatment and 21 days later, calves were bled and on PBM (peripheral blood mononuclear leucocytes) were performed the following tests: 1. Lymphocyte Stimulation with bovine and avian PPDs (Purified protein derivative of Mycobacterium bovis and Mycobacterium avium, respectively). 2. Phagocytic activity towards M. bovis. 3. Class II molecules expression on cell surface. 4. Percentage of leucocyte populations and subpopulations. In the in vitro Lymphocyte Stimulation test, all the animals and classes were responders. Animals bearing A10 BoLA class I presented c.p.m. (counts per minute) and index values higher than the other cattle; these values were significantly positively related both to bovine and avian PPDs (P < .01). By variance analysis A14 BoLA type showed a slight positive significant correlation with more efficient phagocytic activity. BoLA class I type did not seem to significantly affect percentage of class II positive cells and leucocyte percentages on PBM. ZUSAMMENFASSUNG: Der BoLA Klasse I Polymorphismus und in vitro immunologische Antwort gegen die Antigene von M. bovis Aus einer Stichprobe von 119 für BoLA Klasse I serologisch typisierten Friesian Kälber, wurden 47 Subjekte ausgewählt, die 9 verschiedene MHC Typen ausdrückten (A6, A6.9, A10, A11, A14, A15, A30, W16, M103). Alle waren gleich alt und in gleichen Haltungsbedingungen. Die Tiere wurden mit einer Wasser-in-Ol Suspension abgetöteter M. bovis subkutan injiziert und die Behandlung nach zwei Tagen wiederholt. Vor und 21 Tage nach Behandlung wurden die folgenden Tests ausgeführt: 1. Lymphozyten-Stimulationstest mit bovinen und Geflügel PPDs. 2. Phagozyten Aktivität gegen M. bovis. 3. Zeil-Oberflächen, Expression der Klasse II Moleküle. 4. Anteile der Lymphozyten Populationen und Subpopulationen. Im in vitro Lymphozyten-Stimulationstest waren alle Tiere und Klassen responder. Tiere mit A10 BoLA I zeigten höhere c.p.m. und Indexwerte als die anderen; diese Werte waren in signifikant positiver Beziehung mit der PPD von M. bovis und auch mit M. avium (P < .01). BoLA Typ A14 zeigte leicht signifikant positive Korrelation mit wirksamerer Phagozyten Aktivität. BoLA Klasse I Typ scheint nicht den Prozentsatz der positiven Zellen der Klasse II und der Leukozyten der PBM signifikant zu beeinflussen. RESUMEN: Polimorfismo de BoLA clase I y immunidad a los antigenos del M. bovis Se escojeron 47 novillos dentro de un grupo de 119 animales que segun analisis previamente hecha tenian BoLA de clase I. Estos 47 novillos fueron escojidos de manera que tuvieran 9 distintos tipos de MHC (A6, A6.9, A10, A11, A14, A15, A30, W16, M103), la misma edad, las mismas condiciones de cria. Estos animales fueron inoculados subcutaneo con M. bovis matados en una suspension oleosa y la misma inoculacion fue repetida una secunda vez despues de dos dias. Por cada animal se tomaron muestras de sangre antes y 21 dias despues de la inoculacion de arriba. Las muestras de sangre fueron pruebaoas con: 1. Stimulacion Lymhocitaria con PPD bovina y avicola. 2. Actividad phagocitaria a M. bovis. 3. Expresion sobre la superficie celular de moleculas de clase II. 4. Porcentaje de poblaciones y de subpob-laciones de leucocitos. Todos los animales y todos los tipos de MHC dieron respuestas positivas en las pruebas de Stimulacion Lymphocitaria. Los animales que tenian la BoLA A10 presentaron valores de c.p.m. y indices mas altos de los demas animales. Estos valores se encontraron significativamente y positivamente relacionados sea a la PPD bovina que a la PPD avicola. Por medio de la analisis de varianzas se encontro que el tipo BoLA A14 muestraba una correlacion significativa y algo positiva con una mejor actividad fagocitaria. Los tipos de clase BoLA I no parecieron que influenzaran de manera appreciable el porcentaje de positividad por la clase II y el porcentaje de leucocitos en la sangre PBM. 1993 Blackwell Verlag GmbH.
Role of PAHO/WHO in eHealth Capacity Building in the Americas: Analysis of the 2011-2015 period.
Novillo-Ortiz, David; D'Agostino, Marcelo; Becerra-Posada, Francisco
2016-08-01
Political will and adoption of measures toward the use of eHealth have been steadily increasing, facilitating mobilization of resources necessary to adopt and implement digital services that will make it possible to improve access, expand coverage, and increase financial efficiency of health care systems. Adoption of the Strategy and Plan of Action on eHealth of the Pan American Health Organization (PAHO) in 2011 by all Member States in the Region of the Americas has led the Region to major progress in this regard, including the following: creation of knowledge networks and development of information sources, establishment of eHealth sustainability models, support for development of electronic health records, promotion of standards on health data and related technologies that ensure exchange of information, use of mobile devices to improve health, and improvement in quality of care through telemedicine. This article details the main actions carried out by PAHO with regard to eHealth, specifically by the office of Knowledge Management, Bioethics, and Research in the 2011-2015 period (first period of implementation of the PAHO eHealth strategy and plan of action), which include research and capacity-building activities, development of technical guidelines, and formation of knowledge networks. RESUMEN La voluntad política y la adopción de medidas en relación con el uso de la eSalud han ido en aumento de forma constante, favoreciendo la movilización de los recursos necesarios a fin de adoptar y poner en marcha servicios digitales que permitan mejorar el acceso, ampliar la cobertura y aumentar la eficiencia financiera de los sistemas de atención de salud. Con la aprobación de la Estrategia y Plan de Acción de eSalud de la Organización Panamericana de la Salud (OPS) en 2011 por todos los Estados Miembros de la Región de las Américas, se han realizado importantes avances a este respecto en la Región, entre los que se destacan: la creación de redes de conocimiento y desarrollo de fuentes de información, el establecimiento de modelos de sostenibilidad en materia de eSalud, el apoyo al desarrollo de los registros electrónicos de salud, la promoción de normas sobre datos de salud y tecnologías conexas que garanticen el intercambio de información, la utilización de los dispositivos móviles para mejorar la salud y la mejora de la calidad asistencial por medio de la telemedicina. El presente artículo detalla las principales acciones ejecutadas por la OPS en eSalud, específicamente por la Oficina de Gestión del Conocimiento, Bioética e Investigación en el período comprendido entre 2011 y 2015 (primer período de implementación de la estrategia y plan de acción de eSalud de la OPS), entre las que se encuentran actividades de investigación y desarrollo de capacidad, la creación de lineamientos técnicos y la construcción de redes de conocimiento.
NASA Astrophysics Data System (ADS)
Küster, Frank
2002-11-01
Das Lektin aus Pisum sativum, der Gartenerbse, ist Teil der Familie der Leguminosenlektine. Diese Proteine haben untereinander eine hohe Sequenzhomologie, und die Struktur ihrer Monomere, ein all-ß-Motiv, ist hoch konserviert. Dagegen gibt es innerhalb der Familie eine große Vielfalt an unterschiedlichen Quartärstrukturen, die Gegenstand kristallographischer und theoretischer Arbeiten waren. Das Erbsenlektin ist ein dimeres Leguminosenlektin mit einer Besonderheit in seiner Struktur: Nach der Faltung in der Zelle wird aus einem Loop eine kurze Aminosäuresequenz herausgeschnitten, so dass sich in jeder Untereinheit zwei unabhängige Polypeptidketten befinden. Beide Ketten sind aber stark miteinander verschränkt und bilden eine gemeinsame strukturelle Domäne. Wie alle Lektine bindet Erbsenlektin komplexe Oligosaccharide, doch sind seine physiologische Rolle und der natürliche Ligand unbekannt. In dieser Arbeit wurden Versuche zur Entwicklung eines Funktionstests für Erbsenlektin durchgeführt und seine Faltung, Stabilität und Monomer-Dimer-Gleichgewicht charakterisiert. Um die spezifische Rolle der Prozessierung für Stabilität und Faltung zu untersuchen, wurde ein unprozessiertes Konstrukt in E. coli exprimiert und mit der prozessierten Form verglichen. Beide Proteine zeigen die gleiche kinetische Stabilität gegenüber chemischer Denaturierung. Sie denaturieren extrem langsam, weil nur die isolierten Untereinheiten entfalten können und das Monomer-Dimer-Gleichgewicht bei mittleren Konzentrationen an Denaturierungsmittel auf der Seite der Dimere liegt. Durch die extrem langsame Entfaltung zeigen beide Proteine eine apparente Hysterese im Gleichgewichtsübergang, und es ist nicht möglich, die thermodynamische Stabilität zu bestimmen. Die Stabilität und die Geschwindigkeit der Assoziation und Dissoziation in die prozessierten bzw. nichtprozessierten Untereinheiten sind für beide Proteine gleich. Darüber hinaus konnte gezeigt werden, dass auch unter nicht-denaturierenden Bedingungen die Untereinheiten zwischen den Dimeren ausgetauscht werden. Die Renaturierung der unprozessierten Variante ist unter stark nativen Bedingungen zu 100 % möglich. Das prozessierte Protein dagegen renaturiert nur zu etwa 50 %, und durch die Prozessierung ist die Faltung stark verlangsamt, der Faltungsprozess ist erst nach mehreren Tagen abgeschlossen. Im Laufe der Renaturierung wird ein Intermediat populiert, in dem die längere der beiden Polypeptidketten ein Homodimer mit nativähnlicher Untereinheitenkontaktfläche bildet. Der geschwindigkeitsbestimmende Schritt der Renaturierung ist die Assoziation der entfalteten kürzeren Kette mit diesem Dimer. The lectin from Pisum sativum (garden pea) is a member of the family of legume lectins. These proteins share a high sequence homology, and the structure of their monomers, an all-ß-motif, is highly conserved. Their quaternary structures, however, show a great diversity which has been subject to cristallographic and theoretical studies. Pea lectin is a dimeric legume lectin with a special structural feature: After folding is completed in the cell, a short amino acid sequence is cut out of a loop, resulting in two independent polypeptide chains in each subunit. Both chains are closely intertwined and form one contiguous structural domain. Like all lectins, pea lectin binds to complex oligosaccharides, but its physiological role and its natural ligand are unknown. In this study, experiments to establish a functional assay for pea lectin have been conducted, and its folding, stability and monomer-dimer-equilibrium have been characterized. To investigate the specific role of the processing for stability and folding, an unprocessed construct was expressed in E. coli and compared to the processed form. Both proteins have the same kinetic stability against chemical denaturant. They denature extremely slowly, because only the isolated subunits can unfold, and the monomer-dimer-equilibrium favors the dimer at moderate concentrations of denaturant. Due to the slow unfolding, both proteins exhibit an apparent hysteresis in the denaturation transition. Therefore it has not been possible to determine their thermodynamic stability. For both proteins, the stability and the rates of association and dissociation into processed or unprocessed subunits, respectively, are equal. Furthermore it could be shown that even under non-denaturing conditions the subunits are exchanged between dimers. Renaturation of the unprocessed variants is possible under strongly native conditions with 100 % yield. The processed protein, however, can be renatured with yields of about 50 %, and its refolding is strongly decelerated. The folding process is finished only after several days. During renaturation, an intermediate is populated, in which the longer of the two polypeptide chains forms a homodimer with a native-like subunit interface. The rate limiting step of renaturation is the association of the unfolded short chain with this dimer.
NASA Astrophysics Data System (ADS)
Möseneder, Jutta M.
2002-01-01
In der randomisierten, multizentrischen DASH-Studie (Dietary Approaches to Stop Hy-pertension), die unter kontrollierten Bedingungen stattfand, führte eine fettreduzierte Mischkost, reich an Obst, Gemüse und Milchprodukten, bei Borderline-Hypertonikern zu einer signifikanten Blutdrucksenkung. Während der Studienphase wurden Körpermasse, Natrium-Aufnahme sowie Alkoholzufuhr aufgrund der bekannten Einflussnahme auf den Blutdruck konstant gehalten. In der eigenen Pilot-Studie sollte untersucht werden, ob das Ergebnis der DASH-Studie (i) mit deutschen Hypertonikern und (ii) unter habituellen Ernährungs- und Lebensbedingungen mit regelmäßig durchgeführter Ernährungsberatung und ad libitum Verzehr anstelle des streng kontrollierten Studienansatzes bestätigt werden kann. Eine Konstanz der Körpermasse, der Natrium-Urinausscheidung (unter diesem Studienansatz valider als die Aufnahme) und des Alkoholkonsums wurde vorausgesetzt. Die Studienpopulation setzte sich aus 53 übergewichtigen Probanden mit einer nicht medikamentös therapierten Borderline-Hypertonie und ohne Stoffwechselerkrankungen zusammen. Die Studienteilnehmer wurden randomisiert entweder der Idealgruppe mit einer fettarmen Kost reich an Milchprodukten, Obst und Gemüse (ähnlich der DASH-Idealgruppe) oder der Kontrollgruppe mit habitueller Ernährungsweise zugeteilt. Über einen Zeitraum von fünf Wochen wurde den Probanden etwa 50% ihres täglichen Lebensmittelbedarfes entsprechend ihrer Gruppenzugehörigkeit kostenfrei zur Verfügung gestellt. Gelegenheitsblutdruckmessungen und 24h-Blutdruckmessungen, Ernährungs- und Aktivitätsprotokolle, Blut- und Urinproben sowie anthropometrische Messungen wurden vor, während und fünf Wochen nach der Interventionsphase durchgeführt. Die Ergebnisse zeigen, dass in der Idealgruppe keine signifikante Blutdrucksenkung beobachtet werden konnte. Dies lässt sich durch die Tatsache erklären, dass die Lebens-mittel- und Nährstoffaufnahme der deutschen Kontrollgruppe eher der amerikanischen Idealgruppe entsprach. In der Pilot-Studie waren die Unterschiede in der Nährstoffzufuhr zwischen den beiden Gruppen viel geringer als in der DASH-Studie; für eine blutdrucksenkende Ernährungsumstellung bestand somit nur ein geringer Spielraum. Eine weitere Erklärung besteht in der unterschiedlichen Zusammensetzung der Studienpopulation. Bei DASH wurden vorwiegend farbige Probanden (40% höhere Hypertonieprävalenz) untersucht. Die Studienergebnisse lassen also den Schluss zu, dass Ernährungs- und Lebensstilgewohnheiten sowie der genetische Hintergrund der entsprechenden Bevölkerungsgruppe bei der Formulierung von nährstoff- oder lebensmittelbezogenen Empfehlungen zur Senkung des Bluthochdruckes Berücksichtigung finden müssen. The Dietary Approaches to Stop Hypertension trial (DASH), a randomized well-controlled feeding study conducted at 4 medical centers, demonstrated that a low-fat diet, rich in fruits, vegetables and dairy products is able to lower blood pressure of borderline-hypertensive people significantly. Body weight, sodium intake and alcohol consumption were kept constant during the whole study period, due to the known influence on hypertension. Aim of our study project was to investigate whether the results of the DASH study can be confirmed by (i) using a German hypertensive population and (ii) replacing the well-controlled feeding design by allowing ad libitum intake according to dietary ad-vice. The participants were asked to keep their body weight, sodium urine excretion (un-der this study design more valid than sodium intake) and their alcohol consumption con-stant. Our pilot study population consisted of 53 mainly overweight participants with borderline hypertension and without medication or any metabolic disorders. They were randomly assigned to either an ideal diet low in fat and rich in dairy products, fruits and vegetables (similar to the DASH I-group) or a habitual diet as control (C-group). During five weeks the subjects were provided 50 % of their daily intake for free according to their dietary pattern. Single and 24h-blood pressure measurements, dietary weighed and physical activity records, blood and urine samples and anthropometric measurements were collected before, during and five weeks after the intervention period. The study results indicated that no significantly reduction of blood pressure could be observed for both methods in the I-group of our trial. This is due to the fact that the baseline intake of foods and nutrients of the German subjects was nearly corresponding to the intake targeted for the DASH I-group. Therefore, it was impossible to increase the intake of these nutrients in our I-group by the same percentage as in the DASH study. Another explanation may be the different consistency of the study population. About 60% of the DASH study population were African Americans with a known higher prevalence of hy-pertension (about 40%) than Caucasians. The conclusion is that even convincing results of a controlled trial cannot be simply transferred into dietary advice for the general public. For addressing food-based dietary guidelines to reduce the risk of hypertension it is necessary to consider the genetic background as well as the dietary and the lifestyle situation of the target population carefully.
Entwicklung von Landnutzungsszenarien für landschaftsökologische Fragestellungen
NASA Astrophysics Data System (ADS)
Fritsch, Uta
2002-04-01
Die Landschaften Mitteleuropas sind das Resultat einer langwierigen Geschichte menschlicher Landnutzung mit ihren unterschiedlichen, z.T. konkurrierenden Nutzungsansprüchen. Durch eine überwiegend intensive Beanspruchung haben die direkten und indirekten Auswirkungen der Landnutzung in vielen Fällen zu Umweltproblemen geführt. Die Disziplin der Landschaftsökologie hat es sich zur Aufgabe gemacht, Konzepte für eine nachhaltige Nutzung der Landschaft zu entwickeln. Eine wichtige Fragestellung stellt dabei die Abschätzung der möglichen Folgen von Landnutzungsänderungen dar. Für die Analyse der relevanten Prozesse in der Landschaft werden häufig mathematische Modelle eingesetzt, welche es erlauben die Landschaft unter aktuellen Verhältnissen oder hinsichtlich veränderter Rahmenbedingungen zu untersuchen. Die hypothetische Änderung der Landnutzung, die als Landnutzungsszenario bezeichnet wird, verkörpert eine wesentliche Modifikation der Rahmenbedingungen, weil Landnutzung mageblich Einfluss auf die natürlichen Prozesse der Landschaft nimmt. Während die Antriebskräfte einer solchen Änderung überwiegend von sozio-ökonomischen und politischen Entscheidungen gesteuert werden, orientiert sich die exakte Verortung der Landnutzungsänderungen an den naturräumlichen Bedingungen und folgt z.T. erkennbaren Regeln. Anhand dieser Vorgaben ist es möglich, räumlich explizite Landnutzungsszenarien zu entwickeln, die als Eingangsdaten für die Modellierung verschiedener landschaftsökologischer Fragestellungen wie z.B. für die Untersuchung des Einflusses der Landnutzung auf den Wasserhaushalt, die Erosionsgefahr oder die Habitatqualität dienen können. Im Rahmen dieser Dissertation wurde das rasterbasierte deterministische Allokationsmodell luck (Land Use Change Scenario Kit) für die explizite Verortung der Landnutzungsänderungen entwickelt. Es basiert auf den in der Landschaftsökologie üblichen räumlichen Daten wie Landnutzung, Boden sowie Topographie und richtet sich bei der Szenarienableitung nach den Leitbildern der Landschaftsplanung. Das Modell fut auf der Hypothese, dass das Landnutzungsmuster als Funktion seiner landschaftsökologischen Faktoren beschrieben werden kann. Das Veränderungspotenzial einer Landnutzungseinheit resultiert im Modell aus einer Kombination der Bewertung der relativen Eignung des Standortes für die jeweilige Landnutzung und der Berücksichtigung von Standorteigenschaften der umliegenden Nachbarn. Die Durchführung der Landnutzungsänderung im Modell ist iterativ angelegt, um den graduellen Prozess des Landschaftswandels nachvollziehen zu können. Als Fallbeispiel für die Anwendung solcher räumlich expliziten Landnutzungsszenarien dient die Fragestellung, inwieweit Landnutzungsänderungen die Hochwasserentstehung beeinflussen. Um den Einfluss auf die Hochwasserentstehung für jede der Landnutzungskategorien – bebaute, landwirtschaftlich genutzte und naturnahe Flächen – abschätzen zu können, wird im Landnutzungsmodell luck exemplarisch für jede Kategorie ein Teilmodell für die Veränderung von Landnutzung angeboten: 1) Ausdehnung der Siedlungsfläche: Dieses Teilmodell fut auf der Annahme, dass sich Siedlungen nur in direkter Nachbarschaft bereits bestehender Bebauung und bevorzugt entlang von Entwicklungsachsen ausbreiten. Steile Hangneigungen stellen für potenzielle Standorte ein Hemmnis bei der Ausbreitung dar. 2) Stilllegung von Grenzertragsackerflächen: Gemä der Hypothese, dass sich die Stilllegung von Ackerflächen an der potenziellen Ertragsleistung der Standorte orientiert, werden in diesem Teilmodell alle Ackerstandorte dahingehend bewertet und die Flächen mit der geringsten Leistungsfähigkeit stillgelegt. Bei homogenen Gebietseigenschaften werden die Stilllegungsflächen zufällig auf die Ackerfläche verteilt. 3) Etablierung von Schutzgebieten in Ufer- und Auenbereichen: Ausgehend von der These, dass sich entlang von Flüssen sensible Flächen befinden, deren Schutz positive Folgen für das Leistungsvermögen der Landschaft haben kann, werden in diesem Teilmodell schützenswerte Ufer- und Auenbereiche auf derzeit landwirtschaftlich genutzten Flächen ausgewiesen. Die Gröe der Schutzgebietsfläche orientiert sich an der Morphologie der umgebenden Landschaft. Die drei Teilmodelle wurden hinsichtlich der implizierten Hypothesen mit vielen unterschiedlichen Ansätzen validiert. Das Resultat dieser intensiven Analyse zeigt für jedes Teilmodell eine zufriedenstellende Tauglichkeit. Die Modellierung der Landnutzungsänderungen wurden in drei mesoskaligen Flusseinzugsgebieten mit einer Fläche zwischen 100 und 500 km² durchgeführt, die sich markant in ihrer Landnutzung unterscheiden. Besonderer Wert wurde bei der Gebietsauswahl darauf gelegt, dass eines der Gebiete intensiv landwirtschaftlich genutzt wird, eines dicht besiedelt und eines vorwiegend bewaldet ist. Im Hinblick auf ihre Relevanz für die vorliegende Fragestellung wurden aus bestehenden Landnutzungstrends die Szenarien für (1) die prognostizierte Siedlungsfläche für das Jahr 2010, (2) die möglichen Konsequenzen des EU-weiten Beschlusses der Agenda 2000 und (3) die Novelle des Bundesnaturschutzgesetzes aus dem Jahr 2001 abgeleitet. Jedes Szenario wurde mit Hilfe des Modells auf die drei Untersuchungsgebiete angewendet. Dabei wurden für die Siedlungsausdehnung in allen drei Gebieten realistische Landnutzungsmuster generiert. Einschränkungen ergeben sich bei der Suche nach Grenzertragsstilllegungsflächen. Hier hat unter homogenen Gebietseigenschaften die zufällige Verteilung von Flächen für die Stilllegung zu einem unrealistischen Ergebnis geführt. Die Güte der Schutzgebietsausweisung ist mageblich an die aktuelle Landnutzung der Aue und die Morphologie des Geländes gebunden. Die besten Ergebnisse werden erzielt, wenn die Flächen in den Ufer- und Auenbereichen mehrheitlich unter derzeitiger Ackernutzung stehen und der Flusslauf sich in das Relief eingetieft hat. Exemplarisch werden für jeden Landnutzungstrend die hydrologischen Auswirkungen anhand eines historischen Hochwassers beschrieben, aus denen jedoch keine pauschale Aussage zum Einfluss der Landnutzung abgeleitet werden kann. Die Studie demonstriert die Bedeutung des Landnutzungsmusters für die natürlichen Prozesse in der Landschaft und unterstreicht die Notwendigkeit einer räumlich expliziten Modellierung für landschaftsökologische Fragestellungen in der Mesoskala. Today′s landscapes in Central Europe are the result of a long history of land-use, which is characterised by many different demands. The immediate and long-term consequences of predominantly intensive land-use have led to environmental problems in many cases. Therefore it is necessary to develop strategies for the maintenance of landscape efficiency which take into account the different claims of utilisation. In this context the estimation of possible impacts of land-use changes represents an important statement of problem. For the analysis of the relevant processes within the landscape, it is common to apply mathematical models. Such models enable the investigation of the landscape under current conditions or with regard to modified boundary conditions. A hypothetic alteration of land-use, which is termed as land-use scenario, represents a substantial modification of the boundary conditions, because land-use exerts a strong influence on the natural processes of the landscape. While the driving forces are predominantly governed by socio-economical and political decisions, the exact location of land-use changes within the landscape mainly depends on the natural conditions and follows partly transparent rules. With these presumptions it is possible to develop land-use scenarios, which can serve as input data for the modelling of different questions of landscape ecology such as the influence of land-use on the water balance, the danger of erosion or the quality of habitat characteristics. In the context of this thesis the grid-based deterministic allocation model luck (Land Use Change Scenario Kit) for the allocation of land-use changes was developed. It is based upon the types of spatial data, which are commonly used in landscape ecology, such as information on land-use, soils as well as topography. The derivation of scenarios follows the approaches of landscape planning. The model is based upon the hypothesis, that land-use structure can be described as a function of its landscape ecological factors. The potential of a site to become subject to land-use changes, results from a combination of its local qualities and the site characteristics of its neighbourhood. Land-use change is realised iteratively in order to simulate the gradual process of changes in the landscape. The influence of land-use changes on flood generation serves as a case study to demonstrate the need for spatial explicit land-use scenarios. For each land-use category – built up areas, agriculturally used areas and natural/semi-natural land – the model luck offers a submodel for investigating the effect of land-use changes on flood generation: 1) Expansion of settlement area: This submodel is based upon the assumption that settlements spread only in the neighbourhood of already existing built-up areas and preferentially along infrastructural axes of development. Steep slopes inhibit the spreading on potential locations. 2) Set-aside of marginal yield sites under agricultural use: Setting-aside of arable land is based on the hypothesis that the selection of arable land to be set-aside depends on the potential yield efficiency of the locations. Within this submodel all fields under agricultural use are valued to that effect and the ones with the least productive efficiency are selected as set-aside locations. In case of homogeneous area qualities the set-aside locations are selected randomly. 3) Establishment of protected areas in waterside and ripearian areas: This submodel takes into consideration that the protection of sensitive areas along the river courses may have positive consequences for the efficiency of the landscape. Therefore this submodel establishes protection zones on waterside and ripearian sites under currently agricultural use, that might be of value for nature conservation. The size of the protection area depends on the morphology of the surrounding landscape. The three submodels were validated with respect to the implied hypotheses by the help of many different approaches. The result of this intensive analysis shows a satisfying suitability for each of the submodels. The simulation of land-use changes was carried out for three mesoscale river catchments with an area between 100 and 500 km². Special attention was paid to the fact that these areas should be markingly different in their land-use: One study area is predominantly under intensive agricultural use, one is densely populated and the third one is covered by forest in large parts of the area. With regard to their relevance to the onhand question from existing land-use trends scenarios were derived for the prognosed settlement area for the year 2010, for the possible consequences of the EU-wide agreement of Agenda 2000 and for the amending federal conservation law dating to the year 2001, which enhances the enlargement of protected areas. Each scenario was applied to the three study areas utilizing the model luck. For the expansion of the settlement areas in all three study areas realistic land-use patterns were generated. Limitations arose only in the context of the search for marginal yield fields. Here, the random distribution of areas to be set-aside under homogeneous conditions led to unrealistic results. The quality of the establishment of protected areas in waterside and ripearian areas is substantially bound to current land-use and the morphology of the area. The best results for this submodel are achieved if waterside and ripearian areas are mainly arable land and if the river has lowered its course into the morphology. The hydrological consequences are described exemplarily for each land-use trend with a historical flood event. The interpretation of the hydrographs does not allow global statements about the influence of land-use. The study demonstrates the significance of land-use pattern for the natural processes in the landscape and underlines the necessity of spatially explicit modelling for landscape ecological questions at the mesoscale.
Fonseca, Luciana Mara Monti; Aredes, Natália Del' Angelo; Fernandes, Ananda Maria; Batalha, Luís Manuel da Cunha; Apóstolo, Jorge Manuel Amado; Martins, José Carlos Amado; Rodrigues, Manuel Alves
2016-10-10
to evaluate the cognitive learning of nursing students in neonatal clinical evaluation from a blended course with the use of computer and laboratory simulation; to compare the cognitive learning of students in a control and experimental group testing the laboratory simulation; and to assess the extracurricular blended course offered on the clinical assessment of preterm infants, according to the students. a quasi-experimental study with 14 Portuguese students, containing pretest, midterm test and post-test. The technologies offered in the course were serious game e-Baby, instructional software of semiology and semiotechnique, and laboratory simulation. Data collection tools developed for this study were used for the course evaluation and characterization of the students. Nonparametric statistics were used: Mann-Whitney and Wilcoxon. the use of validated digital technologies and laboratory simulation demonstrated a statistically significant difference (p = 0.001) in the learning of the participants. The course was evaluated as very satisfactory for them. The laboratory simulation alone did not represent a significant difference in the learning. the cognitive learning of participants increased significantly. The use of technology can be partly responsible for the course success, showing it to be an important teaching tool for innovation and motivation of learning in healthcare. avaliar a aprendizagem cognitiva de estudantes de enfermagem na avaliação clínica neonatal a partir de um curso semipresencial com uso de simulação por computador e em laboratório; comparar a aprendizagem cognitiva dos estudantes em grupo controle e experimental ao testar a simulação em laboratório; e avaliar o curso semipresencial extracurricular oferecido sobre avaliação clínica do bebê pré-termo, segundo os estudantes. estudo quase-experimental com 14 estudantes portugueses contendo pré-teste, teste intermediário e pós-teste. As tecnologias oferecidas no curso foram serious game e-Baby, software instrucional de semiologia e semiotécnica e simulação em laboratório. Para a avaliação do curso e caracterização dos estudantes utilizou-se instrumentos de coleta de dados desenvolvidos para este estudo. Utilizou-se estatística não paramétrica: Mann-Whitney e Wilcoxon. O uso de tecnologias digitais validadas e de simulação em laboratório evidenciou diferença estatisticamente significativa (p=0,001) na aprendizagem dos participantes. O curso foi avaliado como muito satisfatório pelos mesmos. A simulação em laboratório isoladamente não representou diferença significativa no aprendizado. a aprendizagem cognitiva dos participantes aumentou significativamente. Considera-se que o uso de tecnologia foi responsável por parte do sucesso do curso, denotando ser uma importante ferramenta de inovação didática e motivação da aprendizagem na área da saúde. evaluar el aprendizaje cognitivo de estudiantes de enfermería en evaluación clínica neonatal, a partir de un curso semipresencial, utilizando simulación por computador y en laboratorio; comparar el aprendizaje cognitivo de los estudiantes, entre grupo control y experimental, comprobando la simulación en el laboratorio; y evaluar el curso semipresencial extracurricular ofrecido sobre evaluación clínica del bebé pretérmino, de acuerdo a los estudiantes. estudio casi experimental con 14 estudiantes portugueses, conteniendo preprueba, prueba intermedia y postprueba. Las tecnologías ofrecidas en el curso fueron serious game e-Baby, programa de instrucción en semiología y semiotecnia, y simulación en laboratorio. Para la evaluación del curso y caracterización de los estudiantes se utilizaron instrumentos de recolección de datos desarrollados para este estudio. Se utilizó la estadística no-paramétrica de Mann-Whitney y Wilcoxon. el uso de tecnologías digitales validadas y de simulación en laboratorio evidenció diferencia estadísticamente significativa (p=0,001) en el aprendizaje de los participantes. El curso fue evaluado como muy satisfactorio por los alumnos. La simulación en laboratorio, aisladamente, no presentó diferencia significativa en el aprendizaje. el aprendizaje cognitivo de los participantes aumentó significativamente. Se considera que el uso de la tecnología fue responsable por parte del éxito del curso, demostrando ser una importante herramienta de innovación didáctica y motivación del aprendizaje en el área de la salud.
FORS am Very Large Telescope der Europäischen Südsternwarte
NASA Astrophysics Data System (ADS)
1998-09-01
Erstes wissenschaftliches Beobachtungsinstrument liefert eindrucksvolle Bilder Entsprechend dem straffen Zeitplan wird das ESO Very Large Teleskop Projekt (VLT-Projekt) auf dem Cerro Paranal in Nord-Chile verwirklicht: die volle Betriebsbereitschaft des ersten der vier 8,2m-Einzelteleskope wird Anfang des nächsten Jahres erreicht sein. Am 15. September 1998 wurde ein weiterer wichtiger Meilenstein erfolgreich, rechtzeitig und innerhalb des Kostenplans erreicht. Nur wenige Tage nach seiner Montage am ersten 8,2m-Einzelteleskop des VLT (UT1) konnte FORS1 ( FO cal R educer and S pectrograph) als erstes einer Gruppe leistungsfähiger und komplexer wissenschaftlicher Instrumente seine Beobachtungstätigkeit beginnen. Von Anfang an konnte es eine Reihe exzellenter astronomischer Bilder aufnehmen. Dieses bedeutende Ereignis eröffnet eine Fülle neuer Möglichkeiten für die europäische Astronomie. FORS - ein Höhepunkt an Komplexität FORS1 und das zukünftige Zwillingsinstrument (FORS2) sind das Ergebnis einer der eingehendsten und fortschrittlichsten technologischen Studien, die je für ein Instrument der bodengebundenen Astronomie durchgeführt wurden. Dieses einzigartige Instrument ist nun im Cassegrain-Fokus installiert und verschwindet beinahe, trotz seiner Dimensionen von 3 x 1.5m (Gewicht 2.3t), unterhalb des riesigen 53 m 2 großen Zerodurspiegels. Um die große Spiegelfläche und die hervorragende Bildqualität von UT1 optimal auszunützen, wurde FORS speziell so konstruiert, daß es die lichtschwächsten und entferntesten Objekte im Weltall untersuchen kann. Bald wird dieses komplexe VLT-Instrument den europäischen Astronomen erlauben, die derzeitigen Beobachtungshorizonte entscheidend zu erweitern. Die beiden FORS-Instrumente sind Vielzweck-Beobachtungsinstrumente, die in mehreren unterschiedlichen Beobachtungsarten eingesetzt werden können. Beispielsweise können Bilder mit zwei verschiedenen Abbildungsmaßstäben (Vergrößerungen) sowie Spektren mit unterschiedlicher spektraler Auflösung von einzelnen oder mehreren Objekten aufgenommen werden. Dabei erlaubt der schnelle Wechsel zwischen den unterschiedlichen Beobachtungsarten z.B. zunächst die Aufnahme und direkt anschließend die Spektroskopie weit entfernter Galaxien. Damit kann dann u.a. die stellare Zusammensetzung und die Entfernung bestimmt werden. Als eines der leistungsfähigsten astronomischen Instrumente seiner Art wird FORS1 ein wahres Arbeitspferd für die Untersuchung des fernen Universums darstellen. Der Bau von FORS Das FORS-Projekt wird unter ESO-Kontrakt von einem Konsortium dreier deutscher astronomischer Institute durchgeführt, der Landessternwarte Heidelberg und den Universitäts-Sternwarten von Göttingen and München. Bis zur Beendigung des Projekts werden die beteiligten Institute Arbeit im Umfang von ca. 180 Mann-Jahren eingebracht haben. Bei der Landessternwarte Heidelberg lag die Leitung des Projekts. Hier wurde außerdem das gesamte optische System konstruiert, die Beschaffung der Komponenten der abbildenden Optik und der Zusatzoptiken für Spektroskopie und Polarimetrie durchgeführt und die spezielle Computersoftware geschrieben, mit der die von FORS gelieferten Daten verarbeitet und ausgewertet werden. Darüber hinaus wurde in der Werkstatt der Sternwarte ein Teleskopsimulator gebaut, mit dem alle wesentlichen Funktionen von FORS in Europa getestet werden konnten, bevor das Instrument zum Paranal (Chile) transportiert wurde. An der Universitäts-Sternwarte Göttingen wurden Konstruktion, Herstellung und Zusammenbau der gesamten Mechanik von FORS durchgeführt. Der größte Teil der Präzisionsteile, insbesondere der Multispalteinheit, wurde in der feinmechanischen Werkstatt der Sternwarte hergestellt. Die Beschaffung der großen Instrumentengehäuse und Flansche, die Computeranalysen für mechanische und thermische Stabilität des empfindlichen Spektrographen und die Herstellung der speziellen Werkzeuge für Handhabung, Wartung und Justierung lag ebenso in der Verantwortung dieser Sternwarte wie die Tests der zahlreichen opto- und elektromechanischen Funktionen. Die Universitäts-Sternwarte München war verantwortlich für das Projektmanagement, Integration und Test des gesamten Instruments im Labor, für Planung und Einbau aller Elektronik und Elektromechanik, sowie für Entwicklung und Test der gesamten Software, die FORS in allen Teilen vollständig per Computer steuert (z.B. Filter- und Grismräder, Verschlüsse, Spalteinheit für die Vielspaltspektroskopie, Masken, alle optischen Komponenten, Elektromotoren, Encoder usw.). Zusätzlich wurde Computersoftware geschrieben, mit der die komplexen astronomischen Beobachtungen mit FORS vorbereitet werden und das Verhalten des Instruments durch eine ständige Kontrolle der gesammelten wissenschaftlichen Daten überwacht wird. Als Gegenleistung für den Bau von FORS erhalten die Astronomen der drei beteiligten Institute des FORS-Konsortiums eine gewisse Anzahl von Nächten an "garantierter Beobachtungszeit" am VLT. In dieser Beobachtungszeit werden verschiedene Forschungsprojekte durchgeführt, deren Themen unter anderem von kleinen Körpern im äußeren Sonnensystem über Untersuchungen von Sternen im Endstadium und den von ihnen abgestoßenen Gaswolken bis zur Erforschung ferner Galaxien und Quasare reichen, die Aufschluß über die frühen Zeiten unseres Universums geben. Erste Tests von FORS1 am VLT-UT1: ein großartiger Erfolg Nach sorgfältiger Vorbereitung hat das FORS-Konsortium nun mit der Inbetriebnahme ("Commissioning") des Instruments begonnen. Dazu gehören ein eingehender Nachweis der spezifizierten Leistungsfähigkeit am Teleskop, die Überprüfung der korrekten Funktionsweise unter Softwaresteuerung vom Kontrollraum auf Paranal, und am Ende dieses Prozesses eine Demonstration, daß das Instrument seinen angestrebten wissenschaftlichen Zweck erfüllt. Während der Durchführung dieser Tests gelangen dem Commissioning-Team auf Paranal eine Reihe von Aufnahmen verschiedener astronomischer Objekte, von denen einige hier wiedergegeben sind. Sie wurden alle mit FORS in der Standardauflösung gewonnen (Bildfeldgröße 6.8 x 6.8 Bogenminuten, Pixelgröße 0.20 Bogensekunden) und zeigen einige der eindrucksvollen Möglichkeiten, die das neue Instrument bietet. Spiralgalaxie NGC 1288 ESO PR Photo 37a/98 ESO PR Photo 37a/98 [Preview - JPEG: 800 x 908 pix - 224k] [High-Res - JPEG: 3000 x 3406 pix - 1.5Mb] Farbaufnahme der Spiralgalaxie NGC 1288, aufgenommen in der ersten Beobachtungsnacht von FORS ("Nacht des ersten Lichts"). Das erste Photo zeigt eine Dreifarbenaufnahme der schönen Spiralgalaxie NGC 1288 im südlichen Sternbild Fornax. PR Photo 37a/98 umfaßt das gesamte Feld, das mit der 2048 x 2048 Pixel großen CCD-Kamera abgebildet wurde. Es wurde aus drei CCD-Aufnahmen zusammengesetzt, die bei gutem Seeing in verschiedenen Farben in der "Nacht des ersten Lichts" (15. September 1998) aufgenommen wurden. Diese Galaxie mit einem Durchmesser von rund 200000 Lichtjahren ist etwa 300 Millionen Lichtjahre entfernt, ihre Fluchtgeschwindigkeit beträgt 4500 km/sec. Technische Informationen : Photo 37a/98 ist ein Komposit von drei Aufnahmen in den drei Filtern B (420nm, 6 Minuten belichtet), V (530nm, 3 Minuten) und I (800nm, 3 Minuten) während einer Periode mit 0.7 Bogensekunden Seeing. Das gezeigte Feld ist 6.8 x 6.8 Bogenminuten groß. Norden ist links, Osten unten. Entfernter Galaxienhaufen ESO PR Photo 37b/98 ESO PR Photo 37b/98 [Preview - JPEG: 657 x 800 pix - 248k] [High-Res - JPEG: 2465 x 3000 pix - 1.9Mb] Ein ungewöhnlicher Galaxienhaufen in der Umgebung des Quasars PB5763 . ESO PR Photo 37c/98 ESO PR Photo 37c/98 [Preview - JPEG: 670 x 800 pix - 272k] [High-Res - JPEG: 2512 x 3000 pix - 1.9Mb] Vergrößerung von PR Photo 37b/98; sie zeigt mehr Einzelheiten des ungewöhnlichen Galaxienhaufens. Die nächsten Photos wurden von einer 5-minütigen Aufnahme im Nahen Infrarot reproduziert, die ebenfalls in der "Nacht des ersten Lichts" von FORS1 (15. September 1998) gewonnen wurde. PR Photo 37b/98 zeigt einen Himmelsausschnitt in der Nähe des Quasars PB5763, in dem auch ein ungewöhnlicher, sehr weit entfernter Haufen von Galaxien zu sehen ist. Er besteht aus einer großen Zahl lichtschwacher Galaxien, die bisher noch nicht eingehend untersucht wurden. Dieser Haufen ist ein gutes Beispiel für die Art von Objekten, auf die viel Beobachtungszeit mit FORS verwendet werden wird, sobald der reguläre Beobachtungsbetrieb begonnen hat. Eine Vergrößerung des gleichen Feldes ist in PR Photo 37c/98 wiedergegeben. Sie zeigt die einzelnen Mitglieder dieses Galaxienhaufens im Detail. Man beachte besonders die interessante spindelförmige Galaxie, die anscheinend einen äquatorialen Ring aufweist. Neben einer schönen Spiralgalaxie sind auch noch viele weitere lichtschwache Galaxien zu erkennen. Sie sind entweder Zwerggalaxien und Mitglieder des Haufens oder befinden sich sehr viel weiter entfernt im Hintergrund des Haufens. Technische Informationen : PR Photos 37b/98 (als Negativ reproduziert) und 37c/98 (Positiv) stammen von einer Aufnahme, die bei 0.8 Bogensekunden Seeing durch ein I-Filter (nahes Infrarot, 800nm) gewonnen wurde. Die Belichtungszeit betrug 5 Minuten, und es wurde eine Flatfield-Korrektur durchgeführt. Das gezeigte Feld ist 6.8 x 6.8 Bogenminuten bzw. 2.5 x 2.3 Bogenminuten groß. Norden ist links oben, Osten links unten. Spiralgalaxie NGC 1232 ESO PR Photo 37d/98 ESO PR Photo 37d/98 [Preview - JPEG: 800 x 912 pix - 760k] [High-Res - JPEG: 3000 x 3420 pix - 5.7Mb] Ein Farbbild der Spiralgalaxie NGC 1232, aufgenommen am 21. September 1998. ESO PR Photo 37e/98 ESO PR Photo 37e/98 [Preview - JPEG: 800 x 961 pix - 480k] [High-Res - JPEG: 3000 x 3602 pix - 3.5Mb] Vergrößerung des Zentrums von PR Photo 37d/98. Dieses spektakuläre Bild der großen Spiralgalaxie NGC 1232 (Photo 37d/98) wurde am 21. September 1998 unter guten Beobachtungsbedingungen erhalten. Es wurde aus drei Einzelaufnahmen im ultravioletten, blauen und roten Licht zusammengesetzt. Die Farben der verschiedenen Regionen sind deutlich sichtbar: Das Zentralgebiet enthält ältere, rötlich leuchtende Sterne (Photo 37e/98), während die Spiralarme von jungen, bläulichen Sternen und roten Sternentstehungsgebieten bevölkert sind. Man beachte die gestörte Begleitgalaxie am linken Rand (Photo 37d/98), die wie der griechische Buchstabe "Theta" aussieht. NGC 1232 liegt 20 Grad südlich des Himmelsäquators im Sternbild Eridanus. Obwohl die Entfernung dieser Galaxie ungefähr 100 Millionen Lichtjahre beträgt, kann man auf Grund der exzellenten Bildqualität einen unglaublichen Reichtum an Details erkennen. Bei dieser Entfernung entspricht die Kantenlänge des Bildfeldes etwa 200000 Lichtjahren oder etwa der doppelten Größe unserer Milchstraße. Technische Informationen : Photos 37d/98 und 37e/98 sind ein Komposit von drei Aufnahmen in den drei Filtern U (360nm, 10 Minuten belichtet), B (420nm, 6 Minuten) und R (600nm, 2 Minuten 30 Sekunden) während einer Periode mit 0.7 Bogensekunden Seeing. Das gezeigte Feld ist 6.8 x 6.8 Bogenminuten bzw. 1.6 x 1.8 Bogenminuten groß. Norden ist oben, Osten links. Note: [1] Diese Pressemitteilung wird gemeinsam (auf Englisch und Deutsch) von der Europäischen Südsternwarte, der Landessternwarte Heidelberg und den Universitäts-Sternwarten Göttingen und München herausgegeben. An English Version of this Press Release is also available. Zugang zu ESO Presseinformationen ESO Presseinformationen werden im World Wide Web zur Verfügung gestellt (URL: http://www.eso.org/outreach/press-rel/). ESO Pressephotos dürfen veröffentlicht werden, wenn die Europäische Südsternwarte als Urheber genannt wird.
Genetic study of Andalusia's ovine and caprine breeds.
Rodero, E; Haba, M R; Rodero, A
1997-01-12
Two different breeds of Andalusian sheep, 'Grazalema Merino' and 'Lebrijan Churro', and two different breeds of Andalusian goats, 'Andalusian White' and 'Andalusian Black', chosen by previous studies (Rodero et al. 1992a) as priority breeds for conservation, were studied. The systems used corresponded to ethnozootechnic characteristics, as well as the different biochemical-polymorphism variables. Farms were differentiated within breeds, or between themselves, and different tests were used of genetic and genotypic frequencies: Wright's indices, medium heterozygosities, Whalund's variances, G test of probability of reason, etc. Also Cavalli-Sforza's genetic distance was obtained. In the Andalusian Black and Grazalema Merino breeds, the Whalund's variances obtained were a result of selection, that has divided the breeds into distinct populations differentiated spatially. Medium heterozygosities of each breed do not differ much within themselves, but when each system is considered alone, discrepancies between ethnic groups are relevant. Wright's F indices demonstrated in the Andalusian White and Grazalema Merino breeds, genetic heterozygosities between populations or studied herds can be deduced, but this is not possible in the Andalusian Black. The F(IS) values indicated, despite the small size of the populations, that inbreeding has been avoided, probably because of the entry of foreign sires. In none of the breeds is there a significant excess of heterozygosis. The genetic distances between flocks within breeds do not differ from those found between breeds. RÉSUMÉ: On a travallé avec, differents troupeau des races de montons de l'Andalusie, Grazalema Merino et Lebrija Churro, et avec les races caprines Andalusian White et Andalusian Black, choisie entre les races Andaluciennes comme prioritaires pour la conservation, dans un etudie avant (Rodero et col. 1992a). Les sistémes utilicés dans cette travaille correspondent á charactérés etnozootechniques et á differents variables de polymorphism biochimique. Lorsque on fait differences entre troupeau, dedans de races, ou entre elles, on a utilicés differents preuves, á partir des fréquences géniques et génotipiques: l'index de Wright, hétérozygotie moyennes, variances de Whalund, preuve G de raison de probabilité, etc. Aussi le distance de Cavalli-Sforza. Comme conclusion, dans les races Andalusian Black et Grazalema Merino les variances de Whalund obtenues sont cosequences de l'action de la selection, donant different populations avec differentiation spaciale. Les hétérozygoties moyennes de chaque race sont parus, mais lorsque on considérent chaque systéme separé, les differences entre groupes ethniques sont importantes. Les indexes F de Wright demonstrent que, dans le races Andalusian White et Grazalema Merino on peuvent déduire d'heterozygoties génétique entre les populations ou troupeau analicées, dans le race Andalusian Black les differences valeurs de FIS indiquent que, malgré les petites dimensions des populations, on a evité la consanguinitée, due, probablement, á l'entrée d'étalons externes. Il n'y a pas, chez auqune race, d'un signifivative accroissement d'hétérizygosis. Les distances génétiques entre troupeau, dedans des races, en different pas des distances obtenues entre races. RESUMEN: Se ha trabajado con diferentes ganaderias de las razas ovinas andaluzas Merino de Grazalema y Churra Lebrijana, y con las caprinas Blanca Serrana y Negra Serrana, elegidas entre el resto de las razas de Andalucia como prioritarias pra la conservación, por estudio previo (Rodero y col., 1992a). Los sistemas utilizados en este trabajo corresponden tanto a caracteres etnozootécnicos como a diferentes variables de polimorfismos bioquimicos. Cuando se han diferenciado las ganaderias dentrde razas, o las ganaderias entre si, se han utilizado diferentes pruebas, a partir de las frecuencias genéticas y genotipicas: indices de Wright, heterocigosidades media, varianzas de Whalund, prueba G de razón de probabilidad, etc. También se obtuvieron las distancia genéticas de Cavalli-Sforza. Se concluye que en las razas Negra Serrana y Merino de Grazalema las varianzas de Whalund obtenidas son consecuencia de la acción de la selección que ha actuado dividiendo las razas en distintas poblaciones con diferenciación espacial. Las heterocigosidades medias de cada raza no difieren mucho entre si, pero cuando se considera cada sistema aisladamente, las discrepancias entre grupos étnicos son acusadas. Los indices F de Wright ponen de manifiesto que, mientras en las razas Blanca Serrana y Merino de Grazalema se pueden deducir heterocigosidades genéticas entre las problaciones o ganaderias estudiadas, no ocurre otro tanto en la raza Negra Serrana. Los valores de F(IS) parecen indicar que, a pesar del tamaño pequeño de las poblaciones, se ha evitado la consanguinidad, probablemente por la entrada de sementales externos. No se produce en ninguna de las razas un exceso significativo de heterocigosis. Las distancias genéticas entre ganaderias dentro de razas no difieren de lashalladas entre razas. ZUSAMMENFASSUNG: Es wurde mit verschiedenen andalusischen Zuchten der Schafrassen 'Grazalema Merino' and 'Lebrijan Churro' und der Ziegenrassen 'Andalusian White' und 'Andalusian Black' gearbeitet, die man von den andalusichen Rassen im Hinblick auf Erhaltung ausgewählt hat. Die benutzten Systeme in dieser Forschungsarbeit entsprechen Merkmalen, die sich sowohl auf ethnisch wie auch auf die verschiedenen Variablen des biochemischen Polimorfismius bezichen. Zur Unterschlidung von Zuchten innerhalb die Rassen oder von zuchten untereinander wurden verschiedene Tests benutzt, die von den genetischen und genotypischen Frequenzen ausgehen: Wright-Index, Durchschnittsheterozygositäten, Wahl und Varianz G-Test der Wahrscheinlichkeit, etc. Außerdem wurden die genetischen Distanzen nach Cavalli-Sforza errechnet. Man Kommt zum Schluß, daß in den Andalusian Black und Grazalema Merino die Wahl und Varianz das Ergebnis einer Selektionsaktivität ist, die die Rassen in Verschiedenen Populationen und unterschiedlichen Räumen aufgeteilt hat. Die durchschnittlichen Heterozygositäten jeder Rasse unterscheiden sich wenig voneinander, aber wenn man jedes System für sich betrachtet, stell man doch erhebliche Diskrepanzen zwischen den ethnischen Gruppen fest. Der Wright-Index offenbart, daß man in den Rassen Andalusian White und Grazalema Merino genetische Heterozygositäten ableiten kann zwischen den Populationen oder den untersuchten Zuchten; dies ist nicht der Fall inder Rasse Andalusian Black. Die F(IS) werte scheinen anzugeben, da trotz der kleinen Größe der Populationen die Blutsverwandschaft vermieden wurde, wahrscheinlich durch von außerhalb kommenden Böcken. In keiner der Rassen existiert übermässige Heterozygotie Die genetischen Distanzen zwischer der Zuchten unterscheiden sich nicht van dener der Rassen. 1997 Blackwell Verlag GmbH.
NASA Astrophysics Data System (ADS)
Schulze-Makuch, Dirk; Cherkauer, Douglas S.
Previous studies have shown that hydraulic conductivity of an aquifer seems to increase as the portion of the aquifer tested increases. To date, such studies have all relied on different methods to determine hydraulic conductivity at each scale of interest, which raises the possibility that the observed increase in hydraulic conductivity is due to the measurement method, not to the scale. This study analyzes hydraulic conductivity with respect to scale during individual aquifer tests in porous, heterogeneous carbonate rocks in southeastern Wisconsin, USA. Results from this study indicate that hydraulic conductivity generally increases during an individual test as the volume of aquifer impacted increases, and the rate of this increase is the same as the rate of increase determined by using different measurement methods. Thus, scale dependence of hydraulic conductivity during single tests does not depend on the method of measurement. This conclusion is supported by 22 of 26 aquifer tests conducted in porous-flow-dominated carbonate units within the aquifer. Instead, scale dependency is probably caused by heterogeneities within the aquifer, a conclusion supported by digital simulation. All of the observed types of hydraulic-conductivity variations with scale during individual aquifer tests can be explained by a conceptual model of a simple heterogeneous aquifer composed of high-conductivity zones within a low-conductivity matrix. Résumé Certaines études ont montré que la conductivité hydraulique d'un aquifère semble augmenter en même temps que la partie testée de l'aquifère s'étend. Jusqu'à présent, ces études ont toutes reposé sur des méthodes de détermination de la conductivité hydraulique différentes pour chaque niveau d'échelle, ce qui a conduit à penser que l'augmentation observée de la conductivité hydraulique pouvait être due aux méthodes de mesure et non à l'effet d'échelle. Cette étude analyse la conductivité hydraulique par rapport au niveau d'échelle au cours d'essais de nappe individuels, dans des roches carbonatées poreuses, hétérogènes du sud-est du Wisconsin (Etats-Unis). Les résultats obtenus indiquent que la conductivité hydraulique augmente en général au cours d'un essai individuel en même temps que le volume d'aquifère concerné augmente, et que le taux d'augmentation est le même que celui déterminé en utilisant différentes méthodes de mesures. Ainsi, le fait que la conductivité hydraulique dépende de l'échelle d'observation au cours d'essais uniques ne résulte pas de la méthode de mesure. Cette conclusion est confirmée par 22 essais de nappe sur 26 entrepris dans des unités carbonatées àécoulement poreux dominant dans l'aquifère. En revanche, cette dépendance du niveau d'échelle est probablement due aux hétérogénéités existant dans l'aquifère, conclusion confortée par une simulation. Tous les types de variations de conductivité hydraulique en fonction de l'échelle au cours d'essais de nappe peuvent être expliqués par un modèle conceptuel d'aquifère hétérogène simple constitué par des zones à forte conductivitéà l'intérieur d'une matrice à faible conductivité. Resumen Estudios previos han mostrado que la conductividad hidráulica (K) de un acuífero parece crecer con el volumen ensayado. Hasta ahora, estos estudios se han basado en la utilización de métodos distintos para la determinación de la conductividad hidráulica a cada escala de interés, lo que hace pensar en la posibilidad de que este aumento observado sea debido a la variación en el método de medida y no al cambio de escala. Este estudio analiza el valor de K en función de la escala a partir de ensayos individuales en rocas carbonatadas heterogéneas y porosas al sudeste de Wisconsin, EEUU. Los resultados de este estudio indican que la K obtenida en ensayos individuales crece generalmente al aumentar el volumen de acuífero implicado en el ensayo, y que la tasa de crecimiento es la misma que se determinaría usando diferentes métodos. Por tanto, la dependencia de la conductividad hidráulica con la escala en ensayos aislados no depende del método de medida. Esta conclusión está refrendada por 22 de los 26 ensayos llevados a cabo en las unidades carbonatadas más porosas del acuífero. Por el contrario, la dependencia con la escala está causada probablemente por las heterogeneidades en el propio acuífero, lo que se corrobora con simulaciones digitales. Todos los tipos de variaciones de K con la escala observados para los ensayos individuales se pueden explicar mediante un modelo conceptual simple que supone un acuífero heterogéneo compuesto por zonas de alta conductividad embebidas en una matriz poco conductiva.
NASA Astrophysics Data System (ADS)
John, Cédric Michaël
2003-08-01
This study investigated the slope carbonates of two Miocene carbonate systems: the Maltese Islands (in the Central Mediterranean) and the Marion Plateau (Northeastern Australia, drilled during ODP Leg 194). The aim of the study was to trace the impact of the Miocene cooling steps (events Mi1-Mi6) in these carbonate systems, especially the Mi3 event, which took place around 13.6 Ma and deeply impacted the marine oxygen isotope record. This event also profoundly impacted oceanographic and climatic patterns, eventually leading to the establishment of the modern ice-house world. In particular, East Antarctica became ice covered at that period. The rational behind the present study was to investigate the impact that this event had on shallow water systems in order to complement the deep-sea record and hence acquire a more global perspective on Miocene climate change. The Maltese Islands were investigated for trends in bulk-rock carbon and oxygen isotopes, as well as bulk-rock mineralogy, clay minerals analysis and organic geochemisty. Results showed that the mid Miocene cooling event deeply impacted sedimentation at that location by changing sedimentation from carbonate to clay-rich sediments. Moreover, it was discovered that each phase of Antarctic glaciation, not just the major mid Miocene event, resulted in higher terrigenous input on Malta. Mass accumulation rates revealed that this was linked to increased runoff during periods when Antarctica was glaciated, and thus that the carbonate sediments were “diluted” by clay-rich sediments. The model subsequently developed to explain this implies feedback from Antarctic glaciations creating cold, dense air masses that push the ITCZ Northward, thus increasing precipitation on the North African subcontinent. Increased precipitation (or stronger African monsoon) accelerated continental weathering and runoff, thus bringing more terrigenous sediment to the paleo-location of the slope sediments of Malta. Spectral analysis of carbonate content and organic matter geochemical analysis furthermore suggest that the clay-rich intervals are similar to sapropelic deposits. On the Marion Plateau, trends in oxygen and carbon isotopes were obtained by measuring Cibicidoides spp foraminifers. Moreover, carbonate content was reconstructed using a chemical method (coulometer). Results show that the mid Miocene cooling step profoundly affected this system: a major drop in accumulation rates of carbonates occurs precisely at 13.8 Ma, around the time of the East Antarctic ice sheet formation. Moreover, sedimentation changes occurred at that time, carbonate fragments coming from neritic environments becoming less abundant, planktonic foraminifer content increasing and quartz and reworked glauconite being deposited. Conversely, a surprising result is that the major N12-N14 sea-level fall occurring around 11.5 Ma did not impact the accumulation of carbonates on the slope. This was unexpected since carbonate platform are very sensitive to sea-level changes. The model developed to explain that mass accumulation rates of carbonates diminished around 13.6 Ma (Mi3 Event) instead of 11.5 Ma (N12-N14 event), suggests that oceanic currents were controlling slope carbonate deposition on the Marion Plateau prior to the mid-Miocene, and that the mid Miocene event considerably increase their strength, hence reducing the amount of carbonate being deposited on slope sites. Moreover, by combining results from deep-sea oxygen isotopes with sea-level estimates based on coastal onlaps made during Leg 194, we constrain the amplitude of the N12-N14 sea-level fall to 90 meters. When integrating isotopic results from this study, this amplitude is lowered to 70 meters. A general conclusion of this work is that the mid Miocene climatic shift did impact carbonate systems, at least at the two locations studied. However, the nature of this response was highly dependant on the regional settings, in particular the presence of land mass (Malta) and the absence of a barrier to shelter from the effects of open ocean (Marion Plateau). Im Rahmen dieser Doktorarbeit wurden die Hangkarbonate von zwei miozänen heterozoischen Karbonatsystemen näher untersucht: die Malta Inselgruppe (zentrales Mittelmeer) und das Marion Plateau (Nordost Australien, ODP Leg 194). Die Auswirkungen der mittelmiozänen Abkühlung (Mi3), die auf 13.6 Ma datiert wird und starken Einfluß auf die Sauerstoffisotopenkurve hatte, in den oben genannten Flachwassersystemen stellten das Ziel dieser Arbeit dar. Dieses Abkühlungsereignis beeinflußte außerdem sehr stark die ozeanographischen und klimatischen Muster, die im weiteren Verlauf zum modernen Eishausklima führten. So steht insbesondere die Vereisung von Ostantarktika mit diesem Ereignis in Verbindung. Diese Arbeit untersucht den Einfluß dieses Ereignisses auf Flachwassersysteme, um vorliegende Untersuchungen in Tiefwassersystemen zu ergänzen und so zum globalen Verständnis des miozänen Klimawechsels beizutragen. Die Profile auf der Maltainselgruppe wurden mit Hilfe von Kohlenstoff- und Sauerstoffisotopen Auswertungen im Gesamtgestein, Gesamtgesteinmineralogie, Tonmineralanalyse und organischer Geochemie untersucht. Durch einen Wechsel von karbonatischeren zu tonigeren Sedimenten beeinflußte das mittelmiozäne Abkühlungsereignis die Sedimentation in diesem Gebiet sehr stark. Weiterhin wurde beobachtet, daß jede Phase der antarktischen Vereisung, nicht nur das mittelmiozäne Hauptereignis, zu einem erhöhten terrigenen Eintrag in den Hangsedimenten der Maltainselgruppe führte. Akkumulationsraten zeigen, daß dieser erhöhte terrigene Eintrag den einzelnen Vereisungsperioden zusammenhängt und die karbonatischen Sedimente durch tonreiche Sedimente “verunreinigt” wurden. Das daraufhin entwickelte Modell erklärt diesen erhöhten terrigenen Eintrag mit einer nordwärtigen Verlagerung der innertropischen Konvergenzzone durch die Bildung von kalten, dichten Luftmassen, die zu verstärkten Niederschlägen in Nordafrika führten. Diese verstärkten Niederschläge (oder verstärkter afrikanischer Monsun) beeinflußten die kontinentale Verwitterung und den Eintrag, mit der Folge, daß verstärkt terrigene Sedimente im Bereich der Hangsedimente der Maltainselgruppe abgelagert wurden. Die tonreichen Intervalle weisen Ähnlichkeiten zu sapropelischen Ablagerungen auf, was mit Hilfe der Spektral analyse des Karbonatgehalts und der geochemischen Analyse des organischen Materials gezeigt wurde. Auf dem Marion Plateau wurden die Sauerstoff- und Kohlenstoffisotopenkurven anhand von Foraminiferen der Gattung Cibicidoides spp. rekonstruiert. Der Karbonatgehalt wurde mit Hilfe einer chemischen Methode (Coulometer) ermittelt. Genauso wie die Sedimente der Maltainselgruppe beeinflußte das mittelmiozäne Abkühlungsereignis (Mi3) auch die Sedimente auf dem Marion Plateau. So kam es bei 13,8 Ma, in etwa zur Zeit der Vereisung von Ostantarktika, zu einem Abfall der Karbonatakkumulationsraten. Weiterhin traten Änderungen in der Zusammensetzung der Sedimente auf, so nehmen neritische Karbonatfragmente ab, der planktische Foraminiferengehalt nimmt zu und es wurden verstärkt Quarz und Glaukonit abgelagert. Ein überraschendes Ergebnis ist die Tatsache, daß der große N12-N14 Meeresspiegelabfall um 11,5 Ma die Akkumulationsraten der Karbonate auf dem Hang nicht beeinflußte. Dieses Ergebnis ist umso erstaunlicher, da Karbonatplattformen normalerweise sehr sensitiv auf Meeresspiegeländerungen reagieren. Der Grund, warum sich die Karbonatakkumulationsraten schon um 13,6 Ma (Mi3) und nicht erst um 11,5 Ma (N12-N14) verringerten, liegt in der Tatsache, daß die ozeanischen Strömungen die Karbonatsedimentation auf dem Hang des Marion Plateau schon im Miozän kontrollierten. Das mittelmiozäne Ereignis (Mi3) erhöhte die Stärke diese Strömungen und als eine Ursache wurde die Karbonatakkumulation auf den Hängen reduziert. Die Amplitude des N12-N14 Meeresspiegelabfalls liegt bei 90 m unter der Berücksichtigung der Sauerstoffisotopendaten aus der Tiefsee und Berechnungen des Meeresspiegels anhand des “coastal onlaps”, die während Leg 194 gemacht wurden. Die Isotopendaten dieser Arbeit weisen hingegen auf einen verringerten Meeresspiegelabfall von 70 m hin. Als allgemeine Schlußfolgerung kann gesagt werden, daß der mittelmiozäne Klimaumschwung die Karbonatsysteme zumindest an den beiden untersuchten Lokalitäten beeinflußt hat. Allerdings waren die Auswirkungen sehr von den unterschiedlichen lokalen Gegebenheiten abhängig. Insbesondere wirkten sich die Anwesenheit einer Landmasse (Malta) und die Abwesenheit einer Barriere vor den Einflüssen des offenen Ozeans (Marion Plateau) stark auf die Ablagerung der Karbonate aus.
Bewehrte Betonbauteile unter Betriebsbedingungen: Forschungsbericht
NASA Astrophysics Data System (ADS)
Eligehausen, Rolf; Kordina, Karl; Schießl, Peter
2000-09-01
Vorwort. Teil I: Rißbreiten (Gert König) 1 Ein mechanisches Modell zur Erhöhung der Vorhersagegenauigkeit über die Rißbreiten unter Betriebsbedingungen (Gert König und Michael Fischer). 1.1 Einleitung und Zielsetzung. 1.2 Versuchsprogramm. 1.3 Meßtechnik. 1.4 Belastung und Versuchsdurchführung. 1.5 Literatur. 2 Rißbreiten und Verformungszunahme vorgespannter Bauteile unter wiederholter Last - und Zwangbeanspruchung (Gert König und Michael Fischer). 2.1 Einleitung und Zielsetzung. 2.2 Versuchsprogramm. 2.3 Auswertung. 2.4 Ausblick. 2.5 Literatur. 3 Rißverhalten von Beton bei plötzlicher Abkühlung (Viktor Mechtcherine und Harald S. Müller). 3.1 Einleitung. 3.2 Experimentelle Untersuchungen. 3.3 Formulierung eines Stoffgesetzes für thermisch beanspruchten Beton. 3.4 Riß entwicklung in einer Betonplatte unter Temperaturschock. 3.5 Zusammenfassung. 3.6 Literatur. 4 Stahlfaserbeton unter Betriebsbedingungen bei Dauerbeanspruchung (Bo Soon Kang, Bernd Schnütgen und Friedhelm Stangenberg). 4.1 Einleitung. 4.2 Wirkung von Stahlfasern im Beton. 4.3 Versuchsprogramm. 4.4 Untersuchungen zum Verbundverhalten. 4.5 Untersuchungen zum Verhalten unter Biegebeanspruchung. 4.6 Theoretische Untersuchungen. 4.7 Literatur. 5 Experimentelle Untersuchungen an Stahlbeton-Zugkörpern unter wiederholter Belastung zur Ermittlung des versteifenden Einflusses der Mitwirkung des Betons zwischen den Rissen (Petra Seibel und Gerhard Mehlhorn). 5.1 Einleitung. 5.2 Ansatz zur Bestimmung der Mitwirkung des Betons zwischen den Rissen nach Eurocode 2, Model Code 90 und Günther. 5.3 Experimentelle Untersuchungen. 5.4 Ergebnisse. 5.5 Zusammenfassung. 5.6 Literatur. 6 Riß- und Verformungsverhalten von vorgefertigten Spannbetonträgern unter Betriebsbedingungen bei besonderer Berücksichtigung des Betonalters (Monika Maske, Heinz Meichsner und Lothar Schubert). 6.1 Einleitung. 6.2 Beschreibung der Fertigteilträger. 6.3 Belastungsversuche. 6.4 Ergebnisse. 6.5 Zusammenfassung. 6.6 Literatur. Teil II: Verbundfragen (Rolf Eligehausen). 1 Ein mechanisches Modell zur Beschreibung des Verbundverhaltens zwischen Stahl und Beton (Gert König, Nguyen V. Tue und Wolfgang Kurz). 1.1 Einleitung. 1.2 Beschreibung der Kraftübertragung zwischen Stahl und Beton. 1.3 Vorstellung des Modells. 1.4 Materialgesetze für die Berechnung der Verformung des Fachwerks. 1.5 Vergleich zwischen Versuch und Modell. 1.6 Zusammenfassung und Ausblick. 1.7 Literatur. 2 Verbund unter nicht ruhender Beanspruchung (Rainer Koch und György L. Balázs). 2.1 Übersicht über die durchgeführten Versuche. 2.2 Versuchkörper und Materialien. 2.3 Versuchseinrichtungen. 2.4 Versuche und Ergebnisse. 2.5 Zusammenfassung und Ausblick. 2.6 Literatur. 3 Trag- und Verformungsverhalten von Stahlbetontragwerken unter Betriebsbelastung (Thomas M. Sippel und Rolf Eligehausen). 3.1 Einleitung. 3.2 Allgemeines. 3.3 Rechenmodell und Materialmodelle. 3.4 Vergleich zwischen Versuchen und Rechnung. 3.5 Parameterstudien. 3.6 Vereinfachtes Rechenmodell. 3.7 Zusammenfassung. 3.8 Literatur. 4 Verbundverhalten von Spanngliedern mit nachträglichem Verbund unter Betriebsbedingungen (Josef Hegger, Norbert Will und Heiner Cordes). 4.1 Einführung. 4.2 Verbundverhalten von Spanngliedern. 4.3 Zeitabhängige Effekte des Verbunds. 4.4 Versuche unter statischer Langzeitbeanspruchung. 4.5 Versuche unter dynamischer Langzeitbeanspruchung. 4.6 Bemessungsvorschlag für Verbundkennwerte. 4.7 Zusammenfassung. 4.8 Literatur. 5 Spannungsumlagerungen in gemischt bewehrten Querschnitten (Josef Hegger, Heiner Cordes und Matthias Rudlof). 5.1 Problemstellung und Zielsetzung. 5.2 Spannungsumlagerungen bei gemischter Bewehrung. 5.3 Versuche an zentrischen Zugkörpern. 5.4 Versuchsergebnisse. 5.5 Ermittlung und Vergleich von Verbundkennwerten. 5.6 Zusammenfassung. 5.7 Literatur. Teil III: Bauteile (Karl Kordina). 1 Einfluß von Längsbeanspruchungen auf den Neigungswinkel der Schubrisse (Marek Los und Ulrich Quast). 1.1 Einleitung. 1.2 Ungerissener Zustand. 1.3 Gerissener Zustand. 1.4 FEM-Berechnungen. 1.5 Zusammenfassung. 1.6 Literatur. 2 Auswirkungen des unterschiedlichen Verformungsverhaltens bei Beund Entlastung auf die Beanspruchungen im Gebrauchszustand (Jochen Keysberg). 2.1 Einleitung und Zielsetzung. 2.2 Modelle für die Momenten-Verkrümmungs-Beziehung. 2.3 Programm zur nichtlinearen Berechnung. 2.4 Einfluß von Lastwechseln auf nichtlineare Berechnungen. 2.5 Zusammenfassung. 2.6 Literatur. 3 3D-Analyse von Balken-Stützen-Verbindungen aus normal- und hochfestem Beton unter zyklischer Beanspruchung (Josko Ozbolt, Yijun Li und Rolf Eligehausen). 3.1 Einleitung. 3.2 Materialmodell und FE-Diskretisierung. 3.3 Numerische Analyse. 3.4 Schlußfolgerungen. 3.5 Zusammenfassung. 3.6 Literatur. 4 Der Einfluß von freien Schwingungen infolge dynamischer Belastung auf die Deterioration eines Bauwerks (Manfred Specht und Michael Kramp). 4.1 Veranlassung des Forschungsvorhabens. 4.2 Forschungsziele. 4.3 Versuchsträger, Versuchsdurchführung und Versuchsergebnisse. 4.4 Auswertung. 4.5 Ergebnisse für die Systemidentifikation von Stahlbetonkonstruktionen. 4.6 Literatur. 5 Lokale Schwind- und Temperaturgradienten in bewehrten, oberflächennahen Zonen von Betonkonstruktionen (Josef Eibl und Stephan Kranz). 5.1 Problemstellung. 5.2 Temperatur- und Feuchtefeldberechnung. 5.3 Numerisches Berechnungsmodell zur Spannungsanalyse im Beton. 5.4 Durchgeführte Versuche. 5.5 Rechnerische Untersuchungen. 5.6 Zusammenfassung. 5.7 Literatur. 6 Wassereindringverhalten von Flüssigkeiten beim Biegeriß (Gert König und Christian Brunsch). 6.1 Problemstellung. 6.2 Experimentelle Untersuchungen. 6.3 Entwicklung eines Modells zur rechnerischen Abschätzung des zeitlichen Eindringens einer Wassermenge in Biegerisse von Stahlbetonbauteilen. 6.4 Zusammenfassung und Diskussion der Versuchsreihe. 6.5 Literatur. 7 Dauerhaftigkeitsprobleme von offenen Becken (György Iványi, Wilhelm Buschmeyer und Udo Paas). 7.1 Einleitung. 7.2 Bestandsaufnahme. 7.3 Felduntersuchungen. 7.4 Laboruntersuchungen. 7.5 Berechnungen. 7.6 Entwurfs- und Ausführungskriterien. 7.7 Literatur. Teil IV: Korrosion und Ermüdung (Peter Schießl). 1 Ermüdungskorrosion von Spannstahl (Herbert Kupfer und Hans H. Müller). 1.1 Forschungsziel. 1.2 Korrosionsversuche an Spannstählen. 1.3 Methoden zur Erkennung von Anrissen. 2 Korrosionsermüdung von Stahl in Betonbauteilen (J. W. Weber, Peter Schießl und Jörg Moersch). 2.1 Allgemeines. 2.2 Wesentliche Einflüsse bei der Schwingungsrißkorrosion. 2.3 Ziel der Untersuchungen. 2.4 Prüfkörper und Betone. 2.5 Chloridbeaufschlagung. 2.6 Ergebnisse. 2.7 Zusammenfassung. 2.8 Literatur. 3 Untersuchungen zum Rißkorrosionsverhalten von Spannstählen unter Betriebsbedingungen (Jörg Moersch und Peter Schießl). 3.1 Einführung und Ziel. 3.2 Untersuchungsprogramm. 3.3 Ergebnisse. 3.4 Zusammenfassung der Ergebnisse. 3.5 Literatur. 4 Schwingfestigkeit von Stahlbeton bei Beanspruchung mit Meerwasser (Ulf Nürnberger und Willibald Beul). 4.1 Einführung. 4.2 Mechanismus. 4.3 Schwingfestigkeitsuntersuchungen. 4.4 Folgerungen. 4.5 Literatur. 5 Wasserstoffinduzierte Spannungsrißkorrosion von zugschwellbeanspruchten Spannstählen (Ulf Nürnberger und Willibald Beul). 5.1 Einführung. 5.2 Untersuchungen. 5.3 Folgerung. 5.4 Literatur. 6 Selbstheilung und Bewehrungskorrosion bei von schwach sauren Wässern durchströmten Trennrissen in bewehrtem Beton (Wieland Ramm und Michaela Biscoping). 6.1 Übersicht. 6.2 Einleitung. 6.3 Versuchsprogramm. 6.4 Versuchsergebnisse. 6.5 Zusammenfassung. 6.6 Literatur. 7 Untersuchungen zur Reibermüdung bei teilweise vorgespannten Bauteilen (Heiner Cordes, Josef Hegger und Jens U. Neuser). 7.1 Einleitung. 7.2 Stand der Forschung. 7.3 Versuchsaufbau und Versuchsdurchführung. 7.4 Versuchsergebnisse. 7.5 Zusammenfassung und Ausblick. 7.6 Literatur. Teil V: Junger Beton (Ferdinand S. Rostásy). 1 Ermittlung und Berechnung des Nullspannungstemperaturgradienten im jungen Beton (Rupert Springenschmid und Jean-Louis Bostvironnois). 1.1 Einleitung. 1.2 Der Nullspannungstemperaturgradient. 1.3 Ergebnisse und Schußfolgerungen. 1.4 Literatur. 2 Experimentelle Ermittlung der Verformungskennwerte von jungem Beton und der Zwangspannungen in situ (Markus Plannerer und Rupert Springenschmid). 2.1 Einleitung. 2.2 Versuche zur Ermittlung der Verformungskennwerte und der Zwangspannungen. 2.3 Laborergebnisse. 2.4 In-situ-Ergebnisse. 2.5 Zusammenfassung. 2.6 Literatur. 3 Werkstoffeigenschaften jungen Betons--Experimente und Modellierung (Ferdinand S. Rostásy und Alex-W. Gutsch). 3.1 Einleitung. 3.2 Versuche und Modellbildung. 3.3 Zusammenfassung. 3.4 Literatur.
Geology of ultra-high-pressure rocks from the Dabie Shan, Eastern China
NASA Astrophysics Data System (ADS)
Schmid, Robert
2001-02-01
A multidisciplinary study has been carried out to contribute to the understanding of the geologic evolution of the largest known occurrence of ultra-high-pressure (UHP) rocks on Earth, the Dabie Shan of eastern China. Geophysical data, collected along a ca. 20 km E-W trending seismic line in the eastern Dabie Shan, indicate that the crust comprises three layers. The upper crust has a homogeneously low reflectivity and exhibits roughly subhorizontal reflectors down to ca. 15 km. It is therefore interpreted to portray a crustal UHP slab thrust over non-UHP crust. An aprubt change in intensity and geometry of observed reflectors marks the boundary of a mid- to lower crustal zone which is present down to ca. 33 km. This crustal zone likely represents cratonal Yangtze crust that was unaffected by the Triassic UHP event and which has acted as the footwall during exhumation of the crustal wedge. Strong and continuous reflectors occurring at ca. 33-40 km depth most likely trace the Moho at the base of the crust. Any trace of a crustal root, that may have formed in response to collision tectonics, is therefore not preserved. A shollow tomographic velocity modell based on inversion of the first arrivals is constructed additionally. This model clearly images the distinct lithologies on both sides of the Tan Lu fault. Sediments to the east exhibit velocities of about 3.4 - 5.0 km* s^-1, whereas the gneisses have 5.2 - 6.0 km*s^-1. Geometry of velocity isolines may trace the structures present in the rocks. Thus the sediments dip shallowly towards the fault, whereas isoclinal folds are imaged to occur in the gneisses. Field data from the UHP unit of the Dabie Shan enables definition of basement-cover sequences that represent sections of the former passive margin of the Yangtze craton. One of the cover sequences, the Changpu unit, still displays a stratigraphic contact with basement gneisses, while the other, the Ganghe unit, includes no relative basement exposure. The latter unit is in tectonic contact with the basement of the former unit via a greenschist-facies blastomylonite. The Changpu unit is chiefly constituted by calc-arenitic metasediments intercalated with meta-basalts, whereas the Ganghe unit contains arenitic-volcanoclastic metasediments that are likewise associated with meta-basalts. The basement comprises a variety of felsic gneisses, ranging from preserved eclogitic- to greenschist-facies paragenesis, and locally contains mafic-ultramafic meta-plutons in addition to minor basaltic rocks. Metabasites of all lithologies are eclogite-facies or are retrogressed equivalents, which, with the exception of those from the Ganghe unit, bear coesite and thus testify to an UHP metamorphic overprint. Mineral chemistry of the analysed samples reveal large compositional variations among the main minerals, i.e. garnet and omphacite, indicating either distinct protoliths or different degrees of interaction with their host-rocks. Contents of ferric iron in low Fetot omphacites are determined by wet chemical titration and found to be rather high, i.e. 30-40 %. However, a even more conservative estimate of 50% is applied in the corresponding calculations, in order to be comparable with previous studies. Textural constraints and compositional zonation pattern are compatible with equilibrium conditions during peak metamorphism followed by a retrogressive overprint. P-T data are calculated with special focus on the application of the garnet-omphacite-phengite barometer, combined with Fe-Mg exchange thermometers. Maximum pressures range from 42-48 kbar (for the Changpu unit) to ~37 kbar (for the Ganghe unit and basement rocks). Temperatures during the eclogite metamorphism reached ca. 750 °C. Although the sample suite reveals variable peak-pressures, temperatures are in reasonable agreement. Pressure differences are interpreted to be due to strongly Ca-dominated garnet (up to 50 mol % grossular in the Changpu unit) and modification of peak-compositions during retrogressive metamorphism. The integrated geological data presented in this thesis allow it to be concluded that, i) basement and cover rocks are present in the Dabie Shan and both experienced UHP conditions ii) the Dabie Shan is the metamorphic equivalent of the former passive margin of the Yangtze craton iii) felsic gneisses undergoing UHP metamorphism are affected by volume changes due to phase transitions (qtz coe), which directly influence the tectono-metamorphic processes iv) initial differences in temperature may account for the general lack of lower crustal rocks in UHP-facies Um das Verständnis der geologischen Entwicklung des größten bekannten Vorkommens von ultra-hochdruck (UHP) Gesteinen auf der Erde, des Dabie Shan im östlichen China, zu erhöhen, wurde eine multidisziplinäre Studie durchgeführt. Geophysikalische Daten wurden entlang einer ca. 20 km langen seismischen Linie im östlichen Dabie Shan gesammelt. Diese reflektionsseismischen Daten zeigen, dass die Kruste aus drei Lagen besteht. Die Oberkruste besitzt eine durchgehend niedrige Reflektivität und meist subhorizontale Reflektoren bis in eine Tiefe von ca. 15 km. Aufgrund dieser Charakteristika wird diese Zone als UHP-bezogener krustaler Keil interpretiert, der auf nicht UHP Kruste überschoben wurde. Ein abrupter Wechsel in der Geometrie aber auch Intensität der Reflektoren markiert die Grenze zu einer mittel- bis unterkrustalen Zone, die sich bis ca. 33 km Tiefe erstreckt. Diese Zone repräsentiert wahrscheinlich kratonale Yangtze Kruste, die von der triassischen UHP-Orogenese nicht erfasst wurde, aber während der Exhumierung das Liegende relativ zum UHP Keil war. Starke und kontinuierliche Reflektoren im Tiefenintervall von 33-40 km bilden höchstwahrscheinlich die Moho an der Basis der Kruste ab. Relikte einer Krustenwurzel, die sich wahrscheinlich während der Kollisionstektonik gebildet hatte, sind nicht sichtbar. Ein flaches tomographisches Geschwindigkeitsmodell, das auf der Inversion der Ersteinsätze gründet, konnte zusätzlich erstellt werden. Dieses Modell bildet deutlich die unterschiedlichen Lithologien auf beiden Seiten der Tan Lu Störung ab. Sedimente östlich der Störung zeigen Geschwindigkeiten von 3.4 - 5.0 km* s^-1, wohingegen die Gneise im Westen 5.2 - 6.0 km*s^-1 aufweisen. Die Geometrie der Geschwindigkeits-Isolinien kann als Ausdruck der Strukturen der Gesteine angenommen werden. Somit zeigen die Sedimente ein nordwestliches Einfallen zur Störung hin, wohingegen isoklinale Falten in den Gneisen abgebildet werden. Geländedaten aus der UHP Einheit des Dabie Shan ermöglichen die Definition von Grundgebirgs- und Deckeinheiten, die Teile des ehemaligen passiven Kontinentalrandes des Yangtze Kratons repräsentieren. Eine der Deckeinheiten, die Changpu Einheit, besitzt nach wie vor einen stratigraphischen Kontakt zu den Grundgebirgs-Gneisen. Der anderen Einheit hingegen, der Ganghe Einheit, fehlt ein entsprechendes Grundgebirge. Diese Einheit steht vielmehr über einen Blasto-Mylonit in tektonischem Kontakt zum Grundgebirge der vorherigen. Die Changpu Einheit baut sich aus kalk-arenitischen Metasedimenten auf, die mit Metabasalten assoziiert sind. Die Ganghe Einheit wird von arenitisch-vulkanoklastischen Metasedimenten, die ebenfalls mit metabasaltischen Gesteinen vergesellschaftet sind, dominiert. Das Grundgebirge baut sich aus diversen felsischen Gneisen auf, die von reliktisch eklogitfaziell bis grünschieferfaziell ausgeprägt sind, und in denen, zusätzlich zu Metabasalten, sporadisch mafisch-ultramafische Meta-Plutone auftreten. Mit Ausnahme der Ganghe Einheit, führen die Metabasite Coesit und belegen somit das UHP Ereignis. Die Mineralchemie der analysierten Proben dokumentiert deutliche Variationen in der Zusammensetzung der Hauptminerale, Granat und Omphazit, was entweder unterschiedliche Protolithe oder unterschiedliche Grade von Stoffaustausch mit den Wirtsgesteinen reflektiert. Gehalte von dreiwertigem Eisen in Omphaziten mit geringen Gesamteisengehalten, wurden mittels Titration bestimmt, wobei sich Werte von 30-40 % ergaben. Dennoch wurde ein noch konservativerer Wert von 50% dreiwertigem Eisen in den entsprechenden Berechnungen angenommen, hauptsächlich, um mit anderen Arbeiten vergleichbar zu sein. Texturen und chemische Zonierungen in den Mineralen sind kompatibel mit Gleichgewichtsbedingungen während dem Höhepunkt der Metamorphose, der retrograd überprägt wird. P-T Daten wurden mit deutlicher Betonung auf das Granat-Omphazit-Phengit Barometer, das mit Fe-Mg Austausch-Thermometern kombiniert wurde, berechnet. Höchstdrucke reichen von 42-48 kbar (für die Changpu Einheit) bis ca. 37 kbar (für das Grundgebirge und die Ganghe Einheit). Während der eklogitfaziellen Metamorphose wurden Temperaturen von ca. 750 °C erreicht. Obwohl die maximalen Drucke deutlich schwanken, sind die Temperaturbestimmungen in guter Übereinstimmung. Die Druckschwankungen können zum einen durch deutlich Ca-dominierte Granate (bis zu 50 mol% Grossular in der Changpu Einheit) und/oder zum anderen durch Modifikationen der Mineralzusammensetzungen während der retrograden Metamorphose erklärt werden. Die präsentierten integrativen geologischen Daten ermöglichen die folgenden Schlussfolgerungen i) Grundgebirgs- und Deckeinheiten treten im Dabie Shan auf und wurden beide UHP metamorph überprägt ii) Der Dabie Shan ist das metamorphe Äquivalent des früheren passiven Kontinentalrandes des Yangtze Kratons iii) felsische Gneise, die eine UHP Metamorphose durchlaufen, sind von Volumenver-änderungen betroffen, die durch großräumige Phasenumwandlungen (Quarz Coesit) hervorgerufen werden, was direkt die tektono-metamorphen Prozesse beeinflusst iv) Initiale Unterschiede in der Temperatur sind möglicherweise dafür verantwortlich, dass generell Unterkrustengesteine in UHP Fazies fehlen
Nucléation, ascension et éclatement d'une bulle de champagne
NASA Astrophysics Data System (ADS)
Liger-Belair, G.
2006-03-01
People have long been fascinated by bubbles and foams dynamics, and since the pioneering work of Leonardo da Vinci in the early 16th century, this subject has generated a huge bibliography. However, only quite recently, much interest was devoted to bubbles in Champagne wines and carbonated beverages. Since the time of the benedictine monk dom Pierre Perignon (1638-1715), champagne is the wine of celebration. This fame is largely linked to the elegance of its effervescence and foaming properties. In this book, the latest results about the chemical physics behind the bubbling properties of Champagne and sparkling wines are collected and fully illustrated. The first chapter is devoted to the history of champagne and to a presentation of the tools of the physical chemistry of interfaces needed for a whole comprehension of the book. Then, the three main steps of a fleeting champagne bubble's life are presented in chronological order, that is, the bubble nucleation on the glass wall (Chap.2), the bubble ascent and growth through the liquid matrix (Chap.3), and the bursting of bubbles at the liquid surface (Chap.4), which constitutes the most intriguing, functional, and visually appealing step. L'objectif général de ce travail consacré à l'étude des processus physicochimiques liés à l'effervescence des vins de Champagne était de décortiquer les différentes étapes de la vie d'une bulle de champagne en conditions réelles de consommation, dans une flûte. Nous résumons ci-après les principaux résultats obtenus pour chacune des étapes de la vie de la bulle, depuis sa naissance sur les parois d'une flûte, jusqu'à son éclatement en surface. Nucléation À l'aide d'une caméra rapide munie d'un objectif de microscope, nous avons pu mettre à mal une idée largement répandue. Ce ne sont pas les anfractuosités de la surface du verre ou de la flûte qui sont responsable de la nucléation hétérogène des bulles, mais des particules adsorbées sur les parois du verre ou de la flûte. Dans la majorité des cas, il s'agit de fibres de cellulose creuses dont les propriétés géométriques permettent le piégeage d'une poche d'air en leur sein au moment du versement. Un modèle de piégeage a été construit et met en avant le rôle fondamental joué par la vitesse du versement. Plus cette vitesse augmente, plus on augmente la probabilité de piéger des poches d'air au sein de ces fibres, provoquant ainsi une effervescence plus importante. La dynamique de production des bulles a également été filmée in situ à l'aide de la caméra, puis modélisée en utilisant les équations de la diffusion adaptées à la géométrie de notre fibre supposée approximativement cylindrique. Nous avons montré que le temps caractéristique de production d'une bulle par la fibre est largement gouverné par la croissance de cette petite poche de gaz par diffusion du CO{2} dissous vers la poche. Nous avons démontré que la convection du liquide joue un rôle essentiel lors du transfert de masse du CO{2} dissous vers la poche. En effet, un modèle purement diffusif ne permet pas du tout de reproduire la dynamique de croissance expérimentale de ces poches de gaz piégées au cœur des fibres. Nous avons également pu mettre en évidence des changements spectaculaires dans la dynamique de bullage de certains sites de nucléation suivis au cours du temps pendant le processus de dégazage. Ces observations font de la fibre de cellulose immergée dans le champagne le plus petit système de bullage non-linéaire observé à ce jour. Dynamique ascensionnelle Pour mesurer la vitesse d'une bulle tout au long de son trajet vers la surface libre du champagne, nous avons tiré profit de la production répétitive de bulles au niveau des sites de nucléation. Par la mise en place d'un dispositif expérimental simple qui associe une lumière stroboscopique et un appareil photographique muni de bagues macros, nous avons pu accéder à l'observation fine des trains de bulles ainsi qu'à la détermination de la vitesse ascensionnelle des bulles. Les mesures expérimentales du rayon et de la vitesse d'une bulle nous ont permis de déterminer le coefficient de traînée d'une bulle montante qui constitue une mesure indirecte de son état de surface en termes de mobilité interfaciale. Ces mesures nous ont montré que l'interface d'une bulle de champagne conserve une grande mobilité interfaciale pendant sa phase ascensionnelle, à la différence des bulles de taille fixe qui montent dans une solution de macromolécules tensioactives. C'est la faible dilution du champagne en macromolécules tensioactives et le grossissement continu des bulles pendant l'ascension qui assurent aux bulles une faible contamination de leur interface. Pour comparaison, nous avons réalisé le même type de mesures sur des bulles de bière. Le contenu en macromolécules tensioactives étant beaucoup plus important dans une bière, l'effet de dilution du matériel tensioactif à la surface des bulles lié à l'accroissement de la surface des bulles ne compense plus l'adsorption massive des tensioactifs à la surface des bulles. Contrairement aux bulles du champagne, les bulles de bière adoptent vite un comportement de type sphère rigide. Nous avons également discuté l'influence relative de certains paramètres sur la taille des bulles lorsqu'elles parviennent en surface. Il a notamment été montré que le rôle théorique joué par la température du champagne sur la taille des bulles est quasiment négligeable. Pour finir, nous avons proposé d'essayer de faire du train de bulles une sorte d'empreinte digitale du liquide effervescent dans lequel il évolue en analysant la dynamique ascensionnelle des bulles via la mesure de leur coefficient de frottement. Nous avons pu différencier à ce jour par cette méthode trois grandes familles de boissons gazeuses : les vins effervescents au sens large (champagne compris), les bières et les eaux gazeuses. Éclatement En utilisant les techniques classiques de la macrophotographie, nous avons obtenu des instantanés de la situation qui suit immédiatement la rupture du mince film liquide qui constitue la partie émergée d'une bulle isolée en surface. Nous avons ainsi pu mettre en évidence l'existence des jets de liquide engendrés par les éclatements de bulle, et leur rupture en gouttelettes suite au développement très rapide de l'instabilité de Rayleigh-Plateau. En faisant un parallèle légitime entre le pétillement des bulles à la surface du champagne et le “pétillement de l'océan”, nous avons émis l'idée que les gouttelettes de jet étaient beaucoup plus concentrées en matériel tensioactif (et potentiellement aromatique) que le cœur de phase du liquide. Il semble donc que l'éclatement de bulles joue un rôle essentiel dans l'effet exhausteur d'arômes au cours de la dégustation d'un champagne. Pendant les quelques secondes qui suivent le versement du champagne dans la flûte, nous avons également réalisé des clichés macrophotographiques et des films à haute vitesse d'éclatements de bulles en monocouche (ou radeau de bulles). Les premiers résultats de ces observations font apparaître des déformations spectaculaires dans le film liquide des bulles premières voisines littéralement aspirées par succion capillaire dans la cavité laissée vacante par la bulle centrale en train d'éclater. Ces premières images suggèrent des contraintes, dans le mince film des bulles déformées, très supérieures à celles qui existent dans le sillage d'une bulle isolée qui éclate. Nous avons également pu mettre en évidence des différences structurales entre les jets de liquide qui suivent l'éclatement des bulles isolées et celles qui éclatent dans un radeau de bulles.