ERIC Educational Resources Information Center
Lehner, H.; Weingartz, M.
The typical traits of a ready-made system as well as those of an individualized system are constituent characteristics of distance education. Within the framework set by these qualities and the extent to which they differ from one another, one seeks to achieve the fundamental educational aim of distance students' autonomy. The way institutions see…
NASA Astrophysics Data System (ADS)
Barkleit, Gerhard
Dem nuklearen Patt zwischen Ostblock und westlichem Staatenbündnis ist es nach weitgehend übereinstimmender Auffassung von Politik und Wissenschaft zu danken, dass der "Kalte Krieg" in der zweiten Hälfte des 20. Jahrhunderts nicht zum weltumfassenden Flächenbrand eskalierte. An der raschen Herstellung dieses Patts waren zwei Dresdner Physiker maßgeblich beteiligt, deren einer im Manhattan-Projekt in den USA gearbeitet hatte und später in England der Spionage für die Sowjetunion und des Verrats des Know-how der Atombombe überführt wurde.
Educational Service Quality in Zanjan University of Medical Sciences from Students' Point of View
ERIC Educational Resources Information Center
Mohammadi, Ali; Mohammadi, Jamshid
2014-01-01
This study aims at evaluating perceived service quality in Zanjan University of Medical Sciences (ZUMS). This study was cross-sectional and authors surveyed educational services at ZUMS. Through stratified random sampling, 384 students were selected and an adapted SERVQUAL instrument was used for data collection. Data analysis was performed by…
Physik gestern und heute Von der Metallstange zum Hochenergielaser
NASA Astrophysics Data System (ADS)
Heering, Peter
2002-05-01
Im Mai 1752 wurde in Marly bei Paris auf Anregung des amerikanischen Forschers und Politikers Benjamin Franklin erstmals die elektrische Natur des Blitzes nachgewiesen. Damals beschrieb Franklin auch eine technische Vorrichtung, die als Schutz von Gebäuden vor Blitzschlägen dienen sollte: den Blitzableiter. Diese aus heutiger Sicht scheinbar triviale Vorrichtung wurde aber keineswegs unmittelbar akzeptiert. Und bis heute ist die Forschung zum Schutz von Einrichtungen vor Blitzschlägen nicht abgeschlossen.
ZumBeat: Evaluation of a Zumba Dance Intervention in Postmenopausal Overweight Women
Rossmeissl, Anja; Lenk, Soraya; Hanssen, Henner; Donath, Lars; Schmidt-Trucksäss, Arno; Schäfer, Juliane
2016-01-01
Physical inactivity is a major public health concern since it increases individuals’ risk of morbidity and mortality. A subgroup at particular risk is postmenopausal overweight women. The aim of this study was to assess the feasibility and effect of a 12-week ZumBeat dance intervention on cardiorespiratory fitness and psychosocial health. Postmenopausal women with a body mass index (BMI) >30 kg/m2 or a waist circumference >94 cm who were not regularly physically active were asked to complete a 12-week ZumBeat dance intervention with instructed and home-based self-training sessions. Before and after the intervention, peak oxygen consumption (VO2peak) was assessed on a treadmill; and body composition and several psychometric parameters (including quality of life, sports-related barriers and menopausal symptoms) were investigated. Of 17 women (median age: 54 years; median BMI: 30 kg/m2) enrolled in the study, 14 completed the study. There was no apparent change in VO2peak after the 12-week intervention period (average change score: −0.5 mL/kg/min; 95% confidence interval: −1.0, 0.1); but, quality of life had increased, and sports-related barriers and menopausal symptoms had decreased. A 12-week ZumBeat dance intervention may not suffice to increase cardiorespiratory fitness in postmenopausal overweight women, but it increases women’s quality of life. PMID:29910253
Von Donuts und Zucker: Mit Neutronen biologische Makromoleküle erforschen
NASA Astrophysics Data System (ADS)
May, Roland P.
2003-05-01
Für die Erforschung von Biomolekülen bieten Neutronen einzigartige Eigenschaften. Vor allem ihre unterschiedliche Wechselwirkung mit dem natürlichen Wasserstoff und seinem schweren Isotop Deuterium ermöglicht tiefe Einblicke in Struktur, Funktion und Dynamik von Proteinen, Nukleinsäuren und Biomembranen. Bei vielen Fragestellungen zur Strukturaufklärung gibt es kaum oder keine Alternative zum Neutron. Das Institut Laue-Langevin trägt Bahnbrechendes zum Erfolg der Neutronen-Methoden in der Biologie bei.
Geometrie verstehen: statisch - kinematisch
NASA Astrophysics Data System (ADS)
Kroll, Ekkehard
Dem Allgemeinen steht begrifflich das Besondere gegenüber. In diesem Sinne sind allgemeine Überlegungen zum Verstehen von Mathematik zu ergänzen durch Untersuchungen hinsichtlich des Verstehens der einzelnen mathematischen Disziplinen, insbesondere der Geometrie. Hier haben viele Schülerinnen und Schüler Probleme. Diese rühren hauptsächlich daher, dass eine fertige geometrische Konstruktion in ihrer statischen Präsentation auf Papier nicht mehr die einzelnen Konstruktionsschritte erkennen lässt; zum Nachvollzug müssen sie daher ergänzend in einer Konstruktionsbeschreibung festgehalten werden.
NASA Astrophysics Data System (ADS)
Vogel, Helmut
Das beliebte Arbeitsbuch "Probleme aus der Physik" bietet nun auch zur 17. Auflage von Gerthsen Vogel "Physik" (ISBN 3-540-56638-4) mit über 1150 gelösten Aufgaben aus der Physik und ihren Anwendungen in Technik, Astrophysik, Geound Biowissenschaften eine Fülle an Material zum Üben und Weiterlernen, zur Prüfungsvorbereitung und zum Selbststudium. Neu hinzugekommen ist ein Kapitel zur nichtlinearen Dynamik. Aufgaben aller Schwierigkeitsgrade machen "Probleme aus der Physik" unentbehrlich für Studenten der Physik im Haupt- und Nebenfach; Schüler der Leistungskurse Physik finden hier eine hervorragende Ergänzung.
Clinical investigation of vestibular damage by antituberculous drugs.
Nakayama, M; Natori, Y; Tachi, H; Yoshizawa, M; Takayama, S; Miura, H; Kanayama, M; Kamei, T
1986-01-01
Vestibular function testing was done regularly on the cases given streptomycin, kanamycin, or enviomycin and a method to detect the cases of vestibular dysfunction at an early stage was discussed, as well as the time these drugs should be discontinued. Subjects were 85 cases of tuberculosis treated with streptomycin, kanamycin, or enviomycin who were admitted to our hospital from December 1984 to May 1986. The method of equilibrium examination performed at regular intervals is as follows: standing test (Romberg test), stepping test, and Meyer zum Gottesberge's head-shaking test were done once a week for a month after starting antituberculous injections and they were re-examined once every 2 weeks for at least 3 months after beginning the injections. After the 3 months these tests were done once a month. Eight cases of vestibular damage due to streptomycin or enviomycin could be easily detected at an early stage by performing Meyer zum Gottesberge's head-shaking test, together with the standing test and the stepping test. Vestibular dysfunction is apt to occur after about 1 month or within a month from the start of daily injections especially with streptomycin. Therefore, the method of equilibrium examination, we suggest, is that the Meyer zum Gottesberge's head-shaking test, the standing test (Romberg test), and the stepping test should be performed once a week during the first month after the start of this drug. When the result of the Meyer zum Gottesberge's head-shaking test is less than 50% and swaying and/or rotation occur in the stepping test, the drugs being given should be discontinued.
Innovative BI-Lösungen als Basis für eine erfolgreiche Transformation zu Utility 4.0
NASA Astrophysics Data System (ADS)
Phillipp, Daniel; Ebert, Sebastian
Für eine erfolgreiche Transformation, vom reinen Energieversorger hin zum Energiedienstleister, werden innovative Business-Intelligence-Lösungen notwendig sein und eine zentrale Rolle einnehmen. Dabei ist es zunächst essenziell, die Herausforderungen zu kennen und ihnen mit geeigneten Analysen zu begegnen. Die Basis hierzu bildet eine abgestimmte und auf die strategischen Unternehmensziele ausgerichtete Architektur und Vorgehensweise. Zwei Beispiele veranschaulichen, wie ein gesamtheitlicher Ansatz, auch bei Datenvielfalt und hoher Komplexität, operative Prozesse optimiert, und fortgeschrittene Analysen zukünftig einen Beitrag zum Unternehmenserfolg liefern können.
NASA Astrophysics Data System (ADS)
Kramer, Florian
Heutige Pkw sind zum Schutz der Insassen bei Frontalkollisionen zu etwa 90 % fahrerseitig und zu ca. 70 % auf der Beifahrerseite mit Airbags ausgestattet, während die Seiten-Airbags zum Schutz des Kopfes und des Thorax von Insassen bei Seitenkollisionen nur mit ungefähr 40 bis 50% vertreten sind [1]. Weitere Schutzmaßnahmen wie Fuß- und Fond-Airbags befinden sich im Entwicklungsstadium, ihr Einsatz in der Serie ist umstritten und wird sich, wenn überhaupt, nur in Einzelfällen durchsetzen. In Bild C3-1 sind Airbags dargestellt, die heute serienmäßig in Pkw anzutreffen sind.
Meilensteine in der Erforschung der kompakten Objekte
NASA Astrophysics Data System (ADS)
Camenzind, Max
Kompakte Objekte besitzen zum einen eine sehr hohe Dichte, und zum anderen sind sie durch die Tatsache charakterisiert, dass keine nuklearen Reaktionen mehr in ihrem Inneren stattfinden können. Aus diesem Grund können sie im Unterschied zu gewöhnlichen Sternen der Gravitation nicht mehr mit dem Druck des thermischen Gases widerstehen. In den Weißen Zwergen bzw. Neutronensternen wird der Gravitation der Quantendruck eines Elektronengases bzw. einer Neutronenflüssigkeit entgegengesetzt. Ein solches Gas besteht aus Elektronen bzw. Neutronen, die auf ihr niedrigstes Energieniveau zusammengepresst wurden. Durch die daraus resultierende hohe Bewegungsenergie der Fermionen wird der sogenannte Quantendruck erzeugt.
Simulation turbulenter Konvektion in Supernova-Explosionen massereicher Sterne.
NASA Astrophysics Data System (ADS)
Janka, H.-T.; Müller, E.; Ruffert, M.
Contents: 1. Das Projekt: Numerische Simulation von Typ-II-Supernovae. 2. Die numerischen Verfahren. 3. Die Visualisierung von dreidimensionalen Datensätzen. 4. Die Ergebnisse: Einblick in explodierende Sterne.
Magnetoseed - Vasculäres Tissue Engineering
NASA Astrophysics Data System (ADS)
Perea Saavedra, Héctor; Methe, Heiko; Wintermantel, Erich
Gegenwärtig sind kardiovaskuläre Erkrankungen, allen voran die Arteriosklerose koronarer und zerebraler Gefäße, Ursache für 38% aller Todesfälle in Nordamerika und häufigste Todesursache europäischer Männer < 65 Jahre und zweithäufigste Todesursache bei Frauen [4]. Es wird prognostiziert, dass innerhalb der nächsten 10-15 Jahre kardiovaskuläre Erkrankungen und deren Komplikationen weltweit die häufigste Todesursache stellen werden. Dies ist zum einen Folge der ansteigenden Prävalenz kardiovaskulärer Erkrankungen in Osteuropa und zunehmend auch in den Entwicklungsländern, zum anderen Folge der kontinuierlich ansteigenden Inzidenz von Übergewicht und Diabetes mellitus in den westlichen Ländern.
NASA Astrophysics Data System (ADS)
Vogl, Raimund; Gildhorn, Antje; Labitzke, Jörg; Wibberg, Michael
An der Westfälischen Wilhelms-Universität Münster (WWU) wurde bereits 1996 ein tragfähiges, kooperativ ausgerichtetes System der IT-Governance im Zusammenspiel zentraler und dezentraler IT-Leistungserbringer etabliert. Um den Anforderungen an ein integriertes Informationsmanagement im Überlappungsfeld von Information, Kommunikation und Medien (IKM) durch das Zusammenspiel der zentralen Einrichtungen Universitätsverwaltung (UniV), Universitäts- und Landesbibliothek (ULB) und Zentrum für Informationsverarbeitung (ZIV) gerecht zu werden, wurde 2003 der IKM-Service institutionalisiert. In diesem Rahmen wurde das Projekt Münster Information System for Research and Organization (MIRO) entwickelt, das als Leistungszentrum für Forschungsinformation von der DFG gefördert wird. Die bisherigen Projekterfahrungen, erreichten Ziele und verbleibenden Aufgaben werden dargestellt. Im Projektverlauf haben sich insbesondere die etablierten IT-Governance und Versorgungs-Strukturen sowie die Unterstützung der Hochschulleitung als essentielle Erfolgskriterien erwiesen.
Reich-Schupke, Stefanie; Schmeller, Wilfried; Brauer, Wolfgang Justus; Cornely, Manuel E; Faerber, Gabriele; Ludwig, Malte; Lulay, Gerd; Miller, Anya; Rapprich, Stefan; Richter, Dirk Frank; Schacht, Vivien; Schrader, Klaus; Stücker, Markus; Ure, Christian
2017-07-01
Die vorliegende überarbeitete Leitlinie zum Lipödem wurde unter der Federführung der Deutschen Gesellschaft für Phlebologie (DGP) erstellt und finanziert. Die Inhalte beruhen auf einer systematischen Literaturrecherche und dem Konsens von acht medizinischen Fachgesellschaften und Berufsverbänden. Die Leitlinie beinhaltet Empfehlungen zu Diagnostik und Therapie des Lipödems. Die Diagnose ist dabei auf der Basis von Anamnese und klinischem Befund zu stellen. Charakteristisch ist eine umschriebene, symmetrisch lokalisierte Vermehrung des Unterhautfettgewebes an den Extremitäten mit deutlicher Disproportion zum Stamm. Zusätzlich finden sich Ödeme, Hämatomneigung und eine gesteigerte Schmerzhaftigkeit der betroffenen Körperabschnitte. Weitere apparative Untersuchungen sind bisher besonderen Fragestellungen vorbehalten. Die Erkrankung ist chronisch progredient mit individuell unterschiedlichem und nicht vorhersehbarem Verlauf. Die Therapie besteht aus vier Säulen, die individuell kombiniert und an das aktuelle Beschwerdebild angepasst werden sollten: komplexe physikalische Entstauungstherapie (manuelle Lymphdrainage, Kompressionstherapie, Bewegungstherapie, Hautpflege), Liposuktion und plastisch-chirurgische Interventionen, Ernährung und körperliche Aktivität sowie ggf. additive Psychotherapie. Operative Maßnahmen sind insbesondere dann angezeigt, wenn trotz konsequent durchgeführter konservativer Therapie noch Beschwerden bestehen bzw. eine Progredienz des Befundes und/oder der Beschwerden auftritt. Eine begleitend zum Lipödem bestehende morbide Adipositas sollte vor einer Liposuktion therapeutisch angegangen werden. © 2017 The Authors | Journal compilation © Blackwell Verlag GmbH, Berlin.
Einsatz molekularer Methoden für Starterkulturen
NASA Astrophysics Data System (ADS)
Ehrmann, Matthias A.; Pavlovic, Melanie
Unter Starterkulturen versteht man Mikroorganismen (Bakterien, Hefen, Pilze), die pflanzlichen bzw. tierischen Rohstoffen zur gezielten Veränderung ihrer chemischen Zusammensetzung zugesetzt werden. Sie dienen im Wesentlichen der Aromabildung, der Strukturveränderung und der Konservierung der Lebensmittel und werden aufgrund spezieller, funktioneller Eigenschaften selektiert. Die Zugabe von Starterkulturen erfolgt in der Regel in relativ hohen Keimzahlen in Form von Rein- oder Mischkulturen. Die zum Einsatz kommenden Mikroorganismen sind ebenso zahlreich wie die daraus resultierenden Produkte und reichen von der Fermentation von Milchprodukten, Fleisch und Gemüse durch Milchsäurebakterien über die Essigsäureherstellung bis hin zum Einsatz von Hefen in der Brau- und Weinindustrie. Hieraus ergibt sich auch eine zunehmende Bedeutung schneller und zuverlässiger Methoden zur taxonomischen Identifizierung, aber auch zur Charakterisierung des genetischen Potenzials der jeweiligen Starterkulturen.
S2k-Leitlinie zum Gebrauch von Präparationen zur lokalen Anwendung auf der Haut (Topika).
Wohlrab, Johannes; Staubach, Petra; Augustin, Matthias; Eisert, Lisa; Hünerbein, Andreas; Nast, Alexander; Reimann, Holger; Strömer, Klaus; Mahler, Vera
2018-03-01
Diese Leitlinie richtet sich an Assistenz- und Fachärzte der Dermatologie sowie an Kostenträger und politische Entscheidungsgremien. Die Leitlinie wurde im formellen Konsensusverfahren (S2k) von Dermatologen unter Einbindung von Apothekern erstellt. Die Leitlinie stellt allgemeine Aspekte der Pharmakokinetik sowie der regulatorischen Begrifflichkeiten dar. Es werden Empfehlungen zur Indikation von Magistralrezepturen sowie deren Qualitätssicherung gegeben. Die Bedeutung der galenischen Grundlagen und die Problematik bei einer Substitution gegeneinander verschiedener Grundlagen werden dargestellt. Die Leitlinie umfasst Kriterien zur Auswahl einer adäquaten Grundlage sowie spezifische Aspekte zur Therapieplanung. Die Leitlinie gibt Empfehlungen zum Management bei Unverträglichkeiten gegenüber Bestandteilen der Grundlagen oder Hilfsstoffe. © 2018 The Authors | Journal compilation © Blackwell Verlag GmbH, Berlin.
Mikrodaten und statistische Auswertungsmethoden
NASA Astrophysics Data System (ADS)
Hujer, Reinhard
Mit der zunehmenden Verfügbarkeit immer größerer Querschnitts- und Längschnittsdatensätze für Personen, Haushalte und Betriebe sowie deren Verknüpfungen hat sich die mikroökonometrische Forschung in den vergangenen Jahren rasant weiterentwickelt. Dies gilt sowohl aus methodischer als auch aus empirischer, anwendungsorientierter Sicht. Mikrodaten und mikroökonometrische Ansätze dienen dazu, aktuelle, politikrelevante Fragen aufzugreifen, sie zu analysieren und fundierte politische Empfehlungen zu geben, beispielsweise im Rahmen der Arbeitsmarkt- und Sozialpolitik, der Finanzanalyse und der Marketingforschung. Die Deutsche Statistische Gesellschaft (DStatG) und deren Mitglieder haben sich in den Ausschüssen und in Hauptversammlungen kontinuierlich mit den Weiterentwicklungen der mikroökonometrischen Methodik und den empirischen Anwendungen befasst. Zahlreiche Publikationen von Mitgliedern der DStatG haben entscheidend zum kritischen Diskurs und zum wissenschaftlichen Fortschritt in diesem Bereich beigetragen.
... or bruxism (say: BRUK-sih-zum), which is grinding your teeth while you sleep. Grinding stretches the muscles and joints in your mouth ... closing completely at night, which keeps you from grinding your teeth. Getting Fitted for and Wearing a ...
ERIC Educational Resources Information Center
Miedema, Rients; And Others
This description of a project in the Netherlands concentrates on the progress made by participating schools since 1974, inhibiting and success factors, and the outlook for the future. The MAVO project provides secondary students with training for administrative functions. One of the characteristics of the program is that it provides a three-year…
Extrasolare Monde - schöne neue Welten?
NASA Astrophysics Data System (ADS)
Heller, René
2013-10-01
Während mittlerweile rund 950 Planeten außerhalb des Sonnensystems gefunden wurden, steht der Nachweis von extrasolaren Monden noch aus. Aktuelle Studien zeigen, dass dies mit der heutigen Technologie zum ersten Mal möglich ist.
Sentinel-Lymphknoten-Biopsie des Melanoms mittels Indocyaningrün und "FOVIS"-System.
Göppner, Daniela; Nekwasil, Stephan; Jellestad, Anne; Sachse, Alexander; Schönborn, Karl-Heinz; Gollnick, Harald
2017-02-01
Der Nachweis metastatischer Infiltrate im Sentinel-Lymphkoten (SLN) gilt als wesentlicher prognostischer Faktor des Melanoms. Alternativ zur Farbstoffmethode mit Patentblau zum Goldstandard der SLN-Biopsie (SLNB) mittels Radiokolloid wird die fluoreszenzoptische Darstellung mit Hilfe von Indocyaningrün (ICG) und Nahinfrarot (NIR)-Kamerasystem kommuniziert. Im Vergleich zur konventionellen Methode wurde die Wertigkeit des ICG-/NIR-Verfahrens in Abhängigkeit vom Body-Mass-Index (BMI) des Patienten und der Konzentration von ICG bezüglich der Visualisierung des Lymphabstroms und des SLNs untersucht. An zehn Patienten wurde die SLNB mittels Technetium-99m, Patentblau und ICG durchgeführt. Die Fluoreszenz-Darstellung von Lymphbahnen und SLN erfolgte in Echtzeit mittels der NIR-Kameratechnik "FOVIS". Je nach erzielter Bildqualität wurde ICG in einer Dosis von 0,25 mg bis 2,5 mg intrakutan appliziert. Neun der zehn SLN wurden fluoreszenzoptisch identifiziert (90 %), alle zehn radioaktiv (100 %), nur acht (80 %) mittels ICG-Grünfärbung bzw. Patenblau-Markierung. Transdermal wurde ein SLN dargestellt (10 %). In Korrelation zum BMI waren höhere ICG-Mengen, bis zu 2,5 mg intrakutan absolut, in der Darstellung der Lymphbahnen von Vorteil. Die SLN-Fluoreszenzmarkierung mit dem ICG/NIR-Kamera-System "FOVIS" stellt eine sichere Alternative zur Farbstoffmethode mit Patentblau ergänzend zur Radiokolloidmethode mit Technetium-99m dar. Weitere Studien zur optimalen Dosierung von ICG und transdermalen Bildgebung in Relation zum BMI sind notwendig. © 2017 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
NASA Astrophysics Data System (ADS)
Kostmann, Dirk
Normung ist aus dem täglichen Leben nicht wegzudenken. In allen Bereichen des Lebens begegnet man Normen, die Aktivitäten reichen von Festlegungen für Kindersitze im Auto über Implantate zum Gelenkersatz bis zu Schraubengrößen oder Verfahren zur Optimierung von Unternehmen.
ERIC Educational Resources Information Center
Raasch, Albert
1978-01-01
The project "Threshold Level," initiated by the Council of Europe in 1976, is compared with "Francais fondamental," comparing their aims and their differences. Offered as an interim statement, the article leaves open the question of whether Francais fondamental should be replaced by the the Threshold Level. (IFS/WGA)
Zum Problem der Hochschulreform in Spanien: Einige ausgewahlte Daten.
ERIC Educational Resources Information Center
Val, Jose Cajide; Philipp, Rita Radl; Castro, Ana Porto
1998-01-01
Investigates the teaching, research, and management entailed in four new degree programs--physics, agricultural engineering, agricultural food-processing technology, and pharmacy courses--at Spain's University of Santiago de Compostela. Reports students' opinions of reforms in these courses, revealing dissatisfaction with facilities for practical…
Theoretische Konzepte der Physik
NASA Astrophysics Data System (ADS)
Longair, Malcolm S.; Simon, B.; Simon, H.
"Dies ist kein Lehrbuch der theoretischen Physik, auch kein Kompendium der Physikgeschichte ... , vielmehr eine recht anspruchsvolle Sammlung historischer Miniaturen zur Vergangenheit der theoretischen Physik - ihrer "Sternstunden", wenn man so will. Frei vom Zwang, etwas Erschöpfendes vorlegen zu müssen, gelingt dem Autor etwas Seltenes: einen "lebendigen" Zugang zum Ideengebäude der modernen Physik freizulegen, ... zu zeigen, wie Physik in praxi entsteht... Als Vehikel seiner Absichten dienen dem Autor geschichtliche Fallstudien, insgesamt sieben an der Zahl. Aus ihnen extrahiert er das seiner Meinung nach Lehrhafte, dabei bestrebt, mathematische Anachronismen womöglich zu vermeiden... Als Student hätte ich mir diese gescheiten Essays zum Werden unserer heutigen physikalischen Weltsicht gewünscht. Sie sind originell, didaktisch klug und genieren sich auch nicht, von der Faszination zu sprechen, die ... von der Physik ausgeht. Unnötig darauf hinzuweisen, das sie ein gründliches "konventionelles" Studium weder ersetzen wollen noch können, sie vermögen aber, dazu zu ermuntern." #Astronomische Nachrichten (zur englischen Ausgabe)#1
Quantensprung Digitalisierung - Energiewirtschaft im 21. Jahrhundert
NASA Astrophysics Data System (ADS)
Thyen, Elmar
Die Energiewende wird ohne eine umfassende Digitalisierung der Energiewirtschaft Stückwerk bleiben. Die historisch gewachsene, aus hunderten fossilen Großkraftwerken getriebene Energieversorgung hat sich durch den Zubau von mehr als einer Millionen dezentraler Erzeugungseinheiten innerhalb der vergangenen 15 Jahren radikal verändert. Zum Ausgleich von Last und Erzeugung, aber auch zum Aufbau neuer Geschäftsfelder ist die digitale Technik unverzichtbar. Ihre Möglichkeiten scheinen nahezu unbegrenzt, ihre Rolle wird in einer zukünftig nahezu vollständig elektrifizierten Gesellschaft zunehmend wichtiger werden. Neue Anbieter drängen auf den Markt und setzen die traditionelle Energiewirtschaft unter Druck. Energieversorger, die sich dem Wandel nicht stellen, drohen den Anschluss zu verpassen. Noch werden Verbundunternehmen und Stadtwerke von weitreichenden regulatorischen Vorgaben geschützt. Beispiele aus anderen Branchen zeigen aber, dass die Digitalisierung im Stande ist, regulatorische Mechanismen außer Kraft zu setzen. Zugleich verhindert die enge Regulierung und ein falsch verstandener Datenschutzbegriff in Deutschland die Entwicklung neuer Geschäftsmodelle, die energie- und volkswirtschaftlich sinnvoll wären.
JPRS Report, East Europe. Reference Aid: Abbreviations in the Polish Press.
1989-12-07
Artykulami Rolnymi Centralne Biuro Obrotu Maszynami Centrum Badania Opinii Spolecznej Centralne Biuro Planowania Centralne Biuro Projektöw... Badania Odmian Roslin Uprawnych Central Optical Laboratory Central Laboratory of the Wood Products Industry Central Laboratory of the...Glöwny Inspektorat Wyszkolenia Bojowego Glöwny Komitet Gminny Komitet Glöwna Komisja Arbitrazowa Glöwna Komisja Badania Zbrodni Hitlerowskich w
Ein statistisches Modell zum Einfluß der thermischen Bewegung auf NMR-Festkörperspektren
NASA Astrophysics Data System (ADS)
Ploss, W.; Freude, D.; Pfeifer, H.; Schmiedel, H.
Es wird ein statistisches Modell zum Einfluß der thermischen Bewegung auf die NMR-Linienform vorgestellt, das die Verschmälerung von Festkörper-Spektren bei wachsender Temperatur beschreibt. Das Modell geht von der Annahme aus, daß nach einer Ortsveränderung eines Kerns infolge thermischer Bewegung jede beliebige Kernresonanzfrequenz mit der durch das Festkörperspektrum vorgegebenen Wahrscheinlichkeit angenommen werden kann. Am Beispiel der Festkörper-Gaußlinie wird der Unterschied zu dem bekannten Modell von ANDERSON und WEISS verdeutlicht.Translated AbstractA Statistical Model for the Influence of Thermal Motion on N. M. R. Spectra in SolidsA theory is proposed which allows to describe the narrowing of n. m. r.-line width in the presence of thermal motions of the spins. The model is based on the assumption, that the local resonance frequency of a given spin immediately after the jump is distributed according to the n. m. r.-line shape of the rigid lattice. The difference to the well-known ANDERSON-WEISS-model of spectral narrowing is demonstrated for a gaussian line shape.
Oberflächenstrukturierung metallischer Werkstoffe, z. B. für stents
NASA Astrophysics Data System (ADS)
Stöver, Michael; Wintermantel, Erich
Eine topologische Oberflächenmodifikation von metallischen Implantaten kann aus verschiedenen Gründen sinnvoll sein. Im Allgemeinen lassen sich zwei Hauptziele unterscheiden. Zum einen dienen Oberflächen dazu, bestimmte Zellreaktionen zu forcieren. Die Anwendungsbeispiele reichen hier von sehr rauen Oberflächen in Fällen wo eine gute Integration eines Permanentimplantates in das Gewebe erwünscht ist bis hin zu glatt polierten Oberflächen. Letztere werden in erster Linie dort eingesetzt, wo das Implantat in direktem Kontakt mit Blut ist. Ein Beispiel für die Erforderlichkeit einer hohen Rauheit (Rz > 100 μm) sind meist aus Titan gefertigte Schäfte von Gelenksimplantaten [1,2]. Die Autoren machten den Vorschlag, die Aufrauung von Titan- und Edelstahl-Stents analog der Aufrauung bei Hüftprothesenschäften zu versuchen, um eine noch bessere Biokompatibilität zu erreichen. [7, 8 ,9]. Sehr glatte Oberflächen, in der Regel mit Rz Werten von unter 0,1 μm, sind z. B. bei Herzklappenprothesen und der Innenseite von Gefäßstützen gefordert. Mittlere Rauheiten werden oft bei temporären Implantaten eingesetzt, in die in reguliertem Maße Gewebe einwachsen, allerdings keine unlösbare Verbindung bilden sollen. Sehr genau eingestellt werden müssen auch die Oberflächentopographien bei Implantaten in sehr empfindlichen Gebieten wie z. B. der Gehirnregion. Hierbei muss eine gute Verankerung im Gewebe vorhanden sein, um ein Verrutschen des Implantates zu verhindern. Zum anderen darf keine überschüssige Zellproliferation entstehen, um ein Einwachsen in sensible Regionen zu verhindern. Zum anderen werden Oberflächenmikrostrukturen genutzt, um Wirkstoffe in Implantate einzubringen, die lokal über einen bestimmten Zeitraum freigesetzt werden sollen. Als wichtigste Wirkstoffe sind hier Antibiotika und entzündungshemmende Mittel sowie im kardiovaskulären Bereich Proliferationshemmer zu nennen.
ERIC Educational Resources Information Center
Weisgerber, Leo
1972-01-01
Discussion of two basic conceptions: Wilhelm von Humboldt's idea of language as energeia'' existing within and without man, and Noam Chomsky's idea of language generated by the speaker according to an innate apparatus. Revised version of lectures presented at the University of Bonn, West Germany in August 1971. (RS)
Ein Erfahrungsbericht zum Thema Interaktion (A Report of Experience on the Theme of Interaction)
ERIC Educational Resources Information Center
Schroedter-Albers, Henning
1977-01-01
Describes work at a Goethe Institute branch with two groups of foreign students learning German, in which radio news, after preparatory work by the teacher, was used to induce question-and-answer dialogue. Many types of teaching aids and exercises used are described, including three-way conversation. (Text is in German.) (IFS/WGA)
MODEL TESTS ON BALL LIGHTNING; Modellversuche zum Kugelblitz
DOE Office of Scientific and Technical Information (OSTI.GOV)
nauer, H.
1959-10-31
Ball lightning phenomena and properties gleaned from a collection of observations are examined. The observations of a diffusion combustion of minute gas admixtures in air are thoroughly examined because they display the greatest resemblance to natural ball lightning. A comparison of properties with the qualities of the luminous clouds during diffusion combustion shows very good agreement. (W.D.M.)
ERIC Educational Resources Information Center
Brinkmann, Annette, Ed.; Ehmann, Annegret, Ed.; Milton, Sybil, Ed.; Rathenow, Hanns-Fred, Ed.; Wyrwoll, Regina, Ed.
This project is the result of extensive research about the practical applications of "National Socialism and the Holocaust" in historical and political education in and outside schools and in educational work with young people. The multifaceted documentation, on CD-ROM, booklet and a Web site is aimed at a broad international and…
Sizing Determination Final Report
1988-02-01
A Name: ERIC WHEATLEY Subject No.: 4 S/N: ------------ Sex.: M Race: BLACK Age...z:ni:zum Frcx-tal Arc - Tahc and -Marker Tool 19.= 6- - B-prozy.ncmatic_ ,’entlon Ar- - T"p_ and Marler Tool ......... .. 26.:; i7 Bitragion Mini-o-u- Frc...tape and Marler Tool ............. 24.5 7 . ilt’-aoion inigmu F-ontal Ar-c - -:•c= Oil- ---................... . ?.. S:-.-_,_ . ................. 1
NASA Astrophysics Data System (ADS)
Plaßmann, Wilfried
Um Sprache und Musik über größere Entfernungen zu übertragen, wird der Hörschall mit einem Mikrofon in ein proportionales elektrisches Signal umgewandelt und auf drahtlosem Wege (Beispiel Rundfunkübertragung) oder drahtgebunden (Beispiel Telefon, Kabelrundfunk, oft in Kombination mit dem drahtlosen Weg) zum Empfänger übermittelt. Am Empfangsort setzt z. B. ein Lautsprecher das elektrische Signal wieder in ein akustisches Signal um.
Forschungspolitik USA weisen zunehmend ausländische Physikstudenten ab
NASA Astrophysics Data System (ADS)
Bührke, Thomas
2003-11-01
In keinem anderen Land der Erde ist der Anteil ausländischer Studenten im Fach Physik größer als in den USA. Nach den Terroranschlägen vom 11. September werden jedoch zunehmend ausländische Studenten, insbesondere aus China und dem mittleren Osten, abgewiesen - zum Leidwesen der Studenten und der Universitäten.http://www.aip.org/statistics
Standardization Today and Tomorrow
1998-05-01
products and for occupational safety and health protection, into a majority rule, the elaboration and adoption of directives was additionally speeded up...they contain. Safety standards serve to protect life, health and material goods and so, for the field of technology, express the requirements laid...p. 19, 13.02.1996 Press release 05-97: Entscheidung zum Arbeitsschutzmanagement (Decision on industrial safety management ) http://www.din.de
NASA Astrophysics Data System (ADS)
Hahn, Hans Jürgen; Gutjahr, Simon
2014-09-01
In seinem Kommentar schließt Traugott Scheytt die faunistische Bioindikation über die Nutzung von Grundwassermessstellen aus methodischen Gründen aus. Er postuliert auch, dass die faunistische Indikation hydrogeologischer Zusammenhänge wegen der eingeschränkten Ausbreitungsfähigkeit der Tiere in Porengrundwasserleitern nicht möglich sei und stellt grundsätzlich die Befunde unserer Untersuchungen am Kaiserstuhl in Frage. Dabei überträgt Herr Scheytt seine Erfahrungen aus der unbelebten Hydrogeologie direkt auf den Lebensraum Grundwasser. Seine Argumentation berücksichtigt dabei weder die Prinzipien der Ökologie noch den aktuellen Stand der grundwasserökologischen Forschung. Wir gehen davon aus, dass für die Untersuchungen am Kaiserstuhl sowohl unsere Arbeitshypothese wie auch die angewandten Methoden und die Interpretation der Ergebnisse der Fragestellung angemessen sind und internationalem, wissenschaftlichem Standard entsprechen. Aus den oben benannten Gründen bleiben wir dabei: Biondikation im Grundwasser funktioniert und sie bietet hervorragende Möglichkeiten, gerade auch für die Hydrogeologie.
ERIC Educational Resources Information Center
Breitung, H. A.; And Others
1974-01-01
New placement procedure at Humboldt University includes interviews and placement tests. Interviews reveal response ability, tempo, pronunciation, comprehension, etc. The 60-minute test that follows is described and results discussed, as well as difficulty level and grading. Results: better grouping of students, less shifting, better work. (Text is…
Mobile Number Portability in Europe
2005-08-01
Anmerkungen zum Balassa - Samuelson -Effekt, Nr. 3/2002, erschienen in: Stefan Reitz (Hg.): Theoretische und wirtschaftspolitische Aspekte der internatio- nalen...However, the argument is slightly more complex. Using a simple model with differentiated networks, Buehler and Haucap (2004) show that the incumbent’s...Elasticities The above arguments suggest that it is more difficult to gain market share in the presence of switching costs, as undercutting needs to be
Unanimous Constitutional Consent and the Immigration Problem
2004-12-01
Wolf, EU-Erweiterung: Anmerkungen zum Balassa - Samuelson -Effekt, Nr. 3/2002, erschienen in: Stefan Reitz (Hg.): Theoretische und wirtschafispolitische...the individualistic norm. Their main argument is that the contradiction between collective coercion and individual freedom cannot be dissolved at the... arguments against this way of reasoning for there usually will be holes in that veil, so that it may be possible to draw conclusions from the past with
ERIC Educational Resources Information Center
Gramberg, Anne-Kathrin; Heinze, Karin U.
1993-01-01
This article talks about the subjunctive of indirect speech, in which its important functions and meanings are depicted. An analysis of the instructional materials used in the first and second years of language study, followed by practical curriculum recommendations, demonstrates how this grammatical phenomenon can be established in an advanced…
ERIC Educational Resources Information Center
Hellwig, Karlheinz
1980-01-01
The questionnaire dealt with: earmarks of weaker students, parents' attitude, the teachers' training and working conditions, problems of individual instruction, time-frame, existence of professional associations, evaluation of professional conferences, and the use of media. Some evaluations are appended. (IFS/WGA)
2000-01-01
Kraftwerk Qinshan, VR China 0 1984 bis 1987 Studiumn des Markscheidewesens am Shandong Institute of Mining and Technology, VR China * 1984 bis 1993...die zur Wasserversorgung eines Kraftwerkes der ALCAN dienen sollte. Verbunden mit dem Tunnelprojekt war auch der Bau einer 80 km langen Hoch...spannungsleitung durch unverdorbene Wildnis vom Kraftwerk zur Aluminium-Schmelze in Ki- timat. Zu dieser Zeit war es das gr66Bte hydro-elektrische Projekt, das
NASA Astrophysics Data System (ADS)
Oberholzer, Hans-Rudolf; Holenstein, Hildegard; Mayer, Jochen; Leifeld, Jens
2010-05-01
Humus balances are simple mathematical tools used by farmers for assessing the overall performance of their management in terms of soil organic matter changes. They are based on humus reproduction factors which themselves mainly depend on crop rotation, residue management, and amount and type of organic fertilization. Dynamic models, on the other hand, are typically complex and need more detailed input data and are designed to calculate the time course of soil carbon content. In both cases, thorough validation is needed to utilize their potential for estimating carbon stock changes. We compared the results of three humus balance methods SALCA-SQ (Neyroud 1997), VDLUFA method (VDLUFA 2004), Humod (Brock et al. 2008) and the RothC model with measured soil carbon stocks in a long-term experiment in Switzerland for the period 1977-2005 (Fliessbach et al 2007). The field trial comprises various minerally and organically fertilized treatments, the latter differing in the amount and composition of organics applied. All methods were able to distinguish systematic management effects on soil organic carbon (SOC). However, only those SOC trajectories calculated with the dynamic model RothC matched measured stocks quantitatively. For both, humus balances and dynamic modelling the result strongly depended on parameterization of organic fertilizers, i.e. its stability and organic matter content. Therefore, incomplete information on the amount and composition of organic fertilizer and lack of knowledge about its potential for humus reproduction is regarded an uncertainty in both dynamic modelling and humus balance calculation, and seems to be a major drawback for the reliable application of these approaches at the regional scale. Our results stress the need for more detailed and harmonized data bases of organic fertilizer composition and application rates. References Brock C., Hoyer U., Leithold G., Hülsbergen K.-J., 2008. Entwicklung einer praxisanwendbaren Methode der Humusbilanzierung im ökologischen Landbau. Abschlussbericht zum Projekt 03OE084, http://forschung.oekolandbau.de unter der BÖL-Bericht-ID 16447,184 pp. Fliessbach A, Oberholzer H.-R., Gunst L., Mäder P., 2007. Soil organic matter and biological soil quality indicators after 21 years of organic and conventional farming. Agriculture, Ecosystems and Environment 118, 273-284. Leifeld J., Reiser R., Oberholzer H.-R., 2009. Consequences of conventional vs. organic farming on soil carbon: Results from a 27-year field experiment. Agronomy Journal 101, 1204-1218. Neyroud J.-A., 1997. La part du sol dans la production intégrée 1. Gestion de la matière organique et bilan humique. Revue suisse d'agriculture, 29, 45-51. VDLUFA, 2004. VDLUFA-Standpunkt: Humusbilanzierung - Methode zur Beurteilung und Bemessung der Humusversorgung von Ackerland. Verband Deutscher Landwirtschaftlicher Untersuchungs- und Forschungsanstalten, Selbstverlag.
ERIC Educational Resources Information Center
Ludwig, Peter H.
2003-01-01
Argues that the thesis of discrimination against girls in coeducation schools has been replaced by a belief that, during certain phases or in specific subjects, abandonment of coeducation would promote equal opportunities. Questions whether classic or recent surveys provide empirical evidence for this moderate skeptical attitude towards…
Ebenen des Verstehens: Überlegungen zu einem Verfahren zum Wurzelziehen
NASA Astrophysics Data System (ADS)
Winter, Martin
Wir bemühen uns, insbesondere bei Kindern, den Lernprozess auch im Mathematikunterricht durch den Einsatz von Materialien zu unterstützen. Die Arbeitsschritte dienen dabei oft der Vorbereitung oder Herleitung von Verfahren - in der Hoffnung, dass durch die Veranschaulichung Zusammenhänge besser verstanden werden. Worin dann das Verstehen besteht, wenn im Ergebnis ein Verfahren von den Kindern erfolgreich abgearbeitet wird, ist nicht unmittelbar zu sehen.
Middle-Class Consensus, Social Capital and the Mechanics of Economic Development
2005-01-01
Michael, Social Capital and Regional Mobility, Nr. 4/2002. "* Schdfer, Wolf, EU-Erweiterung: Anmerkungen zum Balassa - Samuelson -Effekt, Nr. 3/2002...variations, while the argument of both the present paper and most of the previous literature on inequality and growth refers to long-run growth effects of...Diskussionsbeitriige zur Finanzwissenschaft " Josten, Stefan, Crime, Inequality, and Economic Growth. A Classical Argument for Distributional Equality
ERIC Educational Resources Information Center
Koppensteiner, Juergen
1978-01-01
Nearly all German textbooks currently used in the USA either entirely fail to mention Austria, or else portray it by means of myths, cliches (Apfelstrudel, Sachertorte, Gemuetlichkeit), and often with outright untruths. The American student gets a picture of Austria as an "underdeveloped Disneyland of Europe". (WGA)
ERIC Educational Resources Information Center
Bauer, Hans-Ludwig
1976-01-01
Reports on the introduction of video recorders at various branches of the Goethe Institute. The characteristics of video are compared with those of films, tapes and printed matter. Video's advantage is that through it authentic, unprepared material can be presented, and it provides strong motivation. (Text is in German.) (IFS/WGA)
ERIC Educational Resources Information Center
Zielsprache Englisch, 1976
1976-01-01
The phonetic symbols in the "Advanced Learners Dictionary" (Oxford University Press, London) are discussed critically in articles by L. Alfes, H. Arndt, E. Bauch, G. Dahlmann-Resing, W. Friedrich, E. Germer, B. Haycraft, H. P. Kelz. Reference is made to an earlier article "Neue Zeichen", by H. G. Hoffmann. (Text is in German.)…
ERIC Educational Resources Information Center
Bielefeld Univ. (West Germany).
The ten papers in this document were developed for a meeting prepared for the Third International Congress on Mathematical Education. Each paper is concerned with research from 1970-1975 related to the mathematical learning process. The first paper describes projects conducted in England on both content and process learning. The second paper…
Chirurgie angeborener Herzfehler
NASA Astrophysics Data System (ADS)
Schreiber, Christian; Libera, Paul; Lange, Rüdiger
Störungen der embryonalen Entwicklung in der frühen Phase der Schwangerschaft können zu Fehlbildungen am Herz- und Gefäßsystem führen. Die Häufigkeit liegt bei 0.8-1 % aller lebend geborenen Kinder. In Deutschland werden jedes Jahr etwa 6.000 Kinder mit einem Herzfehler geboren (Quelle: http://www.kompetenznetzahf.de). Das Spektrum reicht von einfachen Fehlern, die das Herz-Kreislauf-System wenig beeinträchtigen, bis zu sehr schweren Herzerkrankungen, die unbehandelt zum Tode führen. Fortschritte der Kinderkardiologie, Herzchirurgie und Anästhesie ermöglichen heute ein Überleben bei über 90 % der Patienten. Auch die spezialisierte Pränataldiagnostik (vorgeburtliche Diagnostik) ermöglicht schon die frühe Weichenstellung für mögliche Therapieoptionen. Bei der chirurgischen Therapie ist jedoch festzuhalten, dass ein Herzfehler entweder korrigierend behandelt wird oder nur "palliiert“ werden kann. Bei letzterer Therapie wird bei einem Patienten eine medizinische Maßnahme durchgeführt, die nicht die Herstellung normaler Körperfunktionen zum Ziel hat, sondern in Anpassung an die physiologischen Besonderheiten des Patienten dessen Zustand lediglich stabilisiert und optimiert. Dies kann beispielsweise bei einer nicht korrigierbaren angeborenen Fehlbildung notwendig sein, bei der lediglich eine funktionelle Herzkammer vorhanden ist (z. B. hypoplastisches Linksherz). Hierbei muss eine prothetische Verbindung zur Lungenstrombahn in der Folgezeit entfernt werden.
ERIC Educational Resources Information Center
Endt, Ernst
This bibliography lists publications concerned with bilingual education and immersion programs and how they are used in and outside of Canada. In the beginning, an overview is provided of publications from related disciplines that have brought crucial recognition to the fields of bilingual and immersion education. These include: second and foreign…
Hey, Christiane
2018-04-01
Bock JM et al. Evaluation of the natural history of patients who aspirate. Laryngoscope 2017; 127: S1–S10 DIE KLINISCHE PROGRESSION DER ASPIRATION BIS ZU EVENTUELLEN PULMONALEN STöRUNGEN IST NICHT VOLLSTäNDIG VERSTANDEN. EMPFEHLUNGEN ZUR ERNäHRUNGSUMSTELLUNG, SCHWERE VON PENETRATION UND ASPIRATION GEMäß PAS SOWIE DIE ÄTIOLOGIE DER DYSPHAGIE BEEINFLUSSEN MöGLICHERWEISE DIE ZEITSPANNE BIS ZUM AUFTRETEN DES ERSTEN PULMONALEN EREIGNISSES SOWIE DAS GESAMTüBERLEBEN VON PATIENTEN MIT VFS-DOKUMENTIERTER, ASYMPTOMATISCHER PENETRATION UND ASPIRATION.
ERIC Educational Resources Information Center
Bach, Gerhard
1975-01-01
Using Richard Wright's novel "Black Boy" as a model to work on, the author illustrates a 4-dimensional approach to the teaching of foreign literature: (1) scientific definition of the goals, (2) making a teaching plan, (3) defining methods, and (4) actual use on a teaching model. (Text is in German.) (IFS/WGA)
NASA Astrophysics Data System (ADS)
Ebert, Karl-Herbert; Ammer, Daniel; Hoffstetter, Marc; Wintermantel, Erich
Bei der Betrachtung von aktuellen Produktentwicklungen lässt sich durch alle Branchen hinweg ein deutlicher Trend zur Miniaturisierung und Funktionsintegration auf kleinstem Raum erkennen. Der Einsatz technischer Kunststoffe, die überwiegend im Thermoplast-Spritzgießverfahren verarbeitet werden, leistet dabei einen wichtigen Beitrag um diese Produktentwicklungen in marktfähige Artikel umsetzen zu können. Hierbei sind im Vergleich zum Standardspritzgießen einige Besonderheiten hinsichtlich des Formenbaus, der Anlagen- sowie Prozesstechnik und der Qualitätssicherung zu beachten.
Effects of Sediment Composition on Growth of Submersed Aquatic Vegetation
1986-01-01
environ- mental conditions, the growth of Hydri a and Myriophylwn is relatively poor on low density, highly organic sediments and on high density sands. Whi...A1jriophyZum 5.08 1 0.33 0.93 K HydritZa 27.8 t 0.8 0,98 M-plroph,,Uum 20.4 t 0.6 0.98 Na Hydri Z 0.42 ± 0.03 0.93 MyxiophyTZum 8.03 t 0.43 0.95 H9
ERIC Educational Resources Information Center
Kerschgens, Edda
1977-01-01
Reports on an 18-hour teaching project with students at a teachers' college. Four Baldwin texts were used. Questions considered included whether Baldwin's treatment of the race problem reveals any changes or shifts of emphasis. Suggestions are made for adaptation to teaching in grades 11-13. (Text is in German.) (IFS/WGA)
Umsetzung der Unternehmensstrategie mit der Balanced Scorecard
NASA Astrophysics Data System (ADS)
Crespo, Isabel; Bergmann, Lars; Portmann, Stefan; Lacker, Thomas; Lacker, Michael; Fleischmann, Jürgen; Kozó, Hans
Die Balanced Scorecard (BSC) ist ein Ansatz zum strategischen Management, der neben der Ausrichtung des Unternehmens auf finanzielle Zielwerte ebenso großes Gewicht auf so genannte weiche Faktoren legt, die den wirtschaftlichen Erfolg eines Unternehmens erst ermöglichen. Das entscheidende Merkmal der Balanced Scorecard ist dabei, dass sie ein ausgewogenes System strategischer Ziele herstellt, welches das Unternehmen hinsichtlich der vier Perspektiven Finanzen, Kunden, interne Prozesse und Mitarbeiter und Potenziale strategisch ausrichtet (Kaplan u. Norton 1997).
Polynomials with Restricted Coefficients and Their Applications
1987-01-01
sums of exponentials of quadratics, he reduced such ýzums to exponentials of linears (geometric sums!) by simplg multiplying by their conjugates...n, the same algebraic manipulations as before lead to rn V`-~ v ie ? --8-- el4V’ .fk ts with = a+(2r+l)t, A = a+(2r+2m+l)t. To estimate the right...coefficients. These random polynomials represent the deviation in frequency response of a linear , equispaced antenna array cauised by coefficient
Betriebsführung multimodaler Energiesysteme
NASA Astrophysics Data System (ADS)
Mackensen, Reinhard
Die Transformation des Energiesystems von einer zentral geprägten, unidirektional orientierten und in unterschiedliche Sektoren separierten Struktur hin zu einer umfassenden, multimodalen, dezentralen und flexiblen Erzeuger- und Verbraucherlandschaft findet auf verschiedenen Ebenen statt. Randbedingung bei dieser Umwälzung ist immer die Einhaltung der Teilziele Versorgungssicherheit, Wirtschaftlichkeit und Effizienz. Im Einzelnen schlägt sich diese Transformation in einer Diversifizierung der Akteurslandschaft durch die Mechanismen des Unbundling nieder. Weiterhin finden eine Dezentralisierung der Erzeugerlandschaft und damit eine Substitution von mehrheitlich fossil betriebener Großkraftwerkstechnologie durch eine Vielzahl dezentraler Erzeuger mit zumeist regenerativem Charakter statt. Dieser Wandel hat im Wesentlichen zwei Hauptkonsequenzen. Zum einen ergeben sich durch dezentrale, flächige Verteilung der Erzeuger neue Anforderungen an den Energieaustausch, bspw. aus der Erweiterung der Stromnetze für einen bidirektionalen Energieaustausch, zum anderen werden Abstimmungsmechanismen erforderlich, welche die fluktuierende Einspeisung derart mit dem Verbrauch in Waage hält, dass sowohl elektrische Netzrestriktionen, die Qualität der Versorgung und Aspekte der Energieeffizienz und damit der Wirtschaftlichkeit berücksichtigt werden. Mögliche Antworten auf die mit dieser Betrachtung einhergehenden Fragen liegen in der Konzeption eines multimodalen Energiesystems, also in der Gesamtbetrachtung der Sektoren Strom, Wärme und Verkehr. Dieses Kapitel soll Mechanismen darlegen und Wege aufzeigen, wie eine solche Konzeption gestaltet werden kann und wie solche komplexen Systeme in der Praxis betrieben werden können.
NASA Astrophysics Data System (ADS)
Jäger, Kristina
2017-04-01
Local actors, such as municipal authorities, can promote and shape the settlement of foreign companies in a particular manner. In many instances, actions of economic promotion can lead to several conflicts; firstly between foreign investors and their national representatives, and secondly with (supra)regional industries or business circles. Here, flexible and long-term settlement projects, the permission of migrant infrastructure, and moreover, their high-profile marketing may attract foreign companies and long-term investors.
Sustainability Gaps in Municipal Solid Waste Management: The Case of Landfills
2006-02-01
Regional Mobility, Nr. 4/2002. "* Schafer, Wolf, EU-Erweiterung: Anmerkungen zum Balassa - Samuelson -Effekt, Nr. 3/2002, erschienen in: Stefan Reitz (Hg...generations with high long-term external costs as it is the case in the dry tomb technology. Besides the efficiency aspect an argument of justice is... argument of time- consistency according to Strotz does not play any role because the assumed "rational" way of planning cannot be realized due to the non
Die Grundlagen der Fernsehtechnik: Systemtheorie und Technik der Bildübertragung
NASA Astrophysics Data System (ADS)
Mahler, Gerhard
Umfassende Einführung in die Grundlagen der Bewegtbild-Übertragung von den Anfängen bis zum heutigen Stand des digitalen Fernsehens mit einer aus der Praxis entstandenen systemtheoretischen Analyse. Die kompakte und anschaulich bebilderte Darstellung mit elementaren mathematischen Beschreibungen macht es dem Leser leicht, sich in die Bildübertragungstechnik einzuarbeiten. Thematische Einheiten erweitern den Wissensstoff - u.a. zu den Themen visuelle Wahrnehmung, mehrdimensionale Signaldarstellung, Farbmetrik, Digitalisierung, Elektronenoptik - und zeigen deren Anwendung auf die elektronische Bildübertragung.
1980-08-11
cross - Bruttoquerschni tt section Zahl der Flugstunden = number of flight hours Fig 2.8 Fatigue strength of ...Relationship between residual strength, strain increase and development of damage as a function of the number of cycles (Ref 732) 118 / 0 /+45 / 90 /- CFK ... cross -section) only the nett cross -section. Number of 900 where intralaminar cracks ha! increased further. cracks had occurred 4. Delaminations
ERIC Educational Resources Information Center
Loeffler, Renate
1979-01-01
Describes work at an American college with students who are receiving an introduction to colloquial German. Role-playing and picture stories prove useful in learning, in both productive and receptive aspects. Describing a picture on three levels--factual, psychological and contemplative--is shown to be very useful. (IFS/WGA)
NASA Astrophysics Data System (ADS)
Lacalli, Christina; Jähne, Marion; Wesarg, Stefan
In diesem Beitrag stellen wir neue, automatisierte Verfahren zur Visualisierung der Koronararterien einerseits und für eine direkte Vergleichbarkeit mit konventionellen Angiogrammen andererseits vor. Unser Ansatz umfasst Methoden für die automatische Extraktion des Herzens aus kontrastverstärkten CT-Daten, sowie für die Maskierung grosser kontrastmittelgefüllter Kavitäten des Herzens, um die Sichtbarkeit der Koronararterien bei der Darstellung mittels Volumenrendering zu verbessern. Zum direkten Vergleich mit konventionellen Angiographien wurde ein Verfahren zur automatischen Generierung von Projektionsansichten aus den CT-Daten entwickelt.
Einsteins Spuren in den Archiven der Wissenschaft: Physikgeschichte
NASA Astrophysics Data System (ADS)
Marx, Werner
2005-07-01
Die Erwähnungen und Zitierungen von Einsteins Arbeiten dokumentieren lediglich den quantifizierbaren Anteil von Einsteins Beitrag zur Physik. Gleichwohl belegen sie die außergewöhnliche Resonanz und Langzeitwirkung seiner Arbeiten. Die Häufigkeit der Zitierungen entspricht nicht der allgemeinen Einschätzung ihrer Bedeutung. Insbesondere die Pionierarbeiten werden inzwischen als bekannt vorausgesetzt und nicht mehr explizit zitiert. Interessanterweise ist seine nach 1945 meist zitierte Arbeit nicht eine der Pionierarbeiten zur Quantenphysik oder Relativitätstheorie, sondern jene aus dem Jahr 1935 zum berühmten Einstein-Podolsky-Rosen-Paradoxon.
Wildner, Manfred
2018-06-01
„Ich habe doch nur mit dem Finger gedroht“, sagte der Angeklagte, und unterließ es unfairerweise darauf hinzuweisen, dass dieser am Abzug einer Pistole gelegen hatte. Der Bezug dieses Bonmots zum Gesundheitswesen soll im Folgenden weniger auf die konkreten gesundheitlichen Risiken durch Schusswaffen gelegt werden, sondern vielmehr auf die nicht weniger bedeutsame Rolle des Kontextes für Gesundheit, Krankheit und Wohlbefinden. Dass der „Kontext“, verstanden als System- und Sinnzusammenhang, sowohl das objektive Auftreten von Krankheiten in ihrer Häufigkeit und Schwere als auch das subjektive Erleben von Gesundheitszuständen beeinflusst, ist hinreichend bekannt.
Plattformbasierte Dienste als technologische Notwendigkeit im disruptiven Marktwandel
NASA Astrophysics Data System (ADS)
Elsner, Daniel
Die energiewirtschaftliche Digitalisierung führt zu einem disruptiven Marktwandel. Der smarte, vernetzte Energiemarkt von morgen umfasst neue Player, neue Kommunikationsanforderungen, geändertes Kundenverhalten und mehr Daten. Etablierte Marktteilnehmer sind gezwungen, ihre bisherigen Geschäftsmodelle zu überdenken. IT wird dabei mehr und mehr zum Wettbewerbsfaktor. Ein erfolgreiches Managen der technologischen Veränderungsprozesse ist zwingende Voraussetzung für die nachhaltige Bewältigung der energiewirtschaftlichen Digitalisierung. In diesem Zusammenhang erweisen sich die daten- und entwicklungsspezifischen Synergieeffekte plattformbasierter Dienste als zentraler Mehrwert einer innovationsgetriebenen strategischen Marktpositionierung und damit als technologische Notwendigkeit.
Beitrag zum mechanismus der oxydation von freiblei in bleiakkumulatorpaste bei der reifung
NASA Astrophysics Data System (ADS)
Duc Hung, Nguyen; Garche, J.; Wiesener, K.
The kinetics of lead oxidation during curing was studied by chemical analysis of the free lead content as well as by the gas volumetry of oxygen. The difference in the results in this research lies in the evolution of hydrogen as a curing reaction. This agrees with the results of curing the paste The optimal water content of the paste for lead oxidation was determined. A model for the electrolyte film during curing has been developed, which allows the results to be interpreted satisfactorily.
Analyse der Literatur zu Klimawirkungen in Deutschland: ein Gesamtbild mit Lücken
NASA Astrophysics Data System (ADS)
Fleischhauer, Mark; Greiving, Stefan; Lindner, Christian; Lückenkötter, Johannes; Schauser, Inke
Dieses Kapitel präsentiert Ergebnisse einer umfassenden Literaturauswertung zu relevanten Klimawirkungen für Deutschland, die im Rahmen des Projekts "Netzwerk Vulnerabilität" vorgenommen wurde. Es zeigt auf, dass ein aggregiertes Gesamtbild der Klimawirkungen für Deutschland als Grundlage für Folgenabschätzungen und Anpassungsplanungen noch nicht gezeichnet werden kann, da eine große Bandbreite an Ansätzen zur Bewertung von Vulnerabilitäten oder Klimawandelfolgen existiert und die gegenwärtig vorhandenen Klimawirkungs- und Vulnerabilitätsstudien von großer Heterogenität gekennzeichnet sind. Als erster Schritt wird deshalb eine Zusammenschau bereits vorhandener Ansätze geliefert.
Kommunikation mit Mitarbeitern
NASA Astrophysics Data System (ADS)
Spychala, Anne; Fleischmann, Jürgen
Kommunikation ist der Austausch von Nachrichten und Informationen zwischen Mitarbeitern eines Unternehmens (O'Hair et al. 1997). Dieser Austausch kann persönlich, aber z.B. auch per Telefon, E-Mail oder durch Computersysteme erfolgen. In diesem Kapitel betrachten wir die persönliche Kommunikation zwischen Vorgesetzten und Mitarbeitern. Zur persönlichen Kommunikation mit Mitarbeitern zählen sowohl formelle Gespräche mit Mitarbeitern als auch eher informelle Gespräche zwischen Tür und Angel. Die Gespräche können dabei mit einzelnen Mitarbeitern (z.B. jährliches Mitarbeitergespräch) oder mit Gruppen von Mitarbeitern (z.B. regelmäßige Projekt- oder Teambesprechungen) stattfinden.
Titanisierung von Implantatoberflächen
NASA Astrophysics Data System (ADS)
Zimmermann, Hanngörg; Heinlein, Markus; Guldner, Norbert W.
Titan gilt seit Jahrzehnten als einer der wichtigsten Implantatwerkstoffe in der Medizin. Neben den guten mechanischen Eigenschaften (Leichtigkeit, hohe Festigkeit etc.), besitzen Titanimplantate vor allem eine hervorragende Körperverträglichkeit, so dass die Implantate optimal in den humanen Organismus integriert werden [1]. Ist jedoch aufgrund der Anforderungen an das Implantat eine hohe Flexibilität und/ oder Elastizität gefragt, so scheidet der Werkstoff Titan aufgrund seiner spröden und unflexiblen Materialeigenschaften aus. Die Folge ist der Einsatz von Implantatmaterialien, sowohl künstlichen als auch biologischen Ursprungs, welche nicht selten eine unzureichende Biokompatibilität aufweisen und somit zu Fremdköper- und immunologischen Reaktionen und Einkapselung des Implantates führen können. Die Erhöhung der Körperverträglichkeit, eine Adaption an das biologische Umfeld und eine hohe Biokompatibilität sind demzufolge die wichtigsten Eigenschaften bei der bedarfsgerechten Herstellung von Implantaten und Implantatoberflächen. Zur Gestaltung von innovativen, biokompatiblen Oberflächen stehen unterschiedliche technische Lösungsansätze zur Verfügung. Zum einen besteht die Möglichkeit, geeignete Oberflächeneigenschaften aus dem Grundmaterial selbst zu optimieren. Dies geschieht unter anderem durch Modifikation der Werkstoffoberflächen in Form von Texturierungen und Oberflächenrauhigkeiten. Zum anderen können die Oberflächeneigenschaften unabhängig von denen des Trägermaterials gestaltet werden. Durch Funktionalisierung der Oberflächen mit geeigneten Beschichtungen oder der Zugabe von Medikamenten (Drug Eluting) werden die Kunststoffimplantate dahingehend verändert, dass eine Steigerung der Körperakzeptanz erreicht wird. Die Titanbeschichtung von Implantatoberflächen kombiniert die positiven Materialeigenschaften von Titan und Polymer.
Neue Laser und Strahlquellen - alte und neue Risiken?
Paasch, Uwe; Schwandt, Antje; Seeber, Nikolaus; Kautz, Gerd; Grunewald, Sonja; Haedersdal, Merete
2017-05-01
Die Entwicklungen im Bereich dermatologischer Laser, hochenergetischer Blitzlampen, LED und neuer Energie- und Strahlquellen der letzten Jahre haben gezeigt, dass mit neuen Wellenlängen, Konzepten und Kombinationen zusätzliche, zum Teil über den ästhetischen Bereich hinaus gehende therapeutische Optionen für den Dermatologen erschlossen werden konnten. Wurden bisher zum Beispiel mit fraktionalen Lasern Falten behandelt, sind eben diese Systeme heute in Kombination mit Medikamenten wichtige Werkzeuge bei der Behandlung von Narben, bei Feldkanzerisierung und epithelialen Tumoren. Die Anforderungen an den die Indikation stellenden und vorzugsweise therapierenden Arzt steigen mit der immer komplexer werdenden Technik und den zunehmenden Komorbiditäten und Komedikationen einer älter werdenden Patientenklientel. Parallel etabliert wurden, zunächst für einige wenige Indikationen, Geräte für die Heimanwendung, die sich durch geringe Leistung und spezielle Sicherheitsvorkehrungen zur Vermeidung von Unfällen, Risiken und Nebenwirkungen auszeichnen. Trotz der reduzierten Effizienz solcher Selbstbehandlungsmaßnahmen steigt die Wahrscheinlichkeit einer Fehlanwendung, da die Grundvoraussetzung für eine korrekte Therapie, nämlich die exakte Diagnose und Indikationsstellung, nicht vorausgesetzt werden kann. Bei einer Haarentfernung können so Pigmenttumoren, bei einer Faltentherapie neoplastische Hautveränderungen adressiert und zu erwartende, unvorhergesehene und neue Nebenwirkungen und Komplikationen induziert werden. In diesem Szenario ist es wichtig, alle potenziellen Anwender dieser neuen Technologien vor deren Einsatz so zu qualifizieren, dass den Therapierten maximale Therapiesicherheit bei höchster Effizienz unter dem Leitbild diagnosis certa - ullae therapiae fundamentum garantiert wird. © 2017 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Spirituelles Wohlbefinden und Coping bei Sklerodermie, Lupus erythematodes und malignem Melanom.
Pilch, Michaela; Scharf, Sabina Nadine; Lukanz, Martin; Wutte, Nora Johanna; Fink-Puches, Regina; Glawischnig-Goschnik, Monika; Unterrainer, Human-Friedrich; Aberer, Elisabeth
2016-07-01
Religiös-spirituelles Wohlbefinden ist verbunden mit höherer Vitalität und verminderter Depressionsneigung. In unserer Studie untersuchten wir die Strategien zur Krankheitsbewältigung und die Rolle von Religiosität-Spiritualität (R-S) zur Verbesserung des subjektiven Wohlbefindens. 149 Patienten (107 Frauen), 44 mit systemischer Sklerodermie (SKL), 48 mit Lupus erythematodes (LE) und 57 mit malignem Melanom (MM), Stadium I-II, wurden mittels eines selbstentwickelten Fragebogens zum subjektiven Wohlbefinden, zu den mit der Erkrankung einhergehenden Umständen sowie mit dem Multidimensionalen Inventar (MI-RSB) zu R-S befragt. LE-Patienten sind zum Zeitpunkt der Diagnosestellung stärker belastet als SKL- und MM-Patienten. SKL- und LE-Patienten können erst nach Jahren die Erkrankung akzeptieren. Der Gesamtscore des religiös-spirituellen Befindens liegt bei LE-Patienten signifikant unter dem Wert der Normalbevölkerung. Fotosensitivität und Gelenksschmerzen sind bei LE-Patienten negativ assoziiert mit der Fähigkeit Vergeben zu können. SKL-Patienten mit Gesichtsveränderungen und Lungenbeteiligung zeigen höhere allgemeine Religiosität. MM-Patienten haben höhere Werte für transzendente Hoffnung. Vorträge über die Krankheit und psychologische Betreuung sind die wichtigsten Bedürfnisse von Patienten mit SKL, LE und MM an ihre Betreuer. Religiös-spirituelle Angebote zur Krankheitsverarbeitung scheinen derzeit eine untergeordnete Rolle zu spielen, könnten aber eine wichtige Ressource sein, der man in Zukunft mehr Aufmerksamkeit schenken sollte. © 2016 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Quantenwelt im Nanozylinder: Elektronische Eigenschaften von Kohlenstoff-Nanoröhrchen
NASA Astrophysics Data System (ADS)
Strunk, Christoph
2005-07-01
Kohlenstoff-Nanoröhren sind einzelne oder mehrfach ineinander gesteckte molekulare Hohlzylinder. In ihnen bilden Kohlenstoffatome ein Graphit ähnliches Kristallgitter. Diese Fullerene zeichnen sich durch eine außerordentlich hohe Elastizität und Zugfestigkeit aus. In ihren elektronischen Eigenschaften verhalten sie sich entweder wie Halbleiter oder wie metallische Leiter. Aus halbleitenden Nanoröhren konnten bereits winzige Feldeffekttransistoren hergestellt werden, ein erster Schritt hin zu einer molekularen Elektronik. Die Grundlagenforscher interessiert vor allem das Verhalten metallischer Nanoröhren bei tiefen Temperaturen. An ihren elektronischen Systemen lassen sich zum Beispiel Quanteninterferenzphänomene oder Elektron-Elektron-Wechselwirkungen untersuchen.
Chips aus Plastik: Organische Elektronik
NASA Astrophysics Data System (ADS)
Kiy, Michael
2003-01-01
Künstliche organische Materialien werden in Zukunft vermehrt in der Elektronik eingesetzt werden. Obwohl sie gute Isolatoren sind, kann ein ausreichend großes elektrisches Feld in ihnen einen elektrischen Strom fließen lassen. Dazu injizieren Metallelektroden freie Ladungsträger wie Elektronen oder Löcher in das organische Material. Diese Ladungsträgerinjektion kann die elektrischen Eigenschaften geeigneter organischer Materialien vom Isolator bis zum Leiter steuern. Eine zukünftige Domäne solcher Kunststoffe werden einfache, billige Chips sein. Bei den Displays könnten sie bald die konventionellen Flüssigkristallanzeigen technisch überflügeln.
NASA Astrophysics Data System (ADS)
Tschirschwitz, Christian
Auf einer außerörtlichen Bundesstraße geriet ein mit vier Personen besetzter Pkw Toyota Corolla aus letztlich nicht vollständig geklärten Gründen ins Schleudern. Nachdem sich das Fahrzeug beträchtlich entgegen dem Uhrzeigersinn ausgedreht hatte, prallte ein entgegenkommender Kleintransporter VW T4 frontal an die rechte Flanke des Toyota. Der Transporter wurde gedreht, ausgehoben und durch einen Pkw Ford Escort unterfahren. Alle Fahrzeuge kamen in Kollisionsortnähe zum Endstand. Die vier Toyota-Insassen wurden getötet. Aus den anderen Fahrzeugen wurden sechs Personen überwiegend schwer verletzt. Unbeteiligte Zeugen waren nicht vorhanden.
Imagineering the astronomical revolution - Essay review
NASA Astrophysics Data System (ADS)
Jardine, Nicholas.
2006-11-01
Concerning following Books: (I) Transmitting knowledge - words, images, and instruments in early modern Europe. Kusukawa and Maclean (eds.), OUP, Oxford, 2006; (II) Widmung, Welterklärung und Wissenschaftslegitimierung: Titelbilder und ihre Funktionen in der wissenschaftlichen Revolution. Remmert, Harrassowitz, Wiesbaden, 2005; (III) The power of images in early modern science. Lefevre, Renn and Schoepflin (eds.), Birkhäuser, Basel, 2003; (IV) Immagini per conoscere - dal Rinascimento alla rivoluzione scientifica. Meroi and Pogliano (eds.), Olschki, Florenz, 2001; (V) Erkenntnis Erfindung Konstruktion - Studien zur Bildgeschichte von Naturwissenschaften und Technik vom 16. bis zum 19. Jahrhundert. Holländer (ed.), Mann, Berlin, 2000.
NASA Astrophysics Data System (ADS)
Scheler, Fabian; Mitzlaff, Martin; Schröder-Preikschat, Wolfgang
Die Entscheidung, einen zeit- bzw. ereignisgesteuerten Ansatz für ein Echtzeitsystem zu verwenden, ist schwierig und sehr weitreichend. Weitreichend vor allem deshalb, weil diese beiden Ansätze mit äußerst unterschiedlichen Kontrollflussabstraktionen verknüpft sind, die eine spätere Migration zum anderen Paradigma sehr schwer oder gar unmöglich machen. Wir schlagen daher die Verwendung einer Zwischendarstellung vor, die unabhängig von der jeweils verwendeten Kontrollflussabstraktion ist. Für diesen Zweck verwenden wir auf Basisblöcken basierende Atomic Basic Blocks (ABB) und bauen darauf ein Werkzeug, den Real-Time Systems Compiler (RTSC) auf, der die Migration zwischen zeit- und ereignisgesteuerten Systemen unterstützt.
NASA Astrophysics Data System (ADS)
Greiner, Katharina; Egger, Jan; Großkopf, Stefan; Kaftan, Jens N.; Dörner, Ralf; Freisleben, Bernd
In diesem Beitrag werden Active Appearance Models (AAMs) zur Segmentierung der äußeren Kontur von Aortenaneurysmen eingesetzt. Diese Aufgabe ist wegen des geringen Kontrastes zum umliegenden Gewebe und des Aufbaus der teils thrombotisierten oder kalzifizierten Gefäßwände im Bereich eines Aneurysmas so komplex, dass sie aufgrund der Vielgestalt der Kontur in CT-Angiographie-Bildern die Verwendung eines statistischen Modells für Form und eingeschlossene Textur rechtfertigt. Für die Evaluation des Verfahrens wurden verschiedene statistische Modelle aus Schichten von neun CTA-Datensätzen trainiert und die Segmentierung anhand von Leave-One-Out-Tests überprüft.
Neuausrichtung und Konsolidierung
NASA Astrophysics Data System (ADS)
Grohmann, Heinz
Mit der Wahl von Wolfgang Wetzel zum Vorsitzenden der Deutschen Statistischen Gesellschaft im Jahre 1972 begann eine 32jährige Ära, in der die praktische und die theoretische Statistik in einem ausgewogenen Verhältnis gepflegt wurden. Ein regelmäßiger vierjähriger Wechsel im Vorsitz stärkte die Gemeinschaft und die praktische wie die wissenschaftliche Arbeit gleichermaßen. Die jährlichen Hauptversammlungen behandelten gesellschaftlich aktuelle wie zukunftsorientierte Themen, und die Ausschüsse sowie weitere Veranstaltungen gaben Gelegenheit zur Förderung und Pflege einer Vielzahl von Arbeitsgebieten der Statistik. Darüber wird nicht nur in diesem Kapitel, sondern auch in den Teilen II und III des Bandes berichtet.
Zum Wissenschaftsverständnis der modernen Evolutionsbiologie
NASA Astrophysics Data System (ADS)
Sommer, Ralf J.
Die moderne Evolutionsbiologie hat ihren Ursprung in den Arbeiten von Charles Darwin und Alfred Wallace (Darwin 1963). Der gemeinsame Ausgangspunkt des Evolutionsgedanken ist dabei die Beobachtung, dass die biologische Welt nicht konstant ist. Biologische Systeme und alle darin lebenden Organismen unterliegen über längere Zeiträume hinweg einer stetigen Veränderung. Diese grundlegende Eigenschaft biologischer Systeme macht die Biologie zu einer historischen Wissenschaft und stellt einen wichtigen Gegensatz zu großen Teilen der Physik dar. Obwohl die Aussage von der Veränderlichkeit der Arten heute trivial klingt, war sie im 19. Jahrhundert eine Revolution, da die Konstanz der Arten und der Welt eine vorherrschende Stellung im damaligen Weltbild hatte (Amundson 2005).
NASA Astrophysics Data System (ADS)
Eppmann, Helmut; Fürnrohr, Michael
Viele Aufgaben in Politik, Wirtschaft und Gesellschaft erfordern nicht nur globale, sondern auch regionale Lösungen. Die Regionalstatistik ist deshalb unentbehrlich für viele Planungs- und Entscheidungsprozesse. Ihren Ausbau und ihre Nutzung zu fördern, hat sich der Ausschuss für Regionalstatistik der Deutschen Statistischen Gesellschaft zum Ziel gesetzt. Dieses Kapitel stellt zunächst einige Grundlagen der Regionalstatistik und die Aufgaben des Ausschusses dar. Es folgen das umfangreiche regionalstatistische Datenangebot der Statistischen Ämter des Bundes und der Länder und seine Nutzung. Ein ergänzender Abschnitt ist der Arbeit des Instituts für Bau-, Stadt- und Raumforschung gewidmet. Das Kapitel schließt mit einem Ausblick auf die Weiterentwicklung des regionalstatistischen Datenangebotes aus Sicht der amtlichen Statistik.
Roudbari, Masoud; Yaghmaei, Minoo
2007-09-01
One of the aims of management priorities in medical universities is the evaluation of learning in educational departments in order to prevent educational retardation and to improve the quality of education. The aim of this study was to evaluate the interns' learning in the obstetrics and gynecology (O&G) department at Zahedan University of Medical Sciences (ZUMS). The study was performed in ZUMS, Iran, in 2002-2003 on all interns at the O&G department, including 30 men and 40 women. For data collection, a questionnaire was used and included some questions regarding the common emergencies and diseases in O&G, together with different learning indicators such as reading, observation, hearing, management, and the capability of management. The data were analyzed using descriptive statistics, tables, t test, and chi-square test using the SPSS software. The mean percentages of learning indicators of observation, bedside teaching, supervised management, and personal management in the common emergencies and diseases of O&G in male interns were significantly lower than those in female interns. Also, the mean percentages of managing capabilities were 12% and 70.5% in common emergencies and 14.2% and 59.3% in common diseases for male and female interns, respectively. The chi-square test showed a significant difference between the mean percentages of the managing capabilities in male and female interns for the majority of the common emergencies and diseases. Also, the chi-square test revealed a significant relationship between the learning indicators and the interns' managing capabilities for common emergencies and diseases. Some learning indicators in the male interns were very low. This needs urgent improvement of the learning quality in the O&G department, especially for the male interns, particularly those who are supposed to work in the deprived areas of the country after graduation in the public service.
NASA Astrophysics Data System (ADS)
Homolka, Josef
Der Geschäftsbetrieb einer Universität ist durch zunehmende Digitalisierung und Nutzung elektronischer Medien gekennzeichnet. Die Einführung immer leistungsfähigerer zentraler IT-Systeme führt zu einer komplexen Vielfalt heterogener Benutzer- und Administrationsschnittstellen. Zur Schaffung einer umfassenden benutzerfreundlichen und nahtlosen IT-Infrastruktur ist die Beteiligung aller organisatorischen Einheiten und Ebenen erforderlich. Am Physik-Departement der Technischen Universität München wurden unter Integration eigener Ressourcen mit zentralen Ressourcen, die im Rahmen des IntegraTUM Projektes entwickelt und bereitgestellt wurden, existierende Dienste weiterentwickelt und neue Angebote aufgebaut. Das System, bestehend aus den Komponenten Netzwerk, Arbeitsplatzrechner, Serverinfrastruktur, E-Mail-Service, WWWDienst, Datenhaltung und Software wurde für die Nutzerkreise Studenten und Mitarbeiter im Hinblick auf Anwenderfreundlichkeit und nahtlosen Zugriff optimiert.
Degitz, Klaus; Ochsendorf, Falk
2017-07-01
Akne ist eine chronische Erkrankung mit hoher Prävalenz unter Jugendlichen. Pathogenetische Hauptfaktoren (und ihre klinischen Korrelate) sind gesteigerte Talgproduktion (Seborrhoe), follikuläre Hyperkeratose (Komedonen) und perifollikuläre Entzündungsvorgänge (Papulopusteln). Die Krankheit wird von endogenen (Androgene, IGF-1, neuroendokrine Faktoren) und exogenen (Propionibacterium acnes, Diät, mechanische Irritation, Inhaltsstoffe medizinischer oder kosmetischer Externa) Einflüssen moduliert. Akne geht mit zum Teil hoher Morbidität einher und kann bereits bei leichter Ausprägung eine erhebliche Verschlechterung der Lebensqualität bewirken. Zu Therapie stehen wirksame topische und systemische Behandlungsverfahren zur Verfügung. Eine optimale Behandlung erfordert eine stadiengerechtes Management und kontinuierliche ärztliche Begleitung der Patienten über den erforderlichen Behandlungszeitraum. © 2017 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Victor F. Weisskopf (1908 - 2002): Physikgeschichte
NASA Astrophysics Data System (ADS)
Jacobi, Manfred
2002-11-01
Universal gebildete und interessierte Menschen sind selten geworden in unserer Zeit. Victor F. Weisskopf war einer von ihnen. Sein geistiger Horizont umfasste nicht nur sein eigentliches Fachgebiet, die Physik, wo er sich durch fundamentale Arbeiten in den Bereichen der Quantenfeldtheorie, der Kern- und Elementarteilchenphysik hervortat. Daneben bildeten Kunst und Musik sowie ein außergewöhnliches Engagement in sozialen und politischen Angelegenheiten die Eckpunkte seines Lebens. Der Einsatz für die Verständigung zwischen den Machtblöcken während des Kalten Krieges war für ihn ebenso selbstverständlich wie das Bedürfnis, die neuen Ideen der Physik einem breiten Publikum nahe zu bringen. Die Wissenschaft erschien ihm als das geeignete Mittel, um zum Wohle der Menschheit zu wirken.
Zeitspiel ist keine Alternative - Warum der Wandel zur Pflicht wird
NASA Astrophysics Data System (ADS)
Dieper, Stephan
"Wege entstehen dadurch, dass man sie geht." (Franz Kafka) Die Welt der Digitalisierung ist voll von Wegen, die jemand gegangen ist, bevor dort ein Weg war. Manche dieser Wege stellten sich als Sackgasse heraus, manche als Abkürzung und aus anderen wurden ganze Wegenetze und Städte. Die Energiewelt wird durch den digitalen Wandel nicht verschont bleiben. Durch die intelligenten Messsysteme und die zugehörigen, neuen Strukturen werden energiefremden Wettbewerbern Chancen zum Markteintritt eröffnet. EVUs müssen sich darauf einstellen, dass der permanente Wandel nicht mehr enden wird. Doch auch den EVUs eröffnen sich Optionen. Um erfolgreich zu sein, müssen sie lernen loszugehen, ohne das genaue Ziel zu kennen.
NASA Astrophysics Data System (ADS)
Reiche, Katherina
Die Digitalisierung erfasst sämtliche Bereiche des Lebens und Wirtschaftens. Auch die Kommunalwirtschaft - insbesondere die kommunale Energiewirtschaft - sieht sich perspektivisch disruptiven Entwicklungen gegenüber. Stadtwerke haben bereits viele Herausforderungen erfolgreich gemeistert und stehen auch der Digitalisierung positiv gegenüber. Vielerorts gestalten kommunale Unternehmen den digitalen Wandel bereits aktiv mit. Dieser Artikel arbeitet die Assets kommunaler Unternehmen heraus und zeigt Strategien und Handlungsoptionen zum Umgang mit der digitalen Transformation für kommunale Energieversorgungsunternehmen auf. Dabei zeigt sich, dass das politische und regulatorische Umfeld für das positive Gelingen der Digitalisierung entscheidend sind. Kommunale Unternehmen benötigen die gleichen Marktzugangsbedingungen wie andere Akteure. Ferner profitieren kommunale Unternehmen von einigen Wettbewerbsvorteilen, etwa hohen Vertrauenswerten ihrer Kunden und umfangreiches Know-how im Datenmanagement.
NASA Astrophysics Data System (ADS)
Fließbach, Torsten
In der Statistischen Physik befassen wir uns mit Systemen aus sehr vielen Teilchen. Beispiele hierfür sind die Atome eines Gases oder einer Flüssigkeit, die Phononen eines Festkörpers oder die Photonen in einem Plasma. Die Gesetze für die Bewegung einzelner Teilchen sind durch die Mechanik oder die Quantenmechanik gegeben. Aufgrund der großen Zahl der Teilchen (zum Beispiel N = 6 • 1023 für ein Mol eines Gases) sind die Bewegungsgleichungen jedoch nicht auswertbar. Das Ergebnis einer solchen Auswertung, also etwa die Bahnen von 6•1023 Teilchen, wäre auch uninteressant und irrelevant. Die Behandlung dieser Systeme erfolgt daher statistisch, das heißt auf der Grundlage von Annahmen über dieWahrscheinlichkeit verschiedener Bahnen oder Zustände.
Bildbasierte Navigation eines mobilen Roboters mittels omnidirektionaler und schwenkbarer Kamera
NASA Astrophysics Data System (ADS)
Nierobisch, Thomas; Hoffmann, Frank; Krettek, Johannes; Bertram, Torsten
Dieser Beitrag präsentiert einen neuartigen Ansatz zur entkoppelten Regelung der Kamera-Blickrichtung und der Bewegung eines mobilen Roboters im Kontext der bildbasierten Navigation. Eine schwenkbare monokulare Kamera hält unabhängig von der Roboterbewegung die relevanten Merkmale für die Navigation im Sichtfeld. Die Entkopplung der Kamerablickrichtung von der eigentlichen Roboterbewegung wird durch die Projektion der Merkmale auf eine virtuelle Bildebene realisiert. In der virtuellen Bildebene hängt die Ausprägung der visuellen Merkmale für die bildbasierte Regelung nur von der Roboterposition ab und ist unabhängig gegenüber der tatsächlichen Blickrichtung der Kamera. Durch die Schwenkbarkeit der monokularen Kamera wird der Arbeitsbereich, über dem sich ein Referenzbild zur bildbasierten Regelung eignet, gegenüber einer statischen Kamera signifikant vergrößert. Dies ermöglicht die Navigation auch in texturarmen Umgebungen, die wenig verwertbare Textur- und Strukturmerkmale aufweisen.
NASA Astrophysics Data System (ADS)
Schreiner, Klaus
Das Kapitel "Verbrennungsmotoren" gibt eine Einführung in das wichte und große Gebiet der Verbrennungsmotoren. Leserinnen und Lesern, die noch nie etwas über Verbrennungsmotoren gehört haben, wird empfohlen, zunächst den Abschnitt 1 zu lesen. Dieser ist bewusst einfach und anschaulich geschrieben, um den Zugang zum Thema zu erleichtern. Danach können gezielt weitergehende Informationen in den Abschnitten 2 bis 9 studiert werden. Diese Abschnitte wurden so verfasst, dass man sie nicht nacheinander lesen muss. Grundlage ist jeweils nur der Abschnitt 1. Dieser selbst ist so verfasst, dass das Wichtigste ganz am Anfang steht. Je weiter hinten man in diesem Abschnitt ankommt, umso spezieller werden die Themen. Bei nur begrenztem Interesse an dem Thema Verbrennungsmotoren kann man das Lesen des Abschnitts 1 jederzeit abbrechen und hat trotzdem das bis dahin Wichtigste erfahren.
NASA Astrophysics Data System (ADS)
Tabelow, Karsten
Bildgebende Verfahren haben sich in den letzten Jahren einen festen Platz in der Medizin erobert und die medizinische Forschung und Diagnostik revolutioniert. Sie ermöglichen Ärzten und Forschern einen Einblick in lebendes Gewebe. Mit der fortschreitenden technischen Entwicklung liefern die Verfahren immer höhere Auflösungen, schärfere Bilder und mehr Details. Bildgebende Verfahren sind ohne Mathematik undenkbar, von der Bildrekonstruktion aus den gemessenen Signalen, bis hin zur Auswertung der Bildinformation. Für die Analyse der großen Menge an Bilddatenpunkten (Voxel, volume element, im Gegensatz zum zweidimensionalen Pixel, picture element) werden häufig insbesondere Methoden der mathematischen Statistik benötigt. Zufällige Fehler in der Messung äußern sich als Bildrauschen, die Bilder wirken unscharf und gestört. Dadurch werden diagnostische Entscheidungen erschwert.
NASA Astrophysics Data System (ADS)
Voigt, Annette
Im Jahr 1859 veröffentlichte Charles Darwin "On the Origin of Species“. Seine Evolutionstheorie ist das wohl spektakulärste Beispiel einer naturwissenschaftlichen Theorie großer gesellschaftlicher Relevanz. Ihre verschiedenen Facetten wurden in der Öffentlichkeit kontrovers diskutiert, unter anderem auch ihre Anwendung zur Erklärung von Zuständen und Prozessen menschlicher Gesellschaften. Zum Teil wurde die Seiensweise der Natur - scheinbar unabhängig von gesellschaftlichen Interessen - für die Erklärung und Legitimation gesellschaftlicher Zustände oder die Legitimation von politischen Ideologien herangezogen (Sozialdarwinismus). Denn Gesellschaft funktioniere ja so, wie Darwin die Natur erklärt habe: es herrsche z. B. Konkurrenzkampf, Auslese und Arbeitsteilung, Erfolg hätten diejenigen, die sich an die Bedingungen am Besten anpassten.
Werner Heisenberg zum 100. Geburtstag: Pionier der Quantenmechanik
NASA Astrophysics Data System (ADS)
Jacobi, Manfred
2001-11-01
Werner Heisenberg war eine der prägendsten Gestalten der Physik des 20. Jahrhunderts. Zu seinen wichtigsten Verdiensten gehören die Grundlegung der Quantenmechanik, die Formulierung der Unschärferelationen sowie die Beteiligung an der Ausarbeitung der Kopenhagener Deutung der Quantenmechanik. Darüber hinaus lieferte er Arbeiten von fundamentalem Charakter zur Theorie des Atomkerns, zur kosmischen Strahlung und zur Quantenfeldtheorie. Während des Krieges war er an den Arbeiten des Uranvereins beteiligt, der die Möglichkeit einer Entwicklung von Kernwaffen untersuchte, jedoch über Vorarbeiten zur Reaktorphysik nicht hinauskam. Wegen dieser Tätigkeit wurde er bei Kriegsende für einige Monate in England interniert. Nach seiner Rückkehr widmete er sich vor allem dem Aufbau der Physik in Deutschland, die während der NS-Zeit nahezu ihrer gesamten Substanz beraubt worden war.
Zusammenarbeit aus Sicht eines outgesourcten Instandhalters
NASA Astrophysics Data System (ADS)
Grüßer, Stefan; Loeven, Heinz-Wilhelm
Dauerhafter Unternehmenserfolg ist nur mit einer fortschrittlichen Instandhaltung zu erzielen. Durch den enormen Kostendruck infolge der Globalisierung und die Innovationssprünge auf der technischen Seite wird auch die Frage nach der modernen Organisationsform für die Instandhaltung gestellt. Eine Möglichkeit der Kostenoptimierung ist das Outsourcing von Instandhaltungsleistungen. Hierbei ist es unerlässlich, dass sich die Mitarbeiter zum Dienstleister entwickeln. In diesem Beitrag wird die Entwicklung der InfraServ Knapsack von einer internen Instandhaltungsabteilung hin zu einem Industriellen Dienstleister beschrieben und Aspekte der Zusammenarbeit mit externen Kunden aus der Sicht des outgesourcten Instandhalters geschildert. Es werden die wichtigen Entwicklungsschritte zur Dienstleistungsorientierung der früheren Eigeninstandhaltung aufgezeigt. Dieser Beitrag ist nicht als "Königsweg“ zu verstehen, er soll vielmehr anhand der Erfahrungen einer outgesourcten Eigeninstandhaltung Anregungen für die Entwicklung der eigenen Instandhaltungsorganisation liefern.
Implantate und Verfahren in der Augenheilkunde
NASA Astrophysics Data System (ADS)
Neuhann, Tobias H.
Das in der Medizin mit am häufigsten verwendete Implantat weltweit ist die Intraokulare Linse (IOL). Die Gründe hierfür sind vielschichtig: einmal haben die Operationstechniken in den letzten 30 Jahren eine wesentliche Steigerung an Gleichmäßigkeit, Erfolg und Effizienz erfahren, zum anderen verursachen die gestiegenen Anforderungen des Alltags in den Industrienationen und im Berufsleben den höheren Anspruch an das Sehvermögen. Ist die menschliche Linse Ursache für schlechtes Sehvermögen, besteht meist eine Trübung des Linsenproteins. Diese Trübung nennt wird Volksmund Grauer Star genannt, wissenschaftlich die Katarakt (cataracta). Es gibt unterschiedliche Formen wie angeborene (congenita) oder erworbene, traumatische, krankheitsoder altersbedingte Formen [45]. Wird die eingetrübte Linse nun mittels moderner Operationsverfahren entfernt, muss für Ersatz dieses lichtbrechenden Mediums gesorgt werden [2].
Die Schönbuchbahn. Von der Nebenbahn zum S-Bahn-Standard
NASA Astrophysics Data System (ADS)
Brauer, Tobias
2017-09-01
Since the successful reactivation of the schönbuch railway between Böblingen and Dettenhausen the number of passengers has increased continuously. Due to this high demand of over 8000 people per day and the increase of popularity the current expansion projects include the electrification of the 17 km long track and the installation of double-track sections for providing a 15-minute-service between Böblingen and Holzgerlingen. To realize the new operational concept, Zweckverband Schönbuchbahn (ZVS), the public transport authority, has ordered nine light rail-styled vehicles (with costs around 51,3 mio. euro for developing and construction). In this way the schönbuch railway is an important factor to guarantee a sustainable and forward-looking mobility in the metropolitan area of Stuttgart and for restricting car traffic.
NASA Astrophysics Data System (ADS)
Elsässer, Hans
Die Aktivität von Galaxien ist eine relativ seltene und offenbar kurzlebige Erscheinung, die sich vor allem durch eine verstärkte Abstrahlung, oft über das ganze Spektrum hinweg, vom Röntgen- bis zum Radiobereich, bemerkbar macht. Dabei wird auf neue Befunde an Infrarotgalaxien eingegangen, die dafür sprechen, daß die gravitative Wechselwirkung zwischen Galaxien eine wesentliche Rolle spielt. Das Buch ist eine zusammenfassende Darstellung des heutigen Kenntnisstandes über "Aktive Galaxien", ein Thema, das gegenwärtig im Zentrum des astronomischen Interesses und der aktuellen Forschung steht. Nach einem Überblick über die seit längerem bekannten Phänomene und die Probleme ihrer Deutung wird auf neue, am Max-Planck-Institut für Astronomie mit den Teleskopen der Calar Alto Sternwarte (Südspanien) gewonnene, Ergebnisse eingegangen.
NASA Astrophysics Data System (ADS)
Steffen, Horst
Elektrotechnik und Mechanik verknüpfen sich zunehmend, z. B. bei der Konstruktion von Maschinen. Als Beispiel sei ein Roboter genannt, dessen Bewegungsabläufe elektrisch gespeichert sind und über elektrische Antriebe ausgeführt werden. Bei der Bewegung eines massebehafteten Roboterarmes kommen u. a. Begriffe wie Geschwindigkeit, Beschleunigung, Bewegung im Koordinatensystem und Energie bewegter Massen zum Tragen. Dieses Kapitel erfasst die grundlegenden Gesetze der Mechanik. Behandelt werden folgende Themen: Kinematik des Massenpunktes (Geschwindigkeit, Beschleunigung, Freier Fall, Senkrechter Wurf); Zusammengesetzte Bewegungen (Schiefer Wurf, Kreisbewegung); Dynamik; Newtonsche Axiome; Kraft; Zerlegung und Zusammensetzung von Kräften; Impuls; Impulserhaltungssatz; Arbeit; Leistung; Wirkungsgrad; Energie; Stoß (elastisch und unelastisch); Rotation (Drehmoment, Schwerpunkt, Drehimpuls, Trägheitsmoment, Rotationsenergie); Gravitation; Elastische Verformung fester Körper; Mechanik der ruhenden Flüssigkeiten und Gase (Druck, Kompressibilität); Hydrostatischer Druck; Schweredruck in Gasen (Auftrieb); Hydrodynamik (Kontinuitätsgleichung, Bernoulli-Gleichung).
NASA Astrophysics Data System (ADS)
Vortanz, Karsten; Zayer, Peter
Das Gesetz zur Digitalisierung der Energiewende ist verabschiedet. Ab 2017 sind moderne Messeinrichtungen (mME) und intelligente Messsysteme (iMSys) zu verbauen und zu betreiben. Der "deutsche Weg" für die Einführung von Smart Metern sieht einen stufenweisen Rollout sowie ein Höchstmaß an Informations- und Datensicherheit vor. Dabei spielen iMSys und mME eine wichtige Rolle bei der Neugestaltung der intelligenten Netze (Smart Grids) und des neuen Marktmodells (Smart Market). Dieser Beitrag beschäftigt sich mit den neuen Gesetzen, den Marktrollen und ihren Aufgaben, Datenschutz und Datensicherheit, dem iMSys als sichere Lösung, dem sicheren Betrieb von Smart Meter Gateways, Smart Grid - Smart Market, dem Zusammenspiel zwischen reguliertem Bereich und Markt, den Einsatzbereichen der iMSys sowie den Auswirkungen auf Prozesse und Systeme und gibt Handlungsempfehlungen.
NASA Astrophysics Data System (ADS)
Trogisch, S.; Hoffmann, J.; Daza Bertrand, L.
In the past years research in the molten carbonate fuel cells (MCFC) area has been focusing its efforts on the utilisation of natural gas as fuel (S. Geitmann, Wasserstoff- & Brennstoffzellen-Projekte, 2002, ISBN 3-8311-3280-1). In order to increase the advantages of this technology, an international consortium has worked on the utilisation of biogas as fuel in MCFC. During the 4 years lasting RTD project EFFECTIVE two different gas upgrading systems have been developed and constructed together with two mobile MCFC test beds which were operated at different locations for approximately 2.000-5.000 h in each run with biogas from different origins and quality. The large variety of test locations has enabled to gather a large database for assessing the effect of the different biogas qualities on the complete system consisting of the upgrading and the fuel cell systems. The findings are challenging. This article also aims at giving an overview of the advantages of using biogas as fuel for fuel cells.
Der deutsche Röntgensatellit ABRIXAS: Mission und wissenschaftliche Zielsetzung.
NASA Astrophysics Data System (ADS)
Predehl, P.
ABRIXAS (A BRoad band Imaging X-ray All-sky Survey) ist ein Röntgensatellit mit sieben 27-fach genesteten Wolterteleskopen, die sich in ihren Brennpunkten eine pn-CCD Kamera teilen. ABRIXAS soll im Frühjahr 1999 auf einer russischen Cosmos-Rakete gestartet werden und die erste abbildende Himmelsdurchmusterung oberhalb von 2.4 keV durchführen. Man erwartet während der dreijährigen Mission wenigstens 10.000 neue Röntgenquellen zu entdecken. Dies sind vor allem solche Quellen, die durch vorgelagerte Staub- und Gasschichten für den ABRIXAS-Vorgänger ROSAT unsichtbar blieben. Darüber hinaus wird ABRIXAS hervorragend geeignet sein, ausgedehnte, diffuse Quellen spektroskopisch zu studieren und Intensitätsvariationen von Röntgenquellen auf sehr unterschiedlichen Zeitskalen zu untersuchen. Das Projekt ist eine wissenschaftliche Zusammenarbeit zwischen dem Astrophysikalischen Institut Potsdam (AIP), dem Institut für Astronomie und Astrophysik der Universität Tübingen (IAAT) und dem Max-Planck-Institut für extraterrestrische Physik (MPE).
Untersuchungen zum Harnsäuremetabolismus von Littorina littorea (Gastropoda)
NASA Astrophysics Data System (ADS)
Heil, K. P.; Eichelberg, D.
1983-12-01
Periwinkles, as typical inhabitants of sea-shores, are subjected to extreme changes of environmental conditions, which affect their excretion. In Littorina littorea uric acid, urea and ammonium were detected particularly in the kidney, but the only metabolite excreted was ammonium. Only the concentration of uric acid was dependent on the availability of water; decreasing periods of submersion during low tide and raised salinities caused a higher concentration of uric acid, while increasing periods of submersion and lowered salinities effected the opposite. Transfer of periwinkles within their intertidal habitat and laboratory experiments to test the effect of salinity showed that the concentration of uric acid in the kidney is adaptable. The dependence of uric acid concentration in the kidney on environmental conditions and the ammoniotelic excretion of L. littorea are discussed with regard to its particular living conditions. It is suggested that uric acid serves as nitrogen depot and has a particular function in osmoregulation.
NASA Astrophysics Data System (ADS)
Pell, Wolfgang
Energie wird zum Gebrauchsgegenstand, zur Commodity und rückt doch in den Blickpunkt der Aufmerksamkeit. Volkswirtschaftliche, politische, gesellschaftliche und betriebswirtschaftliche Ansprüche lassen Services rund um die Energieversorgung (Energy-related Services) entstehen. Convenience Services, die den Ansprüchen der Konsumenten gerecht werden, wie Visualisierung von (dezentraler) Energieerzeugung und -verbrauch auf Basis digitaler Smart Meter, die den analogen Ferraris-Zähler ersetzen, sowie optimierter Energieeinsatz halten in Haushalten als digitalisierten Standorten (Smart Sites) Einzug. Energieoptimierung auf Basis des Paradigmas "Verbrauch folgt Erzeugung" stellt Nachfrageflexibilität industrieller Prozesse (Demand Response) als Energie-Effizienz-Faktor in den Vordergrund und lässt Services wie ihre Vermarktung als Regelenergie zur Stabilisierung der Netzfrequenz entstehen. Ein Innovation Action Plan liefert einen Ausblick, wohin die Integration neuer Technologien, die Steigerung der Kundennähe und die Entwicklung neuer Geschäftsmodelle die Energiewirtschaft führen kann. Mit Eco-Home und Power-Pool werden zwei konkrete Beispiele für Energy as a Service vorgestellt.
NASA Astrophysics Data System (ADS)
Lenke, Nils; Roudet, Nicolas
Until now, Philipp Feselius has been perceived only indirectly as Kepler's antagonist. Not much is known about his life besides his work as Baden private physician and his book against astrology which was cited intensely in Kepler's «Tertius Interveniens». This paper traces the stations of his career as a physician, about his presumable provenance and education in Strasbourg, his academic career in Tübingen, Strasbourg, Rostock and Padua, the doctorate in Basel in 1592, up to his employment, in 1599, as a court physician in Sulzburg and later in Durlach. Further hand-written and printed traces of Feselius are presented, and his social environment is investigated so that his personality becomes clearer, and relations can be established between his education and his writing against astrology.
Vom Big Business zum Smart Business in der Energiewirtschaft
NASA Astrophysics Data System (ADS)
Klaus, Jürgen; Anthonijsz, Jos
Kaum eine Branche hat in den letzten zehn Jahren einen tiefgreifenderen Wandel erfahren als die Energiewirtschaft. Einstmals geprägt durch Großkonzerne, die flächendeckend alle Formen von Energiedienstleistungen erbracht haben, stellt sich heute eine gänzlich veränderte Landschaft dar. Nicht nur das es heute eine Vielzahl von Erzeugern gibt, die zunehmend dezentral aufgestellt sind, auch die klassischen Marktrollen wechseln: Erzeuger werden zu Händlern, Verbraucher werden zu Erzeugern. Darüber hinaus drängen heute neue, vormals branchenfremde, Marktteilnehmer in die Energiewirtschaft. Leicht nachzuvollziehen, dass es eine neue Art der Kommunikation braucht. Ziel ist alle Akteure zu vernetzen, um so neuartige Geschäftsmodelle zu ermöglichen. Das Internet of Things (IoT) und die Serviceplattformen bieten hierzu die geeignete Grundlage und Lösungen für neue und zukünftige Prozesse in der Energiebranche. Hierbei stehen auch Themen, wie Big Data, Datenformate, Datennutzung und -sicherheit im Fokus.
NASA Astrophysics Data System (ADS)
Elsässer, Hans
Die Aktivität von Galaxien ist eine relativ seltene und offenbar kurzlebige Erscheinung, die sich vor allem durch eine verstärkte Abstrahlung, oft über das ganze Spektrum hinweg, vom Röntgen- bis zum Radiobereich, bemerkbar macht. Dabei wird auf neue Befunde an Infrarotgalaxien eingegangen, die dafür sprechen, daß die gravitative Wechselwirkung zwischen Galaxien eine wesentliche Rolle spielt. Das Buch ist eine zusammenfassende Darstellung des heutigen Kenntnisstandes über "Aktive Galaxien", ein Thema, das gegenwärtig im Zentrum des astronomischen Interesses und der aktuellen Forschung steht. Nach einem Überblick über die seit längerem bekannten Phänomene und die Probleme ihrer Deutung wird auf neue, am Max-Planck-Institut für Astronomie mit den Teleskopen der Calar Alto Sternwarte (Südspanien) gewonnene, Ergebnisse eingegangen.
[Altered hip muscle activation in patients with chronic non-specific low back pain].
Nötzel, D; Puta, C; Wagner, H; Anders, C; Petrovich, A; Gabriel, H H W
2011-04-01
The aim of this study was to examine postural control in patients with chronic non-specific low back pain (CNRS). Furthermore the influence of visual information (eyes open versus eyes closed) was analyzed. A total of 8 patients with CNRS and 12 healthy control subjects were examined. Surface electromyography (SEMG) recordings were made from 5 trunk and 5 lower limb muscles as well as one hip muscle during application of distal lateral perturbation. Healthy controls (mean ± standard deviation: 96.42±64.77 µV) showed a significantly higher maximum amplitude of the gluteus medius muscle in comparison to patients with CNRS (56.29±39.63 µV). Furthermore activation of several lower limb muscles was found to be dependent on visual information. Patients showed an altered reflex response of the gluteus medius muscle which could be associated with reduced hip stability. © Deutsche Gesellschaft zum Studium des Schmerzes
NASA Astrophysics Data System (ADS)
Rückert, G.
1984-03-01
Representatives of the family Myxococcaceae, Myxococcus fulvus and M. virescens as well as Archangium gephyra could be isolated from marine sediments (depth range 5 58 m), collected near the island of Helgoland (North Sea); dunes and rudiments of salt marshes additionally yielded M. coralloides and the rare species Melittangium licenicola and M. boletus (Cystobacteriaceae). In soil samples from the island, M. fulvus, M. virescens, M. coralloides, A. gephyra, Cystobacter fuscus and Stigmatella erecta were found. These results were confirmed by data, obtained from the coastal zone of the island of Amrum and marine sediments from various regions. On the other hand samples from shallow fresh water (depth range 0.3 1 m) proved to be richer in species. It is assumed that the myxobacteria found in marine sediments occur as resting cells.
Digitalisierung als Inkubator für die Energieversorgung von morgen
NASA Astrophysics Data System (ADS)
Arnold, Christian; Postina, Matthias
Neue Treiber der Digitalisierung bestimmen die Geschicke der etablierten Unternehmen im Energiebereich, dabei haben diese in vielen Fällen noch nicht einmal adäquat auf die altbekannten Treiber der Energiewende reagiert. Eine ganze Branche ist im Umbruch, alte Erlösmodelle brechen ein und Einigkeit scheint bei den Verantwortlichen nur in der Frage zu herrschen, wie in Zukunft noch Geld verdient werden kann. Dieser Beitrag erklärt die prägenden Treiber der Veränderung, analysiert die Ausgangslage und nennt Herausforderungen der Branche. Darüber hinaus legt er den Fokus auf die Betrachtung der neuen digitalen Wertschöpfung. Dazu wird ein Modell eingeführt, welches von der klassischen Wertschöpfungskette über datenbasierte Geschäftsmodelle im Energiesystem bis hin zum Internet of Smart Services reicht. Mit dem Modell geben die Autoren gleichsam Einblick in das geplante Energiewendeprojekt enera.
Effects of anisotropy in permeability on the two-phase flow and heat transfer in a porous cavity
NASA Astrophysics Data System (ADS)
Zhang, X. L.; Nguyen, T. Hung; Kahawita, R.
Zusammenfassung In der Arbeit wird über die Ergebnisse einer numerischen Studie, betreffend die stationäre Konvektionsströmung und den stationären Wärmeübergang in einer rechteckigen, mit einem porösen, phasenveränderlichen Medium (PCM) verfüllten Kavität, berichtet. Den zwei vertikalen Berandungen der Kavität sind zwei, den Schmelzpunkt des PCM einschließende Temperaturen aufgeprägt, während die beiden horizontalen Berandungen adiabat gehalten werden. Das poröse Medium ist durch einen anisotropen Permeabilitätstensor charakterisiert, dessen Hauptachsen bezüglich des Gravitationsvektors beliebig orientiert sein können. Das Problem ist durch das Seitenverhältnis A, die Rayleigh-Zahl Ra, das Anisotropienverhältnis R und den Orientierungswinkel Θ des Permeabilitätstensor bestimmt. Hauptaugenmerk gilt dem Einfluß der anisotropen Permeabilität auf das Strömungsverhalten und den Wärme-übergang beim Phasenwechselprozeß flüssig/fest. Die Lösungsmethode basiert auf dem Kontrollvolumenprinzip in Verbindung mit der Landau-Transformation über welche das irreguläre Strömungsgebiet in ein rechteckiges abgebildet wird. Ergebnisse bezüglich Strömungsfeld, Temperaturverteilung, Phasengrenzenort und Wärmeübergang werden fürA=2,5Ra=40 0<=Θ<=π 0,25<=R<=4 mitgeteilt. Es zeigte sich, daß der Gleichgewichtszustand des Phasenwechselsprozesses fest/flüssig sowohl durch das Anisotropieverhältnis R als auch durch den Orientierungswinkel Θ des Permeabilitätstensors wesentlich beeinflußt werden kann. Zum einen existiert bei festgehaltenen ParameternA, Ra undR eine optimale Orientierung Θmax, bei der die Stromstärke, das Flüssigkeitsvolumen und der Wärmestrom Maximalwerte erreichen, während für Θmin=Θmax+π/2 Minimalwerte resultieren. Ist das anisotrope Medium entlang der Optimalrichtung Θmax orientiert, so ergibt sich zum anderen, daß eine Vergrößerung der in diese Richtung fallenden Permeabilitätskomponente die Stromstärke und den Wärmestrom in gleichem Maße erhöht, während eine Vergrößerung der anderen Permeabilitätskomponente nur vernachlässigbaren Einfluß hat. In den untersuchten Parameterbereichen lag die Optimalrichtung zwischen dem Gravitationsvektor und der Hauptstromrichtung.
Magnetic jets from accretion disks : field structure and X-ray emission
NASA Astrophysics Data System (ADS)
Memola, Elisabetta
2002-06-01
Jets are highly collimated flows of matter. They are present in a large variety of astrophysical sources: young stars, stellar mass black holes (microquasars), galaxies with an active nucleus (AGN) and presumably also intense flashes of gamma-rays. In particular, the jets of microquasars, powered by accretion disks, are probably small-scale versions of the outflows from AGN. Beside observations of astrophysical jet sources, also theoretical considerations have shown that magnetic fields play an important role in jet formation, acceleration and collimation. Collimated jets seem to be systematically associated with the presence of an accretion disk around a star or a collapsed object. If the central object is a black hole, the surrounding accretion disk is the only possible location for a magnetic field generation. We are interested in the formation process of highly relativistic jets as observed from microquasars and AGN. We theoretically investigate the jet collimation region, whose physical dimensions are extremely tiny even compared to radio telescopes spatial resolution. Thus, for most of the jet sources, global theoretical models are, at the moment, the only possibility to gain information about the physical processes in the innermost jet region. For the first time, we determine the global two-dimensional field structure of stationary, axisymmetric, relativistic, strongly magnetized (force-free) jets collimating into an asymptotically cylindrical jet (taken as boundary condition) and anchored into a differentially rotating accretion disk. This approach allows for a direct connection between the accretion disk and the asymptotic collimated jet. Therefore, assuming that the foot points of the field lines are rotating with Keplerian speed, we are able to achieve a direct scaling of the jet magnetosphere in terms of the size of the central object. We find a close compatibility between the results of our model and radio observations of the M87 galaxy innermost jet. We also calculate the X-ray emission in the energy range 0.2--10.1,keV from a microquasar relativistic jet close to its source of 5 solar masses. In order to do it, we apply the jet flow parameters (densities, velocities, temperatures of each volume element along the collimating jet) derived in the literature from the relativistic magnetohydrodynamic equations. We obtain theoretical thermal X-ray spectra of the innermost jet as composition of the spectral contributions of the single volume elements along the jet. Since relativistic effects as Doppler shift and Doppler boosting due to the motion of jets toward us might be important, we investigate how the spectra are affected by them considering different inclinations of the line of sight to the jet axis. Emission lines of highly ionized iron are clearly visible in our spectra, probably also observed in the Galactic microquasars GRS 1915+105 and XTE J1748-288. The Doppler shift of the emission lines is always evident. Due to the chosen geometry of the magnetohydrodynamic jet, the inner X-ray emitting part is not yet collimated. Ergo, depending on the viewing angle, the Doppler boosting does not play a major role in the total spectra. This is the first time that X-ray spectra have been calculated from the numerical solution of a magnetohydrodynamic jet. Astrophysikalische Jets sind stark kollimierte Materieströmungen hoher Geschwindigkeit. Sie stehen im Zusammenhang mit einer Fülle verschiedener astrophysikalischer Objekte wie jungen Sternen, stellaren schwarzen Löchern ('Mikro-Quasare'), Galaxien mit aktivem Kern (AGN) und wahrscheinlich auch mit dem beobachteten intensiven Aufblitzen von Gamma-Strahlung (Gamma Ray Bursts). Insbesondere hat sich gezeigt, dass die Jets der Mikro-Quasare wahrscheinlich als kleinskalige Version der Jets der AGN anzusehen sind. Neben den Beobachtungen haben vor allem auch theoretische Überlegungen gezeigt, dass Magnetfelder bei der Jetentstehung, -beschleunigung und -kollimation eine wichtige Rolle spielen. Weiterhin scheinen Jets systematisch verknüpft zu sein mit dem Vorhandensein einer Akkretionsscheibe um das zentrale Objekt. Insbesondere wenn ein schwarzes Loch den Zentralkörper darstellt, ist die umgebende Akkretionsscheibe der einzig mögliche Ort um Magnetfeld erzeugen zu können. Wir sind speziell interessiert am Entstehungsprozess hoch relativistischer Jets wie sie bei Mikro-Quasaren und AGN beobachtet werden. Insbesondere untersuchen wir die Region, in der der Jet kollimiert, eine Region, deren räumliche Ausdehnung extrem klein ist selbst im Vergleich zur Auflösung der Radioteleskope. Dies ist ein Grund, wieso zum heutigen Zeitpunkt für die meisten Quellen die theoretische Modellierung die einzige Möglichkeit darstellt, um Information über die physikalischen Prozesse in der innersten Region der Jetentstehung zu erhalten. Uns ist es zum ersten Mal gelungen, die globale zwei-dimensionale Magnetfeldstruktur stationärer, axialsymmetrischer, relativistischer und stark magnetisierter (kräfte-freier) Jets zu berechnen, die zum einen asymptotisch in einen zylindrischen Jet kollimieren, zum anderen aber in einer differential rotierenden Akkretionsscheibe verankert sind. Damit erlaubt dieser Ansatz eine physikalische Verkn¨upfung zwischen Akkretionsscheibe und dem asymptotischen Jet. Nimmt man also an, dass die Fupunkte der Magnetfeldlinien mit Keplergeschwindigkeit rotieren, so kann man eine direkte Skalierung der Jetmagnetosphere mit der Gröe des Zentralobjektes erhalten. Unsere Resultate zeigen eine gute Übereinstimmung zwischen unserem Modell und Beobachtungen des Jets von M87. Für das Beispiel eines relativistischen Mikroquasarjets haben wir die Röntgenemission im Bereich von 0.2-10.1 keV berechnet. Dafür haben wir in der Literatur aus den relativistischen magnetohydrodynamischen Gleichungen berechnete Jetgröen (Dichte-, Geschwindigkeits-, und Temperaturprofil) verwendet und das Spektrum für jeden Punkt entlang der Jetströmung abgeleitet. Das theoretische thermische Röntgenspektrum des innersten, heien Teils des Jets erhalten wir zusammengesetzt aus den spektralen Anteilen der einzelnen Volumenelemente entlang des Jets. Um relativistische Effekte wie Dopplerverschiebung und -verstärkung (boosting) aufgrund der Jetbewegung zu untersuchen, haben wir für verschiedene Inklinationswinkel des Jets zur Sichtlinie berechnet, wie die erhaltenen Spektren davon beeinflusst werden. Unsere Spektren zeigen deutlich die hochionisierten Eisen-Emissionslinien, die in den galaktischen Mikroquasaren GRS 1915+105 und XTE J1748-288 andeutungsweise beobachtet wurden. Eine Dopplerverschiebung dieser Linien ist in unseren Spektren deutlichzu sehen. Da die innerste, Röntgenstrahlung emittierende Region des magnetohydrodynamischen Jets allerdings noch unkollimiert ist, spielt Dopplerboosting in unseren Spektren, abhängig vom Sichtwinkel, keine groe Rolle. Mit unseren Resultaten konnte zum ersten Mal ein Röntgenspektrum gewonnen werden, das auf der numerischen Lösung eines magnetohydrodynamischen Jets beruht.
[The development of self-esteem of children in Germany between 1989 and 2009].
Schauder, Thomas
2012-01-01
While establishing new norms for the questionnaire Aussagen-Liste zum Selbstwertgefühl für Kinder und Jugendliche (ALS; Schauder, 1991, 1996, 2011) data from the year 1989 were compared to the new data from 2009. The expected differences in the areas school, leisure and family and a certain trend during puberty towards a decrease of self-esteem between the agegroups 10/11 and 12/13 could be shown for both times of examination. The difference in experiencing their self-esteem for boys and girls is not relevant anymore in 2009. Girls show higher scores today and express an equally high self-esteem as boys. Changes in the self-esteem over the period of times can be seen as follows: overall the tested children in 2009 express a higher self-esteem than in 1989. This applies to all age groups and boys and girls for all tested areas and is partly statistically very significant. Girls show the most obvious improvement in self-esteem.
Wie man Wert aus Smart Data schöpft
NASA Astrophysics Data System (ADS)
Schüller, Katharina; Fritsch, Stefan
Der vorliegende Beitrag diskutiert an einem konkreten Forschungsprojekt, wie aus den Überwachungsdaten von Photovoltaikanlagen Algorithmen entwickelt wurden, die zukünftig die automatisierte Fehlererkennung und damit eine verbesserte Betriebsführung ermöglichen können. Um von Daten zum optimierten Prozess zu gelangen, sind vier Stufen notwendig. Nach der Datenintegration folgen die Qualitätssicherung, dann die Analyse und schließlich die Umsetzung in eine betrieblich nutzbare Anwendung. Für die Entwicklung valider, praxisrelevanter Modelle stellte es sich als unumgänglich heraus, dass bereits frühzeitig die datengenerierenden Prozesse und damit auch die physikalischen Grundlagen der Anlagen nicht nur von den Prozessexperten, sondern genauso von den Data Scientists verstanden wurden: Es genügt eben nicht, Daten zu konsolidieren und in ein Analysetool zu stecken, sondern die Wertschöpfung aus Daten gelingt nur, wenn eine domänen- und kompetenzübergreifend interdisziplinäre Zusammenarbeit erfolgt, in der beide Seiten bereit sind, kontinuierlich voneinander zu lernen.
Grundwasserzufluss zum Steißlinger See und Folgen für die Wasserchemie
NASA Astrophysics Data System (ADS)
Gilfedder, Benjamin; Peiffer, Stefan; Pöschke, Franziska; Spirkaneder, Andrea
2018-06-01
Groundwater can play an important role in lake water and chemical budgets. The aim of this study was to map and quantify groundwater discharge to Lake Steißlingen, a small lake in south-west Germany, using Rn as a natural groundwater tracer. 222Rn, nutrients, temperature and oxygen concentration were measured in depth profiles and in sediment-near water samples during April and June 2016. The spatial distribution of Rn activities (max. 944 Bq m-3) showed that groundwater discharges into the middle of the lake and along the northeastern shore from springs in the hypolimnion (11-14 m depth). Based on a Rn mass-balance groundwater accounts for 70% of the total water input (GWflux = 11 l s-1) to the lake. There were significant positive correlations between methane and nitrite with Rn activity, suggesting the groundwater as a common source. Overall the inflow of groundwater causes a deterioration in lake water quality.
NASA Astrophysics Data System (ADS)
Graf, Dittmar; Soran, Haluk
Es wird eine Untersuchung vorgestellt, in der Wissen und Überzeugungen von Lehramtsstudierenden aller Fächer zum Thema Evolution an zwei Universitäten in Deutschland und der Türkei erhoben worden sind. Die Befragung wurde in Dortmund und in Ankara durchgeführt. Es stellte sich heraus, dass ausgeprägte Defizite im Verständnis der Evolutionsmechanismen herrschen. Viele Studierende, insbesondere aus der Türkei, sind nicht von der Faktizität der Evolution überzeugt. Dies gilt sowohl für Studierende mit Fach Biologie als auch für Studierende mit anderen Fächern. Näher untersucht worden sind die Faktoren, die die Überzeugungen zur Evolution beeinflussen können, was ja in Anbetracht der hohen Ablehnungsrate der Evolution von besonderem Interesse ist. Das Vertrauen in die Wissenschaft spielt hierbei eine besondere Rolle: Wer der Wissenschaft vertraut, ist auch eher von der Evolution überzeugt, als diejenigen, die skeptisch gegenüber der Wissenschaft sind.
Ein Entscheidungsmodell zur Weitergabe persönlicher Daten im Internet
NASA Astrophysics Data System (ADS)
Treiblmaier, Horst
In den vergangenen zwei Jahrzehnten wandelte sich das Internet von einer Spielwiese für technikbegeisterte Computerspezialisten zu einem vielseitig einsetzbaren weltweiten Netzwerk für Privatpersonen und Unternehmen. Maßgeblichen Anteil daran besaß die rasante Entwicklung des World Wide Web (WWW), das, durch die Möglichkeit multimediale Inhalte zu vermitteln, für einen großen Teil der Bevölkerung industrialisierter Länder zu einem wesentlichen Bestandteil des täglichen Lebens wurde. Dass diese Entwicklung noch lange nicht abgeschlossen ist, zeigt die derzeitige Diskussion zum Thema Web 2.0 bzw. 3.0. Waren es in den letzten Jahren die hohen Umsatzzuwächse im E-Commerce und multimedial gestaltete Webseiten in Kombination mit aufwändigen Applikationen, die für ständig steigende Nutzerzahlen im World Wide Web sorgten, so wird dieser Innovationsschub nunmehr durch eine Vielzahl von Anwendungen fortgesetzt, die sich durch die zunehmende Vernetzung der Nutzer untereinander auszeichnen.
Leuschner, Vincenz; Bondü, Rebecca; Allroggen, Marc; Scheithauer, Herbert
2016-01-01
Threats and announcements of homicidal violence at schools may have massive consequences like evacuations, police searches, criminal investigations, or loss of the sense of security by students, teachers, and parents. However, there is a lack of systematic studies about that phenomenon. The present article would like to contribute to closing the research gap. It presents results about the frequency and structure of threats and announcements of homicidal violence in schools in Berlin. The study is based on an official dataset from school administration reports of violent acts in Berlin schools which has been studied within the Berlin Leaking-Projekt. The sample consists of 427 threats and announcements of homicidal violence between 1996 and 2007. The study is an exceptional analysis of the phenomenon: it presents crosscutting results about frequency and characteristics of threats and the threatening students as well as results of a longitudinal analysis about the development of threats and announcements. Results show a rate of 0,3 threats and announcements per 1 000 student and year. During the observation time span a steady increase of threats and announcements – year by year, influenced by imitation effects after school shootings – has been observed.
Die Deutsche Statistische Gesellschaft in der Weimarer Republik und während der Nazidiktatur
NASA Astrophysics Data System (ADS)
Wilke, Jürgen
Nach anfänglichen Schwierigkeiten durch den 1. Weltkrieg erlangte die Deutsche Statistische Gesellschaft (DStatG) unter dem renommierten Statistiker und Vorsitzenden der DStatG, Friedrich Zahn, durch eine Vielzahl von Aktivitäten hohes Ansehen. Es gab Bestrebungen, Statistiker aus allen Arbeitsfeldern der Statistik in die DStatG zu integrieren, wobei die "Mathematische Statistik" nur zögerlich akzeptiert wurde (Konjunkturforschung, Zeitreihenanalyse). Nach der Machtübernahme 1933 durch Adolf Hitler geriet die DStatG in das Fahrwasser nationalsozialistischer Ideologie und Politik (Führerprinzip, Gleichschaltung des Vereinswesens). Damit war eine personelle Umstrukturierung in der DStatG verbunden. Politisch Missliebige und rassisch Verfolgte mussten die DStatG verlassen (Bernstein, Freudenberg, Gumbel u.a.). Unter den Statistikern gab es alle Abstufungen im Verhalten zum Regime von Ablehnung und zwangsweiser Anpassung über bereitwilliges Mitläufertum bis zu bewusster Täterschaft. Besonders die Bevölkerungsstatistik wurde durch die NS- Rassenpolitik auf lange Sicht diskreditiert. Im Rahmen von Wirtschaftsplanung und Aufrüstung wurden neue zukunftsträchtige statistische Modelle (Grünig, Bramstedt, Leisse) entwickelt.
Der Begriff mathematischer Schönheit in einer empirisch informierten Ästhetik der Mathematik
NASA Astrophysics Data System (ADS)
Müller-Hill, Eva; Spies, Susanne
Dieses Zitat des britischen Mathematikers G. H. Hardy bringt pointiert die unter praktizierenden Mathematikern, aber auch unter Philosophen der Mathematik weithin akzeptierte Ansicht zum Ausdruck, dass mathematische Schönheit eine nicht zu vernachlässigende Rolle in der mathematischen Forschungspraxis spielt und sowohl interessante ästhetiktheoretische, epistemische als auch ontologische Aspekte aufweist. Danach beeinflusst also das Verständnis dessen, was mathematische Schönheit ist, auch das Verständnis dessen, was Mathematik ist: "Was sind die Träger mathematischer Schönheit?" ist die Frage nach der Art der Gegenstände, für deren Schönheit Mathematiker sich begeistern und nach der sie streben. "Was sind die Kriterien für mathematische Schönheit?" ist die Frage nach den Kategorien, unter denen Mathematiker ihre Arbeit bewerten. Egal, ob sich das Phänomen mathematischer Schönheit als Ausnahmemerkmal oder als ständiger Begleiter mathematischen Tuns erweist - ein adäquates allgemeines Mathematikverständnis sollte dieses Phänomen berücksichtigen und bestenfalls auch erklären können.
Zuverlässigkeit digitaler Schaltungen unter Einfluss von intrinsischem Rauschen
NASA Astrophysics Data System (ADS)
Kleeberger, V. B.; Schlichtmann, U.
2011-08-01
Die kontinuierlich fortschreitende Miniaturisierung in integrierten Schaltungen führt zu einem Anstieg des intrinsischen Rauschens. Um den Einfluss von intrinsischem Rauschen auf die Zuverlässigkeit zukünftiger digitaler Schaltungen analysieren zu können, werden Methoden benötigt, die auf CAD-Verfahren wie Analogsimulation statt auf abschätzenden Berechnungen beruhen. Dieser Beitrag stellt eine neue Methode vor, die den Einfluss von intrinsischem Rauschen in digitalen Schaltungen für eine gegebene Prozesstechnologie analysieren kann. Die Amplituden von thermischen, 1/f und Schrotrauschen werden mit Hilfe eines SPICE Simulators bestimmt. Anschließend wird der Einfluss des Rauschens auf die Schaltungszuverlässigkeit durch Simulation analysiert. Zusätzlich zur Analyse werden Möglichkeiten aufgezeigt, wie die durch Rauschen hervorgerufenen Effekte im Schaltungsentwurf mit berücksichtigt werden können. Im Gegensatz zum Stand der Technik kann die vorgestellte Methode auf beliebige Logikimplementierungen und Prozesstechnologien angewendet werden. Zusätzlich wird gezeigt, dass bisherige Ansätze den Einfluss von Rauschen bis um das Vierfache überschätzen.
[Medical end-of-life decisions and assisted suicide].
Bosshard, Georg
2008-07-01
Medical end-of-life decisions that potentially shorten life (Sterbehilfe) are normally divided into four categories: Passive Sterbehilfe refers to withholding or withdrawing life-prolonging measures, indirect Sterbehilfe refers to the use of agents such as opioids or sedatives to alleviate symptoms of a terminally ill patient, assisted suicide (Suizidbeihilfe or Beihilfe zum Suizid) refers to prescribing and/or supplying a lethal drug in order to help someone to end his own life, and active euthanasia - which is illegal in any circumstances - means a doctor actively ending a patients life. In passive and indirect euthanasia, the will of a competent patient, or the presumed will of an incompetent patient respectively, is crucial. Assisted suicide is not illegal according to the Swiss Penal Code as long as there are no motives of self-interest of the individual assisting, and the individual assisted has decisional capacity. However, for doctors participating in assisted suicide, specific requirements of medical due care have to be met. What this means in the context of assisted suicide has recently been elaborated by the Swiss Federal Court of Justice.
Darwinische Kulturtheorie - Evolutionistische und "evolutionistische`` Theorien sozialen Wandels
NASA Astrophysics Data System (ADS)
Antweiler, Christoph
Evolutionistische Argumentationen außerhalb der Biologie sind weit verbreitet. Wenn sie vertreten werden, heißt das mitnichten, dass sie notwendigerweise von darwinischen Argumenten geprägt sind. Wenn man Evolution und Kultur aus explizit darwinischer Perspektive zusammen bringt, bedeutet das noch lange nicht unbedingt Soziobiologie. Und es bedeutet sicherlich nicht Sozialdarwinismus. Dieser Beitrag soll einen Überblick der so genannten evolutionären Ansätze bzw. evolutionistischen Ansätze zu menschlichen Gesellschaften bzw. Kulturen geben. Es soll gezeigt werden, was in den Ansätzen analytisch zu trennen ist und was synthetisch zusammen gehört. Mein Beitrag ist nicht wissenschaftsgeschichtlich angelegt, sondern systematisch ausgerichtet und hat zwei Schwerpunkte (Antweiler 2008; Antweiler 2009b). Zum einen geht es um kausale Zusammenhänge von organischer Evolution und gesellschaftlichem Wandel. Auf der anderen Seite werden Analogien zwischen biotischer und kultureller Evolution erläutert, die als spezifische Ähnlichkeiten dieser beiden als grundsätzlich verschieden gesehenen Prozesse aufgefasst werden. Dadurch wird die Frage aufgeworfen, ob die Evolution von Organismen einerseits und die Transformation von Gesellschaften bzw. Kulturen andererseits, spezielle Fälle eines allgemeinen Modells von Evolution darstellen.
Einfluss des Internets auf das Informations-, Einkaufs- und Verkehrsverhalten
NASA Astrophysics Data System (ADS)
Nerlich, Mark R.; Schiffner, Felix; Vogt, Walter
Mit Daten aus eigenen Erhebungen können das einkaufsbezogene Informations- und Einkaufsverhalten im Zusammenhang mit den verkehrlichen Aspekten (Distanzen, Verkehrsmittel, Wegekopplungen) dargestellt werden. Die Differenzierung in die drei Produktkategorien des täglichen, mittelfristigen und des langfristigen Bedarfs berücksichtigt in erster Linie die Wertigkeit eines Gutes, die seine Erwerbshäufigkeit unmittelbar bestimmt. Der Einsatz moderner IKT wie das Internet eröffnet dem Endverbraucher neue Möglichkeiten bei Information und Einkauf. Die verkehrliche Relevanz von Online-Shopping wird deutlich, wenn man berücksichtigt, dass im Mittel rund 17% aller Online-Einkäufe, die die Probanden durchgeführt haben, Einkäufe in Ladengeschäften ersetzen. Dies gilt in verstärktem Maße für Online-Informationen: etwa die Hälfte hätte alternativ im stationären Einzelhandel stattgefunden. Da der Erwerb von Gütern des täglichen Bedarfs häufig nahräumlich und in relevantem Anteil nicht-motorisiert erfolgen kann, sind in diesem Segment - im Gegensatz zum mittel- und langfristigen Bedarf - nur geringe Substitutionseffekte zu beobachten.
NASA Astrophysics Data System (ADS)
Doleski, Oliver D.
Die Energiewirtschaft benötigt neue, digitale Geschäftsmodelle. Gegenwärtig folgt auf Liberalisierung und Energiewende die nächste Stufe einer weitreichenden Bereinigung des Versorgungsmarktes. Digitalisierung und Dezentralisierung sind heute in aller Munde und verlangen nach neuen Produkten und Dienstleistungen. Dabei wirken die immensen Herausforderungen einer digitalen Energiewelt wie Beschleuniger für die Transformation im Versorgungssektor und tragen damit zur breiten Etablierung von Utilities 4.0 bei. Dieser Entwicklungsprozess vollzieht sich mithilfe unterschiedlicher Methoden zur Realisierung neuer Geschäftsideen. Allerdings greifen die gängigen Konzepte zur Entwicklung von Geschäftsmodellen gerade im Hinblick auf die Berücksichtigung komplexer, unbeständiger Rahmenbedingungen und spezifischer Anforderungen der digitalen Energiewelt mitunter zu kurz. Vor diesem Hintergrund wird das auf dem ganzheitlichen St. Galler Management-Konzept beruhende Integrierte Geschäftsmodell iOcTen als geeignetes Instrumentarium zur Geschäftsmodellentwicklung vorgestellt. Neben der Modellbeschreibung unterstützt ein intuitiv verständlicher Leitfaden den Praktiker bei der Transformation vom klassischen Versorgungsunternehmen zum digitalen Energiedienstleistungsunternehmen.
FORS am Very Large Telescope der Europäischen Südsternwarte
NASA Astrophysics Data System (ADS)
1998-09-01
Erstes wissenschaftliches Beobachtungsinstrument liefert eindrucksvolle Bilder Entsprechend dem straffen Zeitplan wird das ESO Very Large Teleskop Projekt (VLT-Projekt) auf dem Cerro Paranal in Nord-Chile verwirklicht: die volle Betriebsbereitschaft des ersten der vier 8,2m-Einzelteleskope wird Anfang des nächsten Jahres erreicht sein. Am 15. September 1998 wurde ein weiterer wichtiger Meilenstein erfolgreich, rechtzeitig und innerhalb des Kostenplans erreicht. Nur wenige Tage nach seiner Montage am ersten 8,2m-Einzelteleskop des VLT (UT1) konnte FORS1 ( FO cal R educer and S pectrograph) als erstes einer Gruppe leistungsfähiger und komplexer wissenschaftlicher Instrumente seine Beobachtungstätigkeit beginnen. Von Anfang an konnte es eine Reihe exzellenter astronomischer Bilder aufnehmen. Dieses bedeutende Ereignis eröffnet eine Fülle neuer Möglichkeiten für die europäische Astronomie. FORS - ein Höhepunkt an Komplexität FORS1 und das zukünftige Zwillingsinstrument (FORS2) sind das Ergebnis einer der eingehendsten und fortschrittlichsten technologischen Studien, die je für ein Instrument der bodengebundenen Astronomie durchgeführt wurden. Dieses einzigartige Instrument ist nun im Cassegrain-Fokus installiert und verschwindet beinahe, trotz seiner Dimensionen von 3 x 1.5m (Gewicht 2.3t), unterhalb des riesigen 53 m 2 großen Zerodurspiegels. Um die große Spiegelfläche und die hervorragende Bildqualität von UT1 optimal auszunützen, wurde FORS speziell so konstruiert, daß es die lichtschwächsten und entferntesten Objekte im Weltall untersuchen kann. Bald wird dieses komplexe VLT-Instrument den europäischen Astronomen erlauben, die derzeitigen Beobachtungshorizonte entscheidend zu erweitern. Die beiden FORS-Instrumente sind Vielzweck-Beobachtungsinstrumente, die in mehreren unterschiedlichen Beobachtungsarten eingesetzt werden können. Beispielsweise können Bilder mit zwei verschiedenen Abbildungsmaßstäben (Vergrößerungen) sowie Spektren mit unterschiedlicher spektraler Auflösung von einzelnen oder mehreren Objekten aufgenommen werden. Dabei erlaubt der schnelle Wechsel zwischen den unterschiedlichen Beobachtungsarten z.B. zunächst die Aufnahme und direkt anschließend die Spektroskopie weit entfernter Galaxien. Damit kann dann u.a. die stellare Zusammensetzung und die Entfernung bestimmt werden. Als eines der leistungsfähigsten astronomischen Instrumente seiner Art wird FORS1 ein wahres Arbeitspferd für die Untersuchung des fernen Universums darstellen. Der Bau von FORS Das FORS-Projekt wird unter ESO-Kontrakt von einem Konsortium dreier deutscher astronomischer Institute durchgeführt, der Landessternwarte Heidelberg und den Universitäts-Sternwarten von Göttingen and München. Bis zur Beendigung des Projekts werden die beteiligten Institute Arbeit im Umfang von ca. 180 Mann-Jahren eingebracht haben. Bei der Landessternwarte Heidelberg lag die Leitung des Projekts. Hier wurde außerdem das gesamte optische System konstruiert, die Beschaffung der Komponenten der abbildenden Optik und der Zusatzoptiken für Spektroskopie und Polarimetrie durchgeführt und die spezielle Computersoftware geschrieben, mit der die von FORS gelieferten Daten verarbeitet und ausgewertet werden. Darüber hinaus wurde in der Werkstatt der Sternwarte ein Teleskopsimulator gebaut, mit dem alle wesentlichen Funktionen von FORS in Europa getestet werden konnten, bevor das Instrument zum Paranal (Chile) transportiert wurde. An der Universitäts-Sternwarte Göttingen wurden Konstruktion, Herstellung und Zusammenbau der gesamten Mechanik von FORS durchgeführt. Der größte Teil der Präzisionsteile, insbesondere der Multispalteinheit, wurde in der feinmechanischen Werkstatt der Sternwarte hergestellt. Die Beschaffung der großen Instrumentengehäuse und Flansche, die Computeranalysen für mechanische und thermische Stabilität des empfindlichen Spektrographen und die Herstellung der speziellen Werkzeuge für Handhabung, Wartung und Justierung lag ebenso in der Verantwortung dieser Sternwarte wie die Tests der zahlreichen opto- und elektromechanischen Funktionen. Die Universitäts-Sternwarte München war verantwortlich für das Projektmanagement, Integration und Test des gesamten Instruments im Labor, für Planung und Einbau aller Elektronik und Elektromechanik, sowie für Entwicklung und Test der gesamten Software, die FORS in allen Teilen vollständig per Computer steuert (z.B. Filter- und Grismräder, Verschlüsse, Spalteinheit für die Vielspaltspektroskopie, Masken, alle optischen Komponenten, Elektromotoren, Encoder usw.). Zusätzlich wurde Computersoftware geschrieben, mit der die komplexen astronomischen Beobachtungen mit FORS vorbereitet werden und das Verhalten des Instruments durch eine ständige Kontrolle der gesammelten wissenschaftlichen Daten überwacht wird. Als Gegenleistung für den Bau von FORS erhalten die Astronomen der drei beteiligten Institute des FORS-Konsortiums eine gewisse Anzahl von Nächten an "garantierter Beobachtungszeit" am VLT. In dieser Beobachtungszeit werden verschiedene Forschungsprojekte durchgeführt, deren Themen unter anderem von kleinen Körpern im äußeren Sonnensystem über Untersuchungen von Sternen im Endstadium und den von ihnen abgestoßenen Gaswolken bis zur Erforschung ferner Galaxien und Quasare reichen, die Aufschluß über die frühen Zeiten unseres Universums geben. Erste Tests von FORS1 am VLT-UT1: ein großartiger Erfolg Nach sorgfältiger Vorbereitung hat das FORS-Konsortium nun mit der Inbetriebnahme ("Commissioning") des Instruments begonnen. Dazu gehören ein eingehender Nachweis der spezifizierten Leistungsfähigkeit am Teleskop, die Überprüfung der korrekten Funktionsweise unter Softwaresteuerung vom Kontrollraum auf Paranal, und am Ende dieses Prozesses eine Demonstration, daß das Instrument seinen angestrebten wissenschaftlichen Zweck erfüllt. Während der Durchführung dieser Tests gelangen dem Commissioning-Team auf Paranal eine Reihe von Aufnahmen verschiedener astronomischer Objekte, von denen einige hier wiedergegeben sind. Sie wurden alle mit FORS in der Standardauflösung gewonnen (Bildfeldgröße 6.8 x 6.8 Bogenminuten, Pixelgröße 0.20 Bogensekunden) und zeigen einige der eindrucksvollen Möglichkeiten, die das neue Instrument bietet. Spiralgalaxie NGC 1288 ESO PR Photo 37a/98 ESO PR Photo 37a/98 [Preview - JPEG: 800 x 908 pix - 224k] [High-Res - JPEG: 3000 x 3406 pix - 1.5Mb] Farbaufnahme der Spiralgalaxie NGC 1288, aufgenommen in der ersten Beobachtungsnacht von FORS ("Nacht des ersten Lichts"). Das erste Photo zeigt eine Dreifarbenaufnahme der schönen Spiralgalaxie NGC 1288 im südlichen Sternbild Fornax. PR Photo 37a/98 umfaßt das gesamte Feld, das mit der 2048 x 2048 Pixel großen CCD-Kamera abgebildet wurde. Es wurde aus drei CCD-Aufnahmen zusammengesetzt, die bei gutem Seeing in verschiedenen Farben in der "Nacht des ersten Lichts" (15. September 1998) aufgenommen wurden. Diese Galaxie mit einem Durchmesser von rund 200000 Lichtjahren ist etwa 300 Millionen Lichtjahre entfernt, ihre Fluchtgeschwindigkeit beträgt 4500 km/sec. Technische Informationen : Photo 37a/98 ist ein Komposit von drei Aufnahmen in den drei Filtern B (420nm, 6 Minuten belichtet), V (530nm, 3 Minuten) und I (800nm, 3 Minuten) während einer Periode mit 0.7 Bogensekunden Seeing. Das gezeigte Feld ist 6.8 x 6.8 Bogenminuten groß. Norden ist links, Osten unten. Entfernter Galaxienhaufen ESO PR Photo 37b/98 ESO PR Photo 37b/98 [Preview - JPEG: 657 x 800 pix - 248k] [High-Res - JPEG: 2465 x 3000 pix - 1.9Mb] Ein ungewöhnlicher Galaxienhaufen in der Umgebung des Quasars PB5763 . ESO PR Photo 37c/98 ESO PR Photo 37c/98 [Preview - JPEG: 670 x 800 pix - 272k] [High-Res - JPEG: 2512 x 3000 pix - 1.9Mb] Vergrößerung von PR Photo 37b/98; sie zeigt mehr Einzelheiten des ungewöhnlichen Galaxienhaufens. Die nächsten Photos wurden von einer 5-minütigen Aufnahme im Nahen Infrarot reproduziert, die ebenfalls in der "Nacht des ersten Lichts" von FORS1 (15. September 1998) gewonnen wurde. PR Photo 37b/98 zeigt einen Himmelsausschnitt in der Nähe des Quasars PB5763, in dem auch ein ungewöhnlicher, sehr weit entfernter Haufen von Galaxien zu sehen ist. Er besteht aus einer großen Zahl lichtschwacher Galaxien, die bisher noch nicht eingehend untersucht wurden. Dieser Haufen ist ein gutes Beispiel für die Art von Objekten, auf die viel Beobachtungszeit mit FORS verwendet werden wird, sobald der reguläre Beobachtungsbetrieb begonnen hat. Eine Vergrößerung des gleichen Feldes ist in PR Photo 37c/98 wiedergegeben. Sie zeigt die einzelnen Mitglieder dieses Galaxienhaufens im Detail. Man beachte besonders die interessante spindelförmige Galaxie, die anscheinend einen äquatorialen Ring aufweist. Neben einer schönen Spiralgalaxie sind auch noch viele weitere lichtschwache Galaxien zu erkennen. Sie sind entweder Zwerggalaxien und Mitglieder des Haufens oder befinden sich sehr viel weiter entfernt im Hintergrund des Haufens. Technische Informationen : PR Photos 37b/98 (als Negativ reproduziert) und 37c/98 (Positiv) stammen von einer Aufnahme, die bei 0.8 Bogensekunden Seeing durch ein I-Filter (nahes Infrarot, 800nm) gewonnen wurde. Die Belichtungszeit betrug 5 Minuten, und es wurde eine Flatfield-Korrektur durchgeführt. Das gezeigte Feld ist 6.8 x 6.8 Bogenminuten bzw. 2.5 x 2.3 Bogenminuten groß. Norden ist links oben, Osten links unten. Spiralgalaxie NGC 1232 ESO PR Photo 37d/98 ESO PR Photo 37d/98 [Preview - JPEG: 800 x 912 pix - 760k] [High-Res - JPEG: 3000 x 3420 pix - 5.7Mb] Ein Farbbild der Spiralgalaxie NGC 1232, aufgenommen am 21. September 1998. ESO PR Photo 37e/98 ESO PR Photo 37e/98 [Preview - JPEG: 800 x 961 pix - 480k] [High-Res - JPEG: 3000 x 3602 pix - 3.5Mb] Vergrößerung des Zentrums von PR Photo 37d/98. Dieses spektakuläre Bild der großen Spiralgalaxie NGC 1232 (Photo 37d/98) wurde am 21. September 1998 unter guten Beobachtungsbedingungen erhalten. Es wurde aus drei Einzelaufnahmen im ultravioletten, blauen und roten Licht zusammengesetzt. Die Farben der verschiedenen Regionen sind deutlich sichtbar: Das Zentralgebiet enthält ältere, rötlich leuchtende Sterne (Photo 37e/98), während die Spiralarme von jungen, bläulichen Sternen und roten Sternentstehungsgebieten bevölkert sind. Man beachte die gestörte Begleitgalaxie am linken Rand (Photo 37d/98), die wie der griechische Buchstabe "Theta" aussieht. NGC 1232 liegt 20 Grad südlich des Himmelsäquators im Sternbild Eridanus. Obwohl die Entfernung dieser Galaxie ungefähr 100 Millionen Lichtjahre beträgt, kann man auf Grund der exzellenten Bildqualität einen unglaublichen Reichtum an Details erkennen. Bei dieser Entfernung entspricht die Kantenlänge des Bildfeldes etwa 200000 Lichtjahren oder etwa der doppelten Größe unserer Milchstraße. Technische Informationen : Photos 37d/98 und 37e/98 sind ein Komposit von drei Aufnahmen in den drei Filtern U (360nm, 10 Minuten belichtet), B (420nm, 6 Minuten) und R (600nm, 2 Minuten 30 Sekunden) während einer Periode mit 0.7 Bogensekunden Seeing. Das gezeigte Feld ist 6.8 x 6.8 Bogenminuten bzw. 1.6 x 1.8 Bogenminuten groß. Norden ist oben, Osten links. Note: [1] Diese Pressemitteilung wird gemeinsam (auf Englisch und Deutsch) von der Europäischen Südsternwarte, der Landessternwarte Heidelberg und den Universitäts-Sternwarten Göttingen und München herausgegeben. An English Version of this Press Release is also available. Zugang zu ESO Presseinformationen ESO Presseinformationen werden im World Wide Web zur Verfügung gestellt (URL: http://www.eso.org/outreach/press-rel/). ESO Pressephotos dürfen veröffentlicht werden, wenn die Europäische Südsternwarte als Urheber genannt wird.
Czejka, Martin; Schüller, Johannes; Kletzl, Heidemarie
2017-08-25
The cytoprotective agent amifostine (AMI) is capable to protect healthy cells (contrary to tumor cells) due to higher activity of alkaline phosphatase at the membrane site of normal cells. In seven clinical trials the influence of AMI on the pharmacokinetics of different cytostatics was investigated. Preadministration of AMI increased Cmax of doxorubicin (+ 44 %, p < 0.06), epirubicin (+ 31 %, P < 0.08), mitomycin C (+ 41 %, p < 0.01) and docetaxel (+ 31 % and + 17 %, not significant). In contrary, the peak concentration of pirarubicin , the tetrahydropyranyl-prodrug of doxorubicin was decreased (- 50 %, P < 0.03), leading to an equal higher concentrationof doxorubicin in the blood . In accordance to the peak concentrations, the AUC'ast was increased by chemoprotection: doxorubicin + 53 % (p < 0.01) and epirubicin + 23 % (not significant), docetaxel + 25 % and + 31 % (not significant). AUC'ast of mitomycin C and paclitaxel seemed to be unaffected by preadministered AMI. A particular inhibition of the protein binding by AMI has been identified as one reason for higher serum concentrations of anthracycline drugs. After cytoprotection, a possible increase of the cytostatic's Serum concentrations should be taken into account for optimal dosage schedules.
NASA Astrophysics Data System (ADS)
Ha, Suk-Woo; Wintermantel, Erich
Der Aufbau des menschlichen Körpers ist derart komplex, dass die vollständige funktionelle Substitution seiner Strukturen mit künstlichen Werkstoffen und Bauteilen unwahrscheinlich ist. Die meisten heute klinisch eingesetzten Implantate ersetzen in der Regel einfache mechanische oder andere physikalische Funktionen des menschlichen Körpers, die aufgrund eines singulären Defektes im Gewebe oder als Ergebnis einer chronischen Erkrankung substituiert werden müssen. Gelenkprothesen beispielsweise übertragen Lasten, eine künstliche intraokulare Linse ermöglicht Lichttransmission und eine künstliche Arterie sorgt für die Aufrechterhaltung der Blutversorgung. Neben der Funktionserfüllung müssen die medizinisch eingesetzten Werkstoffe zusätzlich den Anforderungen der Körperverträglichkeit genügen, die die vollständige und dauerhafte Aufnahme des Implantates im Körper zum Ziel hat. Die Erkenntnisse der Werkstoffwissenschaft und deren Umsetzung in neue Produkte hat die Entwicklung und Fortschritte in der Medizin und in der Chirurgie entscheidend geprägt. Werkstoffe stehen in ihrem klinischen Einsatz als Temporärimplantate (z. B. Kathetersysteme) sowie als Langzeitimplantate (z. B. Hüftgelenksimplantate oder Herzschrittmacher) in direktem Kontakt mit den Geweben des Körpers und müssen deshalb biokompatibel sein.
Medizintechnik in der Tumororthopädie
NASA Astrophysics Data System (ADS)
Burgkart, Rainer; Gollwitzer, Hans; Holzapfel, Boris; Rudert, Maximilian; Rechl, Hans; Gradinger, Reiner
Die Behandlung der Knochentumoren unterlag in den letzten 20 Jahren einem raschen und stetigen Wandel, was zum einen auf die verbesserten Therapieerfolge durch den Einsatz von neoadjuvanten Therapieformen zurückzuführen ist, und andererseits von medizintechnischen Entwicklungen bezüglich moderner Schnittbilddiagnostik, neuer 3D Operationsplanungsverfahren wie das Rapid Prototyping und adaptiv modularer Tumorendoprothesensystemen u. a. begleitet wurde. Gerade die technischen Entwicklungen haben dazu geführt, daß im Bereich der Extremitäten und der Wirbelsäule radikalere Eingriffe durchgeführt werden können, was die lokale Tumorkontrolle wesentlich verbessert hat. In zunehmenden Maße werden deshalb nicht nur Kurzzeiterfolge sondern auch mittel- und langfristige Fortschritte bei der Behandlung der malignen Knochentumoren einschließlich der Metastasenbehandlung erreicht. Grundlage der Therapie ist dabei immer primär die Sicherung der Diagnose mittels Biopsie und die bildgebende sowie histologische Stadieneinteilung des malignen Tumors. Nach der Tumorresektion kann die Rekonstruktion biologisch oder mit Endoprothesensystemen erfolgen. Gerade die weiterentwickelten modularen Systeme führen zu guten funktionellen Ergebnissen mit langen Standzeiten und einer reduzierten Komplikationsrate. Individuell angefertigte Implantate sind vor allem im Bereich der Rekonstruktion komplexer Beckentumoren von großer klinischer Bedeutung.
The acceleration of the masculine in early-twentieth-century Berlin.
Prickett, David James
2012-01-01
In early-twentieth-century Berlin, agents of speed and industrialisation, such as the railway, contributed to the seemingly unbridled velocity of urban life. Doctors and cultural critics took an ambivalent stance toward the impact of speed and technology on the human body. Critics argued that these factors, in conjunction with sexual excess and prostitution, accelerated the sexual maturation of young men, thereby endangering ‘healthy’ male sexuality. This comparison of Hans Ostwald's socio-literary study Dunkle Winkel in Berlin (1904) with Georg Buschan's sexual education primer Vom Jüngling zum Mann (1911) queries the extent to which speed shaped the understanding of ‘the masculine’ in pre-World-War-I Germany. The essay thus examines Ostwald's and Buschan's arguments and postulates that speed in the city (Berlin) can be seen as a feminised, sexualised force that determined sex in the city. According to this reading, the homosexual urban dandy resisted the accelerated modernist urban tempo, whereas the heterosexual man and hegemonic, heteronormative masculinity yielded to speed. ‘“Das Verhältnis”’ became a fleeting, momentary alternative to stable marital relationships, which in turn contributed to the general ‘crisis’ of – and in– masculinity in early-twentieth-century Berlin.
Hidden Order as a Source of Interface Superconductivity
NASA Astrophysics Data System (ADS)
Moor, Andreas; Volkov, Anatoly; Efetov, Konstantin
2015-03-01
We propose a new mechanism of the interfacial superconductivity observed in many heterostructures composed of different materials including high-temperature superconductors. Our proposal is based on the use of the Ginzburg-Landau equations applicable to a wide class of systems. The system under consideration is assumed to have, alongside the superconducting order parameter, also another competing order that might be a charge- or spin-density wave. At certain temperatures or doping level the superconducting state is not realized (thus, ``hidden''), while the amplitude of another order parameter corresponds to a minimum of the free energy. We also assume that at an interface or at a defect, the non-superconducting order parameter is suppressed (strongly or weakly), e.g., due to an enhanced impurity scattering. The local superconductivity is shown to emerge at the interface, and the spatial dependence of the corresponding order parameter is described by the Gross-Pitaevskii equation. The quantized values of the temperature and doping levels, at which Δ (x) arises, are determined by the ``energy'' levels of the linearized Gross-Pitaevskii equation, i.e., of the Schrodinger equation. Interestingly, the local superconductivity arises even at a small suppression of the rival order. We appreciate the support from DFG via the Projekt EF 11/8-1; K. B. E. gratefully acknowledges the financial support of the Ministry of Education and Science of the Russian Federation in the framework of Increase Competitiveness Program of NUST ``MISiS.''
NASA Astrophysics Data System (ADS)
Berjozkina, S.; Sauhats, A.; Neimane, V.
2013-10-01
Introduction of new advanced electrical connections into a transmission grid reduces the capacity of existing overhead lines (OHLs). At the same time, designing & building of new OHLs and substations involves considerable technical, environmental and economical problems. The authors propose a concept of the multi-objective optimization for selection of transmission line routes, towers (their type, placement and geometry), of conductors, insulators, dampers, earthing and lightning protection systems, span lengths, etc.. The optimization is organized in five stages. At the first and second stages a search for optimum solutions is performed along with determination of the main impacting factors. The next two stages present a two-objective optimization based on Pareto's approach. At the last stage (exemplified by a case study), the probability of the restriction removal conditions is assessed, and preventive measures are identified. The presented approach uses a real line design and is intended for minimizing the total invested capital and maximizing the net present value. In the framework of this approach 20 alternatives have been elaborated, which can successfully be applied in the cases described in the paper. Elektropārvades tīklam rodas nepieciešamība pēc jauniem elektriskajiem pieslēgumiem, kas noved pie esošo gaisvadu līniju jaudas nepietiekamības. Viens no iespējamajiem pastāvošās problēmas risinājumiem ir jaunu gaisvadu līniju un apakšstacijas būvniecība. Gaisvadu līniju projektēšana ir saistīta ar ievērojamām tehniskām, vides un ekonomiskām problēmām. Darbā aprakstīta elektropārvades līnijas optimālās trases izvēles daudzkritēriju optimizācijas koncepcija, ieskaitot balstu tipa, balstu izvietojuma koordināšu, balstu ģeometrijas, vadu tipu un parametru, izolatoru tipu, vibroslāpētāju tipu, zibensaizsardzības un zemēšanas sistēmu, kā arī laidumu garumu izvēles optimizāciju. Optimizācijas uzdevums tiek organizēts piecos posmos. Pirmajā un otrajā posmā tiek meklēta optimālo risinājumu kopa, kā arī noteikti galvenie ietekmējošie faktori. Nākamie divi posmi atspoguļo divkritēriju optimizāciju, izmantojot Pareto pieeju. Pēdējā posmā, kas ilustrēts ar situācijas piemēru, tiek novērtēta ierobežojumu pārkāpumu nosacījumu rašanās varbūtība. Tiek identificēts cēlonis un tā novēršanas metodes. Atspoguļotā pieeja ir balstīta uz reālas līnijas projektēšanas piemēra ar galveno mērķi - mazināt kopējo ieguldīto kapitālu un palielināt pašreizējo neto vērtību. Iegūtie rezultāti aplūkoti šajā darbā.
„3D-augmented-reality“-Visualisierung für die navigierte Osteosynthese von Beckenfrakturen
Befrui, N.; Fischer, M.; Fuerst, B.; Lee, S.-C.; Fotouhi, J.; Weidert, S.; Johnson, A.; Euler, E.; Osgood, G.; Navab, N.; Böcker, W.
2018-01-01
Zusammenfassung Hintergrund Trotz großer Fortschritte in der Entwicklung der Hard- und Software von Navigationssystemen finden diese aufgrund ihrer vermeintlichen Komplexität, umständlichen Integration in klinische Arbeitsabläufe und fraglichen Vorteilen gegenüber konventionellen bildgebenden Verfahren bisher wenig Einsatz in den heutigen Operationssälen. Ziel der Arbeit Entwicklung einer „Augmented-reality“(AR)-Darstellung zur chirurgischen Navigation ohne Infrarot(„IR“)-Tracking-Marker und Vergleich zum konventioneller Röntgen in einem simulierten Eingriff. Material und Methoden Navigationssystem bestehend aus „Cone-beam-CT“(CBCT)-fähigem C-Bogen und „Red-green-blue-depth“(RGBD)-Kamera. Testung durch Kirschner(K)-Draht-Platzierung in Modellen unter Berücksichtigung der benötigten Zeit, der Strahlendosis und der Benutzerfreundlichkeit der Systeme. Ergebnisse Eine signifikante Reduktion der benötigten Zeit, der Röntgenbilder und der gesamten Strahlendosis bei der AR-Navigation gegenüber dem konventionellen Röntgen bei gleichbleibender Präzision. Schlussfolgerung Die AR-Navigation mithilfe der RGBD-Kamera bietet flexible und intuitive Darstellungsmöglichkeiten des Operations-situs für navigierte Osteosynthesen ohne Tracking-Marker. Hiermit ist es möglich, Operationen schneller, einfacher und mit geringerer Strahlenbelastung für Patient und OP-Personal durchzuführen. PMID:29500506
Stenting und technische Stentumgebung
NASA Astrophysics Data System (ADS)
Hoffstetter, Marc; Pfeifer, Stefan; Schratzenstaller, Thomas; Wintermantel, Erich
In hoch entwickelten Industrieländern stehen laut Weltgesundheitsorganisation (WHO) Herz-Kreislauf-Erkrankungen und speziell die Koronare Herzkrankheit (KHK) an erster Stelle der Todesursachen. In Deutschland betrug die Zahl der erfassten, an KHK erkrankten Personen ohne Berücksichtigung der Dunkelziffer allein im Jahre 2001 über 473.000. Die KHK war im Jahre 2003 mit 92.673 erfassten Todesfällen immer noch die häufigste Todesursache, obgleich in Deutschland die Häufigkeit der Koronarinterventionen zur Behandlung der KHK zwischen 1984 und 2003 um fast das 80fache von 2.809 auf 221.867 Eingriffe pro Jahr gestiegen ist [1]. Neben der hohen Zahl an Todesfällen haben die betroffenen Personen durch chronische Schmerzen und eingeschränkte körperliche Leistungsfähigkeit zusätzlich eine starke Beeinträchtigung der Lebensqualität [2].In Folge dessen wird die erkrankte Person häufig zum Pflegefall was neben den gesundheitlichen Aspekten auch eine sozioökonomische Komponente in Form der fehlenden Arbeitskraft und den auftretenden Pflegekosten nach sich zieht. Die Kosten für die Behandlung der KHK in Deutschland beliefen sich im Jahre 2002 laut Statistischem Bundesamt auf rund 6,9 Mrd. €. Verglichen mit ähnlichen Zahlen der USA dürfte sich der entstandene Schaden für die deutsche Volkswirtschaft im zwei- bis dreistelligen Milliardenbereich bewegen [3].
Ganzheitliche Digitalisierungsansätze im Stadtwerk: Von der Strategie bis zur Umsetzung
NASA Astrophysics Data System (ADS)
Dudenhausen, Roman; Hahn, Heike
Digitalisierung muss im Stadtwerk dazu führen, Kundenerwartungen, die heutzutage schon vielfach durch digitales Know-how und Erfahrungen geprägt sind, in einzigartiger Weise zu entsprechen - in Form digitaler Kundenkontaktpunkte, automatisierter Prozesse oder plattformbasierter Geschäftsmodelle. Eine große Rolle spielen dabei unternehmensweit nutzbare Informationen, die eine 360-Grad-Sicht auf den Kunden ermöglichen. Nur in dieser Kombination werden sich nachhaltig Wettbewerbsvorteile generieren lassen. Manch ein Kunde wird die Lust, einen Prozess zu Ende zu gehen, schon vor dem Abschluss verlieren, wenn er nicht unmittelbar und ohne die digitale Welt zu verlassen zum Ziel kommt. Eine nur "halb digitale Kundenerfahrung" wird weder zu Neugeschäft noch zur positiven emotionalen Bindung zwischen Kunden und Stadtwerk führen. Nicht zu unterschätzen sind zudem Erwartungen hinsichtlich zukünftiger Geschäftsmodelle, aus denen sich disruptive Bedrohungen für die herkömmlichen Strom- und Gasangebote ergeben werden. Erste innovative Ansätze finden sich bereits im Markt, die erahnen lassen, dass zurzeit viel diskutierte Technologien wie die Blockchain nicht mehr nur hypothetischer Natur sind. Die Auseinandersetzung mit der Digitalisierung erfolgt dabei sinnvollerweise in einem unternehmensweit abgestimmten Rahmen, der eine zielgerichtete und ganzheitliche Vorgehensweise ermöglicht.
A Novel Two-Step Hierarchial Quantitative Structure-Activity ...
Background: Accurate prediction of in vivo toxicity from in vitro testing is a challenging problem. Large public–private consortia have been formed with the goal of improving chemical safety assessment by the means of high-throughput screening. Methods and results: A database containing experimental cytotoxicity values for in vitro half-maximal inhibitory concentration (IC50) and in vivo rodent median lethal dose (LD50) for more than 300 chemicals was compiled by Zentralstelle zur Erfassung und Bewertung von Ersatz- und Ergaenzungsmethoden zum Tierversuch (ZEBET ; National Center for Documentation and Evaluation of Alternative Methods to Animal Experiments) . The application of conventional quantitative structure–activity relationship (QSAR) modeling approaches to predict mouse or rat acute LD50 values from chemical descriptors of ZEBET compounds yielded no statistically significant models. The analysis of these data showed no significant correlation between IC50 and LD50. However, a linear IC50 versus LD50 correlation could be established for a fraction of compounds. To capitalize on this observation, we developed a novel two-step modeling approach as follows. First, all chemicals are partitioned into two groups based on the relationship between IC50 and LD50 values: One group comprises compounds with linear IC50 versus LD50 relationships, and another group comprises the remaining compounds. Second, we built conventional binary classification QSAR models t
Werner-Syndrom. Eine prototypische Form der segmentalen Progerie
Lessel, D.; Oshima, J.; Kubisch, C.
2013-01-01
Das Werner-Syndrom ist eine segmental progeroide Erkrankung mit Beginn in der Adoleszenz oder im frühen Erwachsenenalter. Typische Symptome, die zum vorgealterten Phänotyp beitragen, sind ein post-pubertär auftretender Kleinwuchs, Katarakte, eine vorzeitige Ergrauung/Ausdünnung des Haupthaars, sklerodermieähnliche Hautveränderungen und eine regionale Atrophie des subkutanen Fettgewebes. Darüber hinaus kommt es früh und gehäuft zu „Alterserkrankungen“ wie z. B. einem Diabetes mellitus Typ 2, einer Osteoporose, einer Atherosklerose sowie verschiedenen malignen Tumoren. Das Werner-Syndrom wird autosomal- rezessiv vererbt und ist durch Mutationen im Werner-Gen (WRN) bedingt. Es wurden bis heute mehr als 70 über das gesamte Gen verteilte Mutationen identifiziert, die typischerweise zu einem Verlust der Genfunktion führen. WRN kodiert für eine RecQ-Typ- Helikase, die u. a. an der DNA-Reparatur und der Aufrechterhaltung der DNA-Integrität beteiligt ist, was sich in einer erhöhten genetischen Instabilität in Patientenzellen wider-spiegelt. Trotz der relativen Seltenheit ist die Analyse des Werner-Syndroms von allgemeiner Bedeutung, um die Rolle der DNA-Stabilität und Integrität für das Altern sowie die Entwicklung altersassoziierter Erkrankungen besser zu verstehen. PMID:25309043
2013-01-01
Background In Switzerland, people with a severe mental illness and unable to work receive disability benefits (‘IV-pension’). Once they are granted these benefits, the chances to regain competitive employment are usually small. However, previous studies have shown that individual placement and support (IPS) supports a successful reintegration into competitive employment. This study focuses on the integration of newly appointed IV-pensioners, who have received an IV-pension for less than a year. Method/design The present pilot project ZHEPP (Zürcher Eingliederungs-Pilot Projekt; engl.: Zurich integration pilot project) is a randomized controlled trial (RCT). The 250 participants will be randomized to either the intervention or the control group. The intervention group receives support of a job coach according to the approach of IPS. Participants in the control group do not receive IPS support. Participation takes a total of two years for each participant. Each group is interviewed every six months (T0-T4). A two-factor analysis of variance will be conducted with the two factors group (intervention versus control group) and outcome (employment yes/no). The main criterion of the two-factor analysis will be the number of competitive employment contracts in each group. Discussion This study will focus on the impact of IPS on new IV-pensioners and aims to identify predictors for a successful integration. Furthermore, we will examine the effect of IPS on stigma variables and recovery orientation. Trial registration ISRCTN54951166 PMID:23883137
[Recalled parental rearing and the wish to have a child - are there associations?].
Schumacher, Jörg; Stöbel-Richter, Yve; Brähler, Elmar
2002-07-01
The present study concerns the impact of recalled parental rearing behaviour on both the intensity of the wish to have a child and on different motives to have a child. Until now there are no empirical studies as to this objective. Our study is based on a representative sample of 1509 persons aged 18 to 50 years. The statistical analyses were restricted to those subjects who lived in partnership and reported an actual wish to have a child (n = 331). The data were assessed by self-reporting scales: The Questionnaire of Recalled Parental Rearing Behaviour "Fragebogen zum erinnerten elterlichen Erziehungsverhalten, FEE", the Partnership Questionnaire "Partnerschaftsfragebogen, PFB", and the Leipzig Questionnaire of Motives to Have a Child "Leipziger Fragebogen zu Kinderwunschmotiven, LKM". A recalled parental rearing behaviour, which was characterized as having been rejective, overprotective and less emotionally warm was associated with such motives which do not promote the wish to have own children (fear of personal restrictions and a low degree of social support). Simultaneously, a negative parental rearing behaviour was correlated with a stronger desire for social recognition by an own child. The recalled maternal rearing behaviour was altogether stronger associated with motives to have a child than the paternal. On the other hand, no relevant associations could be found between the recalled parental rearing behaviour and the intensity of the wish to have a child.
Lee, Sunhee; Kim, Dong Hee
2017-01-01
Abstract Return and adjustment to school in adolescents who have survived cancer have become of increasing interest as the numbers of childhood cancers survivors have grown due to advances in treatments. Perceived parental rearing behavior is an important factor related to school adjustment. This study examined the relationships between maternal and parental rearing practices, general characteristics, and school adjustment in adolescent cancer survivors in Korea. We conducted a descriptive, exploratory study of 84 adolescents with cancer using the Korean version of the Fragebogen zum erinnerten elterlichen Erziehungsverhalten: FEE (Recalled Parental Rearing Behavior) and a school adjustment measurement. Descriptive, Pearson correlational, and multiple regression analyses were used to investigate the data. In bivariate analysis, age (r = −0.358, P < .05), mother's emotional warmth (r = 0.549, P < .01), and father's emotional warmth (r = 0.391, P < .05) were significantly associated with school adjustment. However, the results of multiple regression analysis showed that only mother's emotional warmth (β = .720, P < .05) was significantly associated with school adjustment. Adolescent cancer survivors who reported higher mother's emotional warmth exhibited better school adjustment. This finding indicates that it is important to help parents of adolescent cancer survivors enhance their parental rearing behaviors, such as emotional warmth, to help adolescents adjust to school. PMID:28796068
Update zum klinischen Einsatz von Inhibitoren mutierter Phosphokinasen beim Melanom.
Cosgarea, Ioana; Ritter, Cathrin; Becker, Jürgen C; Schadendorf, Dirk; Ugurel, Selma
2017-09-01
Die Behandlungsstrategie beim metastasierten Melanom hat sich mit der Identifizierung therapeutisch angreifbarer molekularer Zielstrukturen innerhalb zellulärer Signalwege radikal geändert. Durch die Zulassung von Substanzen, die gezielt an den zentralen Schaltmolekülen, den Phosphokinasen, angreifen, können diese Signalwege selektiv abgeschaltet werden. Dies ist insbesondere bei denjenigen Tumoren von Interesse, deren Signalwege durch aktivierende Mutationen der für die Schaltmoleküle kodierenden Gene konstitutiv aktiviert sind. Aktuell ist diese therapeutische Strategie insbesondere für Patienten bedeutsam, deren Melanome eine Mutation im BRAF-Gen aufweisen. Diese Patienten können durch eine Kombinationstherapie aus Inhibitoren der Phosphokinasen BRAF und MEK langfristig mit sehr guter Krankheitskontrolle behandelt werden. Unter dieser Kombinationstherapie wird aktuell ein progressionsfreies Überleben von über zehn Monaten und ein Gesamtüberleben von mehr als zwei Jahren bei guter Lebensqualität erzielt. Da unter längerfristiger Therapie mit Kinaseinhibitoren jedoch bei einem Großteil der Patienten eine Resistenzbildung auftritt, sind aktuelle klinische Therapiestudien auf die Suche nach geeigneten Kombinationspartnern unter Blockierung anderer Signalwege oder unter Aktivierung der T-Zell-vermittelten Immunantwort ausgerichtet. Der vorliegende Übersichtsartikel stellt sowohl die aktuell verfügbaren als auch die in der klinischen Testung befindlichen zukünftigen Optionen der zielgerichteten Therapie des Melanoms dar. © 2017 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
NASA Astrophysics Data System (ADS)
Wielen, Roland; Wielen, Ute
In the archives of the Astronomisches Rechen-Institut at Heidelberg, there is an old set of 31 documents which are related to the calendar used in Prussia and which originated in the period from 1700 to 1854. The oldest document is an original print of the 'Calendar Edict' issued on 10 May 1700. In this edict, Friedrich III., Elector of Brandenburg, gave a monopoly for issuing calendars in his country to an academy which was founded slightly later. He founded at the same time an observatory in Berlin. The main task of the employed astronomers was to edit the 'Improved Calendar' which was newly introduced in his Protestant country. The Astronomisches Rechen-Institut, which was founded in Berlin and was moved to Heidelberg in 1945, considers this Calendar Edict as his foundation document too. All the other documents are handwritten, mainly letters, but also a detailed expose 'On the Calendar Issues in the Prussian State' from 1843. Two of the scripts stem from the 18th century. The remaining documents are related to the work of the Royal Prussian Calendar Deputation and were written between 1816 and 1854. In this paper we describe, commentate, and transliterate all the documents of this 'Kalender-Konvolut'.
Deutsches "Nationales Krebshilfe-Monitoring" 2015-2019 - Studienprotokoll und erste Ergebnisse.
Schneider, Sven; Görig, Tatiana; Schilling, Laura; Breitbart, Eckhard W; Greinert, Rüdiger; Diehl, Katharina
2017-09-01
Das Projekt "Nationales Krebshilfe-Monitoring zur Solariennutzung" (National Cancer Aid Monitoring of Tanning Bed Use, NCAM) ist eine deutsche Großstudie mit dem Ziel, die wichtigsten Risikofaktoren für Hautkrebs zu beobachten: natürliches Sonnenlicht und künstliche UV-Strahlung. NCAM ist eine bundesweite Querschnittstudie mit zunächst vier Runden der Datenerfassung (sogenannten Wellen) zwischen 2015 und 2018. Jedes Jahr wird eine bundesweit repräsentative Stichprobe aus 3.000 Personen im Alter von 14 bis 45 Jahren befragt. Die Querschnittsbefragung wird durch eine Kohorte von n = 450 aktuellen Solariennutzern ergänzt. Die erste Welle im Jahr 2015 ergab eine Gesamtprävalenz der Solariennutzung von 29,5 %. Elf Prozent aller Teilnehmer hatten in den vergangenen zwölf Monaten ein Solarium genutzt. Zu den Determinanten der aktuellen Solariennutzung gehörten jüngeres Alter, weibliches Geschlecht und Vollzeit-/Teilzeitbeschäftigung. Die hauptsächlichen Beweggründe, die für die Nutzung eines Solariums genannt wurden, waren Entspannung und Attraktivitätssteigerung. NCAM ist weltweit die erste Studie zur Überwachung der Risikofaktoren für Hautkrebs in jährlichen Intervallen anhand einer großen, landesweit repräsentativen Stichprobe. Erste Ergebnisse deuten darauf hin, dass Millionen Deutsche trotz Warnungen der WHO Solarien nutzen, und dass viele dieser Nutzer Jugendliche sind - trotz gesetzlicher Beschränkungen, die das Ziel haben, die Nutzung von Solarien durch Minderjährige zu verhindern. © 2017 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
NASA Astrophysics Data System (ADS)
Meyer-Aurich, Andreas
1999-11-01
Mit der vorliegenden Arbeit werden exemplarisch Chancen und Grenzen der Integration von Umwelt- und Naturschutz in Verfahren der ackerbaulichen Landnutzung aufgezeigt. Die Umsetzung von Zielen des Umwelt- und Naturschutzes in Verfahren der Landnutzung ist mit verschiedenen Schwierigkeiten verbunden. Diese liegen zum einen in der Konkretisierung der Ziele, um diese umsetzen zu können, zum anderen in vielfach unzulänglichem Wissen über den Zusammenhang zwischen unterschiedlichen Formen der Landnutzung und insbesondere den biotischen Naturschutzzielen. Zunächst wird die Problematik der Zielfestlegung und Konkretisierung erörtert. Das Umweltqualitätszielkonzept von Fürst et al. (1992) stellt einen Versuch dar, Ziele des Umwelt- und Naturschutzes zu konkretisieren. Dieses Konzept haben Heidt et al. (1997) auf einen Landschaftsausschnitt von ca. 6000 ha im Biosphärenreservat Schorfheide-Chorin im Nordosten Brandenburgs angewendet. Eine Auswahl der von Heidt et al. (1997) formulierten Umweltqualitätsziele bildet die Basis dieser Arbeit. Für die ausgewählten Umweltqualitätsziele wurden wesentliche Einflussfaktoren der Landnutzung identifiziert und ein Bewertungssystem entwickelt, mit dem die Auswirkungen von landwirtschaftlichen Anbauverfahren auf diese Umweltqualitätsziele abgebildet werden können. Die praktizierte Landnutzung von 20 Betrieben im Biosphärenreservat Schorfheide-Chorin wurde von 1994 bis 1997 hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele analysiert. Die Analyse ergab ein sehr differenziertes Bild, das zum Teil Unterschiede in der Auswirkung auf die Umweltqualitätsziele für den Anbau einzelner Kulturen oder für bestimmte Betriebstypen zeigte. Es zeigte sich aber auch, dass es bei der Gestaltung des Anbaus einzelner Kulturarten große Unterschiede gab, die für Umweltqualitätsziele Bedeutung haben. Neben der Analyse der Landnutzung im Biosphärenreservat Schorfheide-Chorin wurde ein System entwickelt, mit dem die modellhafte Abbildung von Verfahren der Landnutzung möglich ist. Die Modellverfahren wurden in eine umfangreiche Datenbank eingebunden. Sie wurden mit Hilfe eines Fuzzy- Regelsystems hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele bewertet. Die systematisch bewerteten Verfahren wurden in ein Betriebsmodell integriert, womit eine weitergehende Analyse der Zielbeziehungen und die Berechnung von Szenarien mit unterschiedlichen Rahmenbedingungen ermöglicht wurde. Die Analyse der Beziehung verschiedener Ziele zueinander (Zieldivergenz, Zielkonvergenz) zeigte, dass sich mit der Verfolgung vieler Umweltqualitätsziele auch positive Effekte für andere Umweltqualitätsziele ergaben. Teilweise konnte allerdings auch eine Zieldivergenz festgestellt werden, die auf mögliche Zielkonflikte hinweist. Bei der Analyse der Szenarienergebnisse zeigte sich, dass die vorgeschlagenen Veränderungen von Rahmenbedingungen vielfach eine Verschlechterung für verschiedene Umweltqualitätsziele mit sich bringen. Eine Ursache dafür liegt darin, dass bei der Definition der Szenarien die Bedeutung der Stilllegungen unterschätzt wurde. The objective of this research was to show the opportunities and limitations associated with integrating of environmental goals into agricultural land use management. For this purpose, the impact of agricultural land uses on six environmental quality goals was analysed for an approximately 16.000 ha study region within the biosphere reserve Schorfheide-Chorin in north-eastern Brandenburg (Germany). The environmental quality goals considered were protection of ground water, preservation of groundwater recharge, protection of the soil against wind and water erosion and preservation of animal species typical of the agricultural landscape, in particular partridge, amphibians and cranes. For each environmental quality goal, an evaluation framework is presented which enables an assessment of the impact of agricultural land uses on the environmental quality goals. The evaluation framework was applied to assess the impact of land uses of twenty farms in the study area from 1994 to 1997. It was demonstrated that the impact of agricultural land uses on the environmental quality of the region is very complex, and - although some crops did significantly impact certain aspects, one factor did not overwhelmingly contribute to the overall environmental quality. The evaluation framework was integrated further into a system of modelled cropping practices for optimisation calculations. For this purpose, a model framework was established based on a MS Access database. In the database, cropping practices for 17 crops are stored. Inputs and yields are adapted to the site-specific yield potential. In addition to the cropping practices, the model framework is comprised of an evaluation module and optimisation module. Hence, the impact of the cropping practices can be assessed for each site. This model framework provides the basis for optimisation calculations to forecast various land uses under different conditions. A step-wise integration of the environmental quality goals into the optimisation algorithm of a model farm allows for showing trade-offs between economic and ecological goals. The results of the trade-offs show that an improvement of ecological goal achievement is possible with little impact on the gross margin, as long as the improvement is less than 30% of the starting situation. If improvements greater than 30% are desired, very high losses of gross margin must be taken into consideration. Another result of the calculations shows that high achievements of environmental quality goals often correlate with the percentage of set-aside land within the total area.
RECOGNIZING INFANTS' EMOTIONAL EXPRESSIONS: ARE ADOLESCENTS LESS SENSITIVE TO INFANTS' CUES?
Niessen, Anke; Konrad, Kerstin; Dahmen, Brigitte; Herpertz-Dahlmann, Beate; Firk, Christine
2017-07-01
Previous studies have shown that adolescent mothers interact less sensitively with their infants than do adult mothers. This difference might be due to developmental difficulties in the recognition of infants' emotional states in adolescents. Therefore, the aim of the current study was to explore differences in the recognition of infant signals between nonparous adolescent girls and boys as compared to female and male adults. To this end, we examined 54 childless adolescents and 54 childless adults (50% female). Participants were shown a series of 20 short videos of infants aged 3 to 6 months presenting different emotional states ranging from very distressed to very happy. In addition, participants were asked to report their own parental experiences using the German version, Fragebogen zum erinnerten elterlichen Erziehungsverhalten (J. Schumacher, M. Eisemann, & E. Brähler, ), of the Egna Minnen Befräffande Uppfostran (Own Memories of Parental Rearing Experiences in Childhood; C. Perris, L. Jacobsson, H. Lindstrom, L. von Knorring, & H. Perris, ). Adolescents rated distressed infants as more distressed than did the adults. Furthermore, female participants rated the very distressed infants as more distressed than did male participants. These data suggest that adolescents, in general, are not impaired in recognizing infant emotional states, as compared to adults. Thus, we suggest that more extreme ratings of infant signals of discomfort together with immature sociocognitive regulation processes during adolescence might contribute to reduced sensitivity observed in adolescent mothers. © 2017 Michigan Association for Infant Mental Health.
2009-01-01
Background Parental rearing behavior is a significant etiological factor for the vulnerability of psychopathology and has been an issue of clinical research for a long time. For this scope instruments are important who asses economically recalled parental rearing behavior in a clinical practice. Therefore, a short German instrument for the assessment of the recalled parental rearing behavior Fragebogen zum erinnerten elterlichen Erziehungsverhalten (FEE) was psychometrically evaluated [Recalled Parental Rearing Behavior]. Methods This questionnaire was evaluated in a representative population sample (N = 2.948) in Germany which included 44.2% male and 55.8% female persons with a mean age of M = 47.35 (SD = 17.10, range = 18–92). For the content evaluation of the FEE the Life Satisfaction Questionnaire (FLZ) and the Inventory of Interpersonal Problems (IIP) was filled out by the participants. Results The FEE scales yielded a good to satisfactory internal consistency and split-half reliability. Its three factors (rejection/punishment, emotional warmth, control/overprotection) correlated positively with most of the areas of life satisfaction. Furthermore, positive associations between interpersonal problems and parental rejection and control could be identified. Conclusion The FEE is a short, reliable and valid instrument that can be applied in the clinical practice. In addition, the data proved an association between recalled parental rearing behavior, life satisfaction and interpersonal problems conform to the literature. Finally, specific problems with the retrospective assessment of parental rearing behavior were addressed as well. PMID:19267894
Jahn-Bassler, Karin; Bauer, Wolfgang Michael; Karlhofer, Franz; Vossen, Matthias G; Stingl, Georg
2017-01-01
Schwere Verlaufsformen der Alopecia areata (AA) im Kindesalter sind aufgrund limitierter Optionen therapeutisch herausfordernd. Systemische, hochdosierte Glukokortikoide weisen die schnellste Ansprechrate auf, nach dem Absetzen kommt es allerdings zu Rezidiven. Eine längerfristige Hochdosis-Anwendung ist aufgrund der zu erwartenden Nebenwirkungen nicht empfehlenswert. Eine dauerhafte Steroiderhaltungstherapie unterhalb der Cushing-Schwellen-Dosis nach Bolustherapie könnte die Krankheitsaktivität ohne Nebenwirkungen längerfristig unterdrücken. Im Rahmen einer offenen Anwendungsbeobachtung wurden 13 Kinder mit schweren Formen der AA in diese Studie eingeschlossen. Bei sieben Kindern lag eine AA totalis/universalis vor, bei sechs eine multifokale AA mit Befall von mehr als 50 % der Kopfhaut. Das Therapieregime sah eine initiale Prednisolon-Dosierung von 2 mg/kg Körpergeweicht (KG) vor und wurde innerhalb von neun Wochen auf eine Erhaltungsdosierung unter der individuellen Cushing-Schwelle reduziert. Der Nachbeobachtungszeitraum betrug ein bis drei Jahre. Wir beobachteten in 62 % aller Fälle ein komplettes Nachwachsen der Haare. Die mittlere Dauer bis zum Ansprechen lag bei 6,6 Wochen und konnte mit der Erhaltungstherapie über den gesamten Beobachtungszeitraum aufrechterhalten werden. An Nebenwirkungen wurden ausschließlich eine Gewichtszunahme (1-3 kg) bei allen Behandelten sowie eine milde Steroidakne in 23 % der Fälle beobachtet. Die kombinierte Hoch-/Niedrig-Dosis-Therapie mit systemischen Glukokortikoiden mittels Prednisolon zeigte eine hohe, dauerhafte Ansprechrate ohne signifikante Nebenwirkungen. © 2017 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Märtens, Diane; Range, Natasha; Günnewich, Nils; Gruber, Nicola; Schmidt, Stefan
Hintergrund: In dieser Anwendungsbeobachtung wird zum ersten Mal die Behandlung des Reizdarmsyndroms (RDS) mit einem homöopathisch-phytotherapeutischen Komplexpräparat beschrieben. Methodik: Ziel der 6-wöchigen Therapie mit dem Magen-Darm-Entoxin N® war die Reduzierung der RDS-Symptomatik sowie die Verbesserung der Lebensqualität. Zielkriterien waren die Veränderungen in der Irritable Bowel Syndrome - Severity Scoring System (IBS-SSS) und der Irritable Bowel Syndrome - Quality-of-Life Scale (IBS-QoL). Die Patient/innen (N = 41; Alter 44,0 ± 15,74 Jahre) wurden zu gleichen Teilen in einer Hausarztpraxis (N = 20) und einer Heilpraktikerpraxis (N = 21) rekrutiert. Ergebnisse: Der IBS-QoL-Score verringerte sich signifikant (prä: 35,9 ± 16,3; post: 20,1 ± 13,4; t = 8,504; p < 0,001). Die Effektstärke betrug 1,34 (Cohens d). Der IBS-SSS-Score verringerte sich ebenfalls signifikant (prä: 239,4 ± 83,4; post: 123,7 ± 80,9; t = 7,825; p < 0,001) mit einer Effektstärke von d = 1,24. Die Neben- und Wechselwirkungen waren minimal und signifikante Unterschiede zwischen beiden Praxen wurden nicht gefunden. Schlussfolgerungen: Magen-Darm-Entoxin N® ist eine sichere und sinnvolle Therapieoption bei der Behandlung des RDS. Allerdings sollten randomisierte kontrollierte Studien folgen, um die Spezifizität der Ergebnisse dieser Anwendungsbeobachtung zu stützen. © 2017 S. Karger GmbH, Freiburg.
Radiosensibilisierung durch BRAF Inhibitoren.
Strobel, Sophia Boyoung; Pätzold, Sylvie; Zimmer, Lisa; Jensen, Alexandra; Enk, Alexander; Hassel, Jessica Cecile
2017-07-01
In der letzten Zeit wurden in der Literatur vermehrt erhöhte Hauttoxizitäten während einer Kombinationstherapie mit BRAF Inhibitoren und Radiotherapie beschrieben. Wir berichten über sieben Melanompatienten in einem nicht resezierbaren Stadium III oder IV, die eine kombinierte Behandlung aus Bestrahlung und BRAF-Inhibitor erhielten. Bei allen Patienten konnte durch die Kombinationstherapie ein gutes lokales Ansprechen erreicht werden. Nur bei zwei Patienten wurde eine schwere Radiodermatitis (CTCAE Grad 3 bzw. 4) beobachtet. Bei diesen Patienten, die beide Vemurafenib erhielten, trat die Radiodermatitis nach ein bzw. zwei Wochen auf und resultierte in einer Unterbrechung der BRAF-Inhibitor Behandlung.. Die kumulative Dosis bis zum Zeitpunkt der Strahlendermatitis betrug 10 Gy bzw. 35 Gy. Bei allen anderen Vemurafenibpatienten konnten nur milde Reaktionen im Sinne einer Radiodermatitis CTCAE Grad 2, beim Dabrafenibpatienten CTCAE Grade 1 diagnostiziert werden. Bei einem Patienten wurde eine Recalldermatitis nach 14 Tagen einer beendeten Strahlentherapie mit einer kumulativen Dosis von 30 Gy diagnostiziert. Schwere Toxizitätsreaktionen der Haut unter einer BRAF-Inhibitionen treten nicht häufig auf und sind meistens gut therapierbar. Deshalb sollte die Kombinationstherapie bei aggressiv wachsenden Melanomen eine Therapieoption bleiben. Obwohl ein erhöhtes Risiko der Hauttoxizität unter einer Kombinationstherapie von Radiatio und BRAF-Inhibitoren besteht, wird diese von den meisten Patienten gut toleriert. Sequenzielle Therapie anstelle von gleichzeitiger Behandlung scheint die Toxizitätreaktionen nicht zu verhindern. © 2017 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Zu einer inhaltsorientierten Theorie des Lernens und Lehrens der biologischen Evolution
NASA Astrophysics Data System (ADS)
Wallin, Anita
Der Zweck dieser Studie (zwecks Überblick siehe dazu Abb. 9.1) war zu untersuchen, wie die Schüler der Sekundarstufe II ein Verständnis von der Theorie der biologischen Evolution entwickeln. Vom Ausgangspunkt "Vorurteile der Schüler“ ausgehend wurden Unterrichtssequenzen entwickelt und drei verschiedene Lernexperimente in einem zyklischen Prozess durchgeführt. Das Wissen der Schüler wurde vor, während und nach den Unterrichtssequenzen mit Hilfe von schriftlichen Tests, Interviews und Diskussionsrunden in kleinen Gruppen abgefragt. Etwa 80 % der Schüler hatten vor dem Unterricht alternative Vorstellungen von Evolution, und in dem Nachfolgetest erreichten circa 75 % ein wissenschaftliches Niveau. Die Argumentation der Schüler in den verschiedenen Tests wurde sorgfältig unter Rücksichtnahme auf Vorurteile, der konzeptionellen Struktur der Theorie der Evolution und den Zielen des Unterrichts analysiert. Daraus konnten Einsichten in solche Anforderungen an Lehren und Lernen gewonnen werden, die Herausforderungen an Schüler und Lehrer darstellen, wenn sie anfangen, evolutionäre Biologie zu lernen oder zu lehren. Ein wichtiges Ergebnis war, dass das Verständnis existierender Variation in einer Population der Schlüssel zum Verständnis von natürlicher Selektion ist. Die Ergebnisse sind in einer inhaltsorientierten Theorie zusammengefasst, welche aus drei verschiedenen Aspekten besteht: 1) den inhaltsspezifischen Aspekten, die einzigartig für jedes wissenschaftliche Feld sind; 2) den Aspekten, die die Natur der Wissenschaft betreffen; und 3) den allgemeinen Aspekten. Diese Theorie kann in neuen Experimenten getestet und weiter entwickelt werden.
Hoffmann, Julia; Wölfle, Ute; Schempp, Christoph M; Casetti, Federica
2016-09-01
Das Rhizom von Potentilla officinalis (PO) ist reich an Gerbstoffen und wird traditionell zur äußerlichen Behandlung von Entzündungen der Haut und der Schleimhäute verwendet. Ziel der vorliegenden Arbeit war die Bestätigung der antiinflammatorischen Eigenschaften von PO mittels eines UV-Erythem-Tests und einer klinischen Anwendungsstudie bei atopischer Haut. Die antiinflammatorische Wirkung eines PO-Extrakts (standardisiert auf 2 % Trockensubstanz) wurde in einer prospektiven, randomisierten, placebokontrollierten Doppelblindstudie mit 40 gesunden Erwachsenen im UV-Erythem-Test im Vergleich zu 1 % Hydrocortisonacetat untersucht. Im Rahmen einer prospektiven nicht kontrollierten Studie wurde die Wirkung und Verträglichkeit der 2 % PO-Creme an zwölf Erwachsenen und zwölf Kindern mit atopischer Haut nach Anwendung über zwei Wochen in einem definierten Testareal anhand eines Teil-SCORAD untersucht. Zusätzlich wurde die Beeinflussung der Hautrötung im Testareal photometrisch gemessen. Im UV-Erythem-Test zeigte die PO-Creme eine signifikante Reduktion des Erythemindex im Vergleich zum Vehikel. Die antiinflammatorische Wirkung des Verums entsprach der der 1 % Hydrocortisonacetat-Creme. Die klinische Studie bei Atopikern zeigte eine signifikante Abnahme des Teil-SCORAD und des Erythems im Testareal. Es wurden keine Unverträglichkeitsreaktionen beobachtet. PO als 2%ige Zubereitung besitzt entzündungshemmende Eigenschaften und ist wirksam und gut verträglich auf atopischer Haut. © 2016 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
The Recombinant Bacille Calmette-Guérin Vaccine VPM1002: Ready for Clinical Efficacy Testing.
Nieuwenhuizen, Natalie E; Kulkarni, Prasad S; Shaligram, Umesh; Cotton, Mark F; Rentsch, Cyrill A; Eisele, Bernd; Grode, Leander; Kaufmann, Stefan H E
2017-01-01
The only licensed vaccine against tuberculosis (TB), bacille Calmette-Guérin (BCG), protects against severe extrapulmonary forms of TB but is virtually ineffective against the most prevalent form of the disease, pulmonary TB. BCG was genetically modified at the Max Planck Institute for Infection Biology to improve its immunogenicity by replacing the urease C encoding gene with the listeriolysin encoding gene from Listeria monocytogenes . Listeriolysin perturbates the phagosomal membrane at acidic pH. Urease C is involved in neutralization of the phagosome harboring BCG. Its depletion allows for rapid phagosome acidification and promotes phagolysosome fusion. As a result, BCGΔ ureC :: hly (VPM1002) promotes apoptosis and autophagy and facilitates release of mycobacterial antigens into the cytosol. In preclinical studies, VPM1002 has been far more efficacious and safer than BCG. The vaccine was licensed to Vakzine Projekt Management and later sublicensed to the Serum Institute of India Pvt. Ltd., the largest vaccine producer in the world. The vaccine has passed phase I clinical trials in Germany and South Africa, demonstrating its safety and immunogenicity in young adults. It was also successfully tested in a phase IIa randomized clinical trial in healthy South African newborns and is currently undergoing a phase IIb study in HIV exposed and unexposed newborns. A phase II/III clinical trial will commence in India in 2017 to assess efficacy against recurrence of TB. The target indications for VPM1002 are newborn immunization to prevent TB as well as post-exposure immunization in adults to prevent TB recurrence. In addition, a Phase I trial in non-muscle invasive bladder cancer patients has been completed, and phase II trials are ongoing. This review describes the development of VPM1002 from the drawing board to its clinical assessment.
Kundenfokus: Startpunkt für die digitale Transformation bei Stadtwerken
NASA Astrophysics Data System (ADS)
Fett, Perry; Küller, Philipp
Big Data, Internet der Dinge, Mobile Computing und soziale Medien - die modernen Informationstechnologien durchdringen den Alltag der meisten Menschen und lösen hierdurch eine digitale Transformation aus. Im Unternehmenskontext manifestiert sich die Digitalisierung durch eine neue Qualität der wissensbasierten Entscheidungsunterstützung und der Automatisierung bzw. Autonomisierung der Geschäftsprozesse. Für Stadtwerke gilt es nun, die Chancen der Digitalisierung zu ihren Gunsten zu nutzen. Ein Startpunkt könnte hierbei sein, wie Stadtwerke zukünftig mit ihren Kunden interagieren. Ausgelöst durch die Liberalisierung der Märkte rückt der Kunde heute stärker in den Mittelpunkt - die Energiewirtschaft steht nun vor der Herausforderung, dem Wettbewerb einen Schritt voraus zu sein und dem Kunden ein absolut positives Kundenerlebnis (Customer Experience) sowohl als Maßnahme zur Kundenbindung als auch zum Kundenaufbau zu bieten. Das vorliegende Kapitel zeigt hierfür die Erfolgskriterien für die gelungene Etablierung des Kundenfokus im eigenen Unternehmen auf. Mit dem Customer-Focus-Cycle-Modell von Fujitsu, angelehnt an den Deming-Kreislauf, wird ein allgemeingültiger Ansatz für ein mögliches Vorgehen beim Aufbau des Kundenfokus vorgestellt. Die sechs Phasen werden dabei anhand praktischer Beispiele erläutert und geben zudem Hinweise zu Methoden und Tools. Aus dem vorgestellten "Werkzeugkasten" wird ferner die Customer-Journey-Methode im Detail erläutert. Weiter soll das präsentierte Reifegradmodell Unternehmen dabei unterstützen, den eigenen Status quo festzustellen und die persönlichen Ziele auf dem Weg zur kundenzentrierten Organisation festzulegen.
Elevated Social Stress Levels and Depressive Symptoms in Primary Hyperhidrosis
Gross, Katharina M.; Schote, Andrea B.; Schneider, Katja Kerstin; Schulz, André; Meyer, Jobst
2014-01-01
Primary hyperhidrosis is defined as excessive sweating of certain body areas without physiological reasons. Hyperhidrotic individuals report a high psychological strain and an impairment of their quality of life. Thus, the aim of the study is to investigate the relation between hyperhidrosis and different psychological as well as physiological aspects of chronic stress as a co-factor for the etiology of depression. In this study, forty hyperhidrotic subjects were compared to forty age- and sex-matched healthy control subjects. The Trier Inventory of Chronic Stress (‘Trierer Inventar zum chronischen Stress’: TICS), the Beck Depression Inventory (BDI-II) and the Screening for Somatoform Disorders (SOMS-2) were used to examine the correlation between primary hyperhidrosis and stress as well as accompanying depressive and somatic symptoms. The cortisol awakening response of each subject was analyzed as a physiological stress correlate. In hyperhidrotics, we found a significant lack of social recognition as well as significantly more depressive symptoms compared to the control subjects. A subgroup of patients with axillary hyperhidrosis had the highest impact on these increased issues of chronic stress, pointing to a higher embarrassment in these subjects. Especially in social situations, hyperhidrotics showed higher stress levels, whereby a vicious circle of stress and sweating is triggered. However, the cortisol awakening response did not significantly differ between hyperhidrotics and controls. Moreover, affected persons suffer from more depressive symptoms, which may be caused by feelings of shame and a lack of self-confidence. This initial study provides an impetus for further investigation to reveal a causative relationship between hyperhidrosis and its psychological concomitants. PMID:24647796
Huebner, Jutta; Mohr, Peter; Simon, Jan-Christoph; Fluck, Michael; Berking, Carola; Zimmer, Lisa; Loquai, Carmen
2016-05-01
In Deutschland wenden 40-90 % aller Krebspatienten Methoden der komplementären and alternativen Medizin (KAM) an. Bis dato gibt es kein Datenmaterial zum Einsatz der KAM bei Melanompatienten. Das Ziel unserer Studie war es, Daten über den Gebrauch, die Informationsquellen und Ziele von Patienten mit metastasierendem Melanom zu erfassen. Einhundertsechsundfünfzig Patienten aus 25 Studienzentren nahmen an der DecOG-MM-PAL Multibasket Studie teil. Die beteiligten Personen wurden auch gebeten, an einer Nebenstudie teilzunehmen, die ihren Gebrauch von KAM erfassen sollte. Dazu wurde während der Behandlung ein standardisierter Fragebogen zu genau festgelegten Zeitpunkten ausgeteilt. Insgesamt gingen 55 Fragebögen von 32 (21 %) Melanompatienten ein. Von diesen gaben 17 (53 %) ein Interesse an KAM an, und sieben (22 %) machten von KAM Gebrauch. Die Hauptinformationsquellen (31 %) waren Familienmitglieder und Freunde, gefolgt von Ärzten (19 %). Die Hauptgründe für die Anwendung von KAM waren die Stärkung des Immunsystems (41 %) und des Körpers (34 %). Nahrungsergänzungsmittel (Vitamine und Spurenelemente) wurden am häufigsten angewendet (28 %). Eine relativ hohe Anzahl an Patienten mit metastasierendem Melanom machte trotz Teilnahme an einer klinischen Studie von KAM Gebrauch. Wechselwirkungen könnten durch biologisch basierte KAM auftreten, und hier besonders bei immunmodulierenden KAM- Strategien. Um Risiken zu vermeiden, sollte die Kommunikation zwischen den Ärzten und den Patienten verbessert werden. © 2016 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Sunderkötter, Cord; Becker, Karsten; Kutzner, Heinz; Meyer, Thomas; Blödorn-Schlicht, Norbert; Reischl, Udo; Nenoff, Pietro; Geißdörfer, Walter; Gräser, Yvonne; Herrmann, Mathias; Kühn, Joachim; Bogdan, Christian
2018-02-01
Nukleinsäure-Amplifikations-Techniken (NAT), wie die PCR, sind hochsensitiv sowie selektiv und stellen in der mikrobiologischen Diagnostik wertvolle Ergänzungen zur kulturellen Anzucht und Serologie dar. Sie bergen aber gerade bei formalinfixiertem und in Paraffin eingebettetem Gewebe ein Risiko für sowohl falsch negative als auch falsch positive Resultate, welches nicht immer richtig eingeschätzt wird. Daher haben Vertreter der Deutschen Gesellschaft für Hygiene und Mikrobiologie (DGHM) und der Deutschen Dermatologischen Gesellschaft (DDG) einen Konsensus in Form einer Übersichtsarbeit erarbeitet, wann eine NAT am Paraffinschnitt angezeigt und sinnvoll ist und welche Punkte dabei in der Präanalytik und Befundinterpretation beachtet werden müssen. Da bei Verdacht auf eine Infektion grundsätzlich Nativgewebe genutzt werden soll, ist die PCR am Paraffinschnitt ein Sonderfall, wenn beispielsweise bei erst nachträglichaufgekommenem Verdacht auf eine Infektion kein Nativmaterial zur Verfügung steht und nicht mehr gewonnen werden kann. Mögliche Indikationen sind der histologisch erhobene Verdacht auf eine Leishmaniose, eine Infektion durch Bartonellen oder Rickettsien, oder ein Ecthyma contagiosum. Nicht sinnvoll ist oder kritisch gesehen wird eine NAT am Paraffinschnitt zum Beispiel bei Infektionen mit Mykobakterien oder RNA-Viren. Die Konstellation für eine NAT aus Paraffingewebe sollte jeweils benannt werden, die erforderliche Prä-Analytik, die jeweiligen Grenzen des Verfahrens und die diagnostischen Alternativen bekannt sein. Der PCR-Befund sollte entsprechend kommentiert werden, um Fehleinschätzungen zu vermeiden. © 2018 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Zum Auf und Ab des Meeresspiegels in Skandinavien: Langer Streit um Eustasie oder Isostasie
NASA Astrophysics Data System (ADS)
Seibold, Eugen; Seibold, Ilse
2012-03-01
The phenomenon of the rise of the Scandinavian shield during the Holocene and the concomitant fall in level of the Baltic Sea has been investigated for centuries. Already in medieval times, there were reports about the coastlines of the Gulf of Bothnia that are full of relevant observations. During the eighteenth century, scientists such as Celsius and Linnaeus collected observations such as these. The result was that the search for the possible explanations of this rise-and-fall phenomenon intensified. The generally favoured explanation was that there was an active sinking of sea level in the Baltic rather than an active rising of the land surface in Fennoscandia. This was because water was seen as mobile, in contrast to a "terra firma". The relevant discussion was often emotional, and here, we try to illustrate it using material from the Geologenarchiv Freiburg (von Hoff, von Buch and Goethe). No more than a few decades later, it became obvious by the theory of Ice Age that both the sea level and the land could be mobile (eustatic sea level changes—glacial isostasy). Additionally, of course, plate tectonics had some influence: Norway is situated at the western end of the Eurasian plate and is part of a passive continental margin. There are still open research problems, many of which can be addressed using modern methods of satellite-based geophysics and geodesy. Some other aspects as the permanent uplift trend of Scandinavia since the Cambrium or the rhythmic to and fro of magma in the upper mantle during the Pleistocene are mentioned.
Krug, Susann; Wittchen, Hans-Ulrich; Lieb, Roselind; Beesdo-Baum, Katja; Knappe, Susanne
2016-10-01
The negative impact of parental depression on offsprings' development has been repeatedly documented. There is however little research on the potential pathways contributing to this association. The present study examined the relationship between parental depressive disorders, family functioning and adolescents' self-esteem. A community-based sample of 1040 participants aged 14-17 years and their parents was assessed including direct and indirect information on parental psychopathology based on the Munich-Composite International Diagnostic Interview (M-CIDI). Family functioning and youth self-esteem were assessed by self-report questionnaires using the McMaster Family Assessment Device (FAD) in parents and the "Aussagen-Liste zum Selbstwertgefühl" in adolescents. Findings from multiple regression analyses indicated positive associations between parental depressive disorders and dimensions of dysfunctional family functioning as well as between dysfunctional familial affective involvement and youth's positive self-esteem. The relationship between parental depression and self-esteem was partly mediated by familial affective involvement. Associations may be underestimated, since incidence for depressive disorders spans to the third decade of life. Consensus diagnoses for parental depressive disorders were based on direct and indirect information for maximum use of available data, neglecting familial load, chronicity of parental depressive disorders or comorbid conditions. Thus, specificity of the findings for the family transmission of depressive disorders remains yet to be determined. Findings contribute to understanding of the pathways on how parental depression impairs offsprings' view of themselves, and to consider family functioning as a possible target for preventive interventions. Copyright © 2016 Elsevier B.V. All rights reserved.
Effect of Weight Losing on the Improving Clinical Statement of Patients With Knee Osteoarthritis.
Sadeghi, Alireza; Rad, Zahra Abbaspour; Sajedi, Behnam; Heydari, Amir Hossein; Akbarieh, Samira; Jafari, Behzad
2017-11-01
Osteoarthritis causes severe pain and disability in joints, one of the most prevalent involved joints is the knee joint. There are several therapeutics ways to control pain and disability, but almost none of them are definite treatment. In this article, we tried to reveal the effect of weight loss on improving symptoms of knee osteoarthritis as an effective and permanent therapeutic approach. We chose 62 patients with grade 1-2 (mild to moderate) knee osteoarthritis and divided them equally into case and control groups. Patients should not had used NSAIDs at least for 6 months before study initiation. Symptoms severity was measured by WOMAC and VAS questionnaires before and after 3 months follow up. Weight and BMI were recorded too. Case group was suggested to have weight loss diet of less fat and carbohydrates and control group did not have any limitation. Comparison of variables' average of case and control groups was not logistically meaningful at the initiation and after the end of the study. But there was a meaningful correlation between variables' changes and lifestyle change in both groups, especially in WOMAC and VAS scores. All variables in case group had statistically meaningful differences between their amounts at the beginning and after the end of the study, on the contrary of the control group. In the comparison of our study with similar studies in the world. We deduced that weight loss can improve symptoms of knee osteoarthritis even in short time weight loss diet (3 months). ZUMS.REC.1394.94. Copyright © 2017. Publicado por Elsevier España, S.L.U.
Zeitlicher Verlauf der avaskulären Nekrose des Hüftkopfes bei Patienten mit Pemphigus vulgaris.
Balighi, Kamran; Daneshpazhooh, Maryam; Aghazadeh, Nessa; Saeidi, Vahide; Shahpouri, Farzam; Hejazi, Pardis; Chams-Davatchi, Cheyda
2016-10-01
Pemphigus vulgaris (PV) wird in der Regel mit systemischen Corticosteroiden und Immunsuppressiva behandelt. Avaskuläre Nekrose (AVN) des Hüftkopfes ist eine gut bekannte schwerere Komplikation einer Corticosteroid-Therapie. Die Charakteristika dieser schweren Komplikation bei PV sind nach wie vor unbekannt. Nicht kontrollierte, retrospektive Untersuchung aller PV-bedingten AVN-Fälle, die in einer iranischen Klinik für bullöse Autoimmunerkrankungen zwischen 1985 und 2013 diagnostiziert wurden. Anhand der Krankenakten von 2321 untersuchten PV-Patienten wurden 45 Fälle (1,93 %) von femoraler AVN identifiziert. Dreißig davon waren Männer. Das mittlere Alter bei der Diagnose der AVN betrug 47,4 ± 14,2 Jahre. Der mittlere Zeitraum zwischen der Diagnose des PV und dem Einsetzen der AVN lag bei 25,3 ± 18,3 Monaten. Mit Ausnahme von acht Fällen (17,8 %) setzte die AVN bei der Mehrheit der Patienten innerhalb von drei Jahren nach Diagnose des PV ein. Die mittlere kumulative Dosis von Prednisolon bei Patienten mit AVN betrug 13.115,8 ± 7041,1 mg. Zwischen der Prednisolon-Gesamtdosis und dem Zeitraum bis zum Einsetzen der AVN bestand eine starke Korrelation (p = 0,001). Bei Patienten mit Alendronateinnahme in der Vorgeschichte war dieser Zeitraum signifikant kürzer (p = 0,01). Die AVN ist eine schwere Komplikation einer Corticosteroid-Behandlung bei Patienten mit PV. Sie wird bei 2 % der Patienten beobachtet und tritt vor allem in den ersten drei Behandlungsjahren auf. Bei Patienten, die höhere Dosen von Prednisolon erhalten, setzt die AVN tendenziell früher ein. © 2016 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Gaskins, Matthew; Dittmann, Martin; Eisert, Lisa; Werner, Ricardo Niklas; Dressler, Corinna; Löser, Christoph; Nast, Alexander
2018-03-01
Laut einer Befragung im Jahre 2012 war der Umgang mit Antithrombotika bei dermatochirurgischen Eingriffen in Deutschland sehr heterogen. 2014 wurde erstmals eine evidenzbasierte Leitlinie zu diesem Thema veröffentlicht. Es wurde eine anonyme Befragung derselben Stichprobe zum Umgang mit Antithrombotika sowie zu Kenntnissen der Leitlinie durchgeführt. Die Ergebnisse wurden als relative Häufigkeiten berichtet und denen aus 2012 gegenübergestellt. 208 Antwortbögen wurden ausgewertet (Rücklaufquote: 36,6 %). Die große Mehrheit der Dermatologen erklärte, kleinere Eingriffe unter Fortführung der Therapie mit Phenprocoumon, niedrig dosierter Acetylsalicylsäure (≤ 100 mg) und Clopidogrel sowie mit direkten oralen Antikoagulanzien durchzuführen. Bei größeren Eingriffen war der Umgang hingegen weiterhin heterogen, insbesondere unter niedergelassenen Dermatologen. Der Anteil der Dermatologen, die Phenprocoumon, Acetylsalicylsäure und Clopidogrel leitlinienkonform verwendeten, hat sich insgesamt vergrößert. Führten 2012 beispielsweise 53,8 % der Klinikärzte bzw. 36,3 % der niedergelassenen Dermatologen eine große Exzision unter Fortführung der Therapie mit niedrig dosierter Acetylsalicylsäure durch, taten dies 2017 90,2 % bzw. 57,8 % (Phenprocoumon: 33,8 % bzw. 11,9 % auf 63,9 % bzw. 29,9 %; Clopidogrel: 36,9 % bzw. 23,2 % auf 63,9 % bzw. 30,6 %). Unter den Klinikärzten war ein hoher Anteil mit der Leitlinie vertraut und fand diese hilfreich. Eine Zunahme des leitlinienkonformen Verhaltens war bei allen Eingriffen zu verzeichnen. Bei größeren Eingriffen zeigte sich trotz deutlicher Verbesserung die Notwendigkeit verstärkter Anstrengungen zur Leitlinienumsetzung bzw. zur Identifizierung von Implementierungsbarrieren. © 2018 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Big Biology: Supersizing Science During the Emergence of the 21st Century
Vermeulen, Niki
2017-01-01
Ist Biologie das jüngste Mitglied in der Familie von Big Science? Die vermehrte Zusammenarbeit in der biologischen Forschung wurde in der Folge des Human Genome Project zwar zum Gegenstand hitziger Diskussionen, aber Debatten und Reflexionen blieben meist im Polemischen verhaftet und zeigten eine begrenzte Wertschätzung für die Vielfalt und Erklärungskraft des Konzepts von Big Science. Zur gleichen Zeit haben Wissenschafts- und Technikforscher/innen in ihren Beschreibungen des Wandels der Forschungslandschaft die Verwendung des Begriffs Big Science gemieden. Dieser interdisziplinäre Artikel kombiniert eine begriffliche Analyse des Konzepts von Big Science mit unterschiedlichen Daten und Ideen aus einer Multimethodenuntersuchung mehrerer großer Forschungsprojekte in der Biologie. Ziel ist es, ein empirisch fundiertes, nuanciertes und analytisch nützliches Verständnis von Big Biology zu entwickeln und die normativen Debatten mit ihren einfachen Dichotomien und rhetorischen Positionen hinter sich zu lassen. Zwar kann das Konzept von Big Science als eine Mode in der Wissenschaftspolitik gesehen werden – inzwischen vielleicht sogar als ein altmodisches Konzept –, doch lautet meine innovative Argumentation, dass dessen analytische Verwendung unsere Aufmerksamkeit auf die Ausweitung der Zusammenarbeit in den Biowissenschaften lenkt. Die Analyse von Big Biology zeigt Unterschiede zu Big Physics und anderen Formen von Big Science, namentlich in den Mustern der Forschungsorganisation, der verwendeten Technologien und der gesellschaftlichen Zusammenhänge, in denen sie tätig ist. So können Reflexionen über Big Science, Big Biology und ihre Beziehungen zur Wissensproduktion die jüngsten Behauptungen über grundlegende Veränderungen in der Life Science-Forschung in einen historischen Kontext stellen. PMID:27215209
Inzidenz von bullösen Autoimmunerkrankungen in Serbien: eine retrospektive Studie über 20 Jahre.
Milinković, Mirjana; Janković, Slavenka; Medenica, Ljiljana; Nikolić, Miloš; Reljić, Vesna; Popadić, Svetlana; Janković, Janko
2016-10-01
Die meisten früheren Arbeiten zu den klinisch-epidemiologischen Merkmalen von bullösen Autoimmunerkrankungen (AIBD) konzentrierten sich vor allem auf eine einzige Krankheitsentität oder nur eine Krankheitsgruppe; nur in wenigen Studien wurde die Inzidenz verschiedener AIBD untersucht. Bei der vorliegenden Studie war es unser Ziel, das gesamte Spektrum der AIBD zu betrachten, die Inzidenz der häufigsten AIBD zu ermitteln und die zeitlichen Trends ihres Auftretens in Zentralserbien über einen Zeitraum von 20 Jahren zu untersuchen. Wir rekrutierten retrospektiv 1161 AIBD-Fälle, die in Zentralserbien von Januar 1991 bis Dezember 2010 neu diagnostiziert wurden. Die Diagnose stützte sich auf eine strikte klinische, histologische und immunhistologische Beurteilung. Folgende Inzidenzraten wurden für die einzelnen Erkrankungen ermittelt: 4,35 pro eine Million Einwohner/Jahr (pME/Jahr) für Pemphigus, 4,47 pME/Jahr für Pemphigoid, 1,42 pME/Jahr für Dermatitis herpetiformis (DH), 0,25 pME/Jahr IgA-Dermatose und 0,08 pME/Jahr für Epidermolysis bullosa acquisita. Im betrachteten Zeitraum stieg die altersbereinigte Inzidenzrate für Pemphigus und insbesondere für Pemphigoid signifikant an, während sie für DH, allerdings nicht signifikant, abnahm. Unsere Studie befasst sich zum ersten Mal mit den Inzidenzraten des gesamten Spektrums der AIBD in Serbien und untersucht die zeitlichen Trends ihres Auftretens über einen Zeitraum von 20 Jahren. Nach unserem besten Wissen wurde ein ähnlicher Befund wie der unsere, dass nämlich die Inzidenzraten von Pemphigus und Pemphigoid vergleichbar sind, bisher noch nicht publiziert. © 2016 Deutsche Dermatologische Gesellschaft (DDG). Published by John Wiley & Sons Ltd.
Yasuhara-Bell, Jarred; Alvarez, Anne M
2015-03-01
The genus Clavibacter contains one recognized species, Clavibacter michiganensis. Clavibacter michiganensis is subdivided into subspecies based on host specificity and bacteriological characteristics, with Clavibacter michiganensis subsp. michiganensis causing bacterial canker of tomato. Clavibacter michiganensis subsp. michiganensis is often spread through contaminated seed leading to outbreaks of bacterial canker in tomato production areas worldwide. The frequent occurrence of non-pathogenic Clavibacter michiganensis subsp. michiganensis-like bacteria (CMB) is a concern for seed producers because Clavibacter michiganensis subsp. michiganensis is a quarantine organism and detection of a non-pathogenic variant may result in destruction of an otherwise healthy seed lot. A thorough biological and genetic characterization of these seed-associated CMB strains was performed using standard biochemical tests, cell wall analyses, metabolic profiling using Biolog, and single-gene and multilocus sequence analyses. Combined, these tests revealed two distinct populations of seed-associated members of the genus Clavibacter that differed from each other, as well as from all other described subspecies of Clavibacter michiganensis. DNA-DNA hybridization values are 70 % or higher, justifying placement into the single recognized species, C. michiganensis, but other analyses justify separate subspecies designations. Additionally, strains belonging to the genus Clavibacter isolated from pepper also represent a distinct population and warrant separate subspecies designation. On the basis of these data we propose subspecies designations for separate non-pathogenic subpopulations of Clavibacter michiganensis: Clavibacter michiganensis subsp. californiensis subsp. nov. and Clavibacter michiganensis subsp. chilensis subsp. nov. for seed-associated strains represented by C55(T) ( = ATCC BAA-2691(T) = CFBP 8216(T)) and ZUM3936(T) ( = ATCC BAA-2690(T) = CFBP 8217(T)), respectively. Recognition of separate subspecies is essential for improved international seed testing operations. © 2015 IUMS.
Smartes System für die Energiewende - der Übertragungsnetzbetreiber in der digitalen Zukunft
NASA Astrophysics Data System (ADS)
Pflaum, Rainer; Egeler, Tobias
Die Übertragungsnetze stellen eine zuverlässige Versorgung von Haushalt, Gewerbe und Industrie mit elektrischer Energie sicher und sind damit Grundlage einer modernen Wirtschaft und Gesellschaft. Die mittlerweile unumkehrbaren Entwicklungen der nationalen und europäischen Energiewende stellen den Übertragungsnetzbetreiber in seinen Kernaufgaben, dem Bau und Betrieb von Netzen, dem Markt- und Netzzugang und der Integration der erneuerbaren Energien vor neue und große Herausforderungen. Verbrauchsnahe dezentrale Erzeugung wie verbrauchsferne zentrale Erzeugung muss im Sinne der Gewährleistung der Systemstabilität gemanagt und in Einklang mit dem Verbrauch gebracht werden. Erneuerbare Energien müssen zudem in einem solchen System ihren Beitrag zur System- und Marktintegration leisten. All das erfordert mehr Daten, um in einem Gesamtsystem dynamische Reaktionsmöglichkeiten gewährleisten zu können. Erst die "Digitalisierung" schafft dabei die notwendigen Voraussetzungen die Komplexität zu stemmen. Die Digitalisierung stellt daher ein Kernelement dieses Wandels des Übertragungsnetzbetreibers dar, die einerseits mit zum Entstehen der neuen Herausforderungen beiträgt, andererseits aber auch hilft Werkzeuge bereitzustellen, diesen Herausforderungen zu begegnen. Im folgenden Beitrag wird aufgezeigt, wie die Digitalisierung die Aufgaben und Instrumente des Übertragungsnetzbetreibers verändern. Ausgehend von den heutigen Aufgaben eines Übertragungsnetzbetreibers und dem gültigen Rechtsrahmen werden unter dem Begriff "Notwendiges Set für morgen" smarte Elemente und Werkzeuge beschrieben, die bereits heute im Einsatz sind oder in den nächsten Jahren notwendig werden. Im Anschluss erfolgt anhand einiger Beispiele aus unterschiedlichen Bereichen eine Konkretisierung der Einsatzzwecke der Digitalisierung beim Übertragungsnetzbetreiber. Ein kurzer Ausblick mit Fokus auf den weiteren Veränderungsprozess rundet den Beitrag ab.
Kastaun, Sabrina; Brown, Jamie; Brose, Leonie S; Ratschen, Elena; Raupach, Tobias; Nowak, Dennis; Cholmakow-Bodechtel, Constanze; Shahab, Lion; West, Robert; Kotz, Daniel
2017-05-02
The prevalence of tobacco smoking in Germany is high (~27%). Monitoring of national patterns of smoking behaviour and data on the "real-world" effectiveness of cessation methods are needed to inform policies and develop campaigns aimed at reducing tobacco-related harm. In England, the Smoking Toolkit Study (STS) has been tracking such indicators since 2006, resulting in the adaptation of tobacco control policies. However, findings cannot be directly transferred into the German health policy context. The German Study on Tobacco Use (DEBRA: "Deutsche Befragung zum Rauchverhalten") aims to provide such nationally representative data. In June 2016, the study started collecting data from computer-assisted, face-to-face household interviews in people aged 14 years and older. Over a period of 3 years, a total of ~36,000 respondents will complete the survey with a new sample of ~2000 respondents every 2 months (=18 waves). This sample will report data on demographics and the use of tobacco and electronic (e-)cigarettes. Per wave, about 500-600 people are expected to be current or recent ex-smokers (<12 months since quitting). This sample will answer detailed questions about smoking behaviour, quit attempts, exposure to health professionals' advice on quitting, and use of cessation aids. Six-month follow-up data will be collected by telephone. The DEBRA study will be an important source of data for tobacco control policies, health strategies, and future research. The methodology is closely aligned to the STS, which will allow comparisons with data from England, a country with one of the lowest smoking prevalence rates in Europe (18%). This study has been registered at the German Clinical Trials Register ( DRKS00011322 ) on 25th November 2016.
Geology of ultra-high-pressure rocks from the Dabie Shan, Eastern China
NASA Astrophysics Data System (ADS)
Schmid, Robert
2001-02-01
A multidisciplinary study has been carried out to contribute to the understanding of the geologic evolution of the largest known occurrence of ultra-high-pressure (UHP) rocks on Earth, the Dabie Shan of eastern China. Geophysical data, collected along a ca. 20 km E-W trending seismic line in the eastern Dabie Shan, indicate that the crust comprises three layers. The upper crust has a homogeneously low reflectivity and exhibits roughly subhorizontal reflectors down to ca. 15 km. It is therefore interpreted to portray a crustal UHP slab thrust over non-UHP crust. An aprubt change in intensity and geometry of observed reflectors marks the boundary of a mid- to lower crustal zone which is present down to ca. 33 km. This crustal zone likely represents cratonal Yangtze crust that was unaffected by the Triassic UHP event and which has acted as the footwall during exhumation of the crustal wedge. Strong and continuous reflectors occurring at ca. 33-40 km depth most likely trace the Moho at the base of the crust. Any trace of a crustal root, that may have formed in response to collision tectonics, is therefore not preserved. A shollow tomographic velocity modell based on inversion of the first arrivals is constructed additionally. This model clearly images the distinct lithologies on both sides of the Tan Lu fault. Sediments to the east exhibit velocities of about 3.4 - 5.0 km* s^-1, whereas the gneisses have 5.2 - 6.0 km*s^-1. Geometry of velocity isolines may trace the structures present in the rocks. Thus the sediments dip shallowly towards the fault, whereas isoclinal folds are imaged to occur in the gneisses. Field data from the UHP unit of the Dabie Shan enables definition of basement-cover sequences that represent sections of the former passive margin of the Yangtze craton. One of the cover sequences, the Changpu unit, still displays a stratigraphic contact with basement gneisses, while the other, the Ganghe unit, includes no relative basement exposure. The latter unit is in tectonic contact with the basement of the former unit via a greenschist-facies blastomylonite. The Changpu unit is chiefly constituted by calc-arenitic metasediments intercalated with meta-basalts, whereas the Ganghe unit contains arenitic-volcanoclastic metasediments that are likewise associated with meta-basalts. The basement comprises a variety of felsic gneisses, ranging from preserved eclogitic- to greenschist-facies paragenesis, and locally contains mafic-ultramafic meta-plutons in addition to minor basaltic rocks. Metabasites of all lithologies are eclogite-facies or are retrogressed equivalents, which, with the exception of those from the Ganghe unit, bear coesite and thus testify to an UHP metamorphic overprint. Mineral chemistry of the analysed samples reveal large compositional variations among the main minerals, i.e. garnet and omphacite, indicating either distinct protoliths or different degrees of interaction with their host-rocks. Contents of ferric iron in low Fetot omphacites are determined by wet chemical titration and found to be rather high, i.e. 30-40 %. However, a even more conservative estimate of 50% is applied in the corresponding calculations, in order to be comparable with previous studies. Textural constraints and compositional zonation pattern are compatible with equilibrium conditions during peak metamorphism followed by a retrogressive overprint. P-T data are calculated with special focus on the application of the garnet-omphacite-phengite barometer, combined with Fe-Mg exchange thermometers. Maximum pressures range from 42-48 kbar (for the Changpu unit) to ~37 kbar (for the Ganghe unit and basement rocks). Temperatures during the eclogite metamorphism reached ca. 750 °C. Although the sample suite reveals variable peak-pressures, temperatures are in reasonable agreement. Pressure differences are interpreted to be due to strongly Ca-dominated garnet (up to 50 mol % grossular in the Changpu unit) and modification of peak-compositions during retrogressive metamorphism. The integrated geological data presented in this thesis allow it to be concluded that, i) basement and cover rocks are present in the Dabie Shan and both experienced UHP conditions ii) the Dabie Shan is the metamorphic equivalent of the former passive margin of the Yangtze craton iii) felsic gneisses undergoing UHP metamorphism are affected by volume changes due to phase transitions (qtz coe), which directly influence the tectono-metamorphic processes iv) initial differences in temperature may account for the general lack of lower crustal rocks in UHP-facies Um das Verständnis der geologischen Entwicklung des größten bekannten Vorkommens von ultra-hochdruck (UHP) Gesteinen auf der Erde, des Dabie Shan im östlichen China, zu erhöhen, wurde eine multidisziplinäre Studie durchgeführt. Geophysikalische Daten wurden entlang einer ca. 20 km langen seismischen Linie im östlichen Dabie Shan gesammelt. Diese reflektionsseismischen Daten zeigen, dass die Kruste aus drei Lagen besteht. Die Oberkruste besitzt eine durchgehend niedrige Reflektivität und meist subhorizontale Reflektoren bis in eine Tiefe von ca. 15 km. Aufgrund dieser Charakteristika wird diese Zone als UHP-bezogener krustaler Keil interpretiert, der auf nicht UHP Kruste überschoben wurde. Ein abrupter Wechsel in der Geometrie aber auch Intensität der Reflektoren markiert die Grenze zu einer mittel- bis unterkrustalen Zone, die sich bis ca. 33 km Tiefe erstreckt. Diese Zone repräsentiert wahrscheinlich kratonale Yangtze Kruste, die von der triassischen UHP-Orogenese nicht erfasst wurde, aber während der Exhumierung das Liegende relativ zum UHP Keil war. Starke und kontinuierliche Reflektoren im Tiefenintervall von 33-40 km bilden höchstwahrscheinlich die Moho an der Basis der Kruste ab. Relikte einer Krustenwurzel, die sich wahrscheinlich während der Kollisionstektonik gebildet hatte, sind nicht sichtbar. Ein flaches tomographisches Geschwindigkeitsmodell, das auf der Inversion der Ersteinsätze gründet, konnte zusätzlich erstellt werden. Dieses Modell bildet deutlich die unterschiedlichen Lithologien auf beiden Seiten der Tan Lu Störung ab. Sedimente östlich der Störung zeigen Geschwindigkeiten von 3.4 - 5.0 km* s^-1, wohingegen die Gneise im Westen 5.2 - 6.0 km*s^-1 aufweisen. Die Geometrie der Geschwindigkeits-Isolinien kann als Ausdruck der Strukturen der Gesteine angenommen werden. Somit zeigen die Sedimente ein nordwestliches Einfallen zur Störung hin, wohingegen isoklinale Falten in den Gneisen abgebildet werden. Geländedaten aus der UHP Einheit des Dabie Shan ermöglichen die Definition von Grundgebirgs- und Deckeinheiten, die Teile des ehemaligen passiven Kontinentalrandes des Yangtze Kratons repräsentieren. Eine der Deckeinheiten, die Changpu Einheit, besitzt nach wie vor einen stratigraphischen Kontakt zu den Grundgebirgs-Gneisen. Der anderen Einheit hingegen, der Ganghe Einheit, fehlt ein entsprechendes Grundgebirge. Diese Einheit steht vielmehr über einen Blasto-Mylonit in tektonischem Kontakt zum Grundgebirge der vorherigen. Die Changpu Einheit baut sich aus kalk-arenitischen Metasedimenten auf, die mit Metabasalten assoziiert sind. Die Ganghe Einheit wird von arenitisch-vulkanoklastischen Metasedimenten, die ebenfalls mit metabasaltischen Gesteinen vergesellschaftet sind, dominiert. Das Grundgebirge baut sich aus diversen felsischen Gneisen auf, die von reliktisch eklogitfaziell bis grünschieferfaziell ausgeprägt sind, und in denen, zusätzlich zu Metabasalten, sporadisch mafisch-ultramafische Meta-Plutone auftreten. Mit Ausnahme der Ganghe Einheit, führen die Metabasite Coesit und belegen somit das UHP Ereignis. Die Mineralchemie der analysierten Proben dokumentiert deutliche Variationen in der Zusammensetzung der Hauptminerale, Granat und Omphazit, was entweder unterschiedliche Protolithe oder unterschiedliche Grade von Stoffaustausch mit den Wirtsgesteinen reflektiert. Gehalte von dreiwertigem Eisen in Omphaziten mit geringen Gesamteisengehalten, wurden mittels Titration bestimmt, wobei sich Werte von 30-40 % ergaben. Dennoch wurde ein noch konservativerer Wert von 50% dreiwertigem Eisen in den entsprechenden Berechnungen angenommen, hauptsächlich, um mit anderen Arbeiten vergleichbar zu sein. Texturen und chemische Zonierungen in den Mineralen sind kompatibel mit Gleichgewichtsbedingungen während dem Höhepunkt der Metamorphose, der retrograd überprägt wird. P-T Daten wurden mit deutlicher Betonung auf das Granat-Omphazit-Phengit Barometer, das mit Fe-Mg Austausch-Thermometern kombiniert wurde, berechnet. Höchstdrucke reichen von 42-48 kbar (für die Changpu Einheit) bis ca. 37 kbar (für das Grundgebirge und die Ganghe Einheit). Während der eklogitfaziellen Metamorphose wurden Temperaturen von ca. 750 °C erreicht. Obwohl die maximalen Drucke deutlich schwanken, sind die Temperaturbestimmungen in guter Übereinstimmung. Die Druckschwankungen können zum einen durch deutlich Ca-dominierte Granate (bis zu 50 mol% Grossular in der Changpu Einheit) und/oder zum anderen durch Modifikationen der Mineralzusammensetzungen während der retrograden Metamorphose erklärt werden. Die präsentierten integrativen geologischen Daten ermöglichen die folgenden Schlussfolgerungen i) Grundgebirgs- und Deckeinheiten treten im Dabie Shan auf und wurden beide UHP metamorph überprägt ii) Der Dabie Shan ist das metamorphe Äquivalent des früheren passiven Kontinentalrandes des Yangtze Kratons iii) felsische Gneise, die eine UHP Metamorphose durchlaufen, sind von Volumenver-änderungen betroffen, die durch großräumige Phasenumwandlungen (Quarz Coesit) hervorgerufen werden, was direkt die tektono-metamorphen Prozesse beeinflusst iv) Initiale Unterschiede in der Temperatur sind möglicherweise dafür verantwortlich, dass generell Unterkrustengesteine in UHP Fazies fehlen
Turgeon, Y; Whitaker, H A
2000-01-01
The nineteenth century witnessed many advances in neuroscientific concepts. Among the notable are Charles Bell's (1774-1842) and François Magendie's (1783-1855) identification of sensory and motor pathways, Thomas Henry Huxley's (1825-1895) elaboration of evolutionary theory in the context of comparative neuroanatomy, and Emile Du Bois-Reymond's (1818-1896) and Hermann von Helmholtz's (1821-1894) work in experimental neurophysiology and on the concept of nervous energy. In Germany, the idea that the nervous system consisted of two elements, one that generated nervous energy and another that conducted it throughout the body, had wide currency in mid-nineteenth century. In France, Pierre Jean Georges Cabanis (1757-1808), physician, philosopher, and one of the founders of modern psychophysiology, argued that the brain is the part of the body in which electricity is stored. In his Rapports du Physique et du Moral de l'Homme, published between 1796 and 1802 (translated into German under the title Verhältnis der Seele zum Körper (1808)), Cabanis proposed new ideas on brain function, on the brain's own sensibility, on the concept of will, and on the chemical basis of nervous activity. In the Rapports Cabanis proposed a theory of how brain and nerves relate to thought and behavior. Foreshadowing later developments in neuropsychology, he suggested that different parts of the nervous system have separate functions. Despite the fact that Cabanis had many interesting ideas about brain function, he has been largely ignored by historians of neuroscience; e. g., he is mentioned briefly in Clark and Jacyna (1989), in only two footnotes in Neuburger (1897/1981), and not at all in Finger (1994). Cabanis's far-reaching theory of how the brain works helped shape understanding of the general notion of nervous energy in nineteenth-century European neuroscience.
Biologie statt Philosophie? Evolutionäre Kulturerklärungen und ihre Grenzen
NASA Astrophysics Data System (ADS)
Illies, Christian
Vor über siebzig Jahren fand man in einer Höhle nahe Hohlenstein-Stadel, im heutigen Baden-Württemberg, eine Frau, die keiner bekannten Spezies und nicht einmal eindeutig den Hominiden zugeordnet werden konnte. Wegen ihres Aussehens wurde sie schon bald als "Löwenfrau“ bekannt (unterdessen wird sie als "Löwenmensch“ bezeichnet, da die in solchen Fragen Klarheit schaffenden Geschlechtsteile bei der Figur fehlen und in Zeiten von gender mainstreaming derartige Festlegungen gerne vermieden werden), denn sie hatte eine menschlich-aufrechte, unbehaarte Gestalt mit weiblichen Rundungen, aber zugleich eine Mähne, sowie Augen, Ohren und Schnauze eines Löwen. Eine sehr weitläufige Verwandte des Minotaurus, so schien es, und doch wesentlich älter als alle Bewohner des Olymps, denn vermutlich wurde die knapp 30 cm große Skulptur bereits in der Altsteinzeit vor etwa 32.000 Jahren aus Mammut-Elfenbein geschnitzt. Wir wissen nicht, ob sie kultischen Zwecken diente oder ein Kind mit ihr spielte, ob sie als Glücksbringer für die Jagd oder als Schamanin mit Löwenmaske verehrt und gefürchtet wurde. Aber die Löwenfrau legt nahe, dass der Mensch schon im Morgendämmern seiner Kultur über die eigene Nähe, aber auch Distanz zum Tier nachgedacht haben muss. Die Frage nach der menschlichen Selbstverortung begegnet uns in dieser Figur, und sie bestimmt viele Zeugnisse menschlichen Nachdenkens, welche uns die Altertumswissenschaften vorlegen. Mit dem Begriff "animal rationale“, wie er unter Bezug auf Aristoteles geprägt wurde, findet sie schließlich ihre klassische, für das Abendland lange Zeit maßgebliche Antwort: Der Mensch als Tier, dessen spezifisches Merkmal die Vernunftbegabtheit ist, die ihn zugleich von allen anderen Tieren abgrenzt und über sie stellt. Aber wo genau verläuft die Grenze? Und wie kann der Mensch beides zugleich sein? Die aristotelische Definition beantwortet diese Fragen nach der Doppelnatur nicht, sondern erhebt das offene Rätsel gleichsam zur Wesensbestimmung des Menschen.
Hilp, M; Senjuk, S
2001-06-01
USP 1995 (The United States Pharmacopeia, 23rd Edit., (1995), potassium iodide p. 1265, sodium iodide p. 1424), PH. EUR. 1997 (European Pharmacopoeia, third ed., Council of Europe, Strasbourg, (1997), potassium iodide p. 1367, sodium iodide p. 1493) and JAP 1996 (The Japanes Pharmacopoeia, 13th ed. (1996), potassium iodide p. 578, sodium iodide p. 630) determine iodide with the ICl-method (J. Am. Chem. Soc. 25 (1903) 756-761; Z. Anorg. Chem. 36 (1903) 76-83; Fresenius Z. Anal. Chem. 106 (1936) 12-23; Arzneibuch-Kommentar, Wissenschaftliche Erläuterungen zum Europäischen Arzneibuch, Wissenschaftliche Verlagsgesellschaft mbH, Stuttgart, Govi-Verlag - Pharmazeutischer Verlag GmbH, Eschborn, 12th suppl. (1999), K10 p. 2), using chloroform, which is toxic and hazardous to environment. Without the application of chlorinated hydrocarbons USP 2000 (The United State Pharmacopeia, 24th ed. (2000), potassium iodide p. 1368, sodium iodide p. 1535) and Brit 1999 (British Pharmacopoeia London, (1999), Appendix VIII C, p. A162) titrate iodide with the redox indicator amaranth. A titration with potentiometric indication giving two end-points at the step of I(2) and [ICl(2)](-) is described. Due to the high concentration of hydrochloric acid required for the ICl-method, the determination with DBH (1,3-dibromo-5,5-dimethylhydantoin; 1,3-dibromo-5,5-dimethyl-2,4-imidazolidinedione) can be recommended and is performed easily. Similarly, the iodide content of gallamine triethiodide may be analyzed with DBH by application of a visual two-phase titration in water and ethyl acetate or with potentiometric indication in a mixture of 2-propanol and water. During the removal of the excess of DBH 4-bromo-triethylgallamine (2,2',2"-[1-bromo-benzene-2,3,4-triyltris(oxy)]N,N,N-triethylethanium) is formed.
NASA Astrophysics Data System (ADS)
Unzicker, Alexander
Lautstarker Applaus erhob sich im Salon III/IV des Marriott-Hotels von Crystal City im amerikanischen Bundesstaat Virginia. In dem überfüllten Konferenzraum starrten alle wie gebannt auf die Leinwand, wo nicht mehr zu sehen war als ein nüchternes Diagramm aus zahlreichen Punkten und einer geschwungenen Kurve. Nureine eigenartige Personengruppe konnte sich davon zu Emotionen hinreißen lassen - Physiker auf der Jahrestagung der Astronomischen Gesellschaft, die ihren Begeisterungssturm noch minutenlang fortsetzten. Was war geschehen? Die im Diagramm aufgetragenen Daten bestätigten mit einer nie da gewesenen Genauigkeit ein fundamentales Naturgesetz zur Wärmeabstrahlung von heißen Körpern. 1900 von Max Planck entdeckt, leuchtete es nun in geradezu mathematischer Reinheit auf. Noch sensationeller war der Ursprung der Daten - Mikrowellensignale verschiedener Frequenzen, die nicht aus einem irdischen Labor stammten, sondern von einem heißen Urzustand des Universums! Ein Feuerball aus Wasserstoff und Helium, noch ohne jegliche Strukturen, die irgendwann Leben ermöglichen sollten, ließ damals seinem Licht freien Lauf. Mehr als zehn Milliarden Jahre war es bis zu den Detektoren des vom Menschen gebauten Satelliten COBE unterwegs, der wenige Tage zuvor die Daten übertragen hatte. Wenn ich das alles wie einen Film in meiner Vorstellung ablaufen lasse, bekomme ich immer eine Gänsehaut, als würde ich die inzwischen extrem abgekühlte Strahlung tatsächlich spüren. Ihre Gleichverteilung im Raum macht uns auch deutlich, dass wir uns nicht einbilden dürfen, an einem besonderen Ort im Universum zu leben - intelligente Aliens könnten sich seitdem überall entwickelt haben! Sollten sie - was nicht wahrscheinlich ist - uns wirklich von Zeit zu Zeit über die Schulter schauen, dann hätten sie an jenem Nachmittag des 13. Januar 1990, als der Vortrag stattfand, bestimmt anerkennend mit ihrem großen Kopf genickt.
Modellierung des Einflusses der Landnutzung auf die Hochwasserentstehung in der Mesoskala
NASA Astrophysics Data System (ADS)
Niehoff, Daniel
2001-10-01
Seit 1990 waren mehrere der großen Flussgebiete Mitteleuropas wiederholt von extremen Hochwassern betroffen. Da sowohl die Landoberfläche als auch die Flusssysteme weiter Teile Mitteleuropas in der Vergangenheit weitreichenden Eingriffen ausgesetzt gewesen sind, wird bei der Suche nach den Ursachen für diese Häufung von Extremereignissen auch die Frage nach der Verantwortung des Menschen hierfür diskutiert. Gewässerausbau, Flächenversiegelung, intensive landwirtschaftliche Bodenbearbeitung, Flurbereinigung und Waldschäden sind nur einige Beispiele und Folgen der anthropogenen Eingriffe in die Landschaft. Aufgrund der Vielfalt der beteiligten Prozesse und deren Wechselwirkungen gibt es allerdings bislang nur Schätzungen darüber, wie sehr sich die Hochwassersituation hierdurch verändert hat. Vorrangiges Ziel dieser Arbeit ist es, mit Hilfe eines hydrologischen Modells systematisch darzustellen, in welcher Weise, in welcher Größenordnung und unter welchen Umständen die Art der Landnutzung auf die Hochwasserentstehung Einfluss nimmt. Dies wird anhand exemplarischer Modellanwendungen in der hydrologischen Mesoskala untersucht. Zu diesem Zweck wurde das deterministische und flächendifferenzierte hydrologische Modell wasim-eth ausgewählt, das sich durch eine ausgewogene Mischung aus physikalisch begründeten und konzeptionellen Ansätzen auszeichnet. Das Modell wurde im Rahmen dieser Arbeit um verschiedene Aspekte erweitert, die für die Charakterisierung des Einflusses der Landnutzung auf die Hochwasserentstehung wichtig sind: (1) Bevorzugtes Fließen in Makroporen wird durch eine Zweiteilung des Bodens in Makroporen und Bodenmatrix dargestellt, die schnelle Infiltration und Perkolation jenseits der hydraulischen Leitfähigkeit der Bodenmatrix ermöglicht. (2) Verschlämmung äußert sich im Modell abhängig von Niederschlagsintensität und Vegetationsbedeckungsgrad als Verschlechterung der Infiltrationsbedingungen an der Bodenoberfläche. (3) Das heterogene Erscheinungsbild bebauter Flächen mit einer Mischung aus versiegelten Bereichen und Freiflächen wird berücksichtigt, indem jede Teilfläche je nach Versiegelungsgrad in einen unversiegelten Bereich und einen versiegelten Bereich mit Anschluss an die Kanalisation aufgeteilt wird. (4) Dezentraler Rückhalt von Niederschlagswasser kann sowohl für natürliche Mulden als auch für gezielt angelegte Versickerungsmulden mit definierten Infiltrationsbedingungen simuliert werden. Das erweiterte Modell wird exemplarisch auf drei mesoskalige Teileinzugsgebiete des Rheins angewandt. Diese drei Gebiete mit einer Fläche von zwischen 100 und 500 km² wurden im Hinblick darauf ausgewählt, dass jeweils eine der drei Hauptlandnutzungskategorien Bebauung, landwirtschaftliche Nutzung oder Wald dominiert. Für die drei Untersuchungsgebiete sind räumlich explizite Landnutzungs- und Landbedeckungsszenarien entworfen worden, deren Einfluss auf die Hochwasserentstehung mit Hilfe des erweiterten hydrologischen Modells simuliert wird. Im Einzelnen werden die Auswirkungen von Verstädterung, Maßnahmen zur Niederschlagsversickerung in Siedlungsgebieten, Stilllegung agrarisch genutzter Flächen, veränderter landwirtschaftlicher Bodenbearbeitung, Aufforstung sowie von Sturmschäden in Wäldern untersucht. Diese Eingriffe beeinflussen die Interzeption von Niederschlag, dessen Infiltration, die oberflächennahen unterirdischen Fließprozesse sowie, zum Beispiel im Fall der Kanalisation, auch die Abflusskonzentration. Die hydrologischen Simulationen demonstrieren, dass die Versiegelung einer Fläche den massivsten Eingriff in die natürlichen Verhältnisse darstellt und deshalb die stärksten (negativen) Veränderungen der Hochwassersituation hervorbringt. Außerdem wird deutlich, dass eine bloße Änderung des Interzeptionsvermögens zu keinen wesentlichen Veränderungen führt, da die Speicherkapazität der Pflanzenoberflächen im Verhältnis zum Volumen hochwasserauslösender Niederschläge eher klein ist. Stärkere Veränderungen ergeben sich hingegen aus einer Änderung der Infiltrationsbedingungen. Die Grenzen der entwickelten Methodik zeigen sich am deutlichsten bei der Simulation veränderter landwirtschaftlicher Bewirtschaftungsmethoden, deren mathematische Beschreibung und zahlenmäßige Charakterisierung aufgrund der Komplexität der beteiligten Prozesse mit großen Unsicherheiten behaftet ist. Die Modellierungsergebnisse belegen darüber hinaus, dass pauschale Aussagen zum Einfluss der Landnutzung auf die Hochwasserentstehung aufgrund der entscheidenden Bedeutung der klimatischen und physiographischen Randbedingungen unzulässig sind. Zu den klimatischen Randbedingungen zählen sowohl Niederschlagsintensität und -dauer als auch die Feuchtebedingungen vor einem hochwasserauslösenden Niederschlag. Die physiographischen Randbedingungen sind von der geomorphologischen und geologischen Ausstattung des Gebiets vorgegeben. Weiterhin muss der räumliche und zeitliche Maßstab, über den Aussagen getroffen werden, klar definiert sein, da sich mit steigender Einzugsgebietsgröße die relative Bedeutung sowohl der verschiedenen Niederschlagstypen als auch der physiographischen Eigenschaften verschiebt. Dies wird in der vorliegenden Arbeit im Gegensatz zu vielen anderen Untersuchungen konsequent berücksichtigt. In Abhängigkeit von Randbedingungen und räumlichen Maßstab sind aufgrund der gewonnen Erkenntnisse folgende Aussagen zum Einfluss von Landnutzungsänderungen auf die Hochwasserentstehung möglich: (1) Für intensive konvektive Niederschlagsereignisse mit tendenziell geringer Vorfeuchte ist der Einfluss der Landnutzung größer als für langanhaltende advektive Niederschläge geringer Intensität, da im ersten Fall veränderte Infiltrationsbedingungen stärker zum Tragen kommen als bei kleinen Niederschlagsintensitäten. (2) In kleinen Einzugsgebieten, wo kleinräumige Konvektivzellen zu Hochwassern führen können, ist der Einfluss der Landnutzung dementsprechend größer als in großen Flussgebieten wie dem Rheingebiet, wo vor allem langanhaltende advektive Ereignisse (unter Umständen verbunden mit Schneeschmelze) relevant sind. (3) In Gebieten mit guten Speichereigenschaften wie mächtigen, gut durchlässigen Böden und gut durchlässigem Gesteinsuntergrund ist der Einfluss der Landnutzung größer als in Gebieten mit geringmächtigen Böden und geringdurchlässigem Festgestein. Dies ist darin begründet, dass in Gebieten mit guten Speichereigenschaften bei einer Verschlechterung der Infiltrationsbedingungen mehr Speicherraum für Niederschlag verloren geht als in anderen Gebieten. Since 1990, several of the large European river basins were affected repeatedly by extreme floods. As both the landscape and the river systems in large parts of Central Europe have undergone major changes in the past, during the search for the causes of this accumulation of extreme events also the impact of human activities on flooding has been discussed. River training, surface sealing, intensive agricultural land-use, consolidation of farmland, and damages to forests are only some examples and consequences of the anthropogenic interferences with the landscape. But due to the diversity of the processes and factors involved, by now it can only be estimated how far the flood situation has changed by these interferences. Therefore, the main target of this thesis is to describe systematically in which way, to what extent and under which circumstances the land-use exerts an influence on storm-runoff generation and subsequently the discharge of rivers. This is investigated by means of exemplary model applications at the hydrological meso-scale. For this task, the deterministic and distributed hydrological model wasim-eth was chosen due to its well-balanced mixture of physically-based and conceptual approaches. In the framework of this thesis, the model has been extended in order to cope with several phenomena which are important when aiming at a characterization of the influence of land-use on flood generation: (1) Preferential flow in macropores is treated by a division of the soil into macropores and a soil matrix. This so-called double-porosity approach allows for fast infiltration and percolation beyond the hydraulic conductivity of the soil matrix. (2) Siltation expresses itself within the model as a deterioration of infiltration conditions at the soil surface, depending on precipitation intensity and the degree of vegetation covering. (3) The heterogeneous appearance of built-up areas, consisting of both sealed areas and pervious areas, is taken into account by dividing each partial area into an unsealed part and a sealed part which is connected to the sewer system. (4) Decentralized storage can be simulated for natural depressions as well as for specific infiltration measures with defined infiltration conditions. The extended model is exemplarily applied to three meso-scale tributaries of the Rhine river. These three catchments with an area of between 100 and 500 km² were chosen with regard to their prevailing land-use, one of them being heavily urbanized, one dominated by agricultural use, and one being mainly forested. For these three catchments, spatially explicit land-use and land-cover scenarios were developed. The impact of these scenarios on storm-runoff generation is being simulated using the extended hydrological model. In this context, namely urbanization, infiltration measures in settlement areas, conversion of farmland to set-aside areas, altered agricultural management practices, affor estation and storm damages in forests are taken into account. These changes influence the interception of rainfall, its infiltration into the soil, the subsurface flow processes next to the soil surface as well as, for example in the case of sewer systems, also runoff concentration. The hydrological simulations demonstrate that sealing of the soil surface is the most intensive intervention in the natural conditions among the ones which are mentioned above. Therefore it results in the strongest (negative) changes of the flooding situation in a catchment. In addition to that, the simulations show that a simple alteration in the interception capacity does not yield significant changes in catchment response, because the storage capacity of vegetation surfaces is rather low compared to the volume of storm events which normally lead to significant floods. More pronounced changes arise from modifications in the infiltration conditions. The limits of the methodology which was chosen for this thesis become obvious when simulating altered agricultural management practices. Due the complexity of the processes involved, mathematical description and parameterization is difficult and therefore afflicted with high uncertainty. In addition to that, the modelling results prove that global statements on the influence of land-use on flood generation are illegitimate because of the paramount importance of the climatic and physiographic boundary conditions. Climatic boundary conditions are precipitation intensity and duration as well as the moisture conditions before a storm event. The physiographic boundary counditions are given by the geomorphological and geological catchment properties. Furthermore, with increasing scale there is a shift in the relative importance of the different types of rainfall as well as the different geophysical catchment properties. Therefore, the spatial and temporal scale for which the results are valid have to be clearly defined. This is taken into account consequently within this thesis - in contrast to many other studies on this topic. Depending on boundary conditions and spatial scale, the findings allow the following statements regarding the influence of land-use changes on storm-runoff generation: (1) For intensive convective storm events with generally low antecedent soil moisture, the influence of land-use is greater than for long-lasting advective storm events with low rainfall intensities, because in the first case changes in the infiltration conditions are more important than during times of low precipitation intensities. (2) In small catchments, where small-scale convective cells can lead to a flood, the influence of land-use is accordingly greater than in large river basins like the Rhine basin, where long-lasting advective rainfalls (possibly in combination with snowmelt) are relevant. (3) In areas with good storage conditions like thick, permeable soils and pervious rock underneath, the influence of land-use is greater than in areas with thin soils and only slightly permeable bedrock. This is due to the fact that in case of deteriorating infiltration conditions, more storage space for precipitation is lost in areas with good storage conditions than in other areas. siehe auch: http://opus.kobv.de/ubp/volltexte/2005/398/
4D Near Real-Time Environmental Monitoring Using Highly Temporal LiDAR
NASA Astrophysics Data System (ADS)
Höfle, Bernhard; Canli, Ekrem; Schmitz, Evelyn; Crommelinck, Sophie; Hoffmeister, Dirk; Glade, Thomas
2016-04-01
The last decade has witnessed extensive applications of 3D environmental monitoring with the LiDAR technology, also referred to as laser scanning. Although several automatic methods were developed to extract environmental parameters from LiDAR point clouds, only little research has focused on highly multitemporal near real-time LiDAR (4D-LiDAR) for environmental monitoring. Large potential of applying 4D-LiDAR is given for landscape objects with high and varying rates of change (e.g. plant growth) and also for phenomena with sudden unpredictable changes (e.g. geomorphological processes). In this presentation we will report on the most recent findings of the research projects 4DEMON (http://uni-heidelberg.de/4demon) and NoeSLIDE (https://geomorph.univie.ac.at/forschung/projekte/aktuell/noeslide/). The method development in both projects is based on two real-world use cases: i) Surface parameter derivation of agricultural crops (e.g. crop height) and ii) change detection of landslides. Both projects exploit the "full history" contained in the LiDAR point cloud time series. One crucial initial step of 4D-LiDAR analysis is the co-registration over time, 3D-georeferencing and time-dependent quality assessment of the LiDAR point cloud time series. Due to the high amount of datasets (e.g. one full LiDAR scan per day), the procedure needs to be performed fully automatically. Furthermore, the online near real-time 4D monitoring system requires to set triggers that can detect removal or moving of tie reflectors (used for co-registration) or the scanner itself. This guarantees long-term data acquisition with high quality. We will present results from a georeferencing experiment for 4D-LiDAR monitoring, which performs benchmarking of co-registration, 3D-georeferencing and also fully automatic detection of events (e.g. removal/moving of reflectors or scanner). Secondly, we will show our empirical findings of an ongoing permanent LiDAR observation of a landslide (Gresten, Austria) and an agricultural maize crop stand (Heidelberg, Germany). This research demonstrates the potential and also limitations of fully automated, near real-time 4D LiDAR monitoring in geosciences.
EHealth Acceptance and New Media Preferences for Therapy Assistance Among Breast Cancer Patients
Drewes, Caroline; Kirkovits, Thomas; Schiltz, Daniel; Schinkoethe, Timo; Haidinger, Renate; Harbeck, Nadia
2016-01-01
Background Electronic health (eHealth) and mobile communication-based health care (mHealth) applications have been increasingly utilized in medicine over the last decade, and have facilitated improved adherence to therapy regimens in patients with chronic conditions. Due to the long duration of breast cancer therapy, and the long course of disease in metastatic breast cancer, a need for more intensified physician-patient communication has emerged. Various support mechanisms, including new media such as mHealth and eHealth, have been proposed for this purpose. Objective The aim of this study was to analyze the correlation between sociodemographic factors, as well as health status of breast cancer patients, and their current utilization of new media, or their willingness to use Internet and mobile phone apps for improvement of therapy management. Methods The survey for this study was conducted anonymously during the 2012 Mamazone Projekt Diplompatient meeting (Augsburg, Germany), which hosted approximately 375 participants per day. A total of 168 questionnaires were completed. The questionnaire aimed to assess sociodemographic status, disease patterns, and current use of new media (ie, Internet, mobile phone, and mobile phone apps) in breast cancer patients. Habits and frequency of use for these new technologies, as well as patients’ affinity towards eHealth and mHealth tools for therapy management improvement, were investigated. Results Almost all participants used the Internet (95.8%, 161/168), with 91.5% (151/165) also utilizing this technology for health-related issues. Approximately 23% (38/168) of respondents owned a mobile phone. When asked about their preferences for therapy assistance, 67.3% (113/168) of respondents were interested in assistance via the Internet, 25.0% (42/168) via mobile phone, and 73.2% (123/168) via call center. Patients diagnosed with breast cancer <5 years before the survey were significantly more interested in a call center than patients diagnosed >5 years before survey participation. Conclusions The vast majority of breast cancer patients accept the Internet for therapy assistance, which indicates that eHealth is a promising medium to improve patient-physician communication. Such technologies may improve individual disease management and ultimately lead to an enhanced adherence to therapy regimens. PMID:28410189
Zhu, Hao; Ye, Lin; Richard, Ann; Golbraikh, Alexander; Wright, Fred A.; Rusyn, Ivan; Tropsha, Alexander
2009-01-01
Background Accurate prediction of in vivo toxicity from in vitro testing is a challenging problem. Large public–private consortia have been formed with the goal of improving chemical safety assessment by the means of high-throughput screening. Objective A wealth of available biological data requires new computational approaches to link chemical structure, in vitro data, and potential adverse health effects. Methods and results A database containing experimental cytotoxicity values for in vitro half-maximal inhibitory concentration (IC50) and in vivo rodent median lethal dose (LD50) for more than 300 chemicals was compiled by Zentralstelle zur Erfassung und Bewertung von Ersatz- und Ergaenzungsmethoden zum Tierversuch (ZEBET; National Center for Documentation and Evaluation of Alternative Methods to Animal Experiments). The application of conventional quantitative structure–activity relationship (QSAR) modeling approaches to predict mouse or rat acute LD50 values from chemical descriptors of ZEBET compounds yielded no statistically significant models. The analysis of these data showed no significant correlation between IC50 and LD50. However, a linear IC50 versus LD50 correlation could be established for a fraction of compounds. To capitalize on this observation, we developed a novel two-step modeling approach as follows. First, all chemicals are partitioned into two groups based on the relationship between IC50 and LD50 values: One group comprises compounds with linear IC50 versus LD50 relationships, and another group comprises the remaining compounds. Second, we built conventional binary classification QSAR models to predict the group affiliation based on chemical descriptors only. Third, we developed k-nearest neighbor continuous QSAR models for each subclass to predict LD50 values from chemical descriptors. All models were extensively validated using special protocols. Conclusions The novelty of this modeling approach is that it uses the relationships between in vivo and in vitro data only to inform the initial construction of the hierarchical two-step QSAR models. Models resulting from this approach employ chemical descriptors only for external prediction of acute rodent toxicity. PMID:19672406
Eskandari, Mehdi; Jani, Soghra; Kazemi, Mahsa; Zeighami, Habib; Yazdinezhad, Alireza; Mazloomi, Sahar; Shokri, Saeed
2016-01-01
Objective Epididymo-orchitis (EO) potentially results in reduced fertility in up to 60% of affected patients. The anti-inflammatory effects of Korean red ginseng (KRG) and its ability to act as an immunoenhancer in parallel with the beneficial effects of this ancient herbal medicine on the reproductive systems of animals and humans led us to evaluate its protective effects against acute EO. Materials and Methods This animal experimental study was conducted in the Department of Anatomical Sciences, Faculty of Medicine, Zanjan University of Medical Sciences (ZUMS), Zanjan, Iran during 2013-2015. We divided 50 Wistar rats into five following groups (n=10 per group): i. Control-intact animals, ii. Vehicle-phosphate buffered saline (PBS) injection into the vas deferens, iii. KRG-an intraperitoneal (IP) injection of KRG, iv. EO-an injection of uropathogenic Escherichia coli (UPEC) strain M39 into the vas defer- ens, and v. EO/ KRG-injections of both UPEC strain M39 and KRG. The treatment lasted seven days. We then evaluated sperm parameters, number of germ cell layers, Johnson’s criteria, germ cell apoptosis, body weight and relative sex organs weight. Results Acute EO increased the relative weight of prostate and seminal vesicles (P≤0.05). It also reduced sperm quality such as total motility, sperm concentration (P≤0.01), and the percentage of normal sperm (P≤0.001). Moreover, acute EO decreased Miller’s (P≤0.05) and Johnsen’s scores and increased apoptotic indexes of spermatogenic cells (P≤0.001). KRG treatment decreased prostate weight gain (P≤0.05) and improved the percentage of sperm with normal morphology, total motility (P≤0.01), and progressive motility (P≤0.05). The apoptotic indexes of spermatogenic cells reduced (P≤0.001), whereas both Johnsen’s (P≤0.01) and Miller’s criteria increased in the KRG-treated EO testis (P≤0.05). Conclusion Consequently, KRG ameliorated the devastating effects of EO on the sperm retrieved from either epididymis or testicle in rats. PMID:27602327
Zhu, Hao; Ye, Lin; Richard, Ann; Golbraikh, Alexander; Wright, Fred A; Rusyn, Ivan; Tropsha, Alexander
2009-08-01
Accurate prediction of in vivo toxicity from in vitro testing is a challenging problem. Large public-private consortia have been formed with the goal of improving chemical safety assessment by the means of high-throughput screening. A wealth of available biological data requires new computational approaches to link chemical structure, in vitro data, and potential adverse health effects. A database containing experimental cytotoxicity values for in vitro half-maximal inhibitory concentration (IC(50)) and in vivo rodent median lethal dose (LD(50)) for more than 300 chemicals was compiled by Zentralstelle zur Erfassung und Bewertung von Ersatz- und Ergaenzungsmethoden zum Tierversuch (ZEBET; National Center for Documentation and Evaluation of Alternative Methods to Animal Experiments). The application of conventional quantitative structure-activity relationship (QSAR) modeling approaches to predict mouse or rat acute LD(50) values from chemical descriptors of ZEBET compounds yielded no statistically significant models. The analysis of these data showed no significant correlation between IC(50) and LD(50). However, a linear IC(50) versus LD(50) correlation could be established for a fraction of compounds. To capitalize on this observation, we developed a novel two-step modeling approach as follows. First, all chemicals are partitioned into two groups based on the relationship between IC(50) and LD(50) values: One group comprises compounds with linear IC(50) versus LD(50) relationships, and another group comprises the remaining compounds. Second, we built conventional binary classification QSAR models to predict the group affiliation based on chemical descriptors only. Third, we developed k-nearest neighbor continuous QSAR models for each subclass to predict LD(50) values from chemical descriptors. All models were extensively validated using special protocols. The novelty of this modeling approach is that it uses the relationships between in vivo and in vitro data only to inform the initial construction of the hierarchical two-step QSAR models. Models resulting from this approach employ chemical descriptors only for external prediction of acute rodent toxicity.
NASA Astrophysics Data System (ADS)
Maryńczuk, Paweł
2015-03-01
The author believes that if a designer has performed many design or research works entailing solutions to various problems, it is recommendable to consider and become aware of previously used methods whose application might have been unwitting or instinctive. The outcome of such reflection can be worth describing and recording in order to formulate a set of guidelines useful in the future. Such methods, being intuitive in nature, are often tied to the designer's subconsciousness, thus are rarely expressed in a clear manner. By using own methods a designer can prove that space should be composed in a given way in order to address specific needs and defined objectives. All this is aimed at preventing accidental formation of space. An example of reasoning serving the aforementioned purpose can be found in a method referred to as CQC or Composition Quality Control, the application of which facilitates intentional shaping of an architectural piece of work. Autor uważa uważa, że jeśli projektant ma za sobą wiele prac projektowych lub też prac badawczych, które połączone były z rozwiązywaniem różnych problemów, to warto zastanowić się i uświadomić sobie sposoby, które dotychczas - może nieświadomie lub odruchowo - były stosowane. Wynik refleksji warto opisać i zapisać po to, żeby ująć go w układ wskazań na przyszłość. Metody te, mając charakter intuicyjny, często związane są z podświadomością projektanta, w związku z tym rzadko można spotkać je jako wyrażone w sposób wyraźny. Stosując metody własne można dowieść, że przestrzeń winna być komponowana tak, a nie inaczej dla określonych potrzeb i wytyczonych celów tak, aby jej forma nie była przypadkowa. Przykładem takiego rozumowania jest przyjeta metoda KJK, której zastosowanie pomaga w swiadomym kształtowaniu dzieła architektonicznego.
Hydraulic and thermal soil Parameter combined with TEM data at quaternary coastal regions
NASA Astrophysics Data System (ADS)
Grabowski, Ima; Kirsch, Reinhard; Scheer, Wolfgang
2014-05-01
In order to generate a more efficient method of planning and dimensioning small- and medium sized geothermal power plants at quaternary subsurface a basic approach has been attempted. Within the EU-project CLIWAT, the coastal region of Denmark, Germany, Netherlands and Belgium has been investigated and air borne electro magnetic data was collected. In this work the regional focus was put on the isle of Föhr. To describe the subsurface with relevant parameters one need the information from drillings and geophysical well logging data. The approach to minimize costs and use existing data from state agencies led the investigation to the combination of specific electrical resistivity data and hydraulic and thermal conductivity. We worked out a basic soil/hydraulic conductivity statistic for the isle of Föhr by gathering all well logging data from the island and sorted the existing soil materials to associated kf -values. We combined specific electrical resistivity with hydraulic soil properties to generate thermal conductivity values by extracting porosity. Until now we generated a set of rough data for kf - values and thermal conductivity. The air borne TEM data sets are reliable up to 150 m below surface, depending on the conductivity of the layers. So we can suppose the same for the differentiated parameters. Since this is a very rough statistic of kf -values, further more investigation has to be made. Although the close connection to each area of investigation either over existing logging data or laboratory soil property values will remain necessary. Literature: Ahmed S, de Marsily G, Talbot A (1988): Combined Use of Hydraulic and Electrical Properties of an Aquifer in a Geostatistical Estimation of Transmissivity. - Groundwater, vol. 26 (1) Burschil T, Scheer W, Wiederhold H, Kirsch R (2012): Groundwater situation on a glacially affected barrier island. Submitted to Hydrology and Earth System Sciences - an Interactive Open Access Journal of the European Geosciences Union Burval Working Group (2006) Groundwater Resources in buried valleys- a challenge for Geosciences. - Leibniz-Institut für Angewandte Geophysik, Hannover Scheer W, König B, Steinmann F (2012): Die Grundwasserverhältnisse von Föhr. - In: Der Untergrund von Föhr: Geologie, Grundwasser und Erdwärme - Ergebnisse des INTERREG-Projektes CLIWAT. - Landesamt für Landwirtschaft, Umwelt und ländliche Räume Schleswig-Holstein, Flintbek
Hermann Wilhelm Abich im Kaukasus: Zum zweihundertsten Geburtstag
NASA Astrophysics Data System (ADS)
Seibold, Ilse; Seibold, Eugen
2006-11-01
Hermann Abich was born in 1806 in Berlin and died in 1886 in Graz. He grew up in a wealthy family which had friendly relations with famous scientists like Alexander von Humboldt, Leopold von Buch or Carl Ritter. After his studies in Heidelberg and Berlin he turned to extended fieldwork at the volcanoes of Italy. In 1833 1834 he published excellent petrological/chemical results and got soon a good scientific reputation. Thus he was nominated as Professor for Geology and Mineralogy of the prestigious Russian University in Dorpat (now Tartu, Esthonia) in 1842. In 1844 he was sent to Armenia by the Russian authorities. For the next three decades his fieldwork with about 190 publications was concentrated on the Great and Lesser Caucasus. This was a period of Russian expansion to the South with long-lasting regional fights. But he enjoyed the support of powerful governors. He was an indefatigable and enthusiastic explorer and a precise observer and designer. His interests covered many fields: morphology, glaciology, structural geology, volcanology with Thermal Springs, mineral resources from hydrocarbons, coal, salt to ores, stratigraphy and paleontology as a base for geological maps. But he also gave advice for practical problems, and he was active in meteorology, botany and archaeology. Alltogether he became “the Father of Caucasus Geology”. The following sketch stresses only on three aspects of his activities. He was one of the first pioneers in hydrocarbon exploration, especially around the anticlines with the mud volcanoes near Baku. In many respects, however, his fundamental ideas were erronous. He explained the structure of the Great Caucasus by the traditional theories of Leopold von Buch and Elie de Beaumont. The Caucasus anticline “was elevated by forces acting from beneath”. Following them he tried to discover regularities in the strike of mountain chains. Similarily he treated volcanism like Alexander von Humboldt and Leopold von Buch with their two groups of phenomena: voluminous, mostly basaltic “elevation craters” versus isolated, mostly trachytic and relatively small cones of “true volcanoes”. In spite of the isolation of the Caucasus region he had cultivated continuously contacts with leading geologists in Europe and was honoured by many institutions. He left Russia in 1876 for Vienna planning to write there the final monograph volumes about his investigations but he died before he could complete them.
Zechmeister, T.C.; Farnleitner, A.H.; Rocke, T.E.; Pittner, F.; Rosengarten, R.; Mach, R.L.; Herzig, A.; Kirschner, A.K.T.
2002-01-01
Botulism is one of the most important bird diseases world-wide and is caused by the intoxication with Botulinum-Neurotoxin-C1 (BoNt-C1), which is produced by toxigenic clostridia under appropriate conditions. Avian botulism leads regularly to large losses among the migrating bird populations breeding and resting at the saltwater pools of the Austrian national park Neusiedler See-Seewinkel. Despite of its ethical dubiousness and its high technical expense the mouse-bioassay is still used as the routine standard method for the detection of BoNt-C1. According to the 3R-concept, in vitro alternative methods for the qualitative detection of BoNt-C1 (immunostick-ELISA) and a corresponding BoNt-C1 gene fragment (nested-PCR) were established. In order to estimate the BoNt-C1 production potential the methods were tested with sediment samples from different saltwater pools subjected to cultivation conditions appropriate for in vitro BoNt-C1-production. With the mouse-bioassay, 52 out of 77 samples were found to have a positive toxin production potential. The immunostick-ELISA showed a similar sensitivity as the mouse-bioassay and exhibited a highly significant positive correlation (r=0.94; p<0.001) with the mouse-bioassay in detecting BoNt-C1. The nested-PCR approach revealed higher numbers of positive BoNt-C1 gene fragment detections as compared to the direct toxin analysis approaches. A weak correlation (r=0.21; p=0.07) with the mouse-bioassay was discernible, no correlation was found with the immunostick-ELISA (r=0.09; p=0.46). Obviously, the PCR approach detected the BoNt-C1 gene fragment in some of the samples where no toxin expression has occurred. Thus it is suggested that the qualitative immunostick-ELISA represents a potential in vitro alternative to the mouse-bioassay for assessing the BoNt-C1 production potential in environmental samples. In contrast, qualitative BoNt-C1 gene fragment detection via PCR led to an overestimation of the actual toxin production potential.
NASA Astrophysics Data System (ADS)
Surmik, Dawid; Pelc, Andrzej
2012-01-01
The oxygen stable isotopes investigation to elucidate thermoregulatory strategies in Middle Triassic basal sauropterygians is currently ongoing at University of Silesia and University of Maria Curie-Skłodowska. The results of similar studies on Late Mesozoic marine reptiles indicate that some of fully aquatic reptiles like plesiosaurs or ichthyosaurs could be warm-blooded animals. Our investigation is an important part of the aim of the research project "The Marine and Terrestrial reptiles in the Middle Triassic environmental background of Southern Poland" to solve the thermoregulation issue in basal marine reptiles and show how, and when did homoiothermy evolve in Sauropterygia.. Homeothermy and gigantothermy were important physiological adaptations which allowed sauropterygian ancestors to leave the shores and conquer the open seas and oceans. Badania nad paleofizjologią kopalnych kręgowców ostatnimi laty stały się niezwykle modne. Polegają one na kompilacji danych uzyskanych wieloma komplementarnymi metodami z zakresu fizjologii (badania współczesnych form, zgodnie z zasadą aktualizmu) i geochemii izotopowej. Szczególnie interesujące stały się kwestie gospodarki termicznej u gadów kopalnych, które silnie dyskutowane są w kręgach badaczy dinozaurów (Reid, 1997; Ruben i in., 1996). Badania na izotopach stabilnych tlenu szkliwa zębowego przeprowadzone na obligatoryjnie morskich gadach okresu jurajskiego i kredowego (Bernard i in., 2010; zob. także Motani, 2010) wskazują, że ichtiozaury i plezjozaury późniejszego mezozoiku mogły być zwierzętami stałocieplnymi. Brak obecnie jednoznacznych danych dotyczących gospodarki termicznej bazalnych przedstawicieli gadów morskich z triasu, choć przyjmuje się, że te zamieszkujące nadbrzeżne i marginalne strefy mórz zwierzęta były gadami zmiennocieplnymi (pojkilotermicznymi), podobnie jak współczesny legwan morski, czy też smok z Komodo. Czy przejście z pojkilo- do homojotermii było jedną z adaptacji umożliwiających mezozoicznym gadom morskim ekspansję na otwarte morza? Na pytanie w jaki sposób ewoluowała homojotermia u gadów morskich spróbuje odpowiedzieć projekt badawczy pt. "Gady morskie i lądowe na tle środowiska triasu środkowego południowej Polski", realizowany na Uniwersytecie Śląskim.
NASA Astrophysics Data System (ADS)
Pohle, Ina; Hu, Yuzhu; Schaaf, Wolfgang; Gerwin, Werner; Hinz, Christoph
2016-04-01
The constructed Hühnerwasser ("Chicken Creek") catchment is an ecohydrological system in an initial state of development. The catchment with an area of 6 ha was built up from quaternary sediments in the post-mining landscape of Lusatia in Eastern Germany and serves as a critical zone observatory for detecting ecosystem transition. The soil substrate is characterized as sands to loamy sands with low carbonate contents but significant amounts of gypsum in the sediments of the catchment. The catchment undergoes a strong transition from an abiotic system in the initial years to a system with growing influence of biota. Concerning the hydrology, a regime shift from surface runoff to groundwater flow dominated processes is significant. It is of interest, whether the catchment transition is also reflected by hydrogeochemical indicators. We assume gypsum dissolution as dominant process at the catchment scale. In order to investigate the hydrogeochemical evolution of the catchment we analysed electric conductivity, calcium and sulphate concentrations and pH-values of biweekly composite samples from 2007-2013 of the atmospheric deposition, of runoff and soil water. The two observation points in the flowing water represent surface runoff and groundwater discharge respectively. Soil water has been analysed at four soil pits in three depths. The monitoring data were provided by the Research Platform Chicken Creek (https://www.tu-cottbus.de/projekte/en/oekosysteme/startseite.html). From the macroscopic data analysis we found an exponential decay of the electric conductivity, calcium and sulphate concentrations in the flowing waters and some of the soil pits. In the flowing water, the decrease slope of the electric conductivity and the calcium and sulphate concentrations is almost identical. The calcium / sulphate molar ratio as an indicator of gypsum dissolution is almost equal to one up to 2010, afterwards more calcium than sulphate is released. The pH-values in the flowing and soil water are generally higher than in the atmospheric deposition, they do show variabilites but no trend behaviour. The time series analyses showed that the interannual variability of the hydrogeochemical properties is less pronounced in the first years of ecosystem development than in the later years. This leads to the conclusion, that in the first years, gypsum dissolution is the major source for calcium and sulphate in the soil and the flowing waters. The increasing interannual variability and changes in the calcium / sulphate ratio in the later years might be interpreted as hydrogeochemical response to the development of vegetation and acidification due to the development of the rhizosphere.
Bewehrte Betonbauteile unter Betriebsbedingungen: Forschungsbericht
NASA Astrophysics Data System (ADS)
Eligehausen, Rolf; Kordina, Karl; Schießl, Peter
2000-09-01
Vorwort. Teil I: Rißbreiten (Gert König) 1 Ein mechanisches Modell zur Erhöhung der Vorhersagegenauigkeit über die Rißbreiten unter Betriebsbedingungen (Gert König und Michael Fischer). 1.1 Einleitung und Zielsetzung. 1.2 Versuchsprogramm. 1.3 Meßtechnik. 1.4 Belastung und Versuchsdurchführung. 1.5 Literatur. 2 Rißbreiten und Verformungszunahme vorgespannter Bauteile unter wiederholter Last - und Zwangbeanspruchung (Gert König und Michael Fischer). 2.1 Einleitung und Zielsetzung. 2.2 Versuchsprogramm. 2.3 Auswertung. 2.4 Ausblick. 2.5 Literatur. 3 Rißverhalten von Beton bei plötzlicher Abkühlung (Viktor Mechtcherine und Harald S. Müller). 3.1 Einleitung. 3.2 Experimentelle Untersuchungen. 3.3 Formulierung eines Stoffgesetzes für thermisch beanspruchten Beton. 3.4 Riß entwicklung in einer Betonplatte unter Temperaturschock. 3.5 Zusammenfassung. 3.6 Literatur. 4 Stahlfaserbeton unter Betriebsbedingungen bei Dauerbeanspruchung (Bo Soon Kang, Bernd Schnütgen und Friedhelm Stangenberg). 4.1 Einleitung. 4.2 Wirkung von Stahlfasern im Beton. 4.3 Versuchsprogramm. 4.4 Untersuchungen zum Verbundverhalten. 4.5 Untersuchungen zum Verhalten unter Biegebeanspruchung. 4.6 Theoretische Untersuchungen. 4.7 Literatur. 5 Experimentelle Untersuchungen an Stahlbeton-Zugkörpern unter wiederholter Belastung zur Ermittlung des versteifenden Einflusses der Mitwirkung des Betons zwischen den Rissen (Petra Seibel und Gerhard Mehlhorn). 5.1 Einleitung. 5.2 Ansatz zur Bestimmung der Mitwirkung des Betons zwischen den Rissen nach Eurocode 2, Model Code 90 und Günther. 5.3 Experimentelle Untersuchungen. 5.4 Ergebnisse. 5.5 Zusammenfassung. 5.6 Literatur. 6 Riß- und Verformungsverhalten von vorgefertigten Spannbetonträgern unter Betriebsbedingungen bei besonderer Berücksichtigung des Betonalters (Monika Maske, Heinz Meichsner und Lothar Schubert). 6.1 Einleitung. 6.2 Beschreibung der Fertigteilträger. 6.3 Belastungsversuche. 6.4 Ergebnisse. 6.5 Zusammenfassung. 6.6 Literatur. Teil II: Verbundfragen (Rolf Eligehausen). 1 Ein mechanisches Modell zur Beschreibung des Verbundverhaltens zwischen Stahl und Beton (Gert König, Nguyen V. Tue und Wolfgang Kurz). 1.1 Einleitung. 1.2 Beschreibung der Kraftübertragung zwischen Stahl und Beton. 1.3 Vorstellung des Modells. 1.4 Materialgesetze für die Berechnung der Verformung des Fachwerks. 1.5 Vergleich zwischen Versuch und Modell. 1.6 Zusammenfassung und Ausblick. 1.7 Literatur. 2 Verbund unter nicht ruhender Beanspruchung (Rainer Koch und György L. Balázs). 2.1 Übersicht über die durchgeführten Versuche. 2.2 Versuchkörper und Materialien. 2.3 Versuchseinrichtungen. 2.4 Versuche und Ergebnisse. 2.5 Zusammenfassung und Ausblick. 2.6 Literatur. 3 Trag- und Verformungsverhalten von Stahlbetontragwerken unter Betriebsbelastung (Thomas M. Sippel und Rolf Eligehausen). 3.1 Einleitung. 3.2 Allgemeines. 3.3 Rechenmodell und Materialmodelle. 3.4 Vergleich zwischen Versuchen und Rechnung. 3.5 Parameterstudien. 3.6 Vereinfachtes Rechenmodell. 3.7 Zusammenfassung. 3.8 Literatur. 4 Verbundverhalten von Spanngliedern mit nachträglichem Verbund unter Betriebsbedingungen (Josef Hegger, Norbert Will und Heiner Cordes). 4.1 Einführung. 4.2 Verbundverhalten von Spanngliedern. 4.3 Zeitabhängige Effekte des Verbunds. 4.4 Versuche unter statischer Langzeitbeanspruchung. 4.5 Versuche unter dynamischer Langzeitbeanspruchung. 4.6 Bemessungsvorschlag für Verbundkennwerte. 4.7 Zusammenfassung. 4.8 Literatur. 5 Spannungsumlagerungen in gemischt bewehrten Querschnitten (Josef Hegger, Heiner Cordes und Matthias Rudlof). 5.1 Problemstellung und Zielsetzung. 5.2 Spannungsumlagerungen bei gemischter Bewehrung. 5.3 Versuche an zentrischen Zugkörpern. 5.4 Versuchsergebnisse. 5.5 Ermittlung und Vergleich von Verbundkennwerten. 5.6 Zusammenfassung. 5.7 Literatur. Teil III: Bauteile (Karl Kordina). 1 Einfluß von Längsbeanspruchungen auf den Neigungswinkel der Schubrisse (Marek Los und Ulrich Quast). 1.1 Einleitung. 1.2 Ungerissener Zustand. 1.3 Gerissener Zustand. 1.4 FEM-Berechnungen. 1.5 Zusammenfassung. 1.6 Literatur. 2 Auswirkungen des unterschiedlichen Verformungsverhaltens bei Beund Entlastung auf die Beanspruchungen im Gebrauchszustand (Jochen Keysberg). 2.1 Einleitung und Zielsetzung. 2.2 Modelle für die Momenten-Verkrümmungs-Beziehung. 2.3 Programm zur nichtlinearen Berechnung. 2.4 Einfluß von Lastwechseln auf nichtlineare Berechnungen. 2.5 Zusammenfassung. 2.6 Literatur. 3 3D-Analyse von Balken-Stützen-Verbindungen aus normal- und hochfestem Beton unter zyklischer Beanspruchung (Josko Ozbolt, Yijun Li und Rolf Eligehausen). 3.1 Einleitung. 3.2 Materialmodell und FE-Diskretisierung. 3.3 Numerische Analyse. 3.4 Schlußfolgerungen. 3.5 Zusammenfassung. 3.6 Literatur. 4 Der Einfluß von freien Schwingungen infolge dynamischer Belastung auf die Deterioration eines Bauwerks (Manfred Specht und Michael Kramp). 4.1 Veranlassung des Forschungsvorhabens. 4.2 Forschungsziele. 4.3 Versuchsträger, Versuchsdurchführung und Versuchsergebnisse. 4.4 Auswertung. 4.5 Ergebnisse für die Systemidentifikation von Stahlbetonkonstruktionen. 4.6 Literatur. 5 Lokale Schwind- und Temperaturgradienten in bewehrten, oberflächennahen Zonen von Betonkonstruktionen (Josef Eibl und Stephan Kranz). 5.1 Problemstellung. 5.2 Temperatur- und Feuchtefeldberechnung. 5.3 Numerisches Berechnungsmodell zur Spannungsanalyse im Beton. 5.4 Durchgeführte Versuche. 5.5 Rechnerische Untersuchungen. 5.6 Zusammenfassung. 5.7 Literatur. 6 Wassereindringverhalten von Flüssigkeiten beim Biegeriß (Gert König und Christian Brunsch). 6.1 Problemstellung. 6.2 Experimentelle Untersuchungen. 6.3 Entwicklung eines Modells zur rechnerischen Abschätzung des zeitlichen Eindringens einer Wassermenge in Biegerisse von Stahlbetonbauteilen. 6.4 Zusammenfassung und Diskussion der Versuchsreihe. 6.5 Literatur. 7 Dauerhaftigkeitsprobleme von offenen Becken (György Iványi, Wilhelm Buschmeyer und Udo Paas). 7.1 Einleitung. 7.2 Bestandsaufnahme. 7.3 Felduntersuchungen. 7.4 Laboruntersuchungen. 7.5 Berechnungen. 7.6 Entwurfs- und Ausführungskriterien. 7.7 Literatur. Teil IV: Korrosion und Ermüdung (Peter Schießl). 1 Ermüdungskorrosion von Spannstahl (Herbert Kupfer und Hans H. Müller). 1.1 Forschungsziel. 1.2 Korrosionsversuche an Spannstählen. 1.3 Methoden zur Erkennung von Anrissen. 2 Korrosionsermüdung von Stahl in Betonbauteilen (J. W. Weber, Peter Schießl und Jörg Moersch). 2.1 Allgemeines. 2.2 Wesentliche Einflüsse bei der Schwingungsrißkorrosion. 2.3 Ziel der Untersuchungen. 2.4 Prüfkörper und Betone. 2.5 Chloridbeaufschlagung. 2.6 Ergebnisse. 2.7 Zusammenfassung. 2.8 Literatur. 3 Untersuchungen zum Rißkorrosionsverhalten von Spannstählen unter Betriebsbedingungen (Jörg Moersch und Peter Schießl). 3.1 Einführung und Ziel. 3.2 Untersuchungsprogramm. 3.3 Ergebnisse. 3.4 Zusammenfassung der Ergebnisse. 3.5 Literatur. 4 Schwingfestigkeit von Stahlbeton bei Beanspruchung mit Meerwasser (Ulf Nürnberger und Willibald Beul). 4.1 Einführung. 4.2 Mechanismus. 4.3 Schwingfestigkeitsuntersuchungen. 4.4 Folgerungen. 4.5 Literatur. 5 Wasserstoffinduzierte Spannungsrißkorrosion von zugschwellbeanspruchten Spannstählen (Ulf Nürnberger und Willibald Beul). 5.1 Einführung. 5.2 Untersuchungen. 5.3 Folgerung. 5.4 Literatur. 6 Selbstheilung und Bewehrungskorrosion bei von schwach sauren Wässern durchströmten Trennrissen in bewehrtem Beton (Wieland Ramm und Michaela Biscoping). 6.1 Übersicht. 6.2 Einleitung. 6.3 Versuchsprogramm. 6.4 Versuchsergebnisse. 6.5 Zusammenfassung. 6.6 Literatur. 7 Untersuchungen zur Reibermüdung bei teilweise vorgespannten Bauteilen (Heiner Cordes, Josef Hegger und Jens U. Neuser). 7.1 Einleitung. 7.2 Stand der Forschung. 7.3 Versuchsaufbau und Versuchsdurchführung. 7.4 Versuchsergebnisse. 7.5 Zusammenfassung und Ausblick. 7.6 Literatur. Teil V: Junger Beton (Ferdinand S. Rostásy). 1 Ermittlung und Berechnung des Nullspannungstemperaturgradienten im jungen Beton (Rupert Springenschmid und Jean-Louis Bostvironnois). 1.1 Einleitung. 1.2 Der Nullspannungstemperaturgradient. 1.3 Ergebnisse und Schußfolgerungen. 1.4 Literatur. 2 Experimentelle Ermittlung der Verformungskennwerte von jungem Beton und der Zwangspannungen in situ (Markus Plannerer und Rupert Springenschmid). 2.1 Einleitung. 2.2 Versuche zur Ermittlung der Verformungskennwerte und der Zwangspannungen. 2.3 Laborergebnisse. 2.4 In-situ-Ergebnisse. 2.5 Zusammenfassung. 2.6 Literatur. 3 Werkstoffeigenschaften jungen Betons--Experimente und Modellierung (Ferdinand S. Rostásy und Alex-W. Gutsch). 3.1 Einleitung. 3.2 Versuche und Modellbildung. 3.3 Zusammenfassung. 3.4 Literatur.
Rendon, J S; Swinton, M; Bernthal, N; Boffano, M; Damron, T; Evaniew, N; Ferguson, P; Galli Serra, M; Hettwer, W; McKay, P; Miller, B; Nystrom, L; Parizzia, W; Schneider, P; Spiguel, A; Vélez, R; Weiss, K; Zumárraga, J P; Ghert, M
2017-05-01
As tumours of bone and soft tissue are rare, multicentre prospective collaboration is essential for meaningful research and evidence-based advances in patient care. The aim of this study was to identify barriers and facilitators encountered in large-scale collaborative research by orthopaedic oncological surgeons involved or interested in prospective multicentre collaboration. All surgeons who were involved, or had expressed an interest, in the ongoing Prophylactic Antibiotic Regimens in Tumour Surgery (PARITY) trial were invited to participate in a focus group to discuss their experiences with collaborative research in this area. The discussion was digitally recorded, transcribed and anonymised. The transcript was analysed qualitatively, using an analytic approach which aims to organise the data in the language of the participants with little theoretical interpretation. The 13 surgeons who participated in the discussion represented orthopaedic oncology practices from seven countries (Argentina, Brazil, Italy, Spain, Denmark, United States and Canada). Four categories and associated themes emerged from the discussion: the need for collaboration in the field of orthopaedic oncology due to the rarity of the tumours and the need for high level evidence to guide treatment; motivational factors for participating in collaborative research including establishing proof of principle, learning opportunity, answering a relevant research question and being part of a collaborative research community; barriers to participation including funding, personal barriers, institutional barriers, trial barriers, and administrative barriers and facilitators for participation including institutional facilitators, leadership, authorship, trial set-up, and the support of centralised study coordination. Orthopaedic surgeons involved in an ongoing international randomised controlled trial (RCT) were motivated by many factors to participate. There were a number of barriers to and facilitators for their participation. There was a collective sense of fatigue experienced in overcoming these barriers, which was mirrored by a strong collective sense of the importance of, and need for, collaborative research in this field. The experiences were described as essential educational first steps to advance collaborative studies in this area. Knowledge gained from this study will inform the development of future large-scale collaborative research projects in orthopaedic oncology. Cite this article: J. S. Rendon, M. Swinton, N. Bernthal, M. Boffano, T. Damron, N. Evaniew, P. Ferguson, M. Galli Serra, W. Hettwer, P. McKay, B. Miller, L. Nystrom, W. Parizzia, P. Schneider, A. Spiguel, R. Vélez, K. Weiss, J. P. Zumárraga, M. Ghert. Barriers and facilitators experienced in collaborative prospective research in orthopaedic oncology: A qualitative study. Bone Joint Res 2017;6:-314. DOI: 10.1302/2046-3758.65.BJR-2016-0192.R1. © 2017 Ghert et al.
NASA Astrophysics Data System (ADS)
Łojek, Jacek
2012-01-01
The objective of this paper was to use the ArcView 3.2 application for spatial modelling of the exploration forms (pits) in the Bykowszczyzna 8 archaeological site. The 3D digital documentation at a specific scale makes possible easy archiving, presentation, and simple spatial analyses of the examined objects. The ArcView 3.2 programme and its extensions (Spatial Analyst and 3D Analyst), commonly used as analytical tools in geomorphology, were inventively used for inventory-making in the archaeological site. Traditional field sketches were only a base, which enables entering data into the programme, and don't documentation material in itself as it used to be. The method of data visual ization proposed by the author gives new possibilities for using the GIS platform software. W artykule zaprezentowano projekt wykorzystania aplikacji ArcView 3.2 w modelowaniu obrazu form eksploracyjnych na stanowisku archeologicznym Bykowszczyzna 8. Stanowisko zostało objęte programem ratowniczych badań archeologicznych w związku z budową obwodnicy miasta Kocka na trasie krajowej nr 19 relacji Siemiatycze-Lublin-Nisko. Zasadniczy etap prac archeologicznych na stanowisku Bykowszczyzna 8 obejmował pozyskanie oraz inwentaryzację materiału zabytkowego wypełniającego formy. W wyniku wybrania tego materiału, w obszarze stanowiska pozostają charakterystyczne jamy gospodarcze, które stanowią negatywowy obraz wypełnienia formy. Kształt jam jest dokumentowany w postaci szkiców oraz fotografii. Dokumentacja ta stanowi punkt wyjścia procesu digitalizacji (materiał źródłowy). Treścią artykułu jest sporządzenie cyfrowej dokumentacji zawierającej plany stanowiska w kilku poziomach szczegółowości (dla pasa, pola oraz pojedynczych form) oraz wygenerowanie modeli w standardzie 3D. Dokumentacja taka umożliwia łatwą archiwizację oraz czytelną prezentację wybranych obiektów. Możliwe jest również wykonanie analiz przestrzennych. Funkcje programu ArcView 3.2. oraz jego rozszerzeń: Spatial Analyst i 3D Analyst wykorzystywane jako narzędzia analityczne w geomorfologii, w sposób nowatorski zostały zastosowane w pracach inwentaryzacyjnych na stanowisku archeologicznym. Wykonywane tradycyjnymi metodami szkice terenowe, są w tym przypadku tylko podkładem umożliwiającym wprowadzenie danych do programu, a nie jak dotychczas materiałem dokumentacyjnym samym w sobie. Zaproponowana przez autora metoda wizualizacji danych, daje nowe możliwości wykorzystania programów środowiska GIS oraz jest kolejnym krokiem w dziedzinie współpracy geografów i archeologów.
Towards more accurate wind and solar power prediction by improving NWP model physics
NASA Astrophysics Data System (ADS)
Steiner, Andrea; Köhler, Carmen; von Schumann, Jonas; Ritter, Bodo
2014-05-01
The growing importance and successive expansion of renewable energies raise new challenges for decision makers, economists, transmission system operators, scientists and many more. In this interdisciplinary field, the role of Numerical Weather Prediction (NWP) is to reduce the errors and provide an a priori estimate of remaining uncertainties associated with the large share of weather-dependent power sources. For this purpose it is essential to optimize NWP model forecasts with respect to those prognostic variables which are relevant for wind and solar power plants. An improved weather forecast serves as the basis for a sophisticated power forecasts. Consequently, a well-timed energy trading on the stock market, and electrical grid stability can be maintained. The German Weather Service (DWD) currently is involved with two projects concerning research in the field of renewable energy, namely ORKA*) and EWeLiNE**). Whereas the latter is in collaboration with the Fraunhofer Institute (IWES), the project ORKA is led by energy & meteo systems (emsys). Both cooperate with German transmission system operators. The goal of the projects is to improve wind and photovoltaic (PV) power forecasts by combining optimized NWP and enhanced power forecast models. In this context, the German Weather Service aims to improve its model system, including the ensemble forecasting system, by working on data assimilation, model physics and statistical post processing. This presentation is focused on the identification of critical weather situations and the associated errors in the German regional NWP model COSMO-DE. First steps leading to improved physical parameterization schemes within the NWP-model are presented. Wind mast measurements reaching up to 200 m height above ground are used for the estimation of the (NWP) wind forecast error at heights relevant for wind energy plants. One particular problem is the daily cycle in wind speed. The transition from stable stratification during nighttime to well mixed conditions during the day presents a big challenge to NWP models. Fast decrease and successive increase in hub-height wind speed after sunrise, and the formation of nocturnal low level jets will be discussed. For PV, the life cycle of low stratus clouds and fog is crucial. Capturing these processes correctly depends on the accurate simulation of diffusion or vertical momentum transport and the interaction with other atmospheric and soil processes within the numerical weather model. Results from Single Column Model simulations and 3d case studies will be presented. Emphasis is placed on wind forecasts; however, some references to highlights concerning the PV-developments will also be given. *) ORKA: Optimierung von Ensembleprognosen regenerativer Einspeisung für den Kürzestfristbereich am Anwendungsbeispiel der Netzsicherheitsrechnungen **) EWeLiNE: Erstellung innovativer Wetter- und Leistungsprognosemodelle für die Netzintegration wetterabhängiger Energieträger, www.projekt-eweline.de
NASA Astrophysics Data System (ADS)
Reháková, Daniela; Michalík, Jozef; Lakova, Iskra; Petrova, Silviya; López-Martínez, Rafael
2017-04-01
Characteristic morphology and assemblage composition of of ancient planktonic ciliate protozoan loricas made of them a favourable tool for interregional correlation. They are playing a key role in the biostratigraphy of Upper Jurassic/Lower Cretaceous sequences not only in areas lacking in ammonites. Detailed comparative analysis of calpionellid associations along all the Tethys shows variations in relative species abundance, variability, diversity changes and also in variability of their lorica structure. As oligotrophic organisms, they were sensitive to environmental perturbations such a change of the water temperature, chemistry, salinity and the nutrient supply. Mass occurrence of these microfossils was associated with shallow basins and with intrashelf elevations. These enviroments were characterized by a permanent current regime positively influencing the nutrient input. It is worth to mention, that the abundance and size of calpionellid loricas decrease towards the open sea - they are less frequent in deep basins, being very rare or seldom in reefal and lagoonal settings or in proximal settings with permanent river-influenced elevated nutrient level and with changes in surface water chemistry. Two diversity maxima were recorded within the Intermedia and the Oblonga subzones and two crisis were observed at the end of the Colomi Subzone and at the beginning of the Murgeanui Subzone. During the last mentioned events, deformations (aberrant morphology) were documented in Crassicollaria, Tintinnopsella and Praecalpionellites loricas (Reháková, 2000; Lakova and Petrova, 2013; López-Martínez et al., 2015). Teratological (malformed) tests may coincide either with metal poisoning or with salinity changes. Global climate changes could have been evoked by active volcanoes noted at this time (Casellato and Erba, 2015). Oxygen isotope data signalized late Tithonian cooling followed by a warming at the beginning of the Berriasian (Weissert and Erba, 2004). Huge portion of siliclastic input which was documented during the Late Tithonian and Valanginian could indicate tectonic activity combined with rised humidity and with the eustatic sea-level drop (Michalík, 2007). Rapid decrease of oligotrophic nannoconid abundance correlable with the extinction of calpionellids has been interpreted as the Cretaceous first biocalcification crisis (Erba and Tremolada, 2004). Thus, thinning and deformation of calpionellid loricas could have been associated with distant volcanic effusions producing metallic contaminants and salinity variations. Acknowledgement: The research was supported by APVV-14-0118 projects, by the VEGA Projects 2/0034/16 and 2/0057/16, by bilateral SK-BG 2013-0012 Project (registered as DNTS 01/9 by the Bulgarian Science Fund), and by Projekts PAPIT IA 102616, PAPIT IN 108516 of the UNAM.
NASA Astrophysics Data System (ADS)
Novák, A.; Harangi, Sz.; Kiss, B.; Szarka, L.; Molnár, Cs.
2012-04-01
The Ciomadul volcano is the youngest in the Carpathian-Pannonian region (eastern-central Europe) and there are indications that magma could still reside at the depth. Therefore, we performed a magnetotelluric investigation with the aim to detect a still hot magma reservoir. The results were compared with those coming from the petrological investigations. The Ciomadul volcanic complex contains a central amalgamated set of lava domes and a few peripheral domes with two explosion craters in the central zone. Geologically the domes were built by effusion of high viscosity dacite magma. Lava dome collapses resulted in volcanoclastic deposits (block-and ash flow deposits). The magmatic activity could have been connected to the seismically powerful region of the nearby Vrancea zone. Twelve long period magnetotelluric (MT) soundings were carried out to aim of define to electric resistivity distribution of the volcanic system and find correlation with the petrologic model to confirm the hot magma chamber beneath the region. At each MT site, the horizontal components of the magnetic and the electric fields were observed between the 0.00006-4 Hz frequency range. The vertical component of the magnetic field was also recorded to analyze the lateral conductivity inhomogenities under the subsurface. Soundings were located in non systematic grid and we selected several profiles which may represent the resistivity distribution of subsurface and cross-sections were applied as well. At started by dimensionality analysis and decomposition parameters the most part of the measuring are multi-dimensional. Traditional MT interpretation - 1D, 2D inversion and modeling - was carried out taking into account the decomposition results. 3D interpretation is not realized because of weak resolution of the data and large memory requirement. Both the local 1D inversion and the 2D inversion along the profiles defined a low resistivity zones at about 2 km depth which in continuation at depth with a deeper and wide extensive conductive anomaly (15-30 km). Its lateral distribution and depth changes can be indicate any melting process in the volcano. The shallower anomaly can be correlated with altered and clayey volcanic materials or groundwater storage. The deeper low resistive layers can be connected to the melt storage or magma volumes which were not emptied during the last eruption. This depth range is consistent with our petrological investigation suggesting a dacitic magma reservoir at 6-14 km depth, whereas another, basaltic magma storage zone could be at the lower crustal depth (25-30 km) This research on the Ciomadul volcano belongs partly to the scientific project supported by the OTKA (Hungarian National Research Fund) No. K68587. This projekt was supported by the János Bolyai Scholarship of the Hungarian Academy of Sciences.
NASA Astrophysics Data System (ADS)
Kosowski, Piotr; Stopa, Jerzy
2012-11-01
Paper discusses issues relating to the valuation of investment efficiency in the oil and gas industry using a real options theory. The example of investment pricing using real options was depicted and it was confronted with the analysis executed with the use of traditional methods. Indicators commonly used to evaluate profitability of investment projects, based on a discounted cash flow method, have a few significant drawbacks, the most meaningful of which is staticity which means that any changes resulting from a decision process during the time of investment cannot be taken into consideration. In accordance with a methodology that is currently used, investment projects are analysed in a way that all the key decisions are made at the beginning and are irreversible. This approach assumes, that all the cash flows are specified and does not let the fact that during the time of investment there may appear new information, which could change its original form. What is also not analysed is the possibility of readjustment, due to staff managment's decisions, to the current market conditions, by expanding, speeding up/slowing down, abandoning or changing an outline of the undertaking. In result, traditional methods of investment projects valuation may lead to taking wrong decisions, e.g. giving up an owned exploitation licence or untimely liquidation of boreholes, which seem to be unprofitable. Due to all the above-mentioned there appears the necessity of finding some other methods which would let one make real and adequate estimations about investments in a petroleum industry especially when it comes to unconventional resources extraction. One of the methods which has been recently getting more and more approval in a world petroleum economics, is a real options pricing method. A real option is a right (but not an obligation) to make a decision connected with an investment in a specified time or time interval. According to the method a static model of pricing using DCF is no longer used; an investment project is divided into a series of steps and after each one there is a range of possible investment decisions, technical and organizational issues and all the others called `real options'. This lets one take many different varieties of modyfiying a strategy while pricing the project. This also makes it possible to react to the changing inner and outer situation and introducing new information while accomplishing the investment project. Owing to those, the decision process is a continuous operation, what is an actual vision of a real investment project management in the petroleum industry.
NASA Astrophysics Data System (ADS)
Maurer, Thomas; Gustavos Trujillo Siliézar, Carlos; Oeser, Anne; Pohle, Ina; Hinz, Christoph
2016-04-01
In evolving initial landscapes, vegetation development depends on a variety of feedback effects. One of the less understood feedback loops is the interaction between throughfall and plant canopy development. The amount of throughfall is governed by the characteristics of the vegetation canopy, whereas vegetation pattern evolution may in turn depend on the spatio-temporal distribution of throughfall. Meteorological factors that may influence throughfall, while at the same time interacting with the canopy, are e.g. wind speed, wind direction and rainfall intensity. Our objective is to investigate how throughfall, vegetation canopy and meteorological variables interact in an exemplary eco-hydrological system in its initial development phase, in which the canopy is very heterogeneous and rapidly changing. For that purpose, we developed a methodological approach combining field methods, raster image analysis and multivariate statistics. The research area for this study is the Hühnerwasser ('Chicken Creek') catchment in Lower Lusatia, Brandenburg, Germany, where after eight years of succession, the spatial distribution of plant species is highly heterogeneous, leading to increasingly differentiated throughfall patterns. The constructed 6-ha catchment offers ideal conditions for our study due to the rapidly changing vegetation structure and the availability of complementary monitoring data. Throughfall data were obtained by 50 tipping bucket rain gauges arranged in two transects and connected via a wireless sensor network that cover the predominant vegetation types on the catchment (locust copses, dense sallow thorn bushes and reeds, base herbaceous and medium-rise small-reed vegetation, and open areas covered by moss and lichens). The spatial configuration of the vegetation canopy for each measurement site was described via digital image analysis of hemispheric photographs of the canopy using the ArcGIS Spatial Analyst, GapLight and ImageJ software. Meteorological data from two on-site weather stations (wind direction, wind speed, air temperature, air humidity, insolation, soil temperature, precipitation) were provided by the 'Research Platform Chicken Creek' (https://www.tu-cottbus.de/projekte/en/oekosysteme/startseite.html). Data were combined and multivariate statistical analysis (PCA, cluster analysis, regression trees) were conducted using the R-software to i) obtain statistical indices describing the relevant characteristics of the data and ii) to identify the determining factors for throughfall intensity. The methodology is currently tested and results will be presented. Preliminary evaluation of the image analysis approach showed only marginal, systematic deviation of results for the different software tools applied, which makes the developed workflow a viable tool for canopy characterization. Results from this study will have a broad spectrum of possible applications, for instance the development / calibration of rainfall interception models, the incorporation into eco-hydrological models, or to test the fault tolerance of wireless rainfall sensor networks.
Shallow landslides: lessons from Sachseln 1997
NASA Astrophysics Data System (ADS)
Graf, Frank; Grunder, Karl
2017-04-01
A retrospective analysis of the heavy rainstorm in 1997 in Sachseln with almost 500 shallow landslides - half of them within forests, the other half in open land - reveals interesting perspectives. A total of 218 of these landslides were comprehensively documented, including 107 events triggered in forests that have been subjected to a more accurate analysis. A preliminary statistical approach based on distribution functions applied to slope inclination α and shear angle Φ' gives rise to the assumption that optimally managed forests have high protection potential - optimally managed in this context means the NaiS standard improved by findings of our project SOSTANAH. NaiS: www.bafu.admin.ch/publikationen/publikation/00732/index.html?lang=de SOSTANAH: www.slf.ch/ueber/organisation/oekologie/gebirgsoekosysteme/projekte/SOSTANH/index_EN Thus, it can be speculated that up to about four-fifths of these landslides could have been prevented, provided the forests fit the corresponding requirements. In an exemplary calculation, only about 80 ha of the investigated forest area (˜400 ha) would have been affected or roughly 20 landslides triggered of the 107 analysed. Given the specific characteristics for sites and improvement in Sachseln, the approximate costs for forest management, starting from an almost uncovered landslide area up to a mature protection forest (120 years), are estimated at about 35'000 CHF ha-1, yielding yearly 300 CHF ha-1 (price basis: 2016). The expected average annual expenditure to sustainably ensure continued existence of optimal protection forests is slightly lower. In the case of Sachseln, this amounts to about 12 Mio CHF for the whole area of 400 ha and a 100-year period (cost estimate by oeko-b, Stans: www.oeko-b.ch). The total damage of the 1997 event in Sachseln, with an estimated return period of 100 years, exceeded 120 Mio CHF. Of course, destruction was not merely caused by or obviously linked to shallow landslides. Nevertheless, from a long-term perspective, it is most likely that the investment into forest management meeting the requirements of most effective protection against shallow landslides will by far pay off the roughly 10% of the costs for clean-up and repair operations. It would be valuable to have further investigations on cost-efficiency and potential trade-offs of adapted protection forest management for slope stabilisation. For it is only when providing a broad and sound basis that recommendations for enhanced maintenance of protection forests will be reliable and acceptable. Furthermore, if the focus is primarily on "natural protection measures", it has to be kept in mind that respective investments will not amortise immediately! This is an issue not to be neglected since it is well known that "society does not necessarily perceive what cannot be seen" …
NASA Astrophysics Data System (ADS)
Frodl, Peter
Von den Anfängen der Quantenmechanik bis heute gibt es Versuche, sie als statistische Theorie über Ensembles individueller klassischer Systeme zu interpretieren. Die Bedingungen, unter denen Theorien verborgener Parameter zu deterministischen Beschreibungen dieser individuellen Systeme als klassisch angesehen werden können, wurden von Einstein, Podolsky und Rosen 1935 formuliert: 1. Physikalische Systeme sind im Prinzip separierbar. 2. Zu jeder physikalischen Größe, deren Wert man ohne Störung des betrachteten Systems mit Sicherheit voraussagen kann, existiert ein ihr entsprechendes Element der physikalischen Realität.Zusammen sind sie, wie Bell 1964 gezeigt hat, prinzipiell unverträglich mit der Quantenmechanik und unhaltbar angesichts neuerer Experimente. Diese erweisen einmal mehr die Quantenmechanik als richtige Theorie. Um ihre Ergebnisse zu verstehen, müssen wir entweder die in der klassischen Physik als selbstverständlich angesehene Annahme der Separierbarkeit physikalischer Systeme aufgeben oder unseren Begriff der physikalischen Realität revidieren. Eine Untersuchung des Begriffs der Separabilität und einige Überlegungen zum Problem der Messung von Observablen zeigen, daß eine Änderung des Begriffs der physikalischen Realität unumgänglich ist. Der revidierte Realitätsbegriff sollte mit klassischer Physik und Quantenmechanik verträglich sein, um ein einheitliches Weltbild zu ermöglichen.Translated AbstractDo Quantum Mechanics Force us to Drastically Change our View of the World? Thoughts and Experiments after Einstein, Podolsky and RosenSince the advent of quantum mechanics there have been attempts of its interpretation in terms of statistical theory concerning individual classical systems. The very conditions necessary to consider hidden variable theories describing these individual systems as classical had been pointed out by Einstein, Podolsky and Rosen in 1935: 1. Physical systems are in principle separable. 2. If it is possible to predict with certainty the value of a physical quantity without disturbing the system under consideration, then there exists an element of physical reality corresponding to this physical quantity.
Hainschitz, I; Rieger, K; Siegl, H
2002-06-01
In Austria an index of 3 μg/kg of Ochratoxin A for coffee, 0,3 μg/kg for fruit juices and 0,2 μg/kg for beer is discussed. The laboratory of the food inspection authority of the state of Vorarlberg investigated the contribution of selected foodstuffs to the daily OTA intake and compared it with the recommendation of the scientific food committee of the EC. The focal point of this study was on beverages (coffee, coffee substitutes, beer and fruit juices) and their ingredients.ZUSAMMENFASSUNG: Die Untersuchungsergebnisse von Bier, Fruchtsaft und Kaffee [Diagramm 1] zeigen, dass die Mehrzahl der Proben nur sehr schwach bis gar nicht belastet waren. Die OTA-Belastung lag bei der Mehrzahl der Proben unter der Nachweisgrenze von 0,3 μg/kg bzw. 0,01μg/1. Einzelne Proben waren aber erheblich belastet, sodass bei starkem Konsum (Fruchtsaft im Sommer) eine überschreitung der vom SCF vorgeschlagenen Höchstmenge nicht auszuschließen ist. Die Ergebnisse der Kaffeemitteluntersuchung [Diagramm 2] belegen eine höhere OTA-Belastung bei mehr als der Hälfte der Proben. Wenn die vom SCF vorgeschlagene Höchstaufnahme von 5 ng pro Tag und kg Körpergewicht zu Grunde gelegt wird, resultiert für eine 60 kg schwere Person ein Wert von 0,3 μg/Tag. Das bedeutet bei einem mit 100 μg/kg OTA kontaminierten Kaffeeersatz und dem Konsum nur einer Tasse (5 - 7 g Pulver), dass alleine aus dieser Quelle diese Höchstaufnahme deutlich überschritten wird. Der Eintrag über die restliche Nahrung wie Cerealien, die für etwa die Hälfte der OTA-Aufnahme verantwortlich sind, bleibt hier unberücksichtigt. Die Untersuchungen belegen, dass die Einhaltung der in österreich vorgeschlagenen Richtwerte bei Bier, Fruchtsäften und Kaffee keine Schwierigkeiten bereitet. Für Kaffeemittel und andere Trockenfrüchte als Weintrauben [3] wurde allerdings noch kein Richtwert vorgeschlagen. Die Ergebnisse belegen aber, dass gerade für Kaffemittel und verschiedene Trockenfrüchte vor dem Hintergrund fehlender Höchstwerte ein Richtwert in der Größenordnung von 3 μg/kg bzw. 10 μg/kg hilfreich wäre, bis die Festlegung der gemeinschaftsrechtlicher Höchstgehalte erfolgt. Mit Hinblick auf die in der Einleitung beschriebene toxische Wirkung von OTA ist es im Sinne eines vorbeugenden Verbraucherschutzes wichtig, diese hochbelasteten Chargen zu erkennen und aus dem Verkehr zu nehmen. Ursache für die OTA-Kontamination ist vor allem eine mangelhafte Produktionshygiene in den Erzeugerländern. Dort liegt auch das größte Potential für eine Verringerung der OTA-Belastung. Die überprüfung der Lebensmittel auf Ochratoxin A durch die amtliche Lebensmittelkontrolle ist ein notwendiger Beitrag zum Schutz der öffentlichen Gesundheit und zur weiteren Reduktion der Aufnahme.
NASA Astrophysics Data System (ADS)
Monjezi, Masoud; Farzaneh, Farhad; Asadi, Ahmad
2013-09-01
Blasting is one of the most important operations, which has a great technical and economical effect on the mining projects. Criteria such as fragmentation (operation ultimate objective) and ground vibration, flyrock, airblast, etc. (operation side effects) should be considered in the assessment of blasting operation. A suitable pattern should be able to provide both reasonable (required) fragmentation and blasting side effects. In order to evaluate blasting performance, operational research models such as multi attribute decision making technique (MADM) can be applied. Technique for order preference by similarity to an ideal solution (TOPSIS), a branch of MADM, is a strong method for pattern ranking. The other quantitative method which is applied in the evaluation of systems' efficiency is data envelopment analysis (DEA) model. In this paper, an attempt has been made to develop a new hybrid MADM model for selecting the most appropriate blasting pattern in Chadormalu iron mine, Iran. In this regard, DEA method was utilized to select the efficient blast patterns thereafter TOPSIS was used to recognize the most suitable pattern amongst the selected patterns by DEA method. It was concluded that the patterns J, G and B are the most appropriate patterns for blasting operations in the Chadormalu iron mine. Prace strzałowe to jedne z kluczowych operacji w znacznym stopniu determinujące efektywność ekonomiczną wielu projektów górniczych. W planowaniu prac strzałowych uwzględnić należy podstawowe kryteria, takie jak rozdrobnienie skał (ostateczny cel operacji), wibracje podłoża, występowanie rozrzutu skał, i podmuchów powietrza (efekty uboczne). Odpowiedni harmonogram prac zapewnić powinien zarówno odpowiedni poziom rozdrobnienia (wymiary brył) jak i ograniczenie skutków ubocznych prac. Dla oceny skuteczności prac strzałowych zastosować można modele badań operacyjnych, np. modele oparte o wielokryterialną technikę decyzyjną MADM, a technika ustalania kolejności preferowanych rozwiązań oparta o podobieństwo do rozwiązania idealnego (TOPSIS), wywodząca się z MADM, jest skuteczną metodą ustalania rankingu wzorców. Inną metodą ilościową stosowaną do oceny efektywności systemów jest metoda analizy danych DEA. W niniejszym artykule dokonano próby opracowania hybrydowego modelu MADM do wyboru najbardziej korzystnego planu prac strzałowych w kopalni rud żelaza Chadormalu, w Iranie. W ramach badań wykorzystano metodę DEA do wyboru skutecznego planu prac strzałowych, następnie zastosowano podejście TOPSIS dla rozpoznania najbardziej odpowiedniego wzorca spośród tych wybranych przy pomocy metody DEA. Stwierdzono, że wzorce oznaczone jako J, G i B są najodpowiedniejsze do zastosowania przy pracach strzałowych prowadzonych w kopalni rud żelaza Chadormalu.
NASA Astrophysics Data System (ADS)
Pauri, Massimo
2011-11-01
A critical re-examination of the history of the concepts of space (including spacetime of general relativity and relativistic quantum field theory) reveals a basic ontological elusiveness of spatial extension, while, at the same time, highlighting the fact that its epistemic primacy seems to be unavoidably imposed on us (as stated by A.Einstein "giving up the extensional continuum … is like to breathe in airless space"). On the other hand, Planck's discovery of the atomization of action leads to the fundamental recognition of an ontology of non-spatial, abstract entities (Quine) for the quantum level of reality (QT), as distinguished from the necessarily spatio-temporal, experimental revelations ( measurements). The elementary quantum act (measured by Planck's constant) has neither duration nor extension, and any genuinely quantum process literally does not belong in the Raum and time of our experience. As Heisenberg stresses: "Während also die klassische Physik ein objectives Geschehen in Raum and Zeit zum Gegenstand hat, für dessen Existenz seine Beobachtung völlig irrelevant war, behandelt die Quantentheorie Vorgänge, die sozusagen nur in den Momenten der Beobachtung als raumzeitliche Phänomene aufleuchten, und über die in der zwischenzeit anschaulische physikalische Aussagen sinloss sind". An admittedly speculative, hazardous conjecture is then advanced concerning the relation of such quantum ontology with the role of the pre-phenomenal continuum (Husserl) in the perception of macroscopically distinguishable objects in the Raum and time of our experience. Although rather venturesome, it brings together important philosophical issues. Coherently with recent general results in works on the foundations of QT, it is assumed that the linearity of quantum dynamical evolution does not apply to the central nervous system of living beings at a certain level of the evolutionary ramification and at the pre-conscious stage of subjectivity. Accordingly, corresponding to the onset of a non-linear dynamic evolution, a `primary spatial' reduction is `continually' taking place, thereby constituting the neural precondition for the experience of distinguishable macroscopic objects in the continuous spatial extension. While preventing the theoretically possible quantum superpositions of macroscopic objects from being perceivable by living beings, the `primary reduction' has no effect on the standard processes concerning quantum level entities involved in laboratory man-made experiments. In this connection, an experimental check which might falsify the conjecture is briefly discussed. The approach suggested here, if sound, leads to a naturalization of that part of Kant's Transcendental Aesthetics than can survive the Euclidean catastrophe. According to such naturalized transcendentalism, "space can well be transcendental without the axioms being so", in agreement with a well-known statement by Boltzman. Finally, as far as QT is concerned, the conjecture entails that a scheme for quantum measurement of the von Neumann type cannot even `leave the ground', vindicating Bohr's viewpoint. A quantum theory of measurement, in a proper sense, turns out to be unnecessary and in fact impossible.
NASA Astrophysics Data System (ADS)
Kessels, W.; Graesle, W.
2002-12-01
The results of 16 years of research at the scientific drilling test site KTB Oberpfalz show that fluid flow and open hydraulic fractures exist down to 9,101m (Kessels, 1991; Huenges et. al., 1997). This means that in this seismically low active area, crustal dynamics produces stress accumulation and related fracturing (Zoback et. al. 1993). Two major fractured fault zones cross the KTB main hole at about 4,000 m and 7,100m depth. Hydraulic communication between the KTB main hole and the 4,000 m deep pilot hole shows that the upper 400 m thick fracture zone has a good transmissivity and a very low fracture porosity (Kessels and KÂ\\x81ck, 1995). The distance between both holes was 200m. The isotopic components of the fluid recovered from this zone indicate a west - east fluid flow from a topographic lower sedimentary area to the higher hilly area of the KTB site (M”ller et. al. 1997). To explain this phenomenon, the existence of a permanent, density driven dilution motor pushing such a flow is suggested. With such a system it is possible to explain fluid flow in the deep crust against the higher potential of the groundwater surface. By means of a simple convection model it can be shown that the density driven dilution motor can create a more effective hydraulic potential than a motor driven by precipitation and the related hydraulic head of the groundwater surface. Furthermore, with common geothermal gradients, the geothermal convection motor is weak compared with the fluid density effects discussed here. References: KESSELS, W. (1991): Objectives and execution of hydraulic experiments in the KTB-Oberpfalz borehole within the long-term measurement and test programme, Scientific Drilling 2, S. 287-298. ZOBACK, D., APEL, R., BAUMGÂŽRTNER, J., BRUDY, M., EMMERMANN, R, ENGESER, B., FUCHS, K., KESSELS, W., RISCHMšLLER, H., RUMMEL, F., VERNIK, L. (1993): Upper-crustal strength inferred from stress measurements to 6 km depth in the KTB borehole, Nature, 365, S. 633-635. KESSELS, W. and KšCK, J (1995): Hydraulic Communication in the Crystalline Rock Between the two Boreholes of the Continental Deep Drilling Programme in Germany, Int. J. Rock Mech. Min. Sci. & Geomech. Abstr., 32, S. 37-47. M™LLER, P., WEISE, S., ALTHAUS, E., BACH, W., BEHR, H. J., BORCHARDT, R, BRŽUER, K., DRESCHER, J., ERZINGER, J., FABER, E., HORN, E., HUENGES, E., KŽMPF, W., KESSELS, W., KIRSTEN, T., LANDWEHR, D., LODEMANN, M., MACHON, L., PEKDEGER, A., PIELOW, H.-U., REUTEL, C., SIMON, K., WALTER, J., WEINLICH, F. H., ZIMMER, M. (1997): Paleo- and Recent Fluids in the Upper Continental Crust - Results from the German Continental Deep Drilling Projekt (KTB), Journal of Geophysical Resarch, 102, B8, S 18223 - 18254. HUENGES, E., ENGESER, B., ERZINGER, J., KESSELS, W., KšCK, J. (1997): The Permeable Crust: Geohydraulic Properties Down to 9000 m Depth - Results from the German Continental Deep Drilling Project (KTB), Journal of Geophysical Resarch, 102, B8, S 18 255 -18 265.
NASA Astrophysics Data System (ADS)
Werner, Deljana
2002-05-01
Im Rahmen dieser Arbeit gelang es, katalytische Antikörper zur Hydrolyse von Benzylphenylcarbamaten sowie zahlreiche monoklonale Antikörper gegen Haptene herzustellen. Es wurden verschiedene Hapten-Protein-Konjugate unter Verwendung unterschiedlicher Kopplungsmethoden hergestellt und charakterisiert. Zur Generierung der hydrolytisch aktiven Antikörper wurden Inzuchtmäuse mit KLH-Konjugaten von 4 Übergangszustandsanaloga (ÜZA) immunisiert. Mit Hilfe der Hybridomtechnik wurden verschiedene monoklonale Antikörper gegen diese ÜZA gewonnen. Dabei wurden sowohl verschiedene Immunisierungsschemata als auch verschiedene Inzuchtmausstämme und Fusionstechniken verwendet. Insgesamt wurden 32 monoklonale Antikörper gegen die verwendeten ÜZA selektiert. Diese Antikörper wurden in groen Mengen hergestellt und gereinigt. Zum Nachweis der Antikörper-vermittelten Katalyse wurden verschiedene Methoden entwickelt und eingesetzt, darunter immunologische Nachweismethoden mit Anti-Substrat- und Anti-Produkt-Antikörpern und eine photometrische Methode mit Dimethylaminozimtaldehyd. Der Nachweis der hydrolytischen Aktivität gelang mit Hilfe eines Enzymsensors, basierend auf immobilisierter Tyrosinase. Die Antikörper N1-BC1-D11, N1-FA7-C4, N1-FA7-D12 und R3-LG2-F9 hydrolysierten die Benzylphenylcarbamate POCc18, POCc19 und Substanz 27. Der Nachweis der hydrolytischen Aktivität dieser Antikörper gelang auch mit Hilfe der HPLC. Der katalytische Antikörper N1-BC1-D11 wurde kinetisch und thermodynamisch untersucht. Es wurde eine Michaelis-Menten-Kinetik mit Km von 210 µM, vmax von 3 mM/min und kcat von 222 min-1 beobachtet. Diese Werte korrelieren mit den Werten der wenigen bekannten Diphenylcarbamat-spaltenden Abzyme. Die Beschleunigungsrate des Antikörpers N1-BC1-D11 betrug 10. Das ÜZA Hei3 hemmte die hydrolytische Aktivität. Dies beweist, dass die Hydrolyse in der Antigenbindungsstelle stattfindet. Weiter wurde zwischen der Antikörperkonzentration und der Umsatzgeschwindigkeit eine lineare Abhängigkeit festgestellt. Die thermodynamische Gleichtgewichtsdissoziationskonstante KD des Abzyms von 2,6 nM zeugt von einer sehr guten Affinität zum ÜZA. Hydrolytisch aktiv waren nur Antikörper, die gegen das Übergangszustandsanalogon Hei3 hergestellt worden waren. Es wird vermutet, dass die Hydrolyse der Benzylphenylcarbamate über einen Additions-Eliminierungsmechanismus unter Ausbildung eines tetraedrischen Übergangszustandes verläuft, dessen analoge Verbindung Hei3 ist. Im Rahmen der Generierung von Nachweisantikörpern zur Detektion der Substratabnahme bei der Hydrolyse wurden Anti-Diuron-Antikörper hergestellt. Einer der Antikörper (B91-CG5) ist spezifisch für das Herbizid Diuron und hat einen IC50-Wert von 0,19 µg/l und eine untere Nachweisgrenze von 0,04 µg/l. Ein anderer Antikörper (B91-KF5) reagiert kreuz mit einer Palette ähnlicher Herbizide. Mit diesen Antikörpern wurde ein empfindlicher Labortest, der ein Monitoring von Diuron auf Grundlage des durch die Trinkwasserverordnung festgeschriebenen Wertes für Pflanzenschutzmittel von 0,1 µg/l erlaubt, aufgebaut. Der Effekt der Anti-Diuron-Antikörper auf die Diuron-inhibierte Photosynthese wurde in vitro und in vivo untersucht. Es wurde nachgewiesen, dass sowohl in isolierten Thylakoiden, als auch in intakten Algen eine Vorinkubation der Anti-Diuron-Antikörper mit Diuron zur Inaktivierung seiner Photosynthese-hemmenden Wirkung führt. Wurde der Elektronentransport in den isolierten Thylakoiden oder in Algen durch Diuron unterbrochen, so führte die Zugabe der Anti-Diuron-Antikörper zur Reaktivierung der Elektronenübertragung. Attempts to produce catalytic antibodies for hydrolysis of arylcarbamates and arylureas: The aim of the investigations was to produce antibodies which are able to cleave herbicides resistant to naturally occuring enzymes. Structurally similar carbamate and urea derivatives were chosen for the experiments. Phosphonate derivatives were synthesized that mimick possible transition state analogues in structure and charge. Mice were immunized with 4 different derivatives after conjugating them to carrier proteins. 32 hybridomas were established that produce monoclonal antibodies binding to these derivatives. The possible cleavage of substrates was determined by immunoassays with monoclonal antibodies against the substrate and the products and with a photometric method based on dimethylaminocinammonaldehyde. The measuring of cleavage products was succeeded by an amperometric method. The enzyme sensor was based on immobilized tyrosinase which oxidizes p-chlorophenol and phenol. The antibodies N1-BC1-D11, N1-FA7-C4, N1-FA7-D12 und R3-LG2-F9 hydrolysed the benzylphenylcarbamates POCc18, POCc19 und Substance 27. The hydrolytic activity of these antibodies was also succeeded with HPLC. The catalytic antibody N1-BC1-D11 was investigated kinetically and thermodynamically. A Michaelis-Menten-Kinetic was observed (at pH 8.0 exhibited a Km 210 µM, a vmax 3 mM/min and a kcat 222 min-1). These values are in the range of the values obtained for the antibody-catalysed hydrolysis of diphenylcarbamates. The rate enhancement of N1-BC1 was 10. The reaction was completely inhibited by stoichiometric quantities of the transition state analogue Hei3. This is consistent with the affinity of the abzyme to Hei3 of 2.6 nM, determined by BIAcore assay. Only antibodies generated against Hei3 showed hydrolytic activity. The hydrolysis of benzylphenylcarbamates presumably occurs via an addition-elimination-Mechanism involving a tetrahedral intermediate. In summary, this work presents the first example of antibody-catalysed hydrolysis of benzylphenylcarbamates. Monoclonal anti-diuron antibodies were generated that bind to the herbicide diuron with an extremely low equilibrium dissociation constant. A sensitive immunoassay with a low detection limit of 0.2 nM for diuron was established. This is the most sensitive immunological method for detection of diuron known so far. These antibodies were also used in vitro and in vivo to prevent diuron-dependent inhibition of photosynthesis or to restore photosynthesis after inhibition. In isolated thylakoids prepared from spinach leaves (Spinacia oleracea L.) the diuron-inhibited Hill reaction was reconstituted immediately following the addition of the monoclonal antibodies. In an in vivo approach the photosynthetic oxygen evolution of the cell wall deficient mutant (cw 15) of the green alga Chlamydomonas reinhardtii Dangeard was monitored. The antibodies prevented the diuron-dependent inhibition of photosynthesis and restored photosynthesis after inhibition. Transgenic plants that synthesize and accumulate these antibodies or antibody fragments and are therefore diuron-resistant can be created.
NASA Astrophysics Data System (ADS)
Schiperski, Ferry; Zirlewagen, Johannes; Hillebrand, Olav; Scheytt, Traugott; Licha, Tobias
2013-04-01
The studied karst spring 'Gallusquelle' is located on the Swabian Alb in Southwest Germany. The catchment area of the 'Gallusquelle' measures about 45 km². An average annual discharge of 0.5 m³/s serves drinking water to about 40,000 people via a waterworks. The study is part of the research project 'AGRO' (www.projekt-agro.de). The main objective of the project 'AGRO' is to develop a tool for the process-based risk management of micropollutants and pathogens in rural karst aquifers on catchment scale. As particle related transport could play an important role for micropollutants and pathogens, the characterization of particles in the spring water is one focus of this work. Furthermore we will attempt to correlate physicochemical parameters with the characteristics of particles in the spring water in order to enhance the knowledge of the transport mechanisms within the karst aquifer. For the measurement of the particle concentration and the particle size distribution the CIS 1 (GALAI) was used. The system works in a range of 0.5 to 150 µm with a resolution of at least 0.5 µm. The measurement is based on time-of-transition method using a laser beam. The turbidity was measured with an ULTRATURB PLUS (DR.LANGE) and a Fluorometer (GGUN-FL30, ALBILLIA), both working with scattering light method. To verify these measurements we used a portable turbidimeter (2100P IS PORTABLE TURBIDIMETER, HACH) working with the ratio of the signals from the scattered and the transmitted light. Temperature and electrical conductivity where also measured with the GGUN-FL30, whereby the electrical conductivity was verified with a portable multimeter (HQ 40D, HACH). Discharge, pH, water hardness, anion- and cation concentration, total organic carbon (TOC) and dissolved organic carbon (DOC) were also determined. To characterize the particles, the spring water was filtered onsite and the filter cake was analyzed in the laboratory. For SEM (scanning electron microscopy) including EDAX (energy dispersive X-ray spectroscopy) the water was filtered through PC membrane filters (∅=25mm) using a polycarbonate syringe. For X-ray diffraction the water was filtered through CA membrane filters (∅=142 mm) using a stainless steel pressure holder and a peristaltic pump. Both filters had an average pore size of 0.45 µm. Also we have analyzed sediments that where collected downstream of the online measurements and in the raw water tank of a waterworks that is located about 250 m downstream of the spring. During an average discharge the turbidity and the number of particles are around the limit of detection. Both increase with increasing discharge while the average particle size does not increase until a considerably higher-than-average discharge is reached. Particles in the size range of 0.5 - 2.0 µm display the main numeric amount (70 - 100 %) of the measurable particles under present discharge conditions. Only under high discharge conditions particles sizes > 5 µm increase significantly. Particles > 20 µm are rare during the whole period of measurement. In contrast to other works we include mineralogical studies of the particles in the spring water. Thus we can examine the relevance of mineralogical properties of the particles for the transport of micropollutants. Actual results of XRD analyses indicate that calcite, quartz and clay minerals dominate the turbidity. EDAX analyses with SEM confirm these measurements.
NASA Astrophysics Data System (ADS)
Poppe, Michaela; Zitek, Andreas; Scheikl, Sigrid; Heidenreich, Andrea; Kurz, Roman; Schrittwieser, Martin; Muhar, Susanne
2014-05-01
Due to immense technological and economic developments, human activities producing greenhouse gases, destructing ecosystems, changing landscapes and societies are influencing the world to such a degree, that the environment and human well-being are significantly affected. This results in a need to educate citizens towards a scientific understanding of complex socio-environmental systems. The OECD programme for international student assessment (PISA - http://www.pisa.oecd.org) investigated in detail the science competencies of 15-year-old students in 2006. The report documented that teenagers in OECD countries are mostly well aware of environmental issues but often know little about their causes or options to tackle these challenges in the future. For the integration of science with school learning and involving young people actively into scientific research Sparkling Science projects are funded by the Federal Ministry of Science and Research in Austria. Within the Sparkling Science Project "FlussAu:WOW!" (http://www.sparklingscience.at/de/projekte/574-flussau-wow-/) scientists work together with 15 to 18-year-old students of two Austrian High Schools over two years to assess the functions and processes in near natural and anthropogenically changed river floodplains. Within the first year of collaboration students, teachers and scientists elaborated on abiotic, biotic and spatial indicators for assessing and evaluating the ecological functionality of riverine systems. After a theoretical introduction students formulated research questions, hypotheses and planned and conducted field work in two different floodplain areas in Lower Austria. From the second year on, students are going to develop qualitative models on processes in river floodplain systems by means of the learning software "DynaLearn". The "DynaLearn" software is an engaging, interactive, hierarchically structured learning environment that was developed within the EU-FP7 project "DynaLearn" (http://www.dynalearn.eu) to capture and simulate qualitative causal relationships across disciplines and scales. In "FlussAu:WOW!" students work in groups of two and are guided to think about processes and interactions of hydrological, biological, ecological, spatial and societal elements within a river catchment. They can develop their own causal models and scenarios (e.g., hydrological changes in river run off due to landscape changes in the upper catchment) but also can compare their conceptions to expert models that will be provided. As main benefit, the models help students to reflect their own conceptions in the light of scientific knowledge but also scientists learn about the viewpoints and conceptions young students might have from their environment. The comparison of pre- and post-tests conducted within the "FlussAu:WOW!" project showed that students increased significantly their factual knowledge on different processes in river systems during the first year. Questions regarding functions, processes and elements of riverine landscapes were answered more extensively. This can be ascribed to students` active involvement in scientific research. However, the causal understanding still showed room for improvement, which will be tackled during the next qualitative modelling exercises. Summarizing, involvement of secondary school students in research projects is an effective means to increase scientific literacy when active participation with reflective integration are combined. Ensuring that young people are proficient in system knowledge and understanding makes it more likely that environmental and sustainable considerations are soundly addressed in the future.
Simulation Method of Designing and Selecting Tensioning Systems for Mining Belt Conveyors
NASA Astrophysics Data System (ADS)
Kulinowski, Piotr
2014-03-01
This article deals with a methodology developed to design and select tensioning systems with using simulation studies on a belt conveyor model. It describes the structure of a dynamic model of a belt conveyor with distributed parameters and details of physical models of the applied belt tensioning systems. For proper display and comparison of work described tensioning systems are shown examples of the results of simulations carried out on a discrete model of the mining belt conveyor. Presented methodology has been verified through industrial research and realization of a number of complex projects requiring simulation tests of take-up systems of belt conveyors. W artykule przedstawiono symulacyjną metodę projektowania i doboru układów napinania taśmy, wykorzystującą wyniki badań modelowych, będącą często wymaganym rozszerzeniem stosowanych analitycznych metod obliczeniowych (Kulinowski, 2013b). Z uwagi na zjawiska falowe występujące w taśmie podczas nieustalonych stanów pracy przenośników taśmowych, rozruchu, hamowania i pracy przy zmiennej ilości nadawy, wyniki obliczeń uzyskane z wykorzystaniem standardowych metod obliczeniowych można uznać jedynie za szacunkowe lub wstępne do przeprowadzenia badań symulacyjnych. Charakter rozruchu przenośnika taśmowego zależy od typu zastosowanego urządzenia rozruchowego i napinającego, mas wprowadzanych w ruch oraz od własności sprężystych taśmy. Problemy związane z analizą pracy układów napędowych i urządzeń napinających podczas rozruchu przenośników cięgnowych rozwiązano z wykorzystaniem modelu dyskretnego o parametrach rozłożonych (Dolipski et al., 2012; Kulinowski, 2012) opisanego w pierwszej części publikacji. Badania symulacyjne przeprowadzone na takim modelu umożliwiają ocenę pracy przenośnika taśmowego wykorzystującego taśmę z rdzeniem tkaninowym lub stalowym, dlatego też kolejny rozdział artykułu poświęcono modelom reologicznym taśm przenośnikowych. Klasyczne metody projektowania nie uwzględniają złożonych charakterystyk różnych typów układów napinania, dlatego też w kolejnej części artykułu zamieszczono sparametryzowane dyskretne modele fizyczne wybranych typów urządzeń napinających, stosowanych powszechnie w górniczych przenośnikach taśmowych: sztywnych, grawitacyjnych, hydraulicznych i nadążnych. Dla właściwego zobrazowania i porównania pracy opisanych układów napinania przedstawiono przykładowe wyniki badań symulacyjnych przeprowadzonych na dyskretnym modelu przenośnika taśmowego. Przedstawiona w artykule metodyka została weryfikowana poprzez badania przemysłowe oraz realizacje wielu złożonych projektów przenośników taśmowych wymagających przeprowadzenia badań symulacyjnych dynamiki pracy modeli urządzeń napinających taśmę (Kulinowski, 2012).
NASA Astrophysics Data System (ADS)
de Palézieux, Larissa; Loew, Simon; Zwahlen, Peter
2017-04-01
Within the scope of planning a hydropower pump storage plant in the Poschiavo valley by Lagobianco SA (Repower AG), numerous cored boreholes with depths of 50 to 300 m were drilled at elevations between 963 and 2538 m a.s.l.. In several boreholes Lugeon and transient pressure packer tests were executed at various depths and pore water pressure sensors were properly installed in short monitoring intervals. Several of the boreholes intersect large suspended rock slides showing the characteristic zones of highly fragmented rock mass above a kakirite layer of several tens of meters thickness. This study presents long term transient pressure records from these deep boreholes and relates them to seasonal recharge trends from snow melt and summer rainstorm events. Annual pore pressure amplitudes at depths between 45 and 278 meters, range between 4 and 40 meters. Recharge from snow melt water production is obtained from the Degree-Day Method (Rango and Martinec, 1995), despite a considerable distance between the meteorological station and the location of the boreholes. First estimations of storage properties of the aquifers intersected by the boreholes are determined by fitting a combined snow melt and precipitation pressure function to the observed (delayed and attenuated) pore pressure records using a convolution of the one-dimensional pressure diffusion equation for a semi-infinite aquifer of constant thickness (De Marsily, 1986). Initial hydraulic conductivity values were taken directly from hydraulic tests executed by Lagobianco SA in similar rock types (Figi et al., 2014). For most boreholes this strongly simplified approach yields impressively good fits of the transient pressure records and specific storage/yield values, which vary significantly as a function of sensor depth below the piezometric level. Values range from 1e-6 m-1 to 5e-4 m-1 for confined gneiss-schists aquifers and around 3e-2 m-1 for phreatic aquifers, where pore pressure sensors are located only 20-30 m below the phreatic surface. The obtained values for specific storage and the assumed values for hydraulic conductivity were then verified with a one-dimensional finite element free-surface hydraulic model under steady-state and transient conditions, again fitting the simulated values to the observed pore water pressure records. Boundary conditions were set to constant head at the foot of the column and to infiltration with seepage face review at the top of the column. The results support the observed values for hydraulic conductivity as obtained from the packer tests with low permeabilities in the intact rock mass (K=2e-8 - 3e-10 m/s) and a higher permeability in rock slide masses (around 2e-6 m/s). Furthermore, the values for specific storage found by convolution could be confirmed. Finally, the complex local hydrogeology of an alpine mountain slope with a large suspended rock slide was investigated with a 2D finite element model under steady state and transient conditions. Preliminary results support the theory of a hydraulic barrier at the base of large rock slides with a perched aquifer above and partially unsaturated conditions below the sliding plane. REFERENCES De Marsily, G. (1986), Quantitative Hydrogeology (pp. 198-199). Masson. Figi, D., Brunold, F. & Zwahlen, P. (2014), Felskennwerte - Kennwertebericht, Projekt Lagobianco. Büro für Technische Geologie AG, Sargans. Rango, A., & Martinec, J. (1995), Revisiting the Degree-Day Method for Snowmelt Computations. JAWRA Journal of the American Water Resources Association, 31(4), 657-669.
A man-induced landslide in Lower Austria: natural conditions versus man-made causes
NASA Astrophysics Data System (ADS)
Kittel, Roland; Ottner, Franz; Damm, Bodo; Terhorst, Birgit
2010-05-01
In many cases, composition and characteristics of hillslope sediments are of particular importance related to landslide research in low mountain areas. The interaction of geologic, geomorphologic, and hydrologic factors determines the susceptibility for mass movements, which is affected by human impact as well. The present study aims to investigate factors that control mass movements and natural and anthropogenic impacts. On March 8th 2009, a landslide of 30.000 to 50.000 m³ occurred that destroyed a large part of a sports ground in the village of Hintersdorf, municipality of St. Andrä-Wördern (Lower Austria). As a result of extensive water supply ground liquefaction was initiated and the slide mass moved in form of a mud flow about 200 m down slope. As a consequence a small forest area and a fishpond were destroyed and an adjacent road was damaged. Closely to the event, first studies started and showed that the Hintersdorf landslide was triggered by extensive water saturation combined with hydrostatic pressure inside the slide mass. Heavy and long-lasting rainfalls and the start of snowmelt caused strong seepage and soil water saturation. Furthermore, insufficient ground drainage and overflow of a small retention pond intensified the unfavourable impact on soil-mechanical stability. Further studies included archive data analyse, field survey, as well as laboratory analyse and showed that high landslide susceptibility at the Hintersdorf landslide site was caused by a bundle of factors that control the process: The sports ground was built nearby the head of a trough valley that collects interflow and surface run-off from the surrounding slopes. The Flysch bedrock is covered extensively by clayey slope deposits. Furthermore, in the area of the valley head a waste deposit was operated up to the 1980's that resulted in a thick waste filling there. The Hintersdorf sports ground was constructed in 1984 on top of the waste body. Preliminary results show that hillslope sediments and soils in the landslide area are almost impermeable due to their high amount of clay. On the one hand, they are able to seal the floor and to prevent the penetration of polluted water. On the other hand they provide a slide plane for mass movements. In contrast, the comparably low consolidated waste body forms a water reservoir. Due to technical operation, for example the deposition and mechanical compaction of soil material in context with the construction of the Hintersdorf sports ground, the waste body was partly sealed. To outline the result it can be stated that the unfavourable meteorological conditions during the first days of March 2009 caused an increased water pressure in the waste body, which triggered the landslide with damages to forest and infrastructure in Hintersdorf. References Damm, B., Terhorst, B., 2009. A model of slope formation related to landslide activity in the Eastern Prealps, Austria. Geomorphology, doi:10.1016/j.geomorph.2009.11.001. Damm, B., Terhorst, B., Köttritsch, E., Ottner, F., Mayrhofer, M., 2008. Zum Einfluss bodenphysikalischer und bodenmechanischer Parameter in quartären Deckschichten auf Massenbewegungen im Wienerwald. Abh. Geol. B.-A. 62: 33-37. Terhorst, B., Damm, B., Peticzka, R., Köttritsch, E., 2009. Reconstruction of Quaternary landscape formation as a tool to understand present geomorphological processes in the Eastern Prealps (Austria). Quaternary International, 209: 66-78.
Modelling Seasonal Carbon Dynamics on Fen Peatlands
NASA Astrophysics Data System (ADS)
Giebels, Michael; Beyer, Madlen; Augustin, Jürgen; Roppel, Mario; Juszczak, Radoszlav; Serba, Tomasz
2010-05-01
In Germany more than 99 % of fens have lost their carbon and nutrient sink function due to heavy drainage and agricultural land use especially during the last decades and thus resulted in compression and heavy peat loss (CHARMAN 2002; JOOSTEN & CLARKE 2002; SUCCOW & JOOSTEN 2001; AUGUSTIN et al. 1996; KUNTZE 1993). Therefore fen peatlands play an important part (4-5 %) in the national anthropogenic trace gas budget. But only a small part of drained and agricultural used fens in NE Germany can be restored. Knowledge of the influence of land use to trace gas exchange is important for mitigation of the climate impact of the anthropogenic peatland use. We study carbon exchanges between soil and atmosphere on several fen peatland use areas at different sites in NE-Germany. Our research covers peatlands of supposed strongly climate forcing land use (cornfield and intensive pasture) and of probably less forcing, alternative types (meadow and extensive pasture) as well as rewetted (formerly drained) areas and near-natural sites like a low-degraded fen and a wetted alder woodland. We measured trace gas fluxes with manual and automatic chambers in periodic routines since spring 2007. The used chamber technique bases on DROESLER (2005). In total we now do research at 22 sites situated in 5 different locations covering agricultural, varying states of rewetted and near-natural treatments. We present results of at least 2 years of measurements on our site of varying types of agricultural land use. There we found significant differences in the annual carbon balances depending on the genesis of the observed sites and the seasonal dynamics. Annual balances were constructed by applying single respiration and photosynthesis CO2 models for each measurement campaign. These models were based on LLOYD-TAYLOR (1994) and Michaelis-Menten-Kinetics respectively. Crosswise comparison of different site treatments combined with the seasonal environmental observations give good hints for the identification of main flux driving parameters. Based on this procedure we developed a specific methane efflux model, mainly driven by the observed groundwater fluctuation and soil temperature. Depending on the observed timescale initial starting points of the model showed up to be remarkably different. We also will present suggestions for an advanced CO2 modelling as the present approaches are both based on single parameters. Generally our experiences from our field studies show that mono-parameterized models often fail in reproducing measured flux values. References: Augustin, J., Merbach, W., Käding, H., Schnidt, W. & Schalitz, G. 1996. Lachgas- und Methanemissionen aus degradierten Niedermoorstandorten Nordostdeutschlands unter dem Einfluß unterschiedlicher Bewirtschaftung. Alfed-Wegener-Stiftung (ed.): Von den Ressourcen zum Recycling: Geoanalytik-Geomanagement-Geoinformatik. Ernst & Sohn Verlag. Berlin Charman, D. 2002: Peatland and environmental change. John Wiley & Sons, LTD, Chichester Droesler, M. 2005. Trace Gas Exchange and climatic relevance of bog ecosystems, Southern Germany, phD-thesis, TU München, München Joosten, H. & Clarke, D. 2002: Wise use of mires and peatlands-background and principles including a framework for decision-making. International Mire Conservation Group and International Peat Society (eds.), Finland Kuntze 1993: Moore als Senken und Quellen für C und N, Mitt. Deutsche Bodenkundliche Gesellschaft 69, 277-280 Lloyd, J., Taylor, J. A. 1994. On the Temperature Dependence of Soil Respiration, Functional Ecology, Vol. 8, No. 3, pp. 315-323 Succow, M. & Joosten, H. 2001: Landschaftsökologische Moorkunde, 2nd edition, Schweizerbart'sche Verlagsbuchhandlung, Stuttgart
NASA Astrophysics Data System (ADS)
Gospodarczyk, Piotr; Kotwica, Krzysztof; Stopka, Grzegorz
2013-12-01
In Polish underground mining plenty of dog headings are drilled with mechanical methods with the use of arm roadheaders equipped with milling units. Cutting tools applied on the units - rotary tangent bits in unfavourable mining and geological conditions or improper work conditions are affected by an accelerated wear process. It influences the speed and costs of drilling such excavations. The article presents a new and innovative solution of a mining head with asymmetric disc tools of complex trajectory elaborated at the Department of Mining, Dressing and Transport Machines, AGH University of Science and Technology, Krakow as an alternative for standard milling units. Advantages of the applied mining method using so called back incision were described as well as principles of construction and work of the suggested solution of the head. In order to work out a construction of the head prototype it was necessary to determine principles and guidelines based on laboratory tests. A construction of a specially prepared laboratory stand for examination of disc tools of complex trajectory, planned research methodology, course of tests and obtained results were presented. An analysis of the results allowed determining the above listed principles and guidelines for a construction of a prototype head. They were the base to work out, with cooperation of the REMAG Ltd Company in Katowice, a technical project of a new head solution, adapted for mounting on the arm of a medium arm roadheader KR 150. A constructed head underwent tests on a research stand on the REMAG testing area and received positive preliminary tests results. W polskim górnictwie podziemnym bardzo duża liczba wyrobisk korytarzowych drążona jest metodami mechanicznymi z wykorzystaniem ramionowych kombajnów chodnikowych, wyposażonych w organy frezujące. Stosowane na tych organach narzędzia skrawające - noże styczno-obrotowe, w niekorzystnych warunkach górniczo-geologicznych lub przy nieprawidłowych warunkach pracy, ulegają przyspieszonemu zużyciu. Wpływa to na prędkość i koszty drążenia tych wyrobisk. W artykule przedstawiono opracowane w Katedrze MGPiT AGH Kraków nowe i innowacyjne rozwiązanie głowicy urabiającej, z narzędziami dyskowymi niesymetrycznymi o złożonej trajektorii, jako alternatywę dla standardowych organów frezujących. Opisano zalety zastosowanej metody urabiania z wykorzystaniem tzw. tylnego podcinaniaoraz zasadę budowy i pracy zaproponowanego rozwiązania przedmiotowej głowicy. Dla opracowania konstrukcji prototypowego egzemplarza tej głowicy koniecznym było określenie, na podstawie badań laboratoryjnych, założeń i wytycznych. Przedstawiono konstrukcję opracowanego specjalnego stanowiska laboratoryjnego do badania narzędzi dyskowych o złożonej trajektorii, założoną metodykę badawczą, przebieg badań oraz uzyskane wyniki. Analiza tych wyników umożliwiła określenie wyżej wymienionych założeń i wytycznych dla konstrukcji głowicy prototypowej. Na ich podstawie opracowano, we współpracy z Zakładami REMAG S.A. w Katowicach, projekt techniczny nowego rozwiązania głowicy, dostosowanej do zabudowy na ramieniu średniego kombajnu chodnikowego KR 150. Wykonany egzemplarz głowicy został poddany próbom na stanowisku badawczym na poligonie Zakładów REMAG i uzyskał pozytywne wyniki badań wstępnych.
Seasonal Trace Gas Dynamics on Minerotrophic Fen Peatlands in NE-Germany
NASA Astrophysics Data System (ADS)
Giebels, Michael; Beyer, Madlen; Augustin, Jürgen; Minke, Merten; Juszczak, Radoszlav; Serba, Tomasz
2010-05-01
In Germany more than 99 % of fens have lost their carbon and nutrient sink function due to heavy drainage and agricultural land use especially during the last decades and thus resulted in compression and heavy peat loss (CHARMAN 2002; JOOSTEN & CLARKE 2002; SUCCOW & JOOSTEN 2001; AUGUSTIN et al. 1996; KUNTZE 1993). Therefore fen peatlands play an important part (4-5 %) in the national anthropogenic trace gas budget. But only a small part of drained and agricultural used fens in NE Germany can be restored. Knowledge of the influence of land use to trace gas exchange is important for mitigation of the climate impact of the anthropogenic peatland use. We study carbon exchanges of several fen peatland use areas between soil and atmosphere at different sites in NE-Germany. Our research covers peatlands of supposed strongly climate forcing land use (cornfield and intensive pasture) and of probably less forcing, alternative types (meadow and extensive pasture) as well as rewetted (formerly drained) areas and near-natural sites like a low-degraded fen and a wetted alder woodland. We measured trace gas fluxes with manual and automatic chambers in periodic routines since spring 2007. The used chamber technique bases on DROESLER (2005). In total we now do research at 22 sites situated in 5 different locations covering agricultural, varying states of rewetted and near-natural treatments. We present results of at least 2 years of measurements and show significant differences in their annual trace gas balances depending on the genesis of the observed sites and the seasonal dynamics. Crosswise comparison of different site treatments combined with the seasonal environmental observations give good hints for the identification of main flux driving parameters. That is that a reduced intensity in land use as a supposed mitigating treatment did not show the expected effect, though a normal meadow treatment surprisingly resulted in the lowest balances in both years. For implementing a further trace gas flux model observations will proceed at least until the end of year 2011. Regarding restoration sites we present newly installed locations of observing especially methane fluxes. To assure our results (presented at last years EGU conference, GIEBELS et al. 2009) from our in 2005 rewetted site we started observations at sites with advanced states of rewetting and alternative management respectively. I.e. one alternative aim to mitigate the heavy methane efflux after rewetting is observed at a site with removed canopy. Other experiments are conducted by freshly reforested alders and reed grass. References: Augustin, J., Merbach, W., Käding, H., Schnidt, W. & Schalitz, G. 1996. Lachgas- und Methanemissionen aus degradierten Niedermoorstandorten Nordostdeutschlands unter dem Einfluß unterschiedlicher Bewirtschaftung. Alfed-Wegener-Stiftung (ed.): Von den Ressourcen zum Recycling: Geoanalytik-Geomanagement-Geoinformatik. Ernst & Sohn Verlag. Berlin Charman, D. 2002: Peatland and environmental change. John Wiley & Sons, LTD, Chichester Droesler, M. 2005. Trace Gas Exchange and climatic relevance of bog ecosystems, Southern Germany, phD-thesis, TU München, München Giebels, M., Augustin, J., Minke, M., Halle, E., Beyer, M., Ehrig, B., Leitholdt, E., Chojnicki, B., Juszczak, R., Serba, T. 2009. Anthropogenic impact on the carbon cycle of fen peatlands in NE-Germany, EGU General Assembly 2009 Joosten, H. & Clarke, D. 2002: Wise use of mires and peatlands-background and principles including a framework for decision-making. International Mire Conservation Group and International Peat Society (eds.), Finland Kuntze 1993: Moore als Senken und Quellen für C und N, Mitt. Deutsche Bodenkundliche Gesellschaft 69, 277-280 Succow, M. & Joosten, H. 2001: Landschaftsökologische Moorkunde, 2nd edition, Schweizerbart'sche Verlagsbuchhandlung, Stuttgart
Seasonal Carbon Dynamics on Selected Fen Peatland Sites in NE-Germany
NASA Astrophysics Data System (ADS)
Giebels, Michael; Beyer, Madlen; Augustin, Jürgen; Minke, Merten; Juszczak, Radoszlav; Serba, Tomasz
2010-05-01
In Germany more than 99 % of fens have lost their carbon and nutrient sink function due to heavy drainage and agricultural land use especially during the last decades and thus resulted in compression and heavy peat loss (CHARMAN 2002; JOOSTEN & CLARKE 2002; SUCCOW & JOOSTEN 2001; AUGUSTIN et al. 1996; KUNTZE 1993). Therefore fen peatlands play an important part (4-5 %) in the national anthropogenic trace gas budget. But only a small part of drained and agricultural used fens in NE Germany can be restored. Knowledge of the influence of land use to trace gas exchange is important for mitigation of the climate impact of the anthropogenic peatland use. We study carbon exchanges of several fen peatland use areas between soil and atmosphere at different sites in NE-Germany. Our research covers peatlands of supposed strongly climate forcing land use (cornfield and intensive pasture) and of probably less forcing, alternative types (meadow and extensive pasture) as well as rewetted (formerly drained) areas and near-natural sites like a low-degraded fen and a wetted alder woodland. We measured trace gas fluxes with manual and automatic chambers in periodic routines since spring 2007. The used chamber technique bases on DROESLER (2005). In total we now do research at 22 sites situated in 5 different locations covering agricultural, varying states of rewetted and near-natural treatments. We present results of at least 2 years of measurements and show significant differences in their annual carbon balances depending on the genesis of the observed sites and the seasonal dynamics. Crosswise comparison of different site treatments combined with the seasonal environmental observations give good hints for the identification of main flux driving parameters. That is that a reduced intensity in land use as a supposed mitigating treatment did not show the expected effect, though a normal meadow treatment surprisingly resulted in the lowest CO2 balances in both years. For implementing a further trace gas flux model observations will proceed at least until the end of year 2011. Regarding restoration sites we present newly installed locations of observing especially methane fluxes. To assure our results (presented at last years EGU conference, GIEBELS et al. 2009) from our in 2005 rewetted site we started observing carbon exchange at sites with advanced states of rewetting and alternative management respectively. I.e. one alternative aim to mitigate the heavy methane efflux after rewetting is observed at a site with removed canopy. Other experiments are conducted by freshly reforested alders and reed grass. References: Augustin, J., Merbach, W., Käding, H., Schnidt, W. & Schalitz, G. 1996. Lachgas- und Methanemissionen aus degradierten Niedermoorstandorten Nordostdeutschlands unter dem Einfluß unterschiedlicher Bewirtschaftung. Alfed-Wegener-Stiftung (ed.): Von den Ressourcen zum Recycling: Geoanalytik-Geomanagement-Geoinformatik. Ernst & Sohn Verlag. Berlin Charman, D. 2002: Peatland and environmental change. John Wiley & Sons, LTD, Chichester Droesler, M. 2005. Trace Gas Exchange and climatic relevance of bog ecosystems, Southern Germany, phD-thesis, TU München, München Giebels, M., Augustin, J., Minke, M., Halle, E., Beyer, M., Ehrig, B., Leitholdt, E., Chojnicki, B., Juszczak, R., Serba, T. 2009. Anthropogenic impact on the carbon cycle of fen peatlands in NE-Germany, EGU General Assembly 2009 Joosten, H. & Clarke, D. 2002: Wise use of mires and peatlands-background and principles including a framework for decision-making. International Mire Conservation Group and International Peat Society (eds.), Finland Kuntze 1993: Moore als Senken und Quellen für C und N, Mitt. Deutsche Bodenkundliche Gesellschaft 69, 277-280 Succow, M. & Joosten, H. 2001: Landschaftsökologische Moorkunde, 2nd edition, Schweizerbart'sche Verlagsbuchhandlung, Stuttgart
NASA Astrophysics Data System (ADS)
John, Cédric Michaël
2003-08-01
This study investigated the slope carbonates of two Miocene carbonate systems: the Maltese Islands (in the Central Mediterranean) and the Marion Plateau (Northeastern Australia, drilled during ODP Leg 194). The aim of the study was to trace the impact of the Miocene cooling steps (events Mi1-Mi6) in these carbonate systems, especially the Mi3 event, which took place around 13.6 Ma and deeply impacted the marine oxygen isotope record. This event also profoundly impacted oceanographic and climatic patterns, eventually leading to the establishment of the modern ice-house world. In particular, East Antarctica became ice covered at that period. The rational behind the present study was to investigate the impact that this event had on shallow water systems in order to complement the deep-sea record and hence acquire a more global perspective on Miocene climate change. The Maltese Islands were investigated for trends in bulk-rock carbon and oxygen isotopes, as well as bulk-rock mineralogy, clay minerals analysis and organic geochemisty. Results showed that the mid Miocene cooling event deeply impacted sedimentation at that location by changing sedimentation from carbonate to clay-rich sediments. Moreover, it was discovered that each phase of Antarctic glaciation, not just the major mid Miocene event, resulted in higher terrigenous input on Malta. Mass accumulation rates revealed that this was linked to increased runoff during periods when Antarctica was glaciated, and thus that the carbonate sediments were “diluted” by clay-rich sediments. The model subsequently developed to explain this implies feedback from Antarctic glaciations creating cold, dense air masses that push the ITCZ Northward, thus increasing precipitation on the North African subcontinent. Increased precipitation (or stronger African monsoon) accelerated continental weathering and runoff, thus bringing more terrigenous sediment to the paleo-location of the slope sediments of Malta. Spectral analysis of carbonate content and organic matter geochemical analysis furthermore suggest that the clay-rich intervals are similar to sapropelic deposits. On the Marion Plateau, trends in oxygen and carbon isotopes were obtained by measuring Cibicidoides spp foraminifers. Moreover, carbonate content was reconstructed using a chemical method (coulometer). Results show that the mid Miocene cooling step profoundly affected this system: a major drop in accumulation rates of carbonates occurs precisely at 13.8 Ma, around the time of the East Antarctic ice sheet formation. Moreover, sedimentation changes occurred at that time, carbonate fragments coming from neritic environments becoming less abundant, planktonic foraminifer content increasing and quartz and reworked glauconite being deposited. Conversely, a surprising result is that the major N12-N14 sea-level fall occurring around 11.5 Ma did not impact the accumulation of carbonates on the slope. This was unexpected since carbonate platform are very sensitive to sea-level changes. The model developed to explain that mass accumulation rates of carbonates diminished around 13.6 Ma (Mi3 Event) instead of 11.5 Ma (N12-N14 event), suggests that oceanic currents were controlling slope carbonate deposition on the Marion Plateau prior to the mid-Miocene, and that the mid Miocene event considerably increase their strength, hence reducing the amount of carbonate being deposited on slope sites. Moreover, by combining results from deep-sea oxygen isotopes with sea-level estimates based on coastal onlaps made during Leg 194, we constrain the amplitude of the N12-N14 sea-level fall to 90 meters. When integrating isotopic results from this study, this amplitude is lowered to 70 meters. A general conclusion of this work is that the mid Miocene climatic shift did impact carbonate systems, at least at the two locations studied. However, the nature of this response was highly dependant on the regional settings, in particular the presence of land mass (Malta) and the absence of a barrier to shelter from the effects of open ocean (Marion Plateau). Im Rahmen dieser Doktorarbeit wurden die Hangkarbonate von zwei miozänen heterozoischen Karbonatsystemen näher untersucht: die Malta Inselgruppe (zentrales Mittelmeer) und das Marion Plateau (Nordost Australien, ODP Leg 194). Die Auswirkungen der mittelmiozänen Abkühlung (Mi3), die auf 13.6 Ma datiert wird und starken Einfluß auf die Sauerstoffisotopenkurve hatte, in den oben genannten Flachwassersystemen stellten das Ziel dieser Arbeit dar. Dieses Abkühlungsereignis beeinflußte außerdem sehr stark die ozeanographischen und klimatischen Muster, die im weiteren Verlauf zum modernen Eishausklima führten. So steht insbesondere die Vereisung von Ostantarktika mit diesem Ereignis in Verbindung. Diese Arbeit untersucht den Einfluß dieses Ereignisses auf Flachwassersysteme, um vorliegende Untersuchungen in Tiefwassersystemen zu ergänzen und so zum globalen Verständnis des miozänen Klimawechsels beizutragen. Die Profile auf der Maltainselgruppe wurden mit Hilfe von Kohlenstoff- und Sauerstoffisotopen Auswertungen im Gesamtgestein, Gesamtgesteinmineralogie, Tonmineralanalyse und organischer Geochemie untersucht. Durch einen Wechsel von karbonatischeren zu tonigeren Sedimenten beeinflußte das mittelmiozäne Abkühlungsereignis die Sedimentation in diesem Gebiet sehr stark. Weiterhin wurde beobachtet, daß jede Phase der antarktischen Vereisung, nicht nur das mittelmiozäne Hauptereignis, zu einem erhöhten terrigenen Eintrag in den Hangsedimenten der Maltainselgruppe führte. Akkumulationsraten zeigen, daß dieser erhöhte terrigene Eintrag den einzelnen Vereisungsperioden zusammenhängt und die karbonatischen Sedimente durch tonreiche Sedimente “verunreinigt” wurden. Das daraufhin entwickelte Modell erklärt diesen erhöhten terrigenen Eintrag mit einer nordwärtigen Verlagerung der innertropischen Konvergenzzone durch die Bildung von kalten, dichten Luftmassen, die zu verstärkten Niederschlägen in Nordafrika führten. Diese verstärkten Niederschläge (oder verstärkter afrikanischer Monsun) beeinflußten die kontinentale Verwitterung und den Eintrag, mit der Folge, daß verstärkt terrigene Sedimente im Bereich der Hangsedimente der Maltainselgruppe abgelagert wurden. Die tonreichen Intervalle weisen Ähnlichkeiten zu sapropelischen Ablagerungen auf, was mit Hilfe der Spektral analyse des Karbonatgehalts und der geochemischen Analyse des organischen Materials gezeigt wurde. Auf dem Marion Plateau wurden die Sauerstoff- und Kohlenstoffisotopenkurven anhand von Foraminiferen der Gattung Cibicidoides spp. rekonstruiert. Der Karbonatgehalt wurde mit Hilfe einer chemischen Methode (Coulometer) ermittelt. Genauso wie die Sedimente der Maltainselgruppe beeinflußte das mittelmiozäne Abkühlungsereignis (Mi3) auch die Sedimente auf dem Marion Plateau. So kam es bei 13,8 Ma, in etwa zur Zeit der Vereisung von Ostantarktika, zu einem Abfall der Karbonatakkumulationsraten. Weiterhin traten Änderungen in der Zusammensetzung der Sedimente auf, so nehmen neritische Karbonatfragmente ab, der planktische Foraminiferengehalt nimmt zu und es wurden verstärkt Quarz und Glaukonit abgelagert. Ein überraschendes Ergebnis ist die Tatsache, daß der große N12-N14 Meeresspiegelabfall um 11,5 Ma die Akkumulationsraten der Karbonate auf dem Hang nicht beeinflußte. Dieses Ergebnis ist umso erstaunlicher, da Karbonatplattformen normalerweise sehr sensitiv auf Meeresspiegeländerungen reagieren. Der Grund, warum sich die Karbonatakkumulationsraten schon um 13,6 Ma (Mi3) und nicht erst um 11,5 Ma (N12-N14) verringerten, liegt in der Tatsache, daß die ozeanischen Strömungen die Karbonatsedimentation auf dem Hang des Marion Plateau schon im Miozän kontrollierten. Das mittelmiozäne Ereignis (Mi3) erhöhte die Stärke diese Strömungen und als eine Ursache wurde die Karbonatakkumulation auf den Hängen reduziert. Die Amplitude des N12-N14 Meeresspiegelabfalls liegt bei 90 m unter der Berücksichtigung der Sauerstoffisotopendaten aus der Tiefsee und Berechnungen des Meeresspiegels anhand des “coastal onlaps”, die während Leg 194 gemacht wurden. Die Isotopendaten dieser Arbeit weisen hingegen auf einen verringerten Meeresspiegelabfall von 70 m hin. Als allgemeine Schlußfolgerung kann gesagt werden, daß der mittelmiozäne Klimaumschwung die Karbonatsysteme zumindest an den beiden untersuchten Lokalitäten beeinflußt hat. Allerdings waren die Auswirkungen sehr von den unterschiedlichen lokalen Gegebenheiten abhängig. Insbesondere wirkten sich die Anwesenheit einer Landmasse (Malta) und die Abwesenheit einer Barriere vor den Einflüssen des offenen Ozeans (Marion Plateau) stark auf die Ablagerung der Karbonate aus.
Neue biosensorische Prinzipien für die Hämoglobin-A1c Bestimmung
NASA Astrophysics Data System (ADS)
Stöllner, Daniela
2002-06-01
Hämoglobin-A1c (HbA1c) ist ein Hämoglobin (Hb)-Subtypus, der durch nicht-enzymatische Glykierung des N-terminalen Valinrestes der Hämoglobin-beta-Kette entsteht. Das gemessene Verhältnis von HbA1c zum Gesamt-Hämoglobin (5-20 % bei Diabetikern) repräsentiert den Mittelwert der Blutglucosekonzentration über einen zweimonatigen Zeitraum und stellt zur Beurteilung der diabetischen Stoffwechsellage eine Ergänzung zur Akutkontrolle der Glukosekonzentration dar. Ziel der vorliegenden Arbeit war es, einen amperometrischen Biosensor für die Bestimmung des medizinisch relevanten Parameters HbA1c zu entwickeln. Durch Selektion geeigneter Bioerkennungselemente und deren Immobilisierung unter Erhalt der Bindungsfunktion für die Zielmoleküle Hämoglobin bzw. HbA1c wurden spezifische, hochaffine und regenerationsstabile Sensoroberflächen geschaffen. Für die Entwicklung des HbA1c-Biosensors wurden zwei Konzepte - Enzymsensor und Immunosensor - miteinander verglichen. Die enzymatische Umsetzung von HbA1c erfolgte mit der Fructosylamin Oxidase (FAO) aus Pichia pastoris N 1-1 unter Freisetzung von H2O2, welches sowohl optisch über eine Indikatorreaktion als auch elektrochemisch nach Einschluss der FAO in PVA-SbQ und Fixierung des Immobilisats vor einer H2O2-Elektrode nachgewiesen wurde. Die Kalibration des Enzymsensors mit der HbA1c-Modellsubstanz Fructosyl-Valin ergab Nachweisgrenzen, die ausserhalb des physiologisch relevanten HbA1c-Konzentrationsbereich lagen. Aus der Umsetzung von glykierten Peptiden mit einer nicht HbA1c analogen Aminosäurensequenz, z.B. Fructosyl-Valin-Glycin wurde zudem eine geringe HbA1c-Spezifität abgeleitet. Für den Immunosensor wurden zwei heterogene Immunoassay-Formate unter Verwendung von hochaffinen und spezifischen Antikörpern in Kombination mit Glucose Oxidase (GOD) als Markerenzym zum Nachweis von HbA1c untersucht. Beim indirekt-kompetitiven Immunoassay wurde anstelle des kompletten HbA1c-Moleküls das glykierte Pentapeptid Fructosyl-Valin-Histidin-Leucin-Threonin-Prolin (glkPP) als Kompetitor und Affinitätsligand immobilisiert und so eine regenerierfähige Oberfläche geschaffen. Beim Sandwich-Immunoassay wurde im ersten Schritt Gesamt-Hämoglobin an die mit Haptoglobin (Hp) modifizierte Festphase angereichert und im zweiten Schritt der gebundene HbA1c-Anteil nachgewiesen. Für die Konstruktion des HbA1c-Immunosensors wurden Affinitätsmatrizen durch Modifizierung von Cellulose-Dialysemembranen mit glkPP bzw. Hp hergestellt. Grundlegend studiert wurde die Aktivierung der Cellulose-Membranen mit 1,1'-Carbonyldiimidazol (CDI) und 1-Cyano-4-dimethylaminopyridintetrafluoroborat (CDAP) als Aktivierungsagenzien. Eine gerichtete Immobilisierung der Liganden wurde realisiert, indem glkPP über dessen C-Terminus (einzige Carboxylatgruppe) und Hp über dessen periodat-oxidiertem Kohlenhydratrest an die amino- oder hydrazidfunktionalisierte Membranen kovalent gekoppelt wurden. Mit dem Einsatz der glkPP- und Hp-modifizierten Membranen in der elektrochemischen Messzelle war erstmalig der biosensorische Nachweis von HbA1c möglich. Als Transduktor diente eine Pt-Elektrode, an der das von der GOD generierte H2O2 umgesetzt und ein mit der HbA1c-Konzentration korrelierendes Stromsignal erzeugt wurde. Die Immunosensoren zeigten Ansprechzeiten von 3 s. Mit dem Immunosensor auf Basis des indirekt-kompetitiven Testprinzips wurde eine Kalibrationskurve für HbA1c im Bereich von 0,25-30 µg/ml (3,9-465 nM, CV 3-9 %) mit Assayzeiten von 60 min und mit dem Immunosensor im Sandwich-Format eine Kalibrationskurve im Bereich von 0,5-5 µg/ml (7,8-78 nM; 5-50 % HbA1c vom Gesamt-Hb, CV 6-10 %, 3 h) aufgenommen. Hemoglobin-A1c (HbA1c) is a hemoglobin subtype formed by non-enzymatic reaction of glucose with the N-terminus of the beta-polypeptide chains. As it reflects the glycemic status of diabetics over the preceding 8-12 weeks, the determination of HbA1c has become an established procedure in the management of diabetes mellitus. It is measured as the percentage of total hemoglobin. Up to 5 % HbA1c are considered as normal whereas in diabetic subjects it could be elevated from 5-20 %. In addition to amperometric biosensors for glucose self monitoring which have been successfully applied in diabetes management, biosensors for HbA1c would be an useful supplement for a comprehensive diabetes control. Objective of this work was to develop and compare amperometric biosensors for determination of HbA1c based on enzymatic and immunochemical methods. For the enzyme based HbA1c assay a novel fructosamine oxidase (FAO) derived from marine yeast Pichia pastoris, strain N1-1 was utilized. It recognizes and oxidatively degrades fructosyl-valine (FV) which corresponds to the glycated N-terminus of the beta-chain of HbA1c and therefore is regarded as a model compound for HbA1c. Hydrogen peroxide which is liberated by the FAO during FV conversion was indicated optically in a horseradish peroxidase (POD) coupled reaction and electrochemically. For the biosensor the FAO was embedded in polyvinyl alcohol-stylbazole (PVA-SbQ) and fixed it in front of a Pt-electrode. So far, the measuring range of FV did not cover the clinically relevant range of HbA1c. Low specificity was assumed since enzyme activity also was obtained with glycated peptides, e.g. fructosyl-valine-glycine, not corresponding to the glycated N-terminus of the hemoglobin-beta-chain. For the immunosensor two immunoassays formats - heterogeneous sandwich and heterogeneous competitive - were tested. The assays were designed as follows: The competitive immunoassay was based on the immobilized synthetic glycated pentapeptide fructosyl-valine-histidine-leucine-threonine-proline (glkPP) utilized as HbA1c analogue. The peptide has an amino acid sequence corresponding to the N-terminus of the hemoglobin beta-chains and is capable for competition together with the HbA1c of the sample for the amount of a glucose oxidase (GOD)-labelled anti-HbA1c antibody. In the sandwich-type assay haptoglobin (Hp), a natural hemoglobin binding molecule with antibody characteristic properties, was used as bioreceptor for enrichment of total hemoglobin onto the surface. In a subsequent step the HbA1c fraction was quantified by a GOD-labelled HbA1c specific antibody. Cellulose dialysis membrane was used as the solid support for immobilization of Hp and glkPP near the sensor surface. For activation of the membrane two reagents, 1,1‧-carbonyldiimidazole (CDI) and 1-cyano-4-dimethylamino pyridinium tetrafluoroborate (CDAP), were compared with respect to the degree of activation and coupling efficiency. Site-directed immobilization of Hp and glkPP was achieved by coupling Hp via its carbohydrate residue and glkPP via its C-terminus to the activated membrane using a bis-amine or bis-hydrazide spacer. The affinity membranes were placed in front of a modified Clark-type hydrogen peroxide electrode in an electrochemical measuring cell and HbA1c analysis was carried out within the stirred cell. Detection of the bound GOD-label was achieved by measurement of the electrocatalytic oxidation of hydrogen peroxide at +600 mV vs. Ag/AgCl. The indication was done in only 3 s. For the competitive principle a typical inhibition curve with a linear range between 0,25-30 µg/ml (3,9-465 nM, CV 3-9 %, 60 min per sample) HbA1c was obtained. Due to the high functional stability of the peptide multiple regeneration of the affinity surface was possible without loss of binding capacity. With the sandwich assay configuration the clinically relevant range could easily be covered (calibration curve: 5-50 % HbA1c corresponding to 7,8-78 nM, CV 6-10 %, 3 h per sample).
NASA Astrophysics Data System (ADS)
Molladavoodi, H.
2013-09-01
Analysis of stresses and displacements around underground openings is necessary in a wide variety of civil, petroleum and mining engineering problems. In addition, an excavation damaged zone (EDZ) is generally formed around underground openings as a result of high stress magnitudes even in the absence of blasting effects. The rock materials surrounding the underground excavations typically demonstrate nonlinear and irreversible mechanical response in particular under high in situ stress states. The dominant cause of irreversible deformations in brittle rocks is damage process. One of the most widely used methods in tunnel design is the convergence-confinement method (CCM) for its practical application. The elastic-plastic models are usually used in the convergence-confinement method as a constitutive model for rock behavior. The plastic models used to simulate the rock behavior, do not consider the important issues such as stiffness degradation and softening. Therefore, the use of damage constitutive models in the convergence-confinement method is essential in the design process of rock structures. In this paper, the basic concepts of continuum damage mechanics are outlined. Then a numerical stepwise procedure for a circular tunnel under hydrostatic stress field, with consideration of a damage model for rock mass has been implemented. The ground response curve and radius of excavation damage zone were calculated based on an isotropic damage model. The convergence-confinement method based on damage model can consider the effects of post-peak rock behavior on the ground response curve and excavation damage zone. The analysis of results show the important effect of brittleness parameter on the tunnel wall convergence, ground response curve and excavation damage radius. Analiza naprężeń i przemieszczeń powstałych wokół otworu podziemnego wymagana jest przy szerokiej gamie projektów z zakresu budownictwa lądowego, inżynierii górniczej oraz naftowej. Ponadto, wokół otworu podziemnego powstaje strefa naruszona działalnością górniczą wskutek oddziaływania wysokich naprężeń, nawet w przypadku gdy nie są prowadzone prace strzałowe. Reakcja materiału skalnego znajdującego się w otoczeniu wyrobisk podziemnych jest zazwyczaj procesem nieliniowym i nieodwracalnym, zwłaszcza w stanach wysokich naprężeń in situ. Główną przyczyną nieodwracalnych odkształceń skał kruchych jest pękanie. Jedną z najczęściej stosowanych metod w projektowaniu tuneli (wyrobisk podziemnych) jest metoda konwergencji i zamknięcia, popularna ze względu na zakres zastosowań. Metoda ta zazwyczaj wykorzystuje modele sprężysto- plastyczne, jako konstytutywne modele zachowania skał. Modele plastyczne wykorzystywane dotychczas do symulacji zachowania skał nie uwzględniają pewnych kluczowych aspektów, takich jak obniżenie sztywności czy rozmiękczanie. Dlatego też zastosowanie konstytutywnych modeli w metodzie konwergencji i zamknięcia jest sprawą kluczową przy projektach obejmujących struktury skalne. W pracy tej omówiono podstawowe założenia modelu continuum uszkodzeń i spękań. Zaimplementowano wielostopniową procedurę do badania tunelu o przekroju kolistym znajdującego się pod polem naprężeń hydrostatycznych, przy wykorzystaniu modelu pękania górotworu. Krzywą odpowiedzi gruntu oraz promień strefy naruszonej wybieraniem obliczono przy wykorzystaniu izotropowego modelu uszkodzeń. Metoda konwergencji i zamykania oparta na tym modelu uwzględnia zachowanie skał po wystąpieniu szczytowych naprężeń i powstaniu strefy naruszonej wybieraniem. Analiza wyników wykazała znaczny wpływ parametrów związanych z kruchością na konwergencję ścian wyrobiska, kształt krzywej odpowiedzi gruntu oraz promień strefy naruszonej wybieraniem.
NASA Astrophysics Data System (ADS)
Gravitis, J.; Abolins, J.
2013-10-01
Exhausting of world resources, increasing pollution, and climate change are compelling the shift of the world economy from continuous growth to a kind of economy based on integration of technologies into zero emissions production systems. Transition from non-renewable fossil resources to renewable resources provided by solar radiation and the current processes in biosphere is seen in the bio-refinery approach - replacing crude oil refineries by biomass refineries. Biotechnology and nano-technologies are getting accepted as important players along with conventional biomass refinery technologies. Systems design is a significant element in the integration of bio-refinery technologies in clusters. A number of case-studies, steam explosion auto-hydrolysis (SEA) in particular, are reviewed to demonstrate conversion of biomass into value-added chemicals and fuels. Analysis of energy flows is made as part of modelling the SEA processes, the eMergy (energy memory) approach and sustainability indices being applied to assess environmental impacts. Resursu izsīkums, vides piesārņojums un globāla mēroga klimatiskās izmaiņas ir civilizācijas izdzīvošanai būtiski faktori, kas virza pasaules ekonomikas pārmaiņas, atsakoties no nepārtrauktas izaugsmes idejas par labu tādai ekonomikai, kas balstās uz atjaunojošamies resursiem un dažādu tehnoloģiju integrācijemisiju principam atbilstošās ražošanas sistēmās. Saules radiācijas ierosinātajos planētas biosfērā notiekošajos procesos radīto organisko vielu pārstrādes kompleksi, kas operē ievērojot sabalansētu nulles emisiju principu, tiek uzlūkoti kā tās ekonomiskās (ražošanas) struktūras, kurām jānodrošina pāreja uz atjaunojošos resursu izmantošanu, aizstājot esošās fosilo resursu (naftas, ogļu) pārstrādes rūpnīcas. Līdzās jau apgūtajām biomasas rafinēšanas tehnoloģijām svarīga un pieaugoša loma ekonomiskās sistēmas resursu bāzes nomaiņā ir bio- un nanotehnoloģijām, bet ražošanas sistēmu projektēšanai - biomasas konversijas tehnoloģiju klasterizācijā. Aplūkojot virkni konkrētu tehnoloģisko risinājumu, TSA - biomasas autohidrolīzi tvaika sprādzienā tai skaitā, iztirzātas ar biomasas konversiju, izmantošanu un augstas pievienotās vērtības produktiem - ķīmiskiem savienojumiem un degvielām, saistītās ekololoģiskās un energoefektivitātes problēmas. Uzsverot biomasas TSA pirmapstrādes universālo nozīmi dažādo tehnoloģisko kompleksu struktūrā, aplūkota TSA ietekme uz vidi, demonstrējot eMerģijas (enerģētiskās atmiņas) pieeju un "ilgtspējas" indeksu izmantošanu. Lai gan pie sasniegtā tehnoloģiskās attīstības līmeņa un patreizējiem fosilo enerģijas nesēju patēriņa tempiem nav iespējams tos pilnībā aizstāt ar bioenerģiju, bioenerģijas sektora tehnoloģiju pilnveidošana ir svarīga arī bioresursu racionālas izmantošanas un citos aspektos. Latvijas enerģētiskās neatkarības kontekstā būtiska nozīme ir tradicionālo bioenerģijas resursu izmantošanas efektivitātes celšanai un inovatīvo bioenerģijas tehnoloģiju valstiskam atbalstam.u nulles
Track structure based modelling of light ion radiation effects on nuclear and mitochondrial DNA
NASA Astrophysics Data System (ADS)
Schmitt, Elke; Ottolenghi, Andrea; Dingfelder, Michael; Friedland, Werner; Kundrat, Pavel; Baiocco, Giorgio
2016-07-01
Space radiation risk assessment is of great importance for manned spaceflights in order to estimate risks and to develop counter-measures to reduce them. Biophysical simulations with PARTRAC can help greatly to improve the understanding of initial biological response to ionizing radiation. Results from modelling radiation quality dependent DNA damage and repair mechanisms up to chromosomal aberrations (e.g. dicentrics) can be used to predict radiation effects depending on the kind of mixed radiation field exposure. Especially dicentric yields can serve as a biomarker for an increased risk due to radiation and hence as an indicator for the effectiveness of the used shielding. PARTRAC [1] is a multi-scale biophysical research MC code for track structure based initial DNA damage and damage response modelling. It integrates physics, radiochemistry, detailed nuclear DNA structure and molecular biology of DNA repair by NHEJ-pathway to assess radiation effects on cellular level [2]. Ongoing experiments with quasi-homogeneously distributed compared to sub-micrometre focused bunches of protons, lithium and carbon ions allow a separation of effects due to DNA damage complexity on nanometre scale from damage clustering on (sub-) micrometre scale [3, 4]. These data provide an unprecedented benchmark for the DNA damage response model in PARTRAC and help understand the mechanisms leading to cell killing and chromosomal aberrations (e.g. dicentrics) induction. A large part of space radiation is due to a mixed ion field of high energy protons and few heavier ions that can be only partly absorbed by the shielding. Radiation damage induced by low-energy ions significantly contributes to the high relative biological efficiency (RBE) of ion beams around Bragg peak regions. For slow light ions the physical cross section data basis in PARTRAC has been extended to investigate radiation quality effects in the Bragg peak region [5]. The resulting range and LET values agree with ICRU data and SRIM calculations. Preliminary studies regarding the biological endpoints DSB (cluster) and chromosomal aberrations have been performed for selected light ions up to neon. Validation with experimental data as well as further calculations are underway and final results will be presented at the meeting. Mitochondrial alterations have been implicated in radiation-induced cardiovascular effects. To extend the applicability of PARTRAC biophysical tool towards effects on mitochondria, the nuclear DNA and chromatin as the primary target of radiation has been complemented by a model of mitochondrial DNA (mtDNA) to mimic a coronary cell with thousand mitochondria contained in the cytoplasm. Induced mtDNA damage (SSB, DSB) has been scored for 60Co photons and 5 MeV alpha-particle irradiation, assuming alternative radical scavenging capacities within the mitochondria. While direct radiation effects in mtDNA are identical to nuclear DNA, indirect effects in mtDNA are in general larger due to lower scavenging and the lack of DNA-protecting histones. These simulations complement the scarce experimental data on radiation-induced mtDNA damage and help elucidate the relative roles of initial mtDNA versus nuclear DNA damage and of pathways that amplify their respective effects. Ongoing and planned developments of PARTRAC include coupling with a radiation transport code and track-structure based calculations of cell killing for RBE studies on macroscopic scales within a mixed ion field. [1] Friedland, Dingfelder et al. (2011): "Track structures, DNA targets and radiation effects in the biophysical Monte Carlo simulation code PARTRAC", Mutat. Res. 711, 28-40 [2] Friedland et al. (2013): "Track structure based modelling of chromosome aberrations after photon and alpha-particle irradiation", Mutat. Res. 756, 213-223 [3] Schmid, Friedland et al. (2015): "Sub-micrometer 20 MeV protons or 45 MeV lithium spot irradiation enhances yields of dicentric chromosomes due to clustering of DNA double-strand breaks", Mutat. Res. 793, 30-40 [4] Friedland, Schmitt, Kundrat (2015): "Modelling Proton bunches focussed to submicrometre scales: Low-LET Radiation damage in high-LET-like spatial structure", Radiat. Prot. Dosim. 166, 34-37 [5] Schmitt, Friedland, Kundrat, Dingfelder, Ottolenghi (2015): "Cross section scaling for track structure simulations of low-energy ions in liquid water", Radiat. Prot. Dosim. 166, 15-18} Supported by the European Atomic Energy Community's Seventh Framework Programme (FP7/2007-2011) under grant agreement no 249689 "DoReMi" and the German Federal Ministry on Education and Research (KVSF-Projekt "LET-Verbund").
Nomadic migration : a service environment for autonomic computing on the Grid
NASA Astrophysics Data System (ADS)
Lanfermann, Gerd
2003-06-01
In recent years, there has been a dramatic increase in available compute capacities. However, these “Grid resources” are rarely accessible in a continuous stream, but rather appear scattered across various machine types, platforms and operating systems, which are coupled by networks of fluctuating bandwidth. It becomes increasingly difficult for scientists to exploit available resources for their applications. We believe that intelligent, self-governing applications should be able to select resources in a dynamic and heterogeneous environment: Migrating applications determine a resource when old capacities are used up. Spawning simulations launch algorithms on external machines to speed up the main execution. Applications are restarted as soon as a failure is detected. All these actions can be taken without human interaction. A distributed compute environment possesses an intrinsic unreliability. Any application that interacts with such an environment must be able to cope with its failing components: deteriorating networks, crashing machines, failing software. We construct a reliable service infrastructure by endowing a service environment with a peer-to-peer topology. This “Grid Peer Services” infrastructure accommodates high-level services like migration and spawning, as well as fundamental services for application launching, file transfer and resource selection. It utilizes existing Grid technology wherever possible to accomplish its tasks. An Application Information Server acts as a generic information registry to all participants in a service environment. The service environment that we developed, allows applications e.g. to send a relocation requests to a migration server. The server selects a new computer based on the transmitted resource requirements. It transfers the application's checkpoint and binary to the new host and resumes the simulation. Although the Grid's underlying resource substrate is not continuous, we achieve persistent computations on Grids by relocating the application. We show with our real-world examples that a traditional genome analysis program can be easily modified to perform self-determined migrations in this service environment. In den vergangenen Jahren ist es zu einer dramatischen Vervielfachung der verfügbaren Rechenzeit gekommen. Diese 'Grid Ressourcen' stehen jedoch nicht als kontinuierlicher Strom zur Verfügung, sondern sind über verschiedene Maschinentypen, Plattformen und Betriebssysteme verteilt, die jeweils durch Netzwerke mit fluktuierender Bandbreite verbunden sind. Es wird für Wissenschaftler zunehmend schwieriger, die verfügbaren Ressourcen für ihre Anwendungen zu nutzen. Wir glauben, dass intelligente, selbstbestimmende Applikationen in der Lage sein sollten, ihre Ressourcen in einer dynamischen und heterogenen Umgebung selbst zu wählen: Migrierende Applikationen suchen eine neue Ressource, wenn die alte aufgebraucht ist. 'Spawning'-Anwendungen lassen Algorithmen auf externen Maschinen laufen, um die Hauptanwendung zu beschleunigen. Applikationen werden neu gestartet, sobald ein Absturz endeckt wird. Alle diese Verfahren können ohne menschliche Interaktion erfolgen. Eine verteilte Rechenumgebung besitzt eine natürliche Unverlässlichkeit. Jede Applikation, die mit einer solchen Umgebung interagiert, muss auf die gestörten Komponenten reagieren können: schlechte Netzwerkverbindung, abstürzende Maschinen, fehlerhafte Software. Wir konstruieren eine verlässliche Serviceinfrastruktur, indem wir der Serviceumgebung eine 'Peer-to-Peer'-Topology aufprägen. Diese “Grid Peer Service” Infrastruktur beinhaltet Services wie Migration und Spawning, als auch Services zum Starten von Applikationen, zur Dateiübertragung und Auswahl von Rechenressourcen. Sie benutzt existierende Gridtechnologie wo immer möglich, um ihre Aufgabe durchzuführen. Ein Applikations-Information- Server arbeitet als generische Registratur für alle Teilnehmer in der Serviceumgebung. Die Serviceumgebung, die wir entwickelt haben, erlaubt es Applikationen z.B. eine Relokationsanfrage an einen Migrationsserver zu stellen. Der Server sucht einen neuen Computer, basierend auf den übermittelten Ressourcen-Anforderungen. Er transferiert den Statusfile des Applikation zu der neuen Maschine und startet die Applikation neu. Obwohl das umgebende Ressourcensubstrat nicht kontinuierlich ist, können wir kontinuierliche Berechnungen auf Grids ausführen, indem wir die Applikation migrieren. Wir zeigen mit realistischen Beispielen, wie sich z.B. ein traditionelles Genom-Analyse-Programm leicht modifizieren lässt, um selbstbestimmte Migrationen in dieser Serviceumgebung durchzuführen.
NASA Astrophysics Data System (ADS)
Kulinowski, Piotr
2013-12-01
This article presents a method developed to design and select tensioning systems which makes use of standard calculations. It describes procedures for selecting and analysing the operation of devices tensioning the belt, which procedures are based on the static characteristics of these devices, and a proposal for introducing a substitute belt elasticity modulus that would make the calculations of the tensioning stroke length account for the value of the initial force tensioning the belt and for its sag between sets of idlers. Static characteristics of tensioning systems have been used to describe their operation and present the advantages and disadvantages of individual design solutions W artykule przedstawiono opracowaną metodę projektowania i doboru układów napinania taśmy wykorzystującą stosowane standardowe procedury obliczeniowe uzupełnione o zależności analityczne uwzględniające zwis taśmy między zestawami krążnikowymi i charakterystyki statyczne urządzeń napinających taśmę. W pierwszej części publikacji opisano analityczną metodę doboru układu napinania taśmy bazującą na wynikach obliczeń sił w taśmie i szacunkowych kalkulacjach drogi napinania taśmy stosowanych obecnie w standardowych procedurach obliczeniowych (Golka i in., 2007; Gładysiewicz, 2003; Żur i Hardygóra, 1996). Następnie przedstawiono propozycję uzupełnienia stosowanej metody analitycznej o wprowadzenie diagramu drogi napinania i uwzględnienie zastępczego modułu sprężystości taśmy (Kulinowski, 2012). W obliczeniach standardowych przyjmuje się, że długość odcinka taśmy pomiędzy zestawami krążnikowymi jest równa ich rozstawowi. W rzeczywistych warunkach może się zdarzyć, że na niektórych odcinkach złożonego profilu trasy przenośnika wartość zwisu taśmy przekracza wartości dopuszczalne, wtedy długość taśmy między zestawami krążnikowymi jest znacząco większa od rozstawu zestawów. W takich przypadkach wartość modułu sprężystości taśmy uwzględnianego w obliczeniach drogi napinania jest korygowana na podstawie zależności przedstawionej w niniejszym artykule. Zastępczy moduł sprężystości taśmy powinien być uwzględniony w algorytmie obliczania długości skokuwózka napinającego, szczególnie dla przenośników, których złożony profil trasy może przyczynić się do lokalnego zmniejszenia sił w taśmie. W kolejnej części artykułu przedstawiono metodę konstruowania charakterystyk statycznych urządzeń napinających taśmę (Jabłoński, 1988), które wykorzystano do opisu stosowanych układów napinania taśmy. Spośród stosowanych urządzeń napinających przedstawiono rozwiązania ze stałym położeniem bębna napinającego podczas pracy przenośnika - tzw. sztywne urządzenia napinające oraz ze zmiennym położeniem bębna napinającego w czasie pracy przenośnika - grawitacyjne, hydrauliczne, automatyczne i nadążne. Na diagramach opisujących charakterystykę napinania, poza wymaganą wartością siły w taśmie zbiegającej z bębna napędowego, przedstawiono spodziewany przebieg jej zmiany w funkcji momentu napędowego, charakterystyczny dla danego typu urządzenia napinającego taśmę (Kulinowski, 2012). Podsumowanie artykułu stanowi przedstawienie propozycji wykorzystania charakterystyk statycznych urządzeń napinających do oceny pracy ciernego, bębnowego układu napędowego przenośnika taśmowego. Przedstawiona w artykule metoda obliczeniowa została weryfikowana poprzez badania przemysłowe i realizacje wielu złożonych projektów przenośników taśmowych uzupełnionych analizą wyników badań symulacyjnych dynamiki pracy modeli urządzeń napinających taśmę (Kulinowski, 2012).
The effects of training in time-limited dynamic psychotherapy: changes in therapeutic outcome.
Bein, E; Anderson, T; Strupp, H; Henry, W; Schacht, T; Binder, J; Butler, S
2000-02-01
The present study explored the effects on therapeutic outcomes of training therapists in brief manualized therapy. As part of the Vanderbilt II project, each of 16 therapists (8 psychiatrists and 8 clinical psychologists) treated 2 moderately disturbed adult patients using his or her customary short-term treatment methods; they then received a year of training in a manualized form of brief dynamic therapy, Time-Limited Dynamic Psychotherapy (TLDP); finally, they administered TLDP to 2 additional patients. It was hypothesized that training would result in improved outcomes generally and that differentially greater improvement would be seen in patients commonly considered less suitable for brief dynamic therapy. Outcome data obtained at termination failed to support either hypothesis. Measurements of interpersonal dependency obtained at a one-year follow-up were consistent with the first hypothesis, but the follow-up data were inconsistent with the second. A systematic review of the 32 posttraining cases suggested that the majority of the therapists had not achieved basic competence at TLDP. Die hier beschriebene Studie untersucht die Wirkungen eines Trainings in manualisierter Kurzzeitherapie auf das Therapierergebnis. Als Teil des Vanderbilt II Projektes behandelten jeweils 16 Therapeuten (8 Psychiater und 8 klinische Psychologen) zwei mittelgradig beeinrächtigte erwachsene Patienten mit den ihnen vertrauten Kurzzeitbehandlungsmethoden. Danach wurden sie über ein Jahr in einer manualisierten Form psychodynamischer Kurzzeittherapie ausgebildet und wandten diese Therapie auf zwei weitere Patienten an. Es wurde angenommen, dass die Ausbildung in besseren Ergebnisdaten, die bei Ende der Therapie erhoben wurden, konnten diese Hypothese nicht bestätigen. Maße für die interpersonale Abhängigkeit zu einem Einjahreskatamnesezeitpunkt waren mit der ersten Hypothese konform, aber inkonsistent mit der zweiten. Eine systematische Untersuchung der 32 nach der Ausbildung behandelten Fälle legt nahe, dass die Mehrzahl der Therapeuten keine grundlegende Kompetenz in zeitlich limitierter dynamischer Psychotherapie erworben hatte. Cette éude explore les effets sur les résultats thérapeutiques de la formation des thérapeutes dans une thérapie brève, manualissée. Dans le cadre du projet Vanderbilt II, chacun des 16 thérapeutes (8 psychiatrs et 8 psychologues cliniciens) a traité deux patients adultes modérément perturbés, chacun par sa méthode habituelle de thérapie brève; ensuite ils ont reçu une formation d'une année dans une méthode manualisée de thérapie brève, la Psychothérapie Dynamique Limitée dans le Temps (TLDP); pour finir, ils ont appliqué la TLDP à de meilleurs résultats en général, et qu'une amélioration comparativement plus importante sera observée chez des patients habituellement considérés comme moins adaptés à une thérapie dynamique brè. Les résultats obtenus à la terminaison n'ont pu confirmer aucune de ces hypothèses. Des mesures de la dépendance interpersonnelle une année après étaient consistantes avec la première hypothèse, mais les données catamnestiques étaient inconsistantes avec la deuxième. Une revue systématique des 32 cas après formation a suggéré que la majorité des thérapeutes n'avait pas acquis une compétence de base en TLDP. Este estudio exploró la efectividad del entrenamiento de terapeutas en una terapia breve manualizada. Como parte del proyecto Vanderbilt II, dieciséis terapeutas (ocho psiquiatras y ocho psicólogos clínicos) trataron dos pacientes adultos mooderadamente perturbados con sus métodos habituales de tratamiento a corto plazo. Estos terapeutas recibieron luego un año de entrenamiento en terapia dinámica breve manualizada que se Ilamó Psicoterapia Dinámica de Tiempo limitado (TLDP). Finalmente, administraron esta TLDP a dos pacientes más. La hipótesis fue que el entrenamiento ilevaría, en general, a resultados mejores y que habría mayor mejoramiento en pacientes menos aptos para una terapia dinámica breve. Los resultados a la terminación no apoyaron ninguna de las dos hipótesis. Las mediciones de dependencia interpersonal al año de seguimiento resultaron consistentes con la primera hipótesis, mientras que los resultados de seguimiento fueron inconsistentes con la segunda. Una revisión sistemática de los treinta y dos casos luego del entrenamiento sugiere que la mayoría de los terapeutas no había l.
Mercaptursäure und Nukleosidaddukt im Harn als Biomarker in 1-Hydroxymethylpyren-exponierten Ratten
NASA Astrophysics Data System (ADS)
Ma, Lan
2002-01-01
1-Methylpyren (MP) ist hepatokanzerogen in neugeborenen männlichen Mäusen. Durch Hydroxylierung an der benzylischen Stelle und anschließende Sulfonierung wird MP zu DNA-reaktivem 1-Sulfooxymethylpyren (SMP) aktiviert. In der Ratte führt die Exposition des benzylischen Alkohols, 1-Hydroxymethylpyren (HMP), zur DNA-Adduktbildung in verschiedenen Geweben. Eventuelle Konsequenz der Toxifizierung ist die Ausscheidung entsprechender Mercaptursäure und Nukleosidaddukt im Harn, welche aufgrund ihrer Herkunft als Biomarker eignen könnten. In dieser Arbeit wird die Ausscheidung der Mercaptursäure und des N2-Desoxyguanosinadduktes in HMP-exponierten Ratten untersucht. Nach der Applikation von HMP bzw. MP wurden weniger als 1 % der Dosis als MPMA über Urin und Faeces ausgeschieden (0 - 48 h). Die Ausscheidung erfolgt hauptsächlich in den ersten 24 h nach der Applikation. MPdG konnte weder in Urin noch in Faeces der HMP-behandelten Tieren identifiziert werden. Nach direkter SMP-Applikation wurde MPdG nur in sehr geringe Menge (weniger als 0,9 ppm in 12 h) im Urin gefunden. Aufgrund der geringen Menge eignet sich MPdG nicht als Biomarker. MPMA dagegen, lässt sich analytisch gut erfassen. Es sollte daher untersucht werden, ob MPMA die Toxifizierung des HMP wiederspiegelt. Die Voraussetzung dafür ist die Kenntnisse über das Metabolismusmuster von HMP. Es wurde daher umfassende Untersuchungen zum Metabolismus des HMP durchgeführt. Die Ergebnisse zeigten, dass mehr als 80 % der Metaboiten in ihrer oxidierten Form (PCS, deren Glucuronsäure-Konjugate sowie phenolische Sulfatester der PCS) ausgeschieden wurden. Demnach spielt die Oxidation des HMP zu PCS eine sehr wichtige Rolle bei der Detoxifizierung und Ausscheidung von HMP. Ferne konnte nachgewiesen werden, dass die Enzyme Alkohol- und Aldehyd-Dehydrogenase an der Oxidation von HMP beteiligt waren. Die Inhibitoren Disulfiram und Ethanol der o. g. Enzyme wurde daher zur Modulation der Detoxifizierung in vivo eingesetzt. Die Veränderungen in der Toxifizierung von HMP zu SMP wurden durch die SMP-Konzentration im Plasma, die DNA-Addukthäufigkeit und die MPMA-Ausscheidung erfasst. Die Vorbehandlung von Disulfiram und Ethanol führte zu tendentielle Erhöhung der SMP-Konzentration im Plasma, DNA-Addukthäufigkeit in der Leber und die MPMA-Ausscheidung. Bemerkenswert ist jedoch, dass bereits eine Dosis von 0,2 g Ethanol/kg Körpermasse bereits zu statistisch signifikanten Erhöhungen der MPMA-Ausscheidung bei weiblichen Ratten. 1-Methylpyrene is hepatocarcinogenic in rodents. It is metabolized primarily to 1-hydroxymethylpyrene (HMP) by various cDNA-expressed rat and human cytochromes P450. HMP is activated to a highly reactive sulfuric acid ester, 1-sulfooxymethylpyrene (SMP), by sulphotransferases. In the rat, this activation pathway leads to the formation of DNA adducts in various tissues. Possible consequences of the toxification could be the excretion of the corresponding mercapturic acid and nucleosidadduct in urine and feces. Because of their origin, these substances should reflex the toxification process may be used as biomarkers. We investigate the excretion of 1-methylpyrenyl-mercapturic acid (MPMA) and the excretion of N2-(1-methylpyrenyl)-desoxyguanosin (MPdG) in urine and feces of HMP-treated rats. These studies showed that only a minor portion (< 1 %) of the administered dose of 1-HMP was excreted as mercapturic acid. MPdG could not be identified in urine and feces of HMP-treated rats. Treating rats with the active spieces sulfooxymethylpyrene, 0.9 ppm of the dose was found excreted within 12 h. I now investigated the alternative metabolic pathways of HMP. More than 50 % of the dose (administered intraperitoneally) was excreted as free 1-pyrenyl carboxylic acid and its glucuronic acid conjugate primarily in the urine. Other major urinary metabolites were phenolic sulpho conjugates of ring-oxidized 1-pyrenyl carboxylic acid (> 30 %). Minor metabolites were phenolic sulpho conjugates of HMP (< 5 %). The glucuronic acid conjugate of HMP was found in very small amounts. In total, > 80 % of the metabolites excreted were oxidized at the exocyclic carbon. This side-chain oxidation, probably catalyzed by alcohol and aldehyde dehydrogenases, appears to represent a detoxification pathway. Indeed, administration of ethanol shortly before the administration of HMP to rats increased the levels of SMP detected in blood, of DNA adducts formed in tissues and of mercapturic acid excreted. These effects were observed even at very low dose levels of ethanol (0.2 g per kg body weight). Similar effects were shown after administration of Disulfiram, an inhibitor of aldehyde dehydrogenase.
NASA Astrophysics Data System (ADS)
Baruffini, Mirko
2010-05-01
Due to the topographical conditions in Switzerland, the highways and the railway lines are frequently exposed to natural hazards as rockfalls, debris flows, landslides, avalanches and others. With the rising incidence of those natural hazards, protection measures become an important political issue. However, they are costly, and maximal protection is most probably not economically feasible. Furthermore risks are distributed in space and time. Consequently, important decision problems to the public sector decision makers are derived. This asks for a high level of surveillance and preservation along the transalpine lines. Efficient protection alternatives can be obtained consequently considering the concept of integral risk management. Risk analysis, as the central part of risk management, has become gradually a generally accepted approach for the assessment of current and future scenarios (Loat & Zimmermann 2004). The procedure aims at risk reduction which can be reached by conventional mitigation on one hand and the implementation of land-use planning on the other hand: a combination of active and passive mitigation measures is applied to prevent damage to buildings, people and infrastructures. With a Geographical Information System adapted to run with a tool developed to manage Risk analysis it is possible to survey the data in time and space, obtaining an important system for managing natural risks. As a framework, we adopt the Swiss system for risk analysis of gravitational natural hazards (BUWAL 1999). It offers a complete framework for the analysis and assessment of risks due to natural hazards, ranging from hazard assessment for gravitational natural hazards, such as landslides, collapses, rockfalls, floodings, debris flows and avalanches, to vulnerability assessment and risk analysis, and the integration into land use planning at the cantonal and municipality level. The scheme is limited to the direct consequences of natural hazards. Thus, we develop a system which integrates the procedures for a complete risk analysis in a Geographic Information System (GIS) toolbox, in order to be applied to our testbed, the Alps-crossing corridor of St. Gotthard. The simulation environment is developed within ArcObjects, the development platform for ArcGIS. The topic of ArcObjects usually emerges when users realize that programming ArcObjects can actually reduce the amount of repetitive work, streamline the workflow, and even produce functionalities that are not easily available in ArcGIS. We have adopted Visual Basic for Applications (VBA) for programming ArcObjects. Because VBA is already embedded within ArcMap and ArcCatalog, it is convenient for ArcGIS users to program ArcObjects in VBA. Our tool visualises the obtained data by an analysis of historical data (aerial photo imagery, field surveys, documentation of past events) or an environmental modeling (estimations of the area affected by a given event), and event such as route number and route position and thematic maps. As a result of this step the record appears in WebGIS. The user can select a specific area to overview previous hazards in the region. After performing the analysis, a double click on the visualised infrastructures opens the corresponding results. The constantly updated risk maps show all sites that require more protection against natural hazards. The final goal of our work is to offer a versatile tool for risk analysis which can be applied to different situations. Today our GIS application mainly centralises the documentation of natural hazards. Additionally the system offers information about natural hazard at the Gotthard line. It is very flexible and can be used as a simple program to model the expansion of natural hazards, as a program of quantitatively estimate risks or as a detailed analysis at a municipality level. The tool is extensible and can be expanded with additional modules. The initial results of the experimental case study show how useful a GIS-based system can be for effective and efficient disaster response management. In the coming years our GIS application will be a data base containing all information needed for the evaluation of risk sites along the Gotthard line. Our GIS application can help the technical management to decide about protection measures because of, in addition to the visualisation, tools for spatial data analysis will be available. REFERENCES Bründl M. (Ed.) 2009 : Risikokonzept für Naturgefahren - Leitfaden. Nationale Plattform für Naturgefahren PLANAT, Bern. 416 S. BUWAL 1999: Risikoanalyse bei gravitativen Naturgefahren - Methode, Fallbeispiele und Daten (Risk analyses for gravitational natural hazards). Bundesamt für Umwelt, Wald und Landschaft (BUWAL). Umwelt-Materialen Nr. 107, 1-244. Loat, R. & Zimmermann, M. 2004: La gestion des risques en Suisse (Risk Management in Switzerland). In: Veyret, Y., Garry, G., Meschinet de Richemont, N. & Armand Colin (eds) 2002: Colloque Arche de la Défense 22-24 octobre 2002, dans Risques naturels et aménagement en Europe, 108-120. Maggi R. et al, 2009: Evaluation of the optimal resilience for vulnerable infrastructure networks. An interdisciplinary pilot study on the transalpine transportation corridors, NRP 54 "Sustainable Development of the Built Environment", Projekt Nr. 405 440, Final Scientific Report, Lugano
Distributed computations in a dynamic, heterogeneous Grid environment
NASA Astrophysics Data System (ADS)
Dramlitsch, Thomas
2003-06-01
In order to face the rapidly increasing need for computational resources of various scientific and engineering applications one has to think of new ways to make more efficient use of the worlds current computational resources. In this respect, the growing speed of wide area networks made a new kind of distributed computing possible: Metacomputing or (distributed) Grid computing. This is a rather new and uncharted field in computational science. The rapidly increasing speed of networks even outperforms the average increase of processor speed: Processor speeds double on average each 18 month whereas network bandwidths double every 9 months. Due to this development of local and wide area networks Grid computing will certainly play a key role in the future of parallel computing. This type of distributed computing, however, distinguishes from the traditional parallel computing in many ways since it has to deal with many problems not occurring in classical parallel computing. Those problems are for example heterogeneity, authentication and slow networks to mention only a few. Some of those problems, e.g. the allocation of distributed resources along with the providing of information about these resources to the application have been already attacked by the Globus software. Unfortunately, as far as we know, hardly any application or middle-ware software takes advantage of this information, since most parallelizing algorithms for finite differencing codes are implicitly designed for single supercomputer or cluster execution. We show that although it is possible to apply classical parallelizing algorithms in a Grid environment, in most cases the observed efficiency of the executed code is very poor. In this work we are closing this gap. In our thesis, we will - show that an execution of classical parallel codes in Grid environments is possible but very slow - analyze this situation of bad performance, nail down bottlenecks in communication, remove unnecessary overhead and other reasons for low performance - develop new and advanced algorithms for parallelisation that are aware of a Grid environment in order to generelize the traditional parallelization schemes - implement and test these new methods, replace and compare with the classical ones - introduce dynamic strategies that automatically adapt the running code to the nature of the underlying Grid environment. The higher the performance one can achieve for a single application by manual tuning for a Grid environment, the lower the chance that those changes are widely applicable to other programs. In our analysis as well as in our implementation we tried to keep the balance between high performance and generality. None of our changes directly affect code on the application level which makes our algorithms applicable to a whole class of real world applications. The implementation of our work is done within the Cactus framework using the Globus toolkit, since we think that these are the most reliable and advanced programming frameworks for supporting computations in Grid environments. On the other hand, however, we tried to be as general as possible, i.e. all methods and algorithms discussed in this thesis are independent of Cactus or Globus. Die immer dichtere und schnellere Vernetzung von Rechnern und Rechenzentren über Hochgeschwindigkeitsnetzwerke ermöglicht eine neue Art des wissenschaftlich verteilten Rechnens, bei der geographisch weit auseinanderliegende Rechenkapazitäten zu einer Gesamtheit zusammengefasst werden können. Dieser so entstehende virtuelle Superrechner, der selbst aus mehreren Grossrechnern besteht, kann dazu genutzt werden Probleme zu berechnen, für die die einzelnen Grossrechner zu klein sind. Die Probleme, die numerisch mit heutigen Rechenkapazitäten nicht lösbar sind, erstrecken sich durch sämtliche Gebiete der heutigen Wissenschaft, angefangen von Astrophysik, Molekülphysik, Bioinformatik, Meteorologie, bis hin zur Zahlentheorie und Fluiddynamik um nur einige Gebiete zu nennen. Je nach Art der Problemstellung und des Lösungsverfahrens gestalten sich solche "Meta-Berechnungen" mehr oder weniger schwierig. Allgemein kann man sagen, dass solche Berechnungen um so schwerer und auch um so uneffizienter werden, je mehr Kommunikation zwischen den einzelnen Prozessen (oder Prozessoren) herrscht. Dies ist dadurch begründet, dass die Bandbreiten bzw. Latenzzeiten zwischen zwei Prozessoren auf demselben Grossrechner oder Cluster um zwei bis vier Grössenordnungen höher bzw. niedriger liegen als zwischen Prozessoren, welche hunderte von Kilometern entfernt liegen. Dennoch bricht nunmehr eine Zeit an, in der es möglich ist Berechnungen auf solch virtuellen Supercomputern auch mit kommunikationsintensiven Programmen durchzuführen. Eine grosse Klasse von kommunikations- und berechnungsintensiven Programmen ist diejenige, die die Lösung von Differentialgleichungen mithilfe von finiten Differenzen zum Inhalt hat. Gerade diese Klasse von Programmen und deren Betrieb in einem virtuellen Superrechner wird in dieser vorliegenden Dissertation behandelt. Methoden zur effizienteren Durchführung von solch verteilten Berechnungen werden entwickelt, analysiert und implementiert. Der Schwerpunkt liegt darin vorhandene, klassische Parallelisierungsalgorithmen zu analysieren und so zu erweitern, dass sie vorhandene Informationen (z.B. verfügbar durch das Globus Toolkit) über Maschinen und Netzwerke zur effizienteren Parallelisierung nutzen. Soweit wir wissen werden solche Zusatzinformationen kaum in relevanten Programmen genutzt, da der Grossteil aller Parallelisierungsalgorithmen implizit für die Ausführung auf Grossrechnern oder Clustern entwickelt wurde.
NASA Astrophysics Data System (ADS)
Xu, Jiafu; Ozbayoglu, Evren; Miska, Stefan Z.; Yu, Mengjiao; Takach, Nicholas
2013-06-01
Along with the rapidly growing demand and development activities in unconventional resources, is the growth of environmental awareness and concerns among the public. Foam, as an alternative to traditional drilling fluid, is gaining more and more momentum in the drilling industry. Drilling with foam can minimize formation damage, water usage, and drag and torque. Foam also costs less and leaves a much smaller environmental footprint than other commonly used drilling fluids, such as synthetic oil-based fluids, when developing vulnerable formations such as shale gas. As drilling in horizontal and near horizontal sections has become very common, and the need for such sections is increasing, it is very important to understand cuttings transport and hole cleaning issues when drilling with foam in such sections. A team from University of Tulsa Drilling Research Projects (TUDRP) conducted a series of experiments focused on studying the effects of change in hole inclination angle from 90 degrees to 70 degrees on cuttings transport with foam under Elevated Pressure and Elevated Temperature (EPET) conditions. This experimental and theoretical study also includes other influential parameters such as foam quality, foam flow rate, polymer concentration and drill pipe rotary speed. We have observed that there is no significant difference in cuttings concentration and frictional pressure losses as inclination changes from 70 to 90 degrees. Also, an increase in superficial foam velocity reduces cuttings concentration within the annulus. Pipe rotation influences cuttings concentration and frictional pressure losses for low quality foams, but does not have a significant effect on high quality foams. A correlation for the cuttings bed area and a computer simulator are developed for practical design and field applications. The predicted results are compared with experimental results from this study and previous studies. The comparison shows good agreement. We believe that the findings of this paper will help designers with the choice of optimal drilling fluid for drilling horizontal wells in unconventional (shale) gas/oil reservoirs. Równolegle ze stale rosnącym zapotrzebowaniem na prowadzenia prac udostępniających w złożach niekonwencjonalnych notuje się wzrost świadomości społecznej odnośnie zagadnień ochrony środowiska. Piana jako alternatywa dla tradycyjnej płuczki wiertniczej nabiera coraz większego znaczenia w górnictwie otworowym. Wiercenie przy użyciu piany pomogą ograniczać zniszczenia formacji geologicznych, redukuje zużycie wody, pozwala na zminimalizowanie oporów ruchu i momentów obrotowych silników. Ponadto, koszty piany są niższe a jej oddziaływanie na środowisko naturalne jest mniej znaczne niż w przypadku typowych płuczek opartych na olejach syntetycznych używanych w trakcie udostępniania trudnych w eksploatacji złóż, np. gazu łupkowego. Wiercenia odcinków poziomych lub prawie poziomych są już szeroko stosowane a zapotrzebowanie na takie odcinki wrasta, ważnym jest właściwe rozpoznanie problemów związanych z transportem urobku wiertniczego i czyszczeniem otworu w trakcie prowadzenia prac wiertniczych na tych odcinkach przy użyciu piany. Zespól badaczy z uniwersytetu w Tulsa zaangażowanych w projekt badawczy w dziedzinie wiertnictwa (TUDRP) przeprowadził serię eksperymentów mających na celu zbadanie wpływu zmiany kąta nachylenia otworu z 90 na 70 stopni na przebieg transportu urobku wiertniczego z wykorzystanie piany w warunkach podwyższonego ciśnienia i podwyższonych temperatur. Badania eksperymentalne i teoretyczne obejmowały także analizę pozostałych parametrów procesu: jakość piany, natężenie przepływu piany, stężenie polimerów, prędkość obrotowa przewodu wiertniczego. Nie stwierdzono znacznych różnic w stężeniu zwiercin ani utraty ciśnienia wskutek tarcia w trakcie zmiany kąta nachylenia z 90 na 70 stopni. Ponadto, dodatkowy wzrost prędkości ruchu piany prowadzi do zmniejszenia stężenia zwiercin w pierścieniu. Prędkość obrotowa przewodu wpływa na stężenie zwiercin i straty ciśnienia wskutek tarcia w przypadku stosowania pian niskiej jakości, efektu tego nie notuje się gdy wykorzystywane są wysokiej jakości piany. Dane z obszaru wiercenia skorelowane zostały z wynikami symulacji komputerowych do wspomagania projektowania i do wykorzystania w terenie. Prognozowane wyniki porównano z wynikami eksperymentów uzyskanymi w tym oraz w poprzednim programie badawczym. Porównanie to wykazuje dużą zgodność wyników. Mamy nadzieję, że wyniki obecnej pracy pomogą inżynierom projektantom w wyborze optymalnej płuczki wiertniczej do wierceń poziomych odcinków otworów przy eksploatacji niekonwencjonalnych złóż ropy i gazu (np. gazu łupkowego).
Charged systems in bulk and at interfaces
NASA Astrophysics Data System (ADS)
Moreira, André Guérin
2001-05-01
One of the rules-of-thumb of colloid and surface physics is that most surfaces are charged when in contact with a solvent, usually water. This is the case, for instance, in charge-stabilized colloidal suspensions, where the surface of the colloidal particles are charged (usually with a charge of hundreds to thousands of e, the elementary charge), monolayers of ionic surfactants sitting at an air-water interface (where the water-loving head groups become charged by releasing counterions), or bilayers containing charged phospholipids (as cell membranes). In this work, we look at some model-systems that, although being a simplified version of reality, are expected to capture some of the physical properties of real charged systems (colloids and electrolytes). We initially study the simple double layer, composed by a charged wall in the presence of its counterions. The charges at the wall are smeared out and the dielectric constant is the same everywhere. The Poisson-Boltzmann (PB) approach gives asymptotically exact counterion density profiles around charged objects in the weak-coupling limit of systems with low-valent counterions, surfaces with low charge density and high temperature (or small Bjerrum length). Using Monte Carlo simulations, we obtain the profiles around the charged wall and compare it with both Poisson-Boltzmann (in the low coupling limit) and the novel strong coupling (SC) theory in the opposite limit of high couplings. In the latter limit, the simulations show that the SC leads in fact to asymptotically correct density profiles. We also compare the Monte Carlo data with previously calculated corrections to the Poisson-Boltzmann theory. We also discuss in detail the methods used to perform the computer simulations. After studying the simple double layer in detail, we introduce a dielectric jump at the charged wall and investigate its effect on the counterion density distribution. As we will show, the Poisson-Boltzmann description of the double layer remains a good approximation at low coupling values, while the strong coupling theory is shown to lead to the correct density profiles close to the wall (and at all couplings). For very large couplings, only systems where the difference between the dielectric constants of the wall and of the solvent is small are shown to be well described by SC. Another experimentally relevant modification to the simple double layer is to make the charges at the plane discrete. The counterions are still assumed to be point-like, but we constraint the distance of approach between ions in the plane and counterions to a minimum distance D. The ratio between D and the distance between neighboring ions in the plane is, as we will see, one of the important quantities in determining the influence of the discrete nature of the charges at the wall over the density profiles. Another parameter that plays an important role, as in the previous case, is the coupling as we will demonstrate, systems with higher coupling are more subject to discretization effects than systems with low coupling parameter. After studying the isolated double layer, we look at the interaction between two double layers. The system is composed by two equally charged walls at distance d, with the counterions confined between them. The charge at the walls is smeared out and the dielectric constant is the same everywhere. Using Monte-Carlo simulations we obtain the inter-plate pressure in the global parameter space, and the pressure is shown to be negative (attraction) at certain conditions. The simulations also show that the equilibrium plate separation (where the pressure changes from attractive to repulsive) exhibits a novel unbinding transition. We compare the Monte Carlo results with the strong-coupling theory, which is shown to describe well the bound states of systems with moderate and high couplings. The regime where the two walls are very close to each other is also shown to be well described by the SC theory. Finally, Using a field-theoretic approach, we derive the exact low-density ("virial") expansion of a binary mixture of positively and negatively charged hard spheres (two-component hard-core plasma, TCPHC). The free energy obtained is valid for systems where the diameters d_+ and d_- and the charge valences q_+ and q_- of positive and negative ions are unconstrained, i.e., the same expression can be used to treat dilute salt solutions (where typically d_+ ~ d_- and q_+ ~ q_-) as well as colloidal suspensions (where the difference in size and valence between macroions and counterions can be very large). We also discuss some applications of our results. Eine der Faustregeln der Kolloid- und Oberflächenphysik ist, dass die meisten Oberflächen geladen sind, wenn sie mit einem Lösungsmittel, normalerweise Wasser, in Kontakt treten. Dies ist zum Beispiel bei ladungsstabilisierten Kolloidalen Suspensionen der Fall, bei denen die Oberfläche der Kolloidteilchen geladen ist (gewöhnlich mit einer Ladung von mehreren Hunderttausend Elementarladungen), oder bei Monoschichten ionischer Tenside, die auf einer Luft-Wasser Grenzfläche sitzen (wobei die wasserliebenden Kopfgruppen durch die Freisetzung von Gegenionen geladen werden), sowie bei Doppelschichten, die geladene phospholipide enthalten (wie Zellmembranen). In dieser Arbeit betrachten wir einige Modellsysteme, die zwar eine vereinfachte Fassung der Realität darstellen, von denen wir aber dennoch erwarten koennen, dass wir mit ihrer Hilfe einige physikalische Eigenschaften realer geladener Systeme (Kolloide und Elektrolyte) einfangen können.
Robust boosting via convex optimization
NASA Astrophysics Data System (ADS)
Rätsch, Gunnar
2001-12-01
In this work we consider statistical learning problems. A learning machine aims to extract information from a set of training examples such that it is able to predict the associated label on unseen examples. We consider the case where the resulting classification or regression rule is a combination of simple rules - also called base hypotheses. The so-called boosting algorithms iteratively find a weighted linear combination of base hypotheses that predict well on unseen data. We address the following issues: o The statistical learning theory framework for analyzing boosting methods. We study learning theoretic guarantees on the prediction performance on unseen examples. Recently, large margin classification techniques emerged as a practical result of the theory of generalization, in particular Boosting and Support Vector Machines. A large margin implies a good generalization performance. Hence, we analyze how large the margins in boosting are and find an improved algorithm that is able to generate the maximum margin solution. o How can boosting methods be related to mathematical optimization techniques? To analyze the properties of the resulting classification or regression rule, it is of high importance to understand whether and under which conditions boosting converges. We show that boosting can be used to solve large scale constrained optimization problems, whose solutions are well characterizable. To show this, we relate boosting methods to methods known from mathematical optimization, and derive convergence guarantees for a quite general family of boosting algorithms. o How to make Boosting noise robust? One of the problems of current boosting techniques is that they are sensitive to noise in the training sample. In order to make boosting robust, we transfer the soft margin idea from support vector learning to boosting. We develop theoretically motivated regularized algorithms that exhibit a high noise robustness. o How to adapt boosting to regression problems? Boosting methods are originally designed for classification problems. To extend the boosting idea to regression problems, we use the previous convergence results and relations to semi-infinite programming to design boosting-like algorithms for regression problems. We show that these leveraging algorithms have desirable theoretical and practical properties. o Can boosting techniques be useful in practice? The presented theoretical results are guided by simulation results either to illustrate properties of the proposed algorithms or to show that they work well in practice. We report on successful applications in a non-intrusive power monitoring system, chaotic time series analysis and a drug discovery process. --- Anmerkung: Der Autor ist Träger des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2001/2002. In dieser Arbeit werden statistische Lernprobleme betrachtet. Lernmaschinen extrahieren Informationen aus einer gegebenen Menge von Trainingsmustern, so daß sie in der Lage sind, Eigenschaften von bisher ungesehenen Mustern - z.B. eine Klassenzugehörigkeit - vorherzusagen. Wir betrachten den Fall, bei dem die resultierende Klassifikations- oder Regressionsregel aus einfachen Regeln - den Basishypothesen - zusammengesetzt ist. Die sogenannten Boosting Algorithmen erzeugen iterativ eine gewichtete Summe von Basishypothesen, die gut auf ungesehenen Mustern vorhersagen. Die Arbeit behandelt folgende Sachverhalte: o Die zur Analyse von Boosting-Methoden geeignete Statistische Lerntheorie. Wir studieren lerntheoretische Garantien zur Abschätzung der Vorhersagequalität auf ungesehenen Mustern. Kürzlich haben sich sogenannte Klassifikationstechniken mit großem Margin als ein praktisches Ergebnis dieser Theorie herausgestellt - insbesondere Boosting und Support-Vektor-Maschinen. Ein großer Margin impliziert eine hohe Vorhersagequalität der Entscheidungsregel. Deshalb wird analysiert, wie groß der Margin bei Boosting ist und ein verbesserter Algorithmus vorgeschlagen, der effizient Regeln mit maximalem Margin erzeugt. o Was ist der Zusammenhang von Boosting und Techniken der konvexen Optimierung? Um die Eigenschaften der entstehenden Klassifikations- oder Regressionsregeln zu analysieren, ist es sehr wichtig zu verstehen, ob und unter welchen Bedingungen iterative Algorithmen wie Boosting konvergieren. Wir zeigen, daß solche Algorithmen benutzt werden koennen, um sehr große Optimierungsprobleme mit Nebenbedingungen zu lösen, deren Lösung sich gut charakterisieren laesst. Dazu werden Verbindungen zum Wissenschaftsgebiet der konvexen Optimierung aufgezeigt und ausgenutzt, um Konvergenzgarantien für eine große Familie von Boosting-ähnlichen Algorithmen zu geben. o Kann man Boosting robust gegenüber Meßfehlern und Ausreissern in den Daten machen? Ein Problem bisheriger Boosting-Methoden ist die relativ hohe Sensitivität gegenüber Messungenauigkeiten und Meßfehlern in der Trainingsdatenmenge. Um dieses Problem zu beheben, wird die sogenannte 'Soft-Margin' Idee, die beim Support-Vector Lernen schon benutzt wird, auf Boosting übertragen. Das führt zu theoretisch gut motivierten, regularisierten Algorithmen, die ein hohes Maß an Robustheit aufweisen. o Wie kann man die Anwendbarkeit von Boosting auf Regressionsprobleme erweitern? Boosting-Methoden wurden ursprünglich für Klassifikationsprobleme entwickelt. Um die Anwendbarkeit auf Regressionsprobleme zu erweitern, werden die vorherigen Konvergenzresultate benutzt und neue Boosting-ähnliche Algorithmen zur Regression entwickelt. Wir zeigen, daß diese Algorithmen gute theoretische und praktische Eigenschaften haben. o Ist Boosting praktisch anwendbar? Die dargestellten theoretischen Ergebnisse werden begleitet von Simulationsergebnissen, entweder, um bestimmte Eigenschaften von Algorithmen zu illustrieren, oder um zu zeigen, daß sie in der Praxis tatsächlich gut funktionieren und direkt einsetzbar sind. Die praktische Relevanz der entwickelten Methoden wird in der Analyse chaotischer Zeitreihen und durch industrielle Anwendungen wie ein Stromverbrauch-Überwachungssystem und bei der Entwicklung neuer Medikamente illustriert.
Campo, J L; Cobos, P
1994-01-12
Four lines of Tribolium castaneum were selected in each of three replicates for increased ratio of (pupal-larval) to (adult-larval) weight gains, using selection for increased (pupal-larval) weight gain (PL), selection for decreased (adult-larval) weight gain (AL), direct selection for the ratio (R) and linear selection index of larval, pupal and adult weights (I), respectively, for four generations. Linear index was calculated with economic weights of m(2) -m(3) , m(3) -m(1) and m(1) -m(2) , respectively, with m(1) , m(2) and m(3) being the means for larval, pupal and adult weights. Selection to increase the ratio is considered to be a method to maximize the mean response in (adult-larval) weight while controlling the response in (pupal-adult) weight, and as a form of antagonistic selection to increase the weight gain during a given age period relative to the gain at another age period. Larval, pupal and adult weights were measured at 14, 21 and 28 days after adult emergence, respectively. The selected proportion was 20 % in all lines. The response observed for the ratio differed significantly among lines (p < 0.01), with the I and AL lines having the greatest responses. Line R was less effective in improving the objective of selection, while line PL appeared to be inappropriate. The observed responses for the numerator and denominator weight gains were positive in line PL, and negative in the AL, R and I lines. All lines apart from line PL decreased the (adult-larval) weight, holding (pupal-adult) weight constant. Larval weight showed the greatest influence on the response for the objective of selection. The results for this greater than 1 ratio are compared with results of others for smaller than 1 ratios, in which indirect selection for increased numerator is the more efficient alternative to the selection index. ZUSAMMENFASSUNG: Effizienz Selektionsverfahren zur Verbesserung des Quotienten der Gewichtsentwicklung zwischen Puppe/Larve und Käfer/Larve bei Tribolium. In den jeweils drei Versuchsserien zur Erhöhung des Quotienten (Gewicht von Puppe-Larve/Gewicht von Käfer-Larve) wurden vier Versuchsreihen von Tribolium castaneum untersucht: die Versuchsreihe PL wurde gewählt um die Differenz (Puppengewicht-Larvengewicht) zu erhöhen, die Versuchsreihe AL wurde gewählt um die Differenz (Käfergewicht-Larvengewicht) zu reduzieren, die Versuchsreihe R wurde direkt für den Koeffizienten gewählt und die Auswahl der Versuchsreihe I erfolgte über einen linearen Index, errechnet aus dem Gewicht von Larven, Puppen und Käfern über vier Generationen. Der lineare Index wurde berechnet aus den Gewichten von (m(2) -m(3) ), (m(3) -m(1) ) bzw. (m(1) -m(2) ), wobei m(1) , m(2) und m(3) die Mittelwerte für das Gewicht von Larven, Puppen bzw. Käfern sind. Die Auswahl zur Erhöhung des Quotienten ist eine Methode zur Maximierung des Durchschnittsgewichtsverhältnisses Käfer/Larve, sowie eine antagonische Auswahlform zur Erhöhung der Gewichtszunahme während einer bestimmten Wachstumsperiode im Vergleich zur Gewichtszunahme während einer anderen Wachstumsperiode. Das Selektionsverhältnis belief sich auf 20%. Die beim Quotienten beobachtete Antwort wies bedeutende Unterschiede zwischen Versuchsreihen auf (p < 0.01), wobei die höchsten Antworten bei den Versuchsreihen I und AL beobachtet wurden. Versuchsreihe R war am wenigsten effektiv, während Versuchsreihe PL nicht geeignet schien, das Auswahlziel zu verbessern. Die bei Nenner und Zähler beobachteten Antworten waren positiv bei der Versuchsreihe PL und negativ bei den anderen drei Versuchsreihen. Die Ergebnisse für diesen Quotient größer als 1 wurden mit denen anderer Versuche für Quotienten kleiner als 1 verglichen, bei denen die Auswahl zur Erhöhung des Zählers die effizienteste Alternative zum Auswahlindex ist. RESUMEN: Eficiencia de métodos de selección para incrementar el cociente entre la ganancia en peso de pupa-peso de larva y la ganancia en peso de adulto-peso de larva en Tribolium Cuatro líneas de Tribolium castaneum fueron seleccionadas en cada una de tres repeticiones para incrementar el cociente (peso de pupa-peso de larva)/(peso de adulto-peso de larva); la línea PL fue seleccionada para aumentar la diferencia (peso de pupa-pesp de larva), la línea AL fue seleccionada para disminuir la diferencia (peso de adulto-peso de larva), fa línea R fue seleccionada directamente para el cociente, y la línea I fue seleccionada por medio de un índice lineal basado en los pesos de larva, pupa y adulto, durante cuatro generaciones. El índice lineal se calculó con pesos económicos de (m(2) -m(3) ), (m(3) -m(1) ), y (m(1) -m(2) ) respectivamentee, siendo m(1) , m(2) , y m(3) los valores medios para el peso de larva, pupa y adulto. La selección para aumentar el cociente indicado es un método para maximizar la respuesta en (peso de adulto-peso de larva) controlando al tiempo la respuesta en (peso de pupa-peso de adulto), y es una forma de selección antagónica para aumentar la ganancia de peso durante un periodo de edad en relación con la ganancia en peso durante otro periodo. La proporción de selección due el 20 %. La respuesta observada en el cociente difería significativamente entre lineas (p < 0.01), teniendo las líneas I y AL las mayores respuestas. La línea R fue menos efectiva, mientras que la línea PL parecía inapropiada para mejorar el objetiyo de selección. Las respuestas observadas en el denominador y en el numerador fueron positivas en la línea PL, y negativas en las otras tres líneas. Los resultados para este cociente mayor que 1 se comparan con los de otros experimentos para cocientes menores que 1, en los que la selección para incrementar el numerador es la alternativa más eficiente al índice de selección. 1994 Blackwell Verlag GmbH.
Genetic study of Andalusia's ovine and caprine breeds.
Rodero, E; Haba, M R; Rodero, A
1997-01-12
Two different breeds of Andalusian sheep, 'Grazalema Merino' and 'Lebrijan Churro', and two different breeds of Andalusian goats, 'Andalusian White' and 'Andalusian Black', chosen by previous studies (Rodero et al. 1992a) as priority breeds for conservation, were studied. The systems used corresponded to ethnozootechnic characteristics, as well as the different biochemical-polymorphism variables. Farms were differentiated within breeds, or between themselves, and different tests were used of genetic and genotypic frequencies: Wright's indices, medium heterozygosities, Whalund's variances, G test of probability of reason, etc. Also Cavalli-Sforza's genetic distance was obtained. In the Andalusian Black and Grazalema Merino breeds, the Whalund's variances obtained were a result of selection, that has divided the breeds into distinct populations differentiated spatially. Medium heterozygosities of each breed do not differ much within themselves, but when each system is considered alone, discrepancies between ethnic groups are relevant. Wright's F indices demonstrated in the Andalusian White and Grazalema Merino breeds, genetic heterozygosities between populations or studied herds can be deduced, but this is not possible in the Andalusian Black. The F(IS) values indicated, despite the small size of the populations, that inbreeding has been avoided, probably because of the entry of foreign sires. In none of the breeds is there a significant excess of heterozygosis. The genetic distances between flocks within breeds do not differ from those found between breeds. RÉSUMÉ: On a travallé avec, differents troupeau des races de montons de l'Andalusie, Grazalema Merino et Lebrija Churro, et avec les races caprines Andalusian White et Andalusian Black, choisie entre les races Andaluciennes comme prioritaires pour la conservation, dans un etudie avant (Rodero et col. 1992a). Les sistémes utilicés dans cette travaille correspondent á charactérés etnozootechniques et á differents variables de polymorphism biochimique. Lorsque on fait differences entre troupeau, dedans de races, ou entre elles, on a utilicés differents preuves, á partir des fréquences géniques et génotipiques: l'index de Wright, hétérozygotie moyennes, variances de Whalund, preuve G de raison de probabilité, etc. Aussi le distance de Cavalli-Sforza. Comme conclusion, dans les races Andalusian Black et Grazalema Merino les variances de Whalund obtenues sont cosequences de l'action de la selection, donant different populations avec differentiation spaciale. Les hétérozygoties moyennes de chaque race sont parus, mais lorsque on considérent chaque systéme separé, les differences entre groupes ethniques sont importantes. Les indexes F de Wright demonstrent que, dans le races Andalusian White et Grazalema Merino on peuvent déduire d'heterozygoties génétique entre les populations ou troupeau analicées, dans le race Andalusian Black les differences valeurs de FIS indiquent que, malgré les petites dimensions des populations, on a evité la consanguinitée, due, probablement, á l'entrée d'étalons externes. Il n'y a pas, chez auqune race, d'un signifivative accroissement d'hétérizygosis. Les distances génétiques entre troupeau, dedans des races, en different pas des distances obtenues entre races. RESUMEN: Se ha trabajado con diferentes ganaderias de las razas ovinas andaluzas Merino de Grazalema y Churra Lebrijana, y con las caprinas Blanca Serrana y Negra Serrana, elegidas entre el resto de las razas de Andalucia como prioritarias pra la conservación, por estudio previo (Rodero y col., 1992a). Los sistemas utilizados en este trabajo corresponden tanto a caracteres etnozootécnicos como a diferentes variables de polimorfismos bioquimicos. Cuando se han diferenciado las ganaderias dentrde razas, o las ganaderias entre si, se han utilizado diferentes pruebas, a partir de las frecuencias genéticas y genotipicas: indices de Wright, heterocigosidades media, varianzas de Whalund, prueba G de razón de probabilidad, etc. También se obtuvieron las distancia genéticas de Cavalli-Sforza. Se concluye que en las razas Negra Serrana y Merino de Grazalema las varianzas de Whalund obtenidas son consecuencia de la acción de la selección que ha actuado dividiendo las razas en distintas poblaciones con diferenciación espacial. Las heterocigosidades medias de cada raza no difieren mucho entre si, pero cuando se considera cada sistema aisladamente, las discrepancias entre grupos étnicos son acusadas. Los indices F de Wright ponen de manifiesto que, mientras en las razas Blanca Serrana y Merino de Grazalema se pueden deducir heterocigosidades genéticas entre las problaciones o ganaderias estudiadas, no ocurre otro tanto en la raza Negra Serrana. Los valores de F(IS) parecen indicar que, a pesar del tamaño pequeño de las poblaciones, se ha evitado la consanguinidad, probablemente por la entrada de sementales externos. No se produce en ninguna de las razas un exceso significativo de heterocigosis. Las distancias genéticas entre ganaderias dentro de razas no difieren de lashalladas entre razas. ZUSAMMENFASSUNG: Es wurde mit verschiedenen andalusischen Zuchten der Schafrassen 'Grazalema Merino' and 'Lebrijan Churro' und der Ziegenrassen 'Andalusian White' und 'Andalusian Black' gearbeitet, die man von den andalusichen Rassen im Hinblick auf Erhaltung ausgewählt hat. Die benutzten Systeme in dieser Forschungsarbeit entsprechen Merkmalen, die sich sowohl auf ethnisch wie auch auf die verschiedenen Variablen des biochemischen Polimorfismius bezichen. Zur Unterschlidung von Zuchten innerhalb die Rassen oder von zuchten untereinander wurden verschiedene Tests benutzt, die von den genetischen und genotypischen Frequenzen ausgehen: Wright-Index, Durchschnittsheterozygositäten, Wahl und Varianz G-Test der Wahrscheinlichkeit, etc. Außerdem wurden die genetischen Distanzen nach Cavalli-Sforza errechnet. Man Kommt zum Schluß, daß in den Andalusian Black und Grazalema Merino die Wahl und Varianz das Ergebnis einer Selektionsaktivität ist, die die Rassen in Verschiedenen Populationen und unterschiedlichen Räumen aufgeteilt hat. Die durchschnittlichen Heterozygositäten jeder Rasse unterscheiden sich wenig voneinander, aber wenn man jedes System für sich betrachtet, stell man doch erhebliche Diskrepanzen zwischen den ethnischen Gruppen fest. Der Wright-Index offenbart, daß man in den Rassen Andalusian White und Grazalema Merino genetische Heterozygositäten ableiten kann zwischen den Populationen oder den untersuchten Zuchten; dies ist nicht der Fall inder Rasse Andalusian Black. Die F(IS) werte scheinen anzugeben, da trotz der kleinen Größe der Populationen die Blutsverwandschaft vermieden wurde, wahrscheinlich durch von außerhalb kommenden Böcken. In keiner der Rassen existiert übermässige Heterozygotie Die genetischen Distanzen zwischer der Zuchten unterscheiden sich nicht van dener der Rassen. 1997 Blackwell Verlag GmbH.
NASA Astrophysics Data System (ADS)
Cała, Marek; Ostręga, Anna
2013-06-01
The article presents the history of the Katowice Hard Coal Mine and the concept of revitalisation taking into consideration the historical development of the mine which today is closed. The concept accepted for realisation assumes adaptation of the post-mining area with its historical infrastructure for cultural functions, and namely for the construction of the New Silesian Museum. Basing the concept on the idea of minimum interference into the existing spatial layout of the former mine has had the result that the museum areas and garages have been designed under the surface of the area adjacent to the historic facilities of the mine. In relation therewith, it was necessary to carry out the works aimed at reinforcing foundations of the historic buildings and protecting the geotechnical pit slopes. The article presents the technological solutions applied to protect the historic buildings, the lift tower, and the excavations for new facilities of the Silesian Museum. Attention was drawn to the instability of the subsoil and of the rock mass due to previous mining operations conducted in the area, the need to adapt the protection technology to the existing conditions as well as the need of constant monitoring of geotechnical works underway.> It is emphasised that the presented investment is part of an ongoing process aimed at preserving the industrial part of the material cultural heritage of Upper Silesia, for centuries connected with hard coal mining and as such it stands a chance to become a showcase not only for Katowice but for the entire region of Silesia. W artykule przedstawiono historię Kopalni Węgla Kamiennego "Katowice" oraz koncepcję rewitalizacji uwzględniającą historyczną zabudowę nieczynnej już dziś kopalni. Przyjęta do realizacji koncepcja zakłada przystosowanie pogórniczego terenu wraz z zabytkową infrastrukturą dla funkcji kulturowych, a mianowicie budowy Nowego Muzeum Śląskiego. Siedziba Nowego Muzeum Śląskiego lokalizowana jest w południowej części terenu dawnej Kopalni "Katowice", na którym znajdują się zabytkowe obiekty przeznaczone do odrestaurowania i adaptacji dla nowych funkcji. Są to: - budynek maszyny wyciągowej Szybu "Warszawa" (MS-8), adaptowany dla celów gastronomicznych, - magazyn odzieżowy (MS-15), adaptowany dla celów wystawienniczych-Centrum Scenografii Polskiej, - wieża wyciągowa Szybu "Warszawa" (MS-79), adaptowana dla funkcji widokowych. Pozostała część terenu dawnej KWK "Katowice" wraz zabytkowymi obiektami, w miarę możliwości finansowych włączana będzie w kompleks Muzeum Śląskiego. Oparcie koncepcji na idei minimalnej ingerencji w urbanistyczny układ zabytkowej kopalni, a jednocześnie potrzeba zapewnienia odpowiednich przestrzeni wystawienniczych, administracyjnych i miejsc postojowych znalazły odzwierciedlenie w zastosowaniu następujących rozwiązań: - adaptacji historycznych obiektów dla funkcji wystawienniczych, gastronomicznych i widokowych; - ulokowania nowobudowanych obiektów pod powierzchnią terenu w bezpośrednim sąsiedztwie zabytkowych obiektów. W związku z powyższym koniecznym było wykonanie prac wzmacniających posadowienie historycznych budynków oraz geotechnicznych zabezpieczeń skarp wykopu. W artykule pokazano technologiczne rozwiązania jakie zastosowano dla zabezpieczenia zabytkowych budynków, wieży wyciągowej oraz wykopu pod nowe obiekty Muzeum Śląskiego. Geotechniczne metody zabezpieczenia poszczególnych obiektów zaprojektowano na podstawie rozpoznania warunków geologiczno-inżynierskich oraz wykonanych analiz, co pozwoliło na zaproponowanie rozwiązań optymalnych zarówno pod względem technicznym jak i ekonomicznym. Z uwagi na skomplikowane uwarunkowania geotechniczne i wartość obiektów znajdujących się w strefie oddziaływania wykopu, przewidziano zastosowanie technologii pozwalającej uzyskać efekt maksymalnego wzmocnienia wgłębnego masywu. Zaprojektowane technologie zabezpieczenia mają na celu: - wzmocnienie posadowienia zabytkowych obiektów i przeniesienie obciążeń na grunt poniżej dna wykopu; - umożliwienie wykonania wewnętrznego poziomu -1 poprzez pogłębienie części budynku maszynowni (MS-8) o jeden poziom; - zabezpieczenie geotechniczne ścian wykopu w rejonie historycznych budynków, - zapewnienie bezpieczeństwa pracy przez okres realizacji podziemnych części Nowego Muzeum Śląskiego jak również funkcjonowania obiektu po zakończeniu procesu rewitalizacji - konstrukcje oporowe przy budynku magazynu odzieży MS-15 i wieży wyciągowej MS-79 będą pełniły rolę docelowych ścian segmentów podziemnych. W artykule zwrócono uwagę na zróżnicowaną budowę geologiczną w rejonie inwestycji, różne obciążenie naziomu, a przede wszystkim na niepewność podłoża i masywu ze względu na wcześniej prowadzone roboty górnicze. Prowadzona przez 176 lat podziemna eksploatacja złóż węgla kamiennego spowodowała osłabienie masywu poprzez m.in. występowanie wkładek węgla kamiennego i stref uskokowych oraz prawdopodobnie starych zrobów. W zależności od rodzaju obiektu będącego przedmiotem zabezpieczenia, jak również konieczności dostosowania technologii zabezpieczenia do zastanych warunków zastosowano kilka rodzajów konstrukcji takich jak palisady czy też bariery mikropalowe stabilizowane kotwiami lub gwoździami. Z uwagi na charakter prac zabezpieczających, dokładność rozpoznania geologiczno-inżynierskiego oraz skalę zadania, projekt zabezpieczeń geotechnicznych miał charakter aktywny. Oznacza to, że rozwiązanie projektowe dostosowywano na bieżąco do faktycznie napotkanych warunków geologicznych. Ponadto podczas realizacji wszystkich prac zabezpieczających wykonywany był monitoring geotechniczny. Ze względu na zabytkowy charakter obiektów sąsiadujących z wykopem konieczny był również monitoring ich konstrukcji. Przedsięwzięcie realizowane jest przy wparciu Europejskiego Funduszu Rozwoju Regionalnego w ramach Regionalnego Programu Operacyjnego Województwa Śląskiego na lata 2007-2013 oraz środków Ministra Kultury i Dziedzictwa Narodowego. Zakończenie realizacji planuje się na 2013 r. Wartością dodaną opisanego przedsięwzięcia jest fakt ulokowania nowej siedziby Muzeum Śląskiego na terenie dawnej Kopalni "Katowice". Zabytkowa zabudowa dawnej Kopalni sama w sobie tworzy "żywe muzeum" górnictwa węglowego. Poza ekspozycjami związanymi z malarstwem, rzeźbą itp., w muzeum planuje się prezentować również przemysłowe dziedzictwo kulturowe Górnego Śląska. Rozpoczęto już gromadzenie eksponatów. Dlatego w artykule podkreślono, że opisana inwestycja wpisuje się w działania na rzecz zachowania przemysłowej części materialnego dziedzictwa kulturowego Górnego Śląska, od wieków związanego górnictwem węgla kamiennego i ma szansę stać się wizytówką nie tylko Katowic, ale i regionu śląskiego.
NASA Astrophysics Data System (ADS)
Montenegro, Rivelino V. D.
2003-05-01
The colloidal systems are present everywhere in many varieties such as emulsions (liquid droplets dispersed in liquid), aerosols (liquid dispersed in gas), foam (gas in liquid), etc. Among several new methods for the preparation of colloids, the so-called miniemulsion technique has been shown to be one of the most promising. Miniemulsions are defined as stable emulsions consisting of droplets with a size of 50-500 nm by shearing a system containing oil, water, a surfactant, and a highly water insoluble compound, the so-called hydrophobe 1. In the first part of this work, dynamic crystallization and melting experiments are described which were performed in small, stable and narrowly distributed nanodroplets (confined systems) of miniemulsions. Both regular and inverse systems were examined, characterizing, first, the crystallization of hexadecane, secondly, the crystallization of ice. It was shown for both cases that the temperature of crystallization in such droplets is significantly decreased (or the required undercooling is increased) as compared to the bulk material. This was attributed to a very effective suppression of heterogeneous nucleation. It was also found that the required undercooling depends on the nanodroplet size: with decreasing droplet size the undercooling increases. 2. It is shown that the temperature of crystallization of other n-alkanes in nanodroplets is also significantly decreased as compared to the bulk material due to a very effective suppression of heterogeneous nucleation. A very different behavior was detected between odd and even alkanes. In even alkanes, the confinement in small droplets changes the crystal structure from a triclinic (as seen in bulk) to an orthorhombic structure, which is attributed to finite size effects inside the droplets. An intermediate metastable rotator phase is of less relevance for the miniemulsion droplets than in the bulk. For odd alkanes, only a strong temperature shift compared to the bulk system is observed, but no structure change. A triclinic structure is formed both in bulk and in miniemulsion droplets. 3. In the next part of the thesis it is shown how miniemulsions could be successfully applied in the development of materials with potential application in pharmaceutical and medical fields. The production of cross-linked gelatin nanoparticles is feasible. Starting from an inverse miniemulsion, the softness of the particles can be controlled by varying the initial concentration, amount of cross-link agent, time of cross-linking, among other parameters. Such particles show a thermo-reversible effect, e.g. the particles swell in water above 37 °C and shrink below this temperature. Above 37 °C the chains loose the physical cross-linking, however the particles do not loose their integrity, because of the chemical cross-linking. Those particles have potential use as drug carriers, since gelatin is a natural polymer derived from collagen. 4. The cross-linked gelatin nanoparticles have been used for the biomineralization of hydroxyapatite (HAP), a biomineral, which is the major constituent of our bones. The biomineralization of HAP crystals within the gelatin nanoparticles results in a hybrid material, which has potential use as a bone repair material. 5. In the last part of this work we have shown that layers of conjugated semiconducting polymers can be deposited from aqueous dispersion prepared by the miniemulsion process. Dispersions of particles of different conjugated semiconducting polymers such as a ladder-type poly(para-phenylene) and several soluble derivatives of polyfluorene could be prepared with well-controlled particle sizes ranging between 70 - 250 nm. Layers of polymer blends were prepared with controlled lateral dimensions of phase separation on sub-micrometer scales, utilizing either a mixture of single component nanoparticles or nanoparticles containing two polymers. From the results of energy transfer it is demonstrated that blending two polymers in the same particle leads to a higher efficiency due to the better contact between the polymers. Such an effect is of great interest for the fabrication of opto-electronic devices such as light emitting diodes with nanometer size emitting points and solar cells comprising of blends of electron donating and electron accepting polymers. populärwissenschaftlicher Abstract: Kristallisation, Biomimetik und halbleitende Polymere in räumlich begrenzten Systemen: Äl und Wasser mischen sich nicht, man kann aber aus beiden Flüssigkeiten Emulsionen herstellen, bei denen Tröpfchen der einen Flüssigkeit in der anderen Flüssigkeit vorliegen. Das heit, es können entweder Ältröpfchen in Wasser oder Wassertröpfchen in Äl erzeugt werden. Aus täglichen Erfahrungen, z.B. beim Kochen wei man jedoch, dass sich eine Emulsion durch Schütteln oder Rühren herstellen lässt, diese jedoch nicht besonders stabil ist. Mit Hilfe von hohen Scherenergien kann man nun sehr kleine, in ihrer Gröe sehr einheitliche und auerdem sehr stabile Tröpfchen von 1/10000 mm erhalten. Eine solche Emulsion wird Miniemulsion genannt. In der Dissertation wurden nun z.B. Miniemulsionen untersucht, die aus kleinen Wassertröpfchen in einem Äl bestehen. Es konnte gezeigt werden, dass das Wasser in diesen Tröpfchen, also in den räumlich begrenzten Systemen, nicht bei 0 °C, sondern bei -22 °C kristallisierte. Wie lässt sich das erklären? Wenn man einen Eimer Wasser hat, dann bildet sich normalerweise bei 0 °C Eis, da nämlich in dem Wasser einige (manchmal ganz wenige) Keime (z.B. Schutzteilchen, ein Fussel etc.) vorhanden sind, an denen sich die ersten Kristalle bilden. Wenn sich dann einmal ein Kristall gebildet hat, kann das Wasser im gesamten Eimer schnell zu Eis werden. Ultrareines Wasser würde bei -22 °C kristallisieren. Wenn man jetzt die Menge Wasser aus dem Eimer in kleine Tröpfchen bringt, dann hat man eine sehr, sehr groe Zahl, nämlich 1017 Tröpfchen, in einem Liter Emulsion vorliegen. Die wenigen Schmutzpartikel verteilen auf sehr wenige Tröpfchen, die anderen Tröpfchen sind ultrarein. Daher kristallisieren sie erst bei -22 °C. Im Rahmen der Arbeit konnte auch gezeigt werden, dass die Miniemulsionen genutzt werden können, um kleine Gelatine-Partikel, also Nanogummibärchen, herzustellen. Diese Nanogummibärchen quellen bei Erhöhung der Temperatur auf ca. 38 °C an. Das kann ausgenutzt werden, um zum Beispiel Medikamente zunächst in den Partikeln im menschlichen Körper zu transportieren, die Medikamente werden dann an einer gewünschten Stelle freigelassen. In der Arbeit wurde auch gezeigt, dass die Gelatine-Partikel genutzt werden können, um die Natur nachzuahnen (Biomimetik). Innerhalb der Partikel kann nämlich gezielt Knochenmaterial aufgebaut werden kann. Die Gelatine-Knochen-Partikel können dazu genutzt werden, um schwer heilende oder komplizierte Knochenbrüche zu beheben. Gelatine wird nämlich nach einigen Tagen abgebaut, das Knochenmaterial kann in den Knochen eingebaut werden. LEDs werden heute bereits vielfältig verwendet. LEDs bestehen aus Halbleitern, wie z.B. Silizium. Neuerdings werden dazu auch halbleitende Polymere eingesetzt. Das groe Problem bei diesen Materialien ist, dass sie aus Lösungsmitteln aufgebracht werden. Im Rahmen der Doktorarbeit wurde gezeigt, dass der Prozess der Miniemulsionen genutzt werden kann, um umweltfreundlich diese LEDs herzustellen. Man stellt dazu nun wässrige Dispersionen mit den Polymerpartikeln her. Damit hat man nicht nur das Lösungsmittel vermieden, das hat nun noch einen weiteren Vorteil: man kann nämlich diese Dispersion auf sehr einfache Art verdrucken, im einfachsten Fall verwendet man einfach einen handelsüblichen Tintenstrahldrucker.
NASA Astrophysics Data System (ADS)
Bołoz, Łukasz
2013-12-01
Problem of thin hard coal seams exploitation, including chosen data related with their resources in Poland, has been discussed in the introduction of the present study. On the basis of actually operated machines the assumptions, which should be satisfied by the longwall shearer used for exploitation of thin hard coal seams, have been made. A project of such longwall shearer combined with band conveyor and mechanized longwall support, including description of the machine operation technology and analysis of possible day output achievement, have been presented. Polska dysponuje stosunkowo dużymi zasobami surowców energetycznych, a ciągle rosnące zapotrzebowanie na energię skłania do ich racjonalnego wykorzystywania. Jedną z możliwości takiego racjonalnego gospodarowania zasobami naturalnymi jest eksploatacja węgla kamiennego z pokładów cienkich. W związku z wybieraniem coraz cieńszych pokładów węgla, zalegających bardzo głęboko, w trudnych warunkach górniczo-geologicznych napotyka się na duże problemy związane z uzyskaniem wymaganej wydajności wydobycia przy użyciu stosowanych aktualnie metod. Przyjmuje się, ze pokłady cienkie to takie o miąższości od 1.0 m do 1.5 m i właśnie ta niewielka wysokość wyrobiska ścianowego powoduje szereg ograniczeń związanych z efektywną eksploatacją węgla. Na podstawie dostępnych danych określono, że ilości węgla kamiennego w cienkich pokładach wynosi około 600 mln Mg. Znaczna część pokładów cienkich w ostatnich latach została przeklasyfikowana na nieprzemysłowe, co pozwala stwierdzić, że rzeczywista ilość węgla w pokładach cienkich jest znacznie większa. Na podstawie analizy wad i zalet jak i danych technicznych produkowanych obecnie maszyn, określono wytyczne i założenia do nowego rozwiązania maszyny urabiającej przeznaczonej do wydobywania węgla w ścianach niskich. Kombajn do eksploatacji cienkich pokładów powinien spełniać następujące wymagania (Bołoz, 2012): • praca w systemie ścianowym, • zastosowanie frezowania jako metody skrawania, • rozdzielenie procesu frezowania od procesu ładowania, • zastosowanie pełnej automatyzacja pracy, • zastosowanie cięgnowego systemu posuwu, • możliwość rozpoczynania nowego skrawu bez konieczności zawrębiania, • gabaryty dostosowane do pracy w ścianach o wysokości od 1.0 m do 1.6 m, praca systemem dwukierunkowym. Fig. 2 przedstawia koncepcję kombajnu jednoorganowego. Kombajn ten składa się z kadłuba 2, jednego zamocowanego centralnie organu urabiającego 1 oraz dwóch rozkładanych ładowarek odkładniowych 3 i 4. Ładowarka 3 znajduje się w pozycji czynnej, natomiast ładowarka 4 w biernej. Kombajn jest ciągnięty po rynnach przenośnika 5 za pomocą łańcucha 6. Łańcuch 7 jest gałęzią bierną dla przedstawionego zwrotu prędkości. Podane, orientacyjne wymiary wynikają z analizy dotychczasowych rozwiązań kombajnów, głowic strugowych oraz założonego zakresu wysokości wyrobiska ścianowego (Krauze, 2006; Bołoz, 2012). Dla zaproponowanego rozwiązania przyjęto szereg koniecznych wielkości i przeprowadzono analizę możliwego do uzyskania wydobycia dobowego. Zestawione tabelarycznie wyniki umożliwiają określenie wydobycia dobowego możliwego do uzyskania przy określonych wartościach parametrów geometrycznych ściany, kinematycznych kombajnu oraz organizacyjnych pracy ściany. Dla założonych parametrów można stwierdzić, że minimalne wydobycie dobowe na poziomie Vd = 4032 Mg/d uzyskano dla L = 180 m, tp = 11 min, H = 1.0 m oraz T = 12 h/d. Maksymalne wydobycie dobowe na poziomie Vd = 11 612 Mg/d uzyskać można dla L = 300 m, tp = 0 min, H = 1.6 m oraz T = 18 h/d. Na wydobycie dobowe największy wpływ ma dobowy czas pracy ściany a następnie czas przekładki (Bołoz, 2012). Średnica organu dla takiego kombajnu dobierana jest do grubości pokładu. W przedmiotowym rozwiązaniu przyjęto organ o konstrukcji przestrzennej (belki nożowe zamiast płatów), aby powstający podczas frezowania urobek mógł spadać na spąg (Krauze, 2012b). Przykładowe rozwiązanie organu przestrzennego przedstawia fig. 3. Funkcję ładowania, realizowaną normalnie przez płaty, przejmują ładowarki. Rozdzielenie procesu ładowania od procesu frezowania jest jedną z najważniejszych zalet prezentowanego rozwiązania. Podczas pracy w ścianie parametry kinematyczne kombajnu mogą być zwiększane bez ryzyka wystąpienia problemów z ładowaniem na przenośnik, co obok możliwości ruchowych kombajnisty było głównym czynnikiem hamującym wzrost wydobycia. Załadunek urobku na przenośnik odbywa się za pomocą ładowarki, która po zmianie kierunku urabiania składa się, natomiast druga ustawiana jest w pozycji roboczej (Krauze, 2010). Kombajn porusza się tradycyjnie po rynnie przenośnika, jednak przy zastosowaniu cięgnowego systemu posuwu, który zrealizowany jest za pomocą napędów znajdujących się w chodnikach. Rozwiązanie takie umożliwia znaczne zmniejszenie gabarytów kombajnu dzięki usunięciu ciągników z kadłuba. Należy zaznaczyć, że w prezentowanym rozwiązaniu zakłada się zastosowanie pełnej automatyzacja pracy kombajnu i pozostałych maszyn ścianowych, co pozwala na urabianie calizny bez obecności załogi bezpośrednio w wyrobisku. Ma to duże znaczenie dla możliwości zwiększenia prędkości posuwu, szczególnie przy zakresie wysokości 1.0 m÷1.6 m. Przy wykorzystaniu znanych, z rozwiązań strugowych, systemów automatyki, sterowania i diagnostyki wprowadzenie automatyzacji procesu nie będzie stanowiło znaczącego problemu. W proponowanym rozwiązaniu kombajn ma możliwość wyjechania do chodnika na tyle, aby możliwe było zrealizowanie przekładki jak w przypadku strugów. Uzyskuje się wtedy krótki czas przekładki, który w skrajnym przypadku może zmieścić się w tzw. czasie organizacyjnym ściany. Ponadto urabianie odbywa się pełnym zabiorem na całej długości ściany co również korzystnie wpływa na wydobycie. Przekładkę realizować będą, oprócz układów przesuwnych sekcji, układy przesuwne napędów zlokalizowane w chodnikach lub ewentualnie obudowa skrzyżowań. Do sterowania położeniem kombajnu jednoorganowego, a w szczególności kierunkiem eksploatacji na wybiegu ściany (wznios, upad), zastosowane będą siłowniki korekcyjne łączące belkę układu przesuwnego sekcji z rynną przenośnika. Kopalnie jak i producenci sprzętu górniczego wykazują coraz większe zainteresowanie możliwością skutecznej eksploatacji pokładów cienki. Zaproponowany kompleks do eksploatacji cienkich pokładów wyposażony w kombajn jednoorganowy przeznaczony jest do pracy w technologii urabiania dwukierunkowego. Charakterystyczną cechą tej technologii jest brak fazy zawrębiania oraz praca na pełny zabiór na całej długości ściany. W przypadku zmiany grubości pokładu możliwa jest zmiana organu, natomiast sterowanie w kierunku wybiegu odbywać się będzie za pomocą siłowników korekcyjnych. Opracowanie technologii pracy kompleksu wyposażonego w kombajn jednoorganowy, analiza możliwego do osiągnięcia wydobycia dobowego, przy jego zastosowaniu oraz określenie wymaganych parametrów maszyn kompleksu ścianowego, a w szczególności kombajnu, potwierdza poprawność przyjętych założeń.
NASA Astrophysics Data System (ADS)
Rietdorf, Katja
2003-07-01
In der vorliegenden Arbeit habe ich wichtige Teilmechanismen der Erregungs-Sekretionskopplung in der Speicheldrüse der Schabe Periplaneta americana (L.) untersucht. Die Speicheldrüse ist von dopaminergen und serotonergen Fasern innerviert (Baumann et al., 2002). Beide Transmitter stimulieren eine unterschiedliche Reaktion der Drüse: Dopamin (DA) stimuliert die P-Zellen der Acini und die Ausführgangzellen, während Serotonin (5-HT) die P- und C-Zellen der Acini stimuliert, nicht jedoch die Ausführgangzellen. Der Endspeichel ist nach einer DA-Stimulierung proteinfrei. Dagegen enthält er nach einer 5-HT-Stimulierung Proteine, die von den C-Zellen sezerniert werden (Just & Walz, 1996). Im ersten Teil meiner Arbeit habe ich mittels Kapillarelektrophoretischer Analyse (CE-Analyse) die Elektrolytkonzentrationen im Endspeichel untersucht sowie die Raten der Flüssigkeitssekretion gemessen. Damit wollte ich klären, welche Transporter an der Sekretion des Primärspeichels und an dessen Modifikation beteiligt sind. Ausserdem wollte ich die Rolle der transportaktiven Epithelzellen der Ausführgänge für die Modifikation des Primärspeichels untersuchen. Dafür habe ich einen Vergleich der Elektrolytkonzentrationen im DA- und 5-HT-stimulierten Endspeichel durchgeführt. Der Elektrolytgehalt des DA- und 5-HT-stimulierten Endspeichels unterscheidet sich nicht signifikant voneinander. Er ist nach beiden Stimulierungen hypoosmotisch zum verwendeten Ringer. Die Ausführgangzellen werden durch DA stimuliert und modifizieren den Primärspeichel durch eine netto-Ionenreabsorption. Meine Versuche zeigen jedoch, dass auch die während einer 5-HT-Stimulierung der Drüse unstimulierten Ausführgangzellen den Primärspeichel modifizieren. In einer nachfolgenden Versuchsreihe habe ich den Einfluss von Ouabain, einem Hemmstoff der Na+-K+-ATPase, und Bumetanid, einem Hemmstoff des NKCC, auf die Raten der Flüssigkeitssekretion sowie den Elektrolytgehalt des Endspeichels untersucht. Ich habe gefunden, dass die Aktivität der Na+-K+-ATPase wichtig für die Modifikation des DA-stimulierten Primärspeichels ist. Im Gegensatz dazu ist sie für die Modifikation des 5-HT-stimulierten Primärspeichels nicht von Bedeutung. Bezüglich der Flüssigkeitssekretion habe ich keinen Einfluss der Na+-K+-ATPase-Aktivität auf die DA-stimulierten Sekretionsraten gefunden, dagegen ist die 5-HT-stimulierte Sekretionsrate in Anwesenheit von Ouabain gesteigert. Die Aktivität des NKCC ist für beide sekretorische Prozesse, die Ionen- und die Flüssigkeitssekretion, wichtig. Eine Hemmung des NKCC bewirkt eine signifikante Verringerung der Raten der Flüssigkeitssekretion nach DA- und 5-HT-Stimulierung sowie in beiden Fällen einen signifikanten Abfall der Ionenkonzentrationen im Endspeichel. Im zweiten Teil meiner Arbeit habe ich versucht, Änderungen der intrazellulären Ionenkonzentrationen in den Acinuszellen während einer DA- oder 5-HT-Stimulierung zu messen. Diese Experimente sollten mit der Methode des "ratiometric imaging" durchgeführt werden. Messungen mit dem Ca2+-sensitiven Fluoreszenzfarbstoff Fura-2 zeigten keinen globalen Anstieg in der intrazellulären Ca2+-Konzentration der P-Zellen. Aufgrund von Problemen mit einer schlechten Beladung der Zellen, einer starken und sich während der Stimulierung ändernden Autofluoreszenz der Zellen sowie Änderungen im Zellvolumen wurden keine Messungen mit Na+- und K+-sensitiven Fluoreszenzfarbstoffen durchgeführt. Im dritten Teil dieser Arbeit habe ich die intrazellulären Signalwege untersucht, die zwischen einer 5-HT-Stimulierung der Drüse und der Proteinsekretion vermitteln. Dazu wurde der Proteingehalt im Endspeichel biochemisch mittels eines modifizierten Bradford Assay gemessen. Eine erstellte Dosis-Wirkungskurve zeigt, dass die Rate der Proteinsekretion von der zur Stimulierung verwendeten 5-HT-Konzentration abhängt. In einer Serie von Experimenten habe ich die intrazellulären Konzentrationen von Ca2+, cAMP und / oder cGMP erhöht und anschließend den Proteingehalt im Endspeichel gemessen. Ein Anstieg der intrazellulären Ca2+-Konzentration aktiviert nur eine geringe Rate der Proteinsekretion. Dagegen kann die Steigerung der intrazellulären cAMP-Konzentration eine stärkere Proteinsekretion aktivieren, die sich nicht signifikant von der nach 5-HT-Stimulierung unterscheidet. Die cAMP-stimulierte Proteinsekretion kann durch gleichzeitige Erhöhung der intrazellulären Ca2+-Konzentration weiter gesteigert werden. Dagegen aktivierte eine Erhöhung der intrazellulären cGMP-Konzentration die Proteinsekretion nicht. Aufgrund dieser Ergebnisse postuliere ich die Existenz eines die Adenylatcyclase aktivierenden 5-HT-Rezeptors in der Basolateralmembran der C-Zellen. The aim of this PhD-work was to investigate major mechanisms of excitation-secretion coupling in the salivary gland of the cockroach Periplaneta americana (L.). This salivary gland is innervated by dopaminergic and serotonergic fibres (Baumann et al., 2002). The two transmitters stimulate different processes in the gland: Dopamine (DA) stimulates the p-cells of the acini and the salivary duct cells, whereas 5-HT (serotonin) activates the p- and the c-cells of the acini, but not the salivary duct cells. Final saliva is completely protein-free after dopamine stimulation. It contains proteins, which are secreted by the c-cells of the acini, after a 5-HT-stimulation (Just & Walz, 1996). In the first part of my work I measured the electrolytic composition of the final saliva by capillary electrophoretic analysis and measured the rates of fluid secretion, in order to answer the following questions: 1.) Which transporters affect the production of primary saliva and its modification? 2.) What is the function of the transport-active salivary duct cells for the modification of the primary saliva? Electrolytic composition of the DA- and 5-HT-stimulated final saliva is not significantly different from each other, and is hypoosmotic to the Ringer used. Salivary duct cells are stimulated by DA and modify the primary saliva by a netto ion-reabsorption. My experiments also show that the duct cells, which are unstimulated during a 5-HT-stimulation of the gland, modify the primary saliva. In the next series of experiments I investigated the effects of ouabain, an inhibitor of the Na+-K+-ATPase, and bumetanide, an inhibitor of the NKCC on the rates of fluid secretion and the electrolytic composition of the final saliva. I found, that the activity of the Na+-K+-ATPase is important for the modification of DA-stimulated primary saliva during its flow through the stimulated duct system. In contrast, it is not important for modification of the 5-HT-stimulated primary saliva. Inhibition of the Na+-K+-ATPase does not affect rates of DA-stimulated fluid secretion, but it increases the rates of 5-HT-stimulated fluid secretion. Activity of the NKCC is important for both secretory processes: the ion and the fluid secretion. Inhibition of the NKCC results in a significant drop in the rates of fluid secretion after DA- and 5-HT-stimulation, as well as a drop in electrolytic concentrations in the saliva. In the second part of my work, I tried to measure changes in the intracellular ionic concentrations (Ca2+, Na+, and K+) within the acinar cells during a DA- or 5-HT-stimulation. The experiments should be performed by ratiometric imaging. Measurements with the Ca2+-sensitive dye Fura-2 did not show any global increase in the intracellular Ca2+-concentration in the p-cells of the acini. Problems concerning a bad loading of the cells, a strong autofluorescence which changed during the time course of the stimulation, as well as changes in the cell volume were the reason, that no measurements using Na+- or K+-sensitive dyes were performed. In the third part of my work I investigated the intracellular signalling pathways, which activate protein secretion after 5-HT-stimulation of the gland. A modified Bradford Assay was used for measuring the protein content in the final saliva. In a dose-response curve I showed that rates of protein secretion are dependent on the 5-HT-concentrations used to stimulate the glands. In another set of experiments I increased the intracellular concentrations of Ca2+, cAMP and / or cGMP, and measured the protein content in the final saliva. An increase in the intracellular Ca2+-concentration activates only a low rate of protein secretion. After an increase in the intracellular cAMP-concentration a much higher rate of protein secretion can be activated, which is not significantly different from the 5-HT stimulated rate of protein secretion. The cAMP-stimulated protein secretion can be further increased by a simultaneous rise in the intracellular Ca2+-concentration. In contrast, cGMP does not activate protein secretion. Therefore I propose the expression of an adenylyl cyclase activating 5-HT-receptor in the basolateral membrane of the protein secreting c-cells.
Entwicklung von Landnutzungsszenarien für landschaftsökologische Fragestellungen
NASA Astrophysics Data System (ADS)
Fritsch, Uta
2002-04-01
Die Landschaften Mitteleuropas sind das Resultat einer langwierigen Geschichte menschlicher Landnutzung mit ihren unterschiedlichen, z.T. konkurrierenden Nutzungsansprüchen. Durch eine überwiegend intensive Beanspruchung haben die direkten und indirekten Auswirkungen der Landnutzung in vielen Fällen zu Umweltproblemen geführt. Die Disziplin der Landschaftsökologie hat es sich zur Aufgabe gemacht, Konzepte für eine nachhaltige Nutzung der Landschaft zu entwickeln. Eine wichtige Fragestellung stellt dabei die Abschätzung der möglichen Folgen von Landnutzungsänderungen dar. Für die Analyse der relevanten Prozesse in der Landschaft werden häufig mathematische Modelle eingesetzt, welche es erlauben die Landschaft unter aktuellen Verhältnissen oder hinsichtlich veränderter Rahmenbedingungen zu untersuchen. Die hypothetische Änderung der Landnutzung, die als Landnutzungsszenario bezeichnet wird, verkörpert eine wesentliche Modifikation der Rahmenbedingungen, weil Landnutzung mageblich Einfluss auf die natürlichen Prozesse der Landschaft nimmt. Während die Antriebskräfte einer solchen Änderung überwiegend von sozio-ökonomischen und politischen Entscheidungen gesteuert werden, orientiert sich die exakte Verortung der Landnutzungsänderungen an den naturräumlichen Bedingungen und folgt z.T. erkennbaren Regeln. Anhand dieser Vorgaben ist es möglich, räumlich explizite Landnutzungsszenarien zu entwickeln, die als Eingangsdaten für die Modellierung verschiedener landschaftsökologischer Fragestellungen wie z.B. für die Untersuchung des Einflusses der Landnutzung auf den Wasserhaushalt, die Erosionsgefahr oder die Habitatqualität dienen können. Im Rahmen dieser Dissertation wurde das rasterbasierte deterministische Allokationsmodell luck (Land Use Change Scenario Kit) für die explizite Verortung der Landnutzungsänderungen entwickelt. Es basiert auf den in der Landschaftsökologie üblichen räumlichen Daten wie Landnutzung, Boden sowie Topographie und richtet sich bei der Szenarienableitung nach den Leitbildern der Landschaftsplanung. Das Modell fut auf der Hypothese, dass das Landnutzungsmuster als Funktion seiner landschaftsökologischen Faktoren beschrieben werden kann. Das Veränderungspotenzial einer Landnutzungseinheit resultiert im Modell aus einer Kombination der Bewertung der relativen Eignung des Standortes für die jeweilige Landnutzung und der Berücksichtigung von Standorteigenschaften der umliegenden Nachbarn. Die Durchführung der Landnutzungsänderung im Modell ist iterativ angelegt, um den graduellen Prozess des Landschaftswandels nachvollziehen zu können. Als Fallbeispiel für die Anwendung solcher räumlich expliziten Landnutzungsszenarien dient die Fragestellung, inwieweit Landnutzungsänderungen die Hochwasserentstehung beeinflussen. Um den Einfluss auf die Hochwasserentstehung für jede der Landnutzungskategorien – bebaute, landwirtschaftlich genutzte und naturnahe Flächen – abschätzen zu können, wird im Landnutzungsmodell luck exemplarisch für jede Kategorie ein Teilmodell für die Veränderung von Landnutzung angeboten: 1) Ausdehnung der Siedlungsfläche: Dieses Teilmodell fut auf der Annahme, dass sich Siedlungen nur in direkter Nachbarschaft bereits bestehender Bebauung und bevorzugt entlang von Entwicklungsachsen ausbreiten. Steile Hangneigungen stellen für potenzielle Standorte ein Hemmnis bei der Ausbreitung dar. 2) Stilllegung von Grenzertragsackerflächen: Gemä der Hypothese, dass sich die Stilllegung von Ackerflächen an der potenziellen Ertragsleistung der Standorte orientiert, werden in diesem Teilmodell alle Ackerstandorte dahingehend bewertet und die Flächen mit der geringsten Leistungsfähigkeit stillgelegt. Bei homogenen Gebietseigenschaften werden die Stilllegungsflächen zufällig auf die Ackerfläche verteilt. 3) Etablierung von Schutzgebieten in Ufer- und Auenbereichen: Ausgehend von der These, dass sich entlang von Flüssen sensible Flächen befinden, deren Schutz positive Folgen für das Leistungsvermögen der Landschaft haben kann, werden in diesem Teilmodell schützenswerte Ufer- und Auenbereiche auf derzeit landwirtschaftlich genutzten Flächen ausgewiesen. Die Gröe der Schutzgebietsfläche orientiert sich an der Morphologie der umgebenden Landschaft. Die drei Teilmodelle wurden hinsichtlich der implizierten Hypothesen mit vielen unterschiedlichen Ansätzen validiert. Das Resultat dieser intensiven Analyse zeigt für jedes Teilmodell eine zufriedenstellende Tauglichkeit. Die Modellierung der Landnutzungsänderungen wurden in drei mesoskaligen Flusseinzugsgebieten mit einer Fläche zwischen 100 und 500 km² durchgeführt, die sich markant in ihrer Landnutzung unterscheiden. Besonderer Wert wurde bei der Gebietsauswahl darauf gelegt, dass eines der Gebiete intensiv landwirtschaftlich genutzt wird, eines dicht besiedelt und eines vorwiegend bewaldet ist. Im Hinblick auf ihre Relevanz für die vorliegende Fragestellung wurden aus bestehenden Landnutzungstrends die Szenarien für (1) die prognostizierte Siedlungsfläche für das Jahr 2010, (2) die möglichen Konsequenzen des EU-weiten Beschlusses der Agenda 2000 und (3) die Novelle des Bundesnaturschutzgesetzes aus dem Jahr 2001 abgeleitet. Jedes Szenario wurde mit Hilfe des Modells auf die drei Untersuchungsgebiete angewendet. Dabei wurden für die Siedlungsausdehnung in allen drei Gebieten realistische Landnutzungsmuster generiert. Einschränkungen ergeben sich bei der Suche nach Grenzertragsstilllegungsflächen. Hier hat unter homogenen Gebietseigenschaften die zufällige Verteilung von Flächen für die Stilllegung zu einem unrealistischen Ergebnis geführt. Die Güte der Schutzgebietsausweisung ist mageblich an die aktuelle Landnutzung der Aue und die Morphologie des Geländes gebunden. Die besten Ergebnisse werden erzielt, wenn die Flächen in den Ufer- und Auenbereichen mehrheitlich unter derzeitiger Ackernutzung stehen und der Flusslauf sich in das Relief eingetieft hat. Exemplarisch werden für jeden Landnutzungstrend die hydrologischen Auswirkungen anhand eines historischen Hochwassers beschrieben, aus denen jedoch keine pauschale Aussage zum Einfluss der Landnutzung abgeleitet werden kann. Die Studie demonstriert die Bedeutung des Landnutzungsmusters für die natürlichen Prozesse in der Landschaft und unterstreicht die Notwendigkeit einer räumlich expliziten Modellierung für landschaftsökologische Fragestellungen in der Mesoskala. Today′s landscapes in Central Europe are the result of a long history of land-use, which is characterised by many different demands. The immediate and long-term consequences of predominantly intensive land-use have led to environmental problems in many cases. Therefore it is necessary to develop strategies for the maintenance of landscape efficiency which take into account the different claims of utilisation. In this context the estimation of possible impacts of land-use changes represents an important statement of problem. For the analysis of the relevant processes within the landscape, it is common to apply mathematical models. Such models enable the investigation of the landscape under current conditions or with regard to modified boundary conditions. A hypothetic alteration of land-use, which is termed as land-use scenario, represents a substantial modification of the boundary conditions, because land-use exerts a strong influence on the natural processes of the landscape. While the driving forces are predominantly governed by socio-economical and political decisions, the exact location of land-use changes within the landscape mainly depends on the natural conditions and follows partly transparent rules. With these presumptions it is possible to develop land-use scenarios, which can serve as input data for the modelling of different questions of landscape ecology such as the influence of land-use on the water balance, the danger of erosion or the quality of habitat characteristics. In the context of this thesis the grid-based deterministic allocation model luck (Land Use Change Scenario Kit) for the allocation of land-use changes was developed. It is based upon the types of spatial data, which are commonly used in landscape ecology, such as information on land-use, soils as well as topography. The derivation of scenarios follows the approaches of landscape planning. The model is based upon the hypothesis, that land-use structure can be described as a function of its landscape ecological factors. The potential of a site to become subject to land-use changes, results from a combination of its local qualities and the site characteristics of its neighbourhood. Land-use change is realised iteratively in order to simulate the gradual process of changes in the landscape. The influence of land-use changes on flood generation serves as a case study to demonstrate the need for spatial explicit land-use scenarios. For each land-use category – built up areas, agriculturally used areas and natural/semi-natural land – the model luck offers a submodel for investigating the effect of land-use changes on flood generation: 1) Expansion of settlement area: This submodel is based upon the assumption that settlements spread only in the neighbourhood of already existing built-up areas and preferentially along infrastructural axes of development. Steep slopes inhibit the spreading on potential locations. 2) Set-aside of marginal yield sites under agricultural use: Setting-aside of arable land is based on the hypothesis that the selection of arable land to be set-aside depends on the potential yield efficiency of the locations. Within this submodel all fields under agricultural use are valued to that effect and the ones with the least productive efficiency are selected as set-aside locations. In case of homogeneous area qualities the set-aside locations are selected randomly. 3) Establishment of protected areas in waterside and ripearian areas: This submodel takes into consideration that the protection of sensitive areas along the river courses may have positive consequences for the efficiency of the landscape. Therefore this submodel establishes protection zones on waterside and ripearian sites under currently agricultural use, that might be of value for nature conservation. The size of the protection area depends on the morphology of the surrounding landscape. The three submodels were validated with respect to the implied hypotheses by the help of many different approaches. The result of this intensive analysis shows a satisfying suitability for each of the submodels. The simulation of land-use changes was carried out for three mesoscale river catchments with an area between 100 and 500 km². Special attention was paid to the fact that these areas should be markingly different in their land-use: One study area is predominantly under intensive agricultural use, one is densely populated and the third one is covered by forest in large parts of the area. With regard to their relevance to the onhand question from existing land-use trends scenarios were derived for the prognosed settlement area for the year 2010, for the possible consequences of the EU-wide agreement of Agenda 2000 and for the amending federal conservation law dating to the year 2001, which enhances the enlargement of protected areas. Each scenario was applied to the three study areas utilizing the model luck. For the expansion of the settlement areas in all three study areas realistic land-use patterns were generated. Limitations arose only in the context of the search for marginal yield fields. Here, the random distribution of areas to be set-aside under homogeneous conditions led to unrealistic results. The quality of the establishment of protected areas in waterside and ripearian areas is substantially bound to current land-use and the morphology of the area. The best results for this submodel are achieved if waterside and ripearian areas are mainly arable land and if the river has lowered its course into the morphology. The hydrological consequences are described exemplarily for each land-use trend with a historical flood event. The interpretation of the hydrographs does not allow global statements about the influence of land-use. The study demonstrates the significance of land-use pattern for the natural processes in the landscape and underlines the necessity of spatially explicit modelling for landscape ecological questions at the mesoscale.
Large-scale hydrological modelling in the semi-arid north-east of Brazil
NASA Astrophysics Data System (ADS)
Güntner, Andreas
2002-07-01
Semi-arid areas are, due to their climatic setting, characterized by small water resources. An increasing water demand as a consequence of population growth and economic development as well as a decreasing water availability in the course of possible climate change may aggravate water scarcity in future, which often exists already for present-day conditions in these areas. Understanding the mechanisms and feedbacks of complex natural and human systems, together with the quantitative assessment of future changes in volume, timing and quality of water resources are a prerequisite for the development of sustainable measures of water management to enhance the adaptive capacity of these regions. For this task, dynamic integrated models, containing a hydrological model as one component, are indispensable tools. The main objective of this study is to develop a hydrological model for the quantification of water availability in view of environmental change over a large geographic domain of semi-arid environments. The study area is the Federal State of Ceará (150 000 km2) in the semi-arid north-east of Brazil. Mean annual precipitation in this area is 850 mm, falling in a rainy season with duration of about five months. Being mainly characterized by crystalline bedrock and shallow soils, surface water provides the largest part of the water supply. The area has recurrently been affected by droughts which caused serious economic losses and social impacts like migration from the rural regions. The hydrological model Wasa (Model of Water Availability in Semi-Arid Environments) developed in this study is a deterministic, spatially distributed model being composed of conceptual, process-based approaches. Water availability (river discharge, storage volumes in reservoirs, soil moisture) is determined with daily resolution. Sub-basins, grid cells or administrative units (municipalities) can be chosen as spatial target units. The administrative units enable the coupling of Wasa in the framework of an integrated model which contains modules that do not work on the basis of natural spatial units. The target units mentioned above are disaggregated in Wasa into smaller modelling units within a new multi-scale, hierarchical approach. The landscape units defined in this scheme capture in particular the effect of structured variability of terrain, soil and vegetation characteristics along toposequences on soil moisture and runoff generation. Lateral hydrological processes at the hillslope scale, as reinfiltration of surface runoff, being of particular importance in semi-arid environments, can thus be represented also within the large-scale model in a simplified form. Depending on the resolution of available data, small-scale variability is not represented explicitly with geographic reference in Wasa, but by the distribution of sub-scale units and by statistical transition frequencies for lateral fluxes between these units. Further model components of Wasa which respect specific features of semi-arid hydrology are: (1) A two-layer model for evapotranspiration comprises energy transfer at the soil surface (including soil evaporation), which is of importance in view of the mainly sparse vegetation cover. Additionally, vegetation parameters are differentiated in space and time in dependence on the occurrence of the rainy season. (2) The infiltration module represents in particular infiltration-excess surface runoff as the dominant runoff component. (3) For the aggregate description of the water balance of reservoirs that cannot be represented explicitly in the model, a storage approach respecting different reservoirs size classes and their interaction via the river network is applied. (4) A model for the quantification of water withdrawal by water use in different sectors is coupled to Wasa. (5) A cascade model for the temporal disaggregation of precipitation time series, adapted to the specific characteristics of tropical convective rainfall, is applied for the generating rainfall time series of higher temporal resolution. All model parameters of Wasa can be derived from physiographic information of the study area. Thus, model calibration is primarily not required. Model applications of Wasa for historical time series generally results in a good model performance when comparing the simulation results of river discharge and reservoir storage volumes with observed data for river basins of various sizes. The mean water balance as well as the high interannual and intra-annual variability is reasonably represented by the model. Limitations of the modelling concept are most markedly seen for sub-basins with a runoff component from deep groundwater bodies of which the dynamics cannot be satisfactorily represented without calibration. Further results of model applications are: (1) Lateral processes of redistribution of runoff and soil moisture at the hillslope scale, in particular reinfiltration of surface runoff, lead to markedly smaller discharge volumes at the basin scale than the simple sum of runoff of the individual sub-areas. Thus, these processes are to be captured also in large-scale models. The different relevance of these processes for different conditions is demonstrated by a larger percentage decrease of discharge volumes in dry as compared to wet years. (2) Precipitation characteristics have a major impact on the hydrological response of semi-arid environments. In particular, underestimated rainfall intensities in the rainfall input due to the rough temporal resolution of the model and due to interpolation effects and, consequently, underestimated runoff volumes have to be compensated in the model. A scaling factor in the infiltration module or the use of disaggregated hourly rainfall data show good results in this respect. The simulation results of Wasa are characterized by large uncertainties. These are, on the one hand, due to uncertainties of the model structure to adequately represent the relevant hydrological processes. On the other hand, they are due to uncertainties of input data and parameters particularly in view of the low data availability. Of major importance is: (1) The uncertainty of rainfall data with regard to their spatial and temporal pattern has, due to the strong non-linear hydrological response, a large impact on the simulation results. (2) The uncertainty of soil parameters is in general of larger importance on model uncertainty than uncertainty of vegetation or topographic parameters. (3) The effect of uncertainty of individual model components or parameters is usually different for years with rainfall volumes being above or below the average, because individual hydrological processes are of different relevance in both cases. Thus, the uncertainty of individual model components or parameters is of different importance for the uncertainty of scenario simulations with increasing or decreasing precipitation trends. (4) The most important factor of uncertainty for scenarios of water availability in the study area is the uncertainty in the results of global climate models on which the regional climate scenarios are based. Both a marked increase or a decrease in precipitation can be assumed for the given data. Results of model simulations for climate scenarios until the year 2050 show that a possible future change in precipitation volumes causes a larger percentage change in runoff volumes by a factor of two to three. In the case of a decreasing precipitation trend, the efficiency of new reservoirs for securing water availability tends to decrease in the study area because of the interaction of the large number of reservoirs in retaining the overall decreasing runoff volumes. Semiaride Gebiete sind auf Grund der klimatischen Bedingungen durch geringe Wasserressourcen gekennzeichnet. Ein zukünftig steigender Wasserbedarf in Folge von Bevölkerungswachstum und ökonomischer Entwicklung sowie eine geringere Wasserverfügbarkeit durch mögliche Klimaänderungen können dort zu einer Verschärfung der vielfach schon heute auftretenden Wasserknappheit führen. Das Verständnis der Mechanismen und Wechselwirkungen des komplexen Systems von Mensch und Umwelt sowie die quantitative Bestimmung zukünftiger Veränderungen in der Menge, der zeitlichen Verteilung und der Qualität von Wasserressourcen sind eine grundlegende Voraussetzung für die Entwicklung von nachhaltigen Maßnahmen des Wassermanagements mit dem Ziel einer höheren Anpassungsfähigkeit dieser Regionen gegenüber künftigen Änderungen. Hierzu sind dynamische integrierte Modelle unerlässlich, die als eine Komponente ein hydrologisches Modell beinhalten. Vorrangiges Ziel dieser Arbeit ist daher die Erstellung eines hydrologischen Modells zur großräumigen Bestimmung der Wasserverfügbarkeit unter sich ändernden Umweltbedingungen in semiariden Gebieten. Als Untersuchungsraum dient der im semiariden tropischen Nordosten Brasiliens gelegene Bundestaat Ceará (150 000 km2). Die mittleren Jahresniederschläge in diesem Gebiet liegen bei 850 mm innerhalb einer etwa fünfmonatigen Regenzeit. Mit vorwiegend kristallinem Grundgebirge und geringmächtigen Böden stellt Oberflächenwasser den größten Teil der Wasserversorgung bereit. Die Region war wiederholt von Dürren betroffen, die zu schweren ökonomischen Schäden und sozialen Folgen wie Migration aus den ländlichen Gebieten geführt haben. Das hier entwickelte hydrologische Modell Wasa (Model of Water Availability in Semi-Arid Environments) ist ein deterministisches, flächendifferenziertes Modell, das aus konzeptionellen, prozess-basierten Ansätzen aufgebaut ist. Die Wasserverfügbarkeit (Abfluss im Gewässernetz, Speicherung in Stauseen, Bodenfeuchte) wird mit täglicher Auflösung bestimmt. Als räumliche Zieleinheiten können Teileinzugsgebiete, Rasterzellen oder administrative Einheiten (Gemeinden) gewählt werden. Letztere ermöglichen die Kopplung des Modells im Rahmen der integrierten Modellierung mit Modulen, die nicht auf der Basis natürlicher Raumeinheiten arbeiten. Im Rahmen eines neuen skalenübergreifenden, hierarchischen Ansatzes werden in Wasa die genannten Zieleinheiten in kleinere räumliche Modellierungseinheiten unterteilt. Die ausgewiesenen Landschaftseinheiten erfassen insbesondere die strukturierte Variabilität von Gelände-, Boden- und Vegetationseigenschaften entlang von Toposequenzen in ihrem Einfluss auf Bodenfeuchte und Abflussbildung. Laterale hydrologische Prozesse auf kleiner Skala, wie die für semiaride Bedingungen bedeutsame Wiederversickerung von Oberflächenabfluss, können somit auch in der erforderlichen großskaligen Modellanwendung vereinfacht wiedergegeben werden. In Abhängigkeit von der Auflösung der verfügbaren Daten wird in Wasa die kleinskalige Variabilität nicht räumlich explizit sondern über die Verteilung von Flächenanteilen subskaliger Einheiten und über statistische Übergangshäufigkeiten für laterale Flüsse zwischen den Einheiten berücksichtigt. Weitere Modellkomponenten von Wasa, die spezifische Bedingungen semiarider Gebiete berücksichtigen, sind: (1) Ein Zwei-Schichten-Modell zur Bestimmung der Evapotranspiration berücksichtigt auch den Energieumsatz an der Bodenoberfläche (inklusive Bodenverdunstung), der in Anbetracht der meist lichten Vegetationsbedeckung von Bedeutung ist. Die Vegetationsparameter werden zudem flächen- und zeitdifferenziert in Abhängigkeit vom Auftreten der Regenzeit modifiziert. (2) Das Infiltrationsmodul bildet insbesondere Oberflächenabfluss durch Infiltrationsüberschuss als dominierender Abflusskomponente ab. (3) Zur aggregierten Beschreibung der Wasserbilanz von im Modell nicht einzeln erfassbaren Stauseen wird ein Speichermodell unter Berücksichtigung verschiedener Größenklassen und ihrer Interaktion über das Gewässernetz eingesetzt. (4) Ein Modell zur Bestimmung der Entnahme durch Wassernutzung in verschiedenen Sektoren ist an Wasa gekoppelt. (5) Ein Kaskadenmodell zur zeitlichen Disaggregierung von Niederschlagszeitreihen, das in dieser Arbeit speziell für tropische konvektive Niederschlagseigenschaften angepasst wird, wird zur Erzeugung höher aufgelöster Niederschlagsdaten verwendet. Alle Modellparameter von Wasa können von physiographischen Gebietsinformationen abgeleitet werden, sodass eine Modellkalibrierung primär nicht erforderlich ist. Die Modellanwendung von Wasa für historische Zeitreihen ergibt im Allgemeinen eine gute Übereinstimmung der Simulationsergebnisse für Abfluss und Stauseespeichervolumen mit Beobachtungsdaten in unterschiedlich großen Einzugsgebieten. Die mittlere Wasserbilanz sowie die hohe monatliche und jährliche Variabilität wird vom Modell angemessen wiedergegeben. Die Grenzen der Anwendbarkeit des Modell-konzepts zeigen sich am deutlichsten in Teilgebieten mit Abflusskomponenten aus tieferen Grundwasserleitern, deren Dynamik ohne Kalibrierung nicht zufriedenstellend abgebildet werden kann. Die Modellanwendungen zeigen weiterhin: (1) Laterale Prozesse der Umverteilung von Bodenfeuchte und Abfluss auf der Hangskala, vor allem die Wiederversickerung von Oberflächenabfluss, führen auf der Skala von Einzugsgebieten zu deutlich kleineren Abflussvolumen als die einfache Summe der Abflüsse der Teilflächen. Diese Prozesse sollten daher auch in großskaligen Modellen abgebildet werden. Die unterschiedliche Ausprägung dieser Prozesse für unterschiedliche Bedingungen zeigt sich an Hand einer prozentual größeren Verringerung der Abflussvolumen in trockenen im Vergleich zu feuchten Jahren. (2) Die Niederschlagseigenschaften haben einen sehr großen Einfluss auf die hydrologische Reaktion in semiariden Gebieten. Insbesondere die durch die grobe zeitliche Auflösung des Modells und durch Interpolationseffekte unterschätzten Niederschlagsintensitäten in den Eingangsdaten und die daraus folgende Unterschätzung von Abflussvolumen müssen im Modell kompensiert werden. Ein Skalierungsfaktor in der Infiltrationsroutine oder die Verwendung disaggregierter stündlicher Niederschlagsdaten zeigen hier gute Ergebnisse. Die Simulationsergebnisse mit Wasa sind insgesamt durch große Unsicherheiten gekennzeichnet. Diese sind einerseits in Unsicherheiten der Modellstruktur zur adäquaten Beschreibung der relevanten hydrologischen Prozesse begründet, andererseits in Daten- und Parametersunsicherheiten in Anbetracht der geringen Datenverfügbarkeit. Von besonderer Bedeutung ist: (1) Die Unsicherheit der Niederschlagsdaten in ihrem räumlichen Muster und ihrer zeitlichen Struktur hat wegen der stark nicht-linearen hydrologischen Reaktion einen großen Einfluss auf die Simulationsergebnisse. (2) Die Unsicherheit von Bodenparametern hat im Vergleich zu Vegetationsparametern und topographischen Parametern im Allgemeinen einen größeren Einfluss auf die Modellunsicherheit. (3) Der Effekt der Unsicherheit einzelner Modellkomponenten und -parameter ist für Jahre mit unter- oder überdurchschnittlichen Niederschlagsvolumen zumeist unterschiedlich, da einzelne hydrologische Prozesse dann jeweils unterschiedlich relevant sind. Die Unsicherheit einzelner Modellkomponenten- und parameter hat somit eine unterschiedliche Bedeutung für die Unsicherheit von Szenarienrechnungen mit steigenden oder fallenden Niederschlagstrends. (4) Der bedeutendste Unsicherheitsfaktor für Szenarien der Wasserverfügbarkeit für die Untersuchungsregion ist die Unsicherheit der den regionalen Klimaszenarien zu Grunde liegenden Ergebnisse globaler Klimamodelle. Eine deutliche Zunahme oder Abnahme der Niederschläge bis 2050 kann gemäß den hier vorliegenden Daten für das Untersuchungsgebiet gleichermaßen angenommen werden. Modellsimulationen für Klimaszenarien bis zum Jahr 2050 ergeben, dass eine mögliche zukünftige Veränderung der Niederschlagsmengen zu einer prozentual zwei- bis dreifach größeren Veränderung der Abflussvolumen führt. Im Falle eines Trends von abnehmenden Niederschlagsmengen besteht in der Untersuchungsregion die Tendenz, dass auf Grund der gegenseitigen Beeinflussung der großen Zahl von Stauseen beim Rückhalt der tendenziell abnehmenden Abflussvolumen die Effizienz von neugebauten Stauseen zur Sicherung der Wasserverfügbarkeit zunehmend geringer wird. --- Anmerkung: Der Autor ist Träger des von der Universitätsgesellschaft Potsdam e.V. vergebenen Wissenschaftspreises zur Förderung des wissenschaftlichen Nachwuchses für die beste Dissertation des Jahres 2002/2003 an der Universität Potsdam.
NASA Astrophysics Data System (ADS)
Diedrich, Cajus G.
2010-05-01
Nine Middle Triassic paleogeographical maps comprising the uppermost Upper Bunter, Lower to Middle Muschelkalk and Upper Muschelkalk to Lower Keuper time frame (Diedrich 2008b) show the marine ingression and regression cycle of the Middle Triassic Germanic Basin (Diedrich 2010c). For bathymetrical and palaeoenvironmental interpretations especially reptiles and their footprints are used. This Germanic Basin as analogon for the Arabian Gulf (Knaust 1997), north of the Tethys, was under marine and finally terrestrial influenced sediments in a time frame (after Kozur and Bachmann 2008) between 247.2 My (Myophoria Fm, Aegean, Lower Anisian) to 237.9 My (Grabfeld Fm, Longobardian, Lower Ladinian). In a duration of 9.3 My the Germanic Basin was filled up mainly with marine carbonates and at the end by siliciclastics influenced by the northern Tethys through the Silesian, Carpathian and later the Burgundian Gates which connected the Germanic Basin to the Northern Tethys. With the marine ingression from the East via the Silesian Gate (Poland) a ten to hundred kilometers extended intertidal flat to sabkha facies belt surrounded first only the central and then the Western Germanic Basin (Winterswijk, Netherlands). Those intertidal zones were used mainly by two different small reptiles as their primary habitat. Hereby they left Millions of the small tom medium sized footprints of the ichnogenera Rhynchosauroides and Procolophonichnium (Diedrich 2005, 2008a). Larger terrestrial and beach and sabkha adapted reptiles were Tanystrophaeus antiquus and unknown archosaurs, which are recorded only by their footprints. At the beginning of the ingression at the uppermost Bunter a shallow marine invertebrate fauna and coastal reptiles appeared in the Germanic Basin which must have originated mainly from the Northern Tethys. Especially all marine reptiles immigrated from the Tethys which is proven not only by assamblaged Tethyan cephalopod Ceratite species (cf. Diedrich 2008a). The coastal intertidal zones appeared with mud cracked biolaminate and sabkha dolomites ("Biolaminate and Sabkha facies") and expanded further west and south within the Lower Muschelkalk Winterswijk Fm (Aegean/Bithynian boundary), Osnabrück Fm, and Jena Fm (Bithynian to Pelsonian) (Diedrich and Trostheide 2007, Diedrich 2008a). The intertidal zones changed their extensions several times in the Lower Muschalkalk due to the less eustatically and more tectonically controlled very shallow relief cratonic basin morphology and were more stable in the western part of the flat carbonate ramp basin (Winterswijk, Netherlands) and in coastal zones in general. In the Germanic Basin centre (Rüdersdorf to Gogolin, Germany/Poland) the conditions were all that time under very shallow carbonate sand barr (Oolithtic, Terebratula or Shell bioclastic facies) or shallow subtidal ("Wellenkalk facies") conditions, whereas even extended seagrass meadows in shallow carbonate facies types are indirectly proven by invertebrate communities, especially snails. Those algae attracted especially placodontids which were the "Triassic seacows" feeding on such algae (Diedrich, 2010a), which immigrated with Paraplacodus, Placodus and Cyamodus already with the first Lower Muschelkalk ingression sequence. Also other reptiles such as nothosaurs Nothosaurus (small species), Cymatosaurus, the pachypleurosaurids Dactylosaurus, Neusticosaurus or Serpianosaurus must have originated from the tethys and were shallow marine and even lagoonary adapted paraxial swimming smaller marine reptiles. This "Lower Muschelkalk" time was highly tectonically active represented by several seismic layers (slumps, sigmoidal shocked layers, etc.) (cf. Schwarz 1975, Rüffer 1996, Knaust 2000, Diedrich 2008a), which were also reaching the intertidal beach zones, possibly even with tsunamite hazard events (Diedrich 2008b, 2009b). Such tsunamis or quick floodings due to storm events must have had hazardous impacts on marine reptiles or fishes, and the beach inhabiting terrestrial reptiles, which could have been killed by high amounts which explains the presence of many skeletons, bonebeds, and footprint preservations in the Germanic Basin biolaminate and lagoonal facies. With a high seismic peak during the Middle Muschelkalk Karlstadt Fm (Pelsonian/Illyrian boundary) in the intertidal zones up to 19 tectonically shocked biolaminate layers (locality Bernburg, Central Germany, Diedrich 2009b) prove the beginning of the Alpine tectonics and its raise (fold belt structure: Müller et al. 1964), but also the opening of the Carpathian Gate (graben structure: Szulc 1998), from which the epicenters were estimated by two main slickenside directions. Those can be found all over the Germanic Basin "Lower Muschelkalk" sediments (Szulc 1998, Föhlisch 2007, Diedrich 2009b). This time period of the Pelsonian/Illyrian boundary gave even such extended intertidal zones, that reptiles left Millions of tracks all over those biolaminate facies types, allowing those to migrate and distribute East (Bohemian Island) - West (Rhenisch Massif, London-Brabant Massif) due to "intertidal flat bridges". Therefore chirotherid archosaur trackmakers left Chirotherium, Isochirotherium and Brachychirotherium trackways quite abundantly not anymore in the typical Bunter red sandstone facies; now they appeared in the new environments, the intertidal biolaminates such as well documented at Bernburg (Central Germany, Diedrich 2009b), but also on other Middle Triassic coast east of the Massif Central (Demathieu 1985) or the Alps (e.g. Avanzini 2002). The only surviving marine reptiles were smaller lagoonal adapted pachypleurosaurs such as the common Anarosaurus and smaller sized Nothosaurus. Placodontids disappeared with the loss of the palaeoenvironment of the macroalgae meadows and seem to have migrated to the Carpathian gate and northern Tethys, where those habitats were still present. The dramatical habitat change with terrestrial territory loss, and marginal marine beach zone extensions seem to be also the reason for the beginning of the dinosaur raise in the world. Within the Middle Muschelkalk Heilbronn and Diemel Formations a massive sea level fall caused a new extension of intertidal zones and sabkhas, but also halite and gypsum evaporates ("Domolite-evaporate facies") in the basin center including the southern Germanic Basin branch (region Tübingen/Stuttgart, Southwestern Germany). The "Middle Muschelkalk" shallow relief and lagoon to intertidal dominated period changed again drastically within a new tectonic active "Upper Muschelkalk" time and strong "ingression" of the northern Tethys into the Germanic Basin within the Illyrian time (Bad Sulza Fm, Trochitenkalk Fm). A shallow marine, with shallow water carbonates filled Germanic Basin developed again, but this time with different consequences onto the former coastal zones, in which intertidal biolaminated and sabkhas disappeared as a result of steeper coastal morphologies. Whereas in the first ingression a shallow marine reptile fauna was present (Nothosaur-Pachypleurosaur taphocoenosis, Lower Bad Sulza Fm, Diedrich in prep.). The fauna changed with the main transgression within the Upper Bad Sulza Fm to a Placodontid-Pistosaur taphocoenosis with more open marine adapted forms (Diedrich in prep.). At those time also crinoid bioherms developed massively all over the central and southern Germanic Basin in front of the costs at the "steeper coast margins" (which were still hot high angled), as a "crinoid belt" (e.g. Aigner and Bachmann 1991), which was responsible for massive crinoidal limestones (= "Trochitenkalk facies"). In this period again "Triassic seacows" seem to have populated well the entire Germanic Basin, and here again seagrass meadow areas documented by benthic invertebrate palaeocommunities (Diedrich 2009a, 2010a). The marine macroplants must have built extended meadows on the shallow marine and oxygen-rich seafloor conditions of the "Tonplatten facies" on which many different invertebrates settled in- or epifaunistic. This tectonical deepening controlled situation continued with the Meißner Fm and aequivalent Formations and its cephalopod Ceratite rich "Tonplatten facies", whereas the "maximum flooding" (if the term can be used here in a cratonic and tectonically controlled basin: cf. definition of marine cycles in: Aigner and Bachmann 1991) was in the compressus biozone (ceratite biozone, middle Meißner Fm, Anisian/Ladinian boundary, cf. Diedrich 2009a). The high stand is underlined by now full adapted marine reptiles such as nothosaurs (Nothosaurus mirabilis, Simosaurus gaillardodti), pistosaurs (Pistosaurus longaevus) and especially the open marine ichtyosaurs (Shastasaurus, Mixosaurus, Omphtalmosaurus) support the full marine and highest water level conditions. The "regression" or better suggested here "basin uplifting" started in the upper Meißner Fm with a reducing carbonate sedimentation which was overtaken slowly by terrestrial sediments already within the Warburg/Erfurt Formations (Fassanian/Longobardian boundary, Lower Ladinian). The fresh water and clay mineral influence caused a reduction of the marine benthic community biodiversity and the development of brackish lagoons, in which some invertebrate faunas and dominantly small marine reptiles pachypleurosaurs lived. At that time all placodontid reptiles disappeared, which must have been the chain reaction of the macroalgae loss and environmental changes. A change of terrestrial influence and periodic marine influence is documented in repeating intercalated massive dolomites (Alberti-Bed, Anthraconit-Bed and others) and clay layers of the Lower Keuper Erfurt and especially Grabfeld Fm (Longobardian). In this final period the Lower Keuper Germanic Basin was less and less marine influenced, finally dominated at that time on the limnic influenced costs by large amphibians such as Mastodonsaurus, Gerrhothorax or Plagiosuchus, which were found especially at southern German and Central german sites (Schoch and Wild 1999, Diedrich 2010b), including the famous southern German "Grenzbonebed" (Fassanian/Longobardian boundary) (Reif 1982, Hagdorn 1990). This bonebed already contains a strongly reduced marine reptile fauna with pachypleurosaurs and giant lagoon-adapted nothosaurs (N. giganteus, S. gaillardoti) and few marine hypersaline adapted shells such as Costatoria costata (cf. Hagdorn et al. 2009). The absence of cephalopod ceratites and rare nautilid presence are the last proves for the periodic restricted lagoon situations- being comparable in its facies and reptile fauna to the lagoon of the Northern Tethys Monte San Giorgio, Switzerland/Italy (e.g. De Zanche and Farabegoli 1988, Furrer 1995) to which the Germanic Basin was connected through the Burgundian Gate, France. The marine influence and marine sediment fill of the Germanic Basin stopped finally at the beginning of the Middle Keuper (lower Upper Triassic), diachronously more earlier in northern Germany (Warburg/Erfurt Fm, cf.: Kozur and Bachmann 2008, Diedrich 2010b) as in southern Germany (cf. Hagdorn et al. 2009) indicating a periodic marine influence from the Northern Tethys through the Burgundian Gate. At the final tectonical stage (last seismits in the Grabfeld Fm, Longobardian: cf. Bachmann and Aref 2005) no intertidal flats nor biolamnintes developed anymore in a low relief Germanic Basin morphology, which reason can be explained be the carbonate reduction, strong terrigenous clay input, and brakish-lagoonary conditions, in which cyanobacterial mats of the low-relief intertidal zones could not develop. References Aigner, T. and Bachmann, G.H. 1991. Sequence Stratigraphy of the German Muschelkalk. In: Hagdorn, H. and Seilacher, A. (Eds.): Muschelkalk. Schöntaler Symposium. 15-18. Goldschneck-Verlag, Stuttgart. Avanzini, M. 2002. Dinosauromorph tracks from the Middle Triassic (Anisian) of the Southern Alps (Valle di Non-Italy). Bolletino della Società Paleontologica Italiana, 41 (1), 37-40. Bachmann, G.H. and Aref, M.A.M., 2005. A seismite in Triassic gypsum deposits (Grabfeld Formation, Ladinian), Southwest Germany. Sedimentary Geology 180, 75-89. De Zanche, V. and Farabegoli, E. 1988. Anisian paleogeographic evolution in the Central-Western Southern Alps. Memoirs Scientifique Geologique 40, 399-411. Demathieu, G.R. 1985. Trace fossil assemblages in Middle Triassic marginal marine deposits, eastern border of the Massif Central, France. Societe Economie Paléontologie et Mineralogie, Special Publications, 35, 53-66. Diedrich, C. 2005. Actuopalaeontological trackway experiments with Iguana on intertidal flat carbonates of the Arabian Gulf - a comparison to fossil Rhynchosauroides tracks of Triassic carbonate tidal flat megatracksites in the European Germanic Basin. Senckenbergiana maritime, 35 (2), 203-220. Diedrich, C. 2008a. Millions of reptile tracks - Early to Middle Triassic carbonate tidal flat migration bridges of Central Europe. Palaeogeography, Palaeoclimatology, Palaeoecology, 259, 410-423. Diedrich, C. 2008b. Palaeogeographic evolution of the marine Middle Triassic marine Germanic Basin changements - with emphasis on the carbonate tidal flat and shallow marine habitats of reptiles in Central Pangaea. Global and Planetary Change, 65 (2009), 27-55. Diedrich, C. 2009a. The vertebrates of the Anisian/Ladinian boundary (Middle Triassic) from Bissendorf (NW Germany) and their contribution to the anatomy, palaeoecology, and palaeobiogeography of the Germanic Basin reptiles. Palaeogeography, Palaeoclimatology, Palaeoecology, 273 (2009), 1-16. Diedrich, C. 2009b. Die Saurierspuren-Grabung im basalen Mittleren Muschelkalk (Anis, Mitteltrias) von Bernburg (Sachsen-Anhalt). Archäologie in Sachsen-Anhalt, Sonderband 2009, 1-62. Diedrich, 2010a. Palaeoecology of Placodus gigas (Reptilia) and other placodontids - macroalgae feeder of the Middle Triassic in the Germanic Basin of Central Europe and comparison to convergent developed sirenia. Palaeogeography, Palaeoclimatology, Palaeoecology, (in review). Diedrich, 2010b. The vertebrate fauna of the Lower Ladinian (Middle Triassic) from Lamerden (Germany) and contribution to the palaeoecology, anatomy and palaeogeography of the Germanic Basin reptiles. Palaeogeography, Palaeoclimatology, Palaeoecology, (in review). Diedrich, 2010c. The palaeogeographic reconstructions of the Middle Triassic tectonical controlled carbonatic Germanic Basin of Central Europe - a northern Tethys connected cratonic marine Basin - coastal basin margin mappings by the use of reptile footprint rich intertidal and sabkha environments. Abstract, Fifth International Conference on the Geology of the Tethys Realm, Quena-Luxor,Egypt), 3-5. Diedrich, in prep. The shallow marine fish and sauropterygian reptile vertebrate fauna of the Germanic Basin from the atavus/pulcher Bonebeds in the Bad Sulza Fm (Illyrian, Middle Triassic) of Bad Sulza (Central Germany). Diedrich, C. and Trostheide, F. 2007. Auf den Spuren der terresten Muschelkalksaurier und aquatischen Sauropterygier vom obersten Röt bis zum Mittleren Muschelkalk (Unter-/Mitteltrias) von Sachsen-Anhalt. Abhandlungen und Berichte für Naturkunde, 30, 5-56. Föhlisch, K. 2007. Überlieferungen seismischer Aktivität im Unteren Muschelkalk. Beiträge zur Geologie Thüringens, N.F. 14, 55-83. Furrer, H. 1995. The Kalkschieferzone (Upper Meride estone Ladinian) near Meride (Canton Ticino, Southern Switzerland) and the evolution of a Middle Triassic intraplatform basin. Eclogae geolicae Helvetiae, 88(3), 827-852. Hagdorn, H. 1990. Das Muschelkalk/Keuper-Bonebed von Crailsheim. In: Weidert, W. K. (Ed.), Klassische Fundstellen der Paläontologie, Band 2. 78-88. Goldschneck-Verlag, Stuttgart. Hagdorn, H., E. Nitsch, Aigner, T. and Simon, T. 2009. Field guide 6th international Triassic field workshop (Pan-European Correlation of the Triassic) Triassic of Southwest Germany. September 7-11, 2009, www.stratigraphie.de/perm-trias_workshops.html, 1-72. Knaust, D. 1997. Die Karbonatrampe am SE-Rand des Persischen Golfes (Vereinigte Arabische Emirate) - rezentes Analogon für den Unteren Muschelkalk der Germanischen Trias? Greifswalder Geowissenschaftliche Beiträge, 5, 101-123. Knaust, D. 2000. Signatures of tectonically controlled sedimentation in Lower Muschelkalk carbonates (Middle Triassic) of the Germanic Basin. Zentralblatt für Geologie und Paläontologie, I, 1998 (9-10), 893-924. Kozur, H.W. and Bachmann, G.H. 2008. Updated correlation of the Germanic Triassic with the Tethyan scale and assigned numeric ages. Berichte der Geologischen Bundesanstalt Wien, 76, 53-58. Reif, W.E. 1982. Muschelkal/Keuper bone-beds (Middle Triassic, SW-Germany) - storm condensation in a regressive cycle. In: Einsele, G. and Seilacher, A. (Eds.), Cyclic and Event Stratification. 299-325. Springer-Verlag, Berlin-Heidelberg-New York. Müller, W. et al., 1964. Vulkanogene Lagen aus der Grenzbitumenzone (Mittlere Trias) des Monte San Giorgio in den Tessiner Kalkalpen. Eclogae geolicae Helvetiae, 57(2), 431-450. Rüffer, T. 1996. Seismite im Unteren Muschelkalk westlich von Halle (Saale). Hallesches Jahrbuch für Geowissenschaften, B 18, 119-130. Schoch, R. and Wild, R. 1999. Die Wirbeltiere des Muschelkalks unter besonderer Berücksichtigung Süddeutschlands. In: Hauschke, N. and Wilde, V. (Eds.), Trias eine ganz andere Welt. Europa im frühen Erdmittelalter. 331-342. Pfeil-Verlag, München. Schwarz, U. 1975. Sedimentary structures and facies analysis of shallow marine carbonates (Lower Muschelkalk, Middle Triassic, SW-Germany). Contributions to Sedimentology, 3, 1-100. Szulc, J. 1998. Anisian-Carnian evolution of the Germanic Basin and its eustatic, tectonic and climate controls. Zentralblatt für Geologie und Paläontologie, I, 7-8, 813-852.
NASA Astrophysics Data System (ADS)
Williams, H. Thomas
2015-12-01
After a quarter century of discoveries that rattled the foundations of classical mechanics and electrodynamics, the year 1926 saw the publication of two works intended to provide a theoretical structure to support new quantum explanations of the subatomic world. Heisenberg's matrix mechanics and Schrödinger's wave mechanics provided compatible but mathematically disparate ways of unifying the discoveries of Planck, Einstein, Bohr and many others. Efforts began immediately to prove the equivalence of these two structures, culminated successfully by John von Neumann's 1932 volume Mathematical Foundations of Quantum Mechanics. This forms the springboard for the current effort. We begin with a presentation of a minimal set of von Neumann postulates while introducing language and notation to facilitate subsequent discussion of quantum calculations based in finite dimensional Hilbert spaces. Chapters that follow address two-state quantum systems (with spin one-half as the primary example), entanglement of multiple two-state systems, quantum angular momentum theory and quantum approaches to statistical mechanics. A concluding chapter gives an overview of issues associated with quantum mechanics in continuous infinite-dimensional Hilbert spaces.