Science.gov

Sample records for radiologisch relevanten bodenkontaminationen

  1. Terror mit Atomwaffen: reale Gefahr? Nukleare und Radiologische Waffen

    NASA Astrophysics Data System (ADS)

    Harigel, Gert G.

    2006-01-01

    Können Terroristen sich nukleare Massenvernichtungswaffen beschaffen? Dazu müssten sie ausreichende Mengen an waffenfähigem, spaltbarem Material stehlen. Selbst der Bau einer primitiven Atombombe erfordert einen hohen technischen Aufwand und Spezialisten. Wahrscheinlicher ist deshalb der Diebstahl einer kleinen taktischen Kernwaffe. Alternativ könnten Terroristen sich radioaktives Material aus zivilen Quellen beschaffen und daraus eine Schmutzige Bombe bauen. Eine solche radiologische Waffe wäre keine echte Massenvernichtungswaffe, doch ihre psychologische Wirkung könnte stark sein. Das macht sie für Terroristen attraktiv, weswegen diese Gefahr ernst genommen werden muss.

  2. Physik gestern und heute: Fragwürdiges beim Millikan-Versuch

    NASA Astrophysics Data System (ADS)

    Heering, Peter

    2006-09-01

    Robert A. Millikan erhielt 1923 als erster amerikanischer Physiker den Nobelpreis für Physik. Geehrt wurde er für seine Präzisionsmessungen zum Photoeffekt und zur experimentellen Bestimmung der elektrischen Elementarladung. Millikans Experimente zur Elementarladung sind auch heute noch ein Standardthema im schulischen Physikunterricht, gleichzeitig werfen sie aber eine Reihe von wissenschaftstheoretischen und ethisch relevanten Fragen auf.

  3. Sorb Tech - ein neuer Konstruktionswerkstoff für den Holzbearbeitungsmaschinenbau

    NASA Astrophysics Data System (ADS)

    Gringel, Martin

    Innovationen im Maschinenbau und insbesondere bei Holzbearbeitungsmaschinen werden in erster Linie durch neue Produkte unserer Kunden, neue Herstellungsund Bearbeitungsverfahren sowie neue hochproduktive Maschinenkonzepte vorangetrieben. Beste Beispiele hierfür sind Leichtbaukonstruktionen bei Möbeln, das Laserfügen bei Kantenanleimmaschinen, Technologien zur Oberflächengestaltung von Möbelteilen sowie die Entwicklung von Automatisierungslösungen für die gesamte Möbelproduktion. Neben diesen Highlights stellt sich im Konstruktionsalltag einer Entwicklungsabteilung immer wieder die Frage, welcher Konstruktionswerkstoff ist für welche Aufgabenstellung bei einer Maschinen-Neuentwicklung die optimale Wahl? Die Funktion des Bauteiles einer Maschine ist hierbei meist hinreichend bekannt, ebenso die für dessen Auslegung relevanten Belastungen.

  4. IntegraTUM Teilprojekt Verzeichnisdienst: Identity & Access Management als technisches Rückgrat der Hochschul-IuK-Infrastruktur

    NASA Astrophysics Data System (ADS)

    Boursas, Latifa; Ebner, Ralf; Hommel, Wolfgang; Knittl, Silvia; Pluta, Daniel

    Als zentrales technisches Teilprojekt konzipiert, implementiert und betreibt Teilprojekt (TP) Verzeichnisdienst ein hochschulweites Identity & Access Management (I&AM) System, das eine Vielzahl daran angebundener Systeme und IT-Dienste mit aktuellen, autoritativen Daten über alle für sie relevanten Benutzer der TUM versorgt. Dabei wurden sowohl auf andere Hochschulen übertragbare Architekturen und Werkzeuge geschaffen als auch eine sehr präzise auf die Prozesse und Anforderungen der TUM abgestimmte Instanz realisiert, die auf Basis der im sehr erfolgreichen praktischen Betrieb gewonnenen Erfahrungen kontinuierlich verbessert und weiterentwickelt wurde. In diesem Artikel werden die Zielsetzung des Teilprojekts, die technische Architektur des I&AMSystems, ausgewählte Aspekte der Hochschul-Prozessintegration, Implementierungs-, Migrations- und Betriebsaspekte sowie die umfassenden Aktivitäten zum Know-How-Transfer von TP Verzeichnisdienst vorgestellt.

  5. Campus Single Sign-On und hochschulübergreifendes Identity Management

    NASA Astrophysics Data System (ADS)

    Hommel, Wolfgang

    Das im Rahmen von IntegraTUM für die TUM geschaffene Identity & Access Management System setzt das Paradigma unified login um, d. h. ein Benutzer kann alle für ihn relevanten Dienste innerhalb der Hochschule mit derselben Loginname-/Passwortkombination nutzen. Dieser Artikel zeigt, wie auf Basis der Software Shibboleth und der deutschlandweiten Hochschulföderation DFN-AAI als weitere Mehrwerte das campusweite web single sign-on und die nahtlose Nutzung zahlreicher externer Web-Anwendungen erreicht werden. Als Beispiel für die Abläufe bei der Erschließung neuer Dienste für die hochschulübergreifende Nutzung wird die Anbindung von Learning Management Systemen auf Basis des DFN-AAI E-Learning-Profils diskutiert. Den umfassenden Vorteilen werden schließlich die aktuellen technischen Grenzen bei der Umsetzung des hochschulübergreifenden Identity Management gegenübergestellt.

  6. Suchmaschinen und Informationsqualität: Status quo, Problemfelder, Entwicklungstendenzen

    NASA Astrophysics Data System (ADS)

    Maaß, Christian; Gräfe, Gernot

    Das Thema Informationsqualität wird in den vorangegangenen Beiträgen umfangreich betrachtet. Die dabei geführte Diskussion zielt vordergründig auf organisatorische Dimensionen der Datenqualität, die strukturierte Datenanalyse oder Datenmanagementprozesse im Unternehmen ab. Dabei liegt ein Großteil der zur Unterstützung von Entscheidungsprozessen herangezogenen Informationen in Datenbanksystemen bzw. in einem Data Warehouse vor. Auf Basis verschiedener Analysetools (z. B. Online-Analytical-Processing) lassen sich diese Informationen dann systematisch auswerten. Allerdings können Entscheidungen nicht allein aufgrund der unternehmensintern vorliegenden Informationen getroffen werden. Vielmehr gilt es auch die aus der Unternehmensumwelt relevanten Informationen zu verarbeiten, die zum Teil über das Internet zugänglich sind. Im Gegensatz zu unternehmensinternen Datenbanksystemen handelt es sich beim Internet um ein schwach strukturiertes und offenes Netzwerk, weshalb die im Unternehmenskontext eingesetzten Analysetools kaum weiterhelfen, um Informationen mit hoher Qualität herauszufiltern. In dieser Situation spielen Suchmaschinen eine wichtige Rolle, um Informationen zu identifizieren und anhand verschiedener Kriterien in Form einer Suchergebnisseite zu sortieren.

  7. Evidence mapping for decision making: feasibility versus accuracy - when to abandon high sensitivity in electronic searches.

    PubMed

    Buchberger, Barbara; Krabbe, Laura; Lux, Beate; Mattivi, Jessica Tajana

    2016-01-01

    Hintergrund: Evidence Mapping ist eine vergleichsweise neue methodische Herangehensweise, die für die Entwicklung von Forschungsfragen und Entscheidungen über deren Relevanz oder Priorität hilfreich sein kann. Allerdings stellt die Menge der heutzutage zur Verfügung stehenden Daten eine Herausforderung für Wissenschaftler dar, die zum Teil mit Ergebnissen von Datenbankrecherchen konfrontiert sind, die über 30.000 identifizierte Literaturstellen für ein erstes Screening umfassen.Ziele: Zur Überprüfung der Eignung des Themas „Diabetes und Fahrerlaubnis“ als Fragestellung für eine evidenzbasierte nationale klinische Leitlinie wurde ein Evidence Mapping durchgeführt. Darüber hinaus wurde eine hoch sensitive mit einer hoch spezifischen Suchstrategie verglichen.Methoden: Auf der Basis eines systematischen Reviews waren die Datenbankrecherchen auf den Zeitraum von 2002 bis heute begrenzt sowie auf deutsche und englische Publikationen.Ergebnisse: Aufgrund der stark fokussierten Fragestellung und der Begrenzungen ergab die hoch sensitive Recherche eine handhabbare Menge von Literaturstellen, die ausreichend Evidenz enthielten, um die Fragestellung nach der Eignung des Themas für eine evidenzbasierte Leitlinie positiv beantworten zu können. Unter Anwendung der hoch spezifischen Suchstrategie wurde eine Reduktion der Literaturstellen um 25% erreicht, mit der 88% der relevanten Literaturstellen identifiziert werden konnten.Schlussfolgerung: Um eine Übersicht über ein Forschungsgebiet zu erlangen, ist im Gegensatz zu systematischen Reviews, die zur Reduktion von Bias die Darstellung der vollständigen, identifizierbaren Evidenz enthalten müssen, keine Recherche von größter Genauigkeit erforderlich. Unter Berücksichtigung dieses methodischen Unterschieds kann unter Anwendung einer hoch spezifischen Recherche anstelle einer hoch sensitiven eine große Menge zu bearbeitender, aber überflüssiger Informationen vermieden werden.

  8. Grundlegende Steuerungsverfahren im heterogenen Logistiknetz mit Kanban

    NASA Astrophysics Data System (ADS)

    Dickmann, Eva; Dickmann, Philipp; Lödding, Hermann; Möller, Niklas; Rücker, Thomas; Schneider, Herfried M.; Zäh, Michael F.

    In vielen Unternehmen werden heterogene (verschiedene) Steuerungen in einem abgestimmten Konzept kombiniert. Je nach Anwendungsfall und Rahmenbedingungen werden Kombinationen allgemein bekannter Steuerungen oder Steuerungsvarianten gemischt eingesetzt, um eine optimale Steuerung für unterschiedliche Fälle zu erreichen. Hierbei stehen neben den bekannten und weit verbreiteten Methoden, wie Material Requirements Planning (MRP) oder Kanban, auch weniger bekannte oder neue Methoden zur Auswahl, wie die Produktionssteuerung mit dezentraler, bestandsorientierter Fertigungsregelung (DBF). Kanban ist ein simples und effizientes Steuerungskonzept, das in der klassischen Form für spezifische einfache Anwendungsfälle umsetzbar ist. Hochentwickelte Steuerungsalgorithmen können helfen, komplexe Abläufe optimal abzubilden. Mit einer grundlegenden Vereinfachung der Abläufe kann allerdings in vielen Fällen ein wesentlich stärkerer und umfassender Verbesserungseffekt erzielt werden. Die wesentliche Fragestellung sollte folglich lauten: Warum ist der Ablauf nicht mit einer einfachen Steuerung wie Kanban abzubilden? Um die Vorteile des Konzepts auch in untypischen Bereichen anwenden zu können, sind jedoch verschiedene Varianten oder Kanban-ähnliche Steuerungsmethoden entstanden. Darüber hinaus sind in der Praxis hybride Steuerungen im Einsatz, welche so kombiniert werden, dass die Zusammensetzung anspruchsvolle Eigenschaftsbilder noch exakt abbildet. In der Praxis basieren die Steuerungsentscheidungen nur zu einem kleinen Teil auf den eigentlichen Steuerungsalgorithmen, wie sie uns das MRP-System zur Verfügung stellt. Moderne Steuerungswelten" schließen alle relevanten Informationsquellen in eine heterogene Entscheidungsmatrix mit ein. Letztlich zählt nicht, ob die Entscheidung auf den Informationen aus dem MRP-System oder auf Softfacts basierend getroffen wurde, sondern nur, ob die Entscheidung erfolgreich war.

  9. Developing and piloting a multifactorial intervention to address participation and quality of life in nursing home residents with joint contractures (JointConImprove): study protocol.

    PubMed

    Müller, Martin; Bartoszek, Gabriele; Beutner, Katrin; Klingshirn, Hanna; Saal, Susanne; Stephan, Anna-Janina; Strobl, Ralf; Grill, Eva; Meyer, Gabriele

    2015-01-01

    Hintergrund: Gelenkkontrakturen sind häufige Probleme gebrechlicher älterer Menschen in Pflegeheimen. Unabhängig von der genauen Anzahl an älteren Menschen, die an Gelenkkontrakturen leiden, scheint dieses Syndrom ein relevantes Problem im Setting Pflegeheim dazustellen. Durch einen zunehmenden Fokus auf Gelenkkontrakturen, z.B. durch die Pflegeversicherung, kam es zu einem Anstieg im Dokumentations- und Assessmentaufwand und in der Einführung von Präventionsmaßnahmen. Viel mehr Aufmerksamkeit sollte aber auf die tatsächliche Situation der älteren Menschen mit Gelenkkontrakturen in Pflegeheimen gelegt werden, vor allem deren tatsächlichen Einschränkungen in Aktivitäten und Teilhabe. Das Ziel dieser Studie ist daher, 1) die Entwicklung einer maßgeschneiderten Intervention zur Verbesserung der Funktionsfähigkeit, sozialen Teilhabe und Lebensqualität von Menschen mit Gelenkkontrakturen in Pflegeheimen und 2) die Überprüfung der Machbarkeit der Intervention, begleitet von einer Prozessevaluation.Methoden: Die Entwicklung der komplexen Intervention folgt dem UK Medical Research Council (MRC) Framework und integriert die Perspektiven aller potenziell relevanten Benutzergruppen von den betroffenen Personen über Kliniker und Forscher. Der Entwicklungsprozess beinhaltet einen systematischen Literaturreview, die Re-Analyse vorhandener Daten, Fokusgruppeninterviews mit Betroffenen, eine Expertentagung und eine Delphi-Studie mit klinischen Experten sowie eine Cluster-randomisierte Pilotstudie mit umfassender Prozessevaluation. Diskussion: Die geplante Studie wird eine maßgeschneiderte Intervention zur Verbesserung von Funktionsfähigkeit, sozialer Teilhabe und Lebensqualität von Menschen mit Gelenkkontrakturen in Pflegeheimen bereitstellen. Die Pilotstudie inklusive der Prozessevaluation stellt einen ersten Schritt zur Schätzung der Stärke des Interventionseffektes dar und wird weitere Studien vorbereiten.

  10. Self-directed e-learning at a tertiary hospital in Malawi--a qualitative evaluation and lessons learnt.

    PubMed

    Barteit, Sandra; Hoepffner, Philip; Huwendiek, Sören; Karamagi, Angela; Munthali, Charles; Theurer, Antje; Neuhann, Florian

    2015-01-01

    Einführung: Trotz verschiedener Initiativen mehr Gesundheitspersonal auszubilden, besteht in Malawi weiterhin ein ausgeprägter Mangel an Fachkräften im Gesundheitsbereich. Dieser Mangel stellt auch eine erhebliche Herausforderung für die Aus- und Weiterbildung von medizinischem Personal dar - vor allem für Interns, die in ihrem letzten und entscheidenden Ausbildungsjahr vor dem Beginn einer selbstständigen ärztlichen Tätigkeit stehen.Projektbeschreibung: Wir haben deshalb in der medizinischen Abteilung des Kamuzu Central Hospital (KCH) in Malawi eine E-Learning Plattform eingeführt. Ziel ist es durch den computergestützten Unterricht den Mangel an klinischem Lehrpersonal teilweise zu kompensieren und damit zur Verbesserung der Qualität der medizinischen Ausbildung beizutragen sowie Zugang zu aktuellen und relevanten medizinischen Materialien zu gewährleisten.Methoden: Zwischen März und April 2012 führten wir zur Evaluation von Relevanz und Angemessenheit der E-Learning-Plattform eine qualitative Untersuchung durch. Die Datenerhebung erfolgte über individuelle Interviews, eine thematisch geleitete Gruppendiskussion sowie durch Beobachtung der Nutzung der Plattform basierend auf einer Checkliste. Die Auswahl der Interviewpartner erfolgte gezielt. Interviews und Gruppendiskussion wurden aufgezeichnet, codiert und interpretiert.Ergebnisse: E-Learning erwies sich im Umfeld dieses Krankenhauses als technisch machbar. Die Nutzer beurteilten die E-Learning-Plattform als für sich relevant und inhaltlich angemessen. Bedenken wurden in Bezug auf Nachhaltigkeit, Zugänglichkeit und technischer Infrastruktur geäußert sowie hinsichtlich der begrenzten Beteiligung und Verantwortung der malawischen Partner. Das Interesse an E-Learning war hoch, aber sowohl der Bekanntheitsgrad wie auch die Kenntnisse der Plattform waren unter den potenziellen Nutzern gering. Die Evaluation ergab, dass weitere Anpassungen im Hinblick auf die lokalen Bedürfnisse erforderlich sind

  11. Clinical practice and self-awareness as determinants of empathy in undergraduate education: a qualitative short survey at three medical schools in Germany.

    PubMed

    Ahrweiler, Florian; Scheffer, Christian; Roling, Gudrun; Goldblatt, Hadass; Hahn, Eckhart G; Neumann, Melanie

    2014-01-01

    Ziel der Studie: Ärztliche Empathie ist ein Outcome-relevantes Ziel der medizinischen Ausbildung. Faktoren, die die ärztliche Empathie fördern oder hemmen, sind jedoch vor allem in Deutschland noch nicht ausreichend erforscht. In der vorliegenden Studie untersuchten wir die Sichtweise deutscher Medizinstudentinnen und -studenten auf die Faktoren, die ihre Empathie fördern und hemmen und darauf, in welcher Beziehung ihre Erfahrungen zu den jeweiligen Curricula standen. Methoden: Es wurde eine qualitative Kurzumfrage an drei Universitäten durchgeführt: an der Ruhr-Universität Bochum, an der Universität zu Köln und an der Universität Witten/Herdecke. Die Studierenden wurden gebeten, einen anonymen Fragebogen mit offenen Fragen über Ausbildungsinhalte und Situationen während ihres Medizinstudiums auszufüllen, die einen positiven oder negativen Einfluss auf ihre Empathie hatten. Die Daten wurden mit einer qualitativen Inhaltsanalyse nach Green und Thorogood ausgewertet.Ergebnisse: Insgesamt nahmen 115 Studierende an der Umfrage teil. Die Befragten gaben an, dass eine praxisorientierte Ausbildung mit Patientenkontakt sowie Lehre mit Bezug zur klinischen Praxis und der Sichtweise der Patienten ihre Empathie förderten, während das Fehlen dieser Faktoren ihre Empathie hemmte. Auch die persönliche Reaktion der Studierenden auf die Patienten, wie Sympathie für oder Abneigung gegen Patienten, Vorurteile und die innere Haltung wurden als Einflussfaktoren auf ihre Empathie betrachtet. Obwohl jede Universität einen anderen Ansatz bei der Vermittlung sozialer Kompetenzen verfolgt, ergaben sich aus den Antworten der jeweiligen Studierenden keine relevanten Unterschiede bezüglich möglicher Einflussfaktoren von Empathie. Schlussfolgerung: Mehr Lehre mit Praxisbezug und häufigerer Patientenkontakt könnten sich fördernd auf die Empathie der Studierenden auswirken. Sie benötigen Unterstützung bei der Entwicklung einer therapeutischen Beziehung zum Patienten

  12. Neue biosensorische Prinzipien für die Hämoglobin-A1c Bestimmung

    NASA Astrophysics Data System (ADS)

    Stöllner, Daniela

    2002-06-01

    Hämoglobin-A1c (HbA1c) ist ein Hämoglobin (Hb)-Subtypus, der durch nicht-enzymatische Glykierung des N-terminalen Valinrestes der Hämoglobin-beta-Kette entsteht. Das gemessene Verhältnis von HbA1c zum Gesamt-Hämoglobin (5-20 % bei Diabetikern) repräsentiert den Mittelwert der Blutglucosekonzentration über einen zweimonatigen Zeitraum und stellt zur Beurteilung der diabetischen Stoffwechsellage eine Ergänzung zur Akutkontrolle der Glukosekonzentration dar. Ziel der vorliegenden Arbeit war es, einen amperometrischen Biosensor für die Bestimmung des medizinisch relevanten Parameters HbA1c zu entwickeln. Durch Selektion geeigneter Bioerkennungselemente und deren Immobilisierung unter Erhalt der Bindungsfunktion für die Zielmoleküle Hämoglobin bzw. HbA1c wurden spezifische, hochaffine und regenerationsstabile Sensoroberflächen geschaffen. Für die Entwicklung des HbA1c-Biosensors wurden zwei Konzepte - Enzymsensor und Immunosensor - miteinander verglichen. Die enzymatische Umsetzung von HbA1c erfolgte mit der Fructosylamin Oxidase (FAO) aus Pichia pastoris N 1-1 unter Freisetzung von H2O2, welches sowohl optisch über eine Indikatorreaktion als auch elektrochemisch nach Einschluss der FAO in PVA-SbQ und Fixierung des Immobilisats vor einer H2O2-Elektrode nachgewiesen wurde. Die Kalibration des Enzymsensors mit der HbA1c-Modellsubstanz Fructosyl-Valin ergab Nachweisgrenzen, die ausserhalb des physiologisch relevanten HbA1c-Konzentrationsbereich lagen. Aus der Umsetzung von glykierten Peptiden mit einer nicht HbA1c analogen Aminosäurensequenz, z.B. Fructosyl-Valin-Glycin wurde zudem eine geringe HbA1c-Spezifität abgeleitet. Für den Immunosensor wurden zwei heterogene Immunoassay-Formate unter Verwendung von hochaffinen und spezifischen Antikörpern in Kombination mit Glucose Oxidase (GOD) als Markerenzym zum Nachweis von HbA1c untersucht. Beim indirekt-kompetitiven Immunoassay wurde anstelle des kompletten HbA1c-Moleküls das glykierte Pentapeptid

  13. Welt und Wirkungsprinzip

    NASA Astrophysics Data System (ADS)

    Landgraf, Werner

    1997-05-01

    Reichweite. Bei Fakten und ihrer Wirkung etwa: Autonomie und Priorität von Selbstwahrnehmung und Eigensystem; etwaige Wahrnehmung durch einen Beobachter und wie sie ihm seinen Kontakt zum Objekt und dessen Darstellbarkeit in seinem Raum wiederspiegelt oder ändert, als nur für ihn relevant; in dessen Dimensionen sichtbare geometrische Bedingungen wegen diskreter Wirkung, oder logische Effekte bei Objekten kleinster Informationsmengen mit unzureichender Lokalisierbarkeit oder ihrer inadäquaten Betrachtung oder Bestimmung dort. Geboten sind genauere Untersuchungen zu Informationsgehalt, Wirkung, deren Reichweite und Gültigkeit bei einzelnen Photonen, mit Emission und durch direkt benachbart hinzukommende Absorption beendetem ereignisartigen Eigensystem, aber für materielle Beobachter unserer Welt und ihre Dimensionen zur vollständigen Lokalisierbarkeit zuwenigen wirksamen Informationen, was dort außer makroskopisch relevanten Projektionen auf Raum und Zeit sowie Lichtartigkeit auch mikroskopisch zwischenliegende Ereignisse wie Wechselwirkung in Medien oder Beugung und Retadierung oder Welleneigenschaften mit Richtungsänderung ganzzahliger Elementar- oder Wellenlängen, mit jeweiliger Kompensation im Bogen; Nichtlokalität; Unschärfen bei Bestimmung komplementärer also auf identischen Information beruhender Größen; und andere Effekte hervorruft. Voran stehen Erfahrungen zur notwendigen Bewirkung von Neuem durch alles Existente als nicht-materielle funktionelle Qualität seiner Individuation und Konkretisierung, und daher Ereignissen und Wirkung als primäre direkt etwas produzierende Naturkraft und Geometrie. Nachgefügt wurde noch eine Gegenüberstellung des Modelles mit kosmogonischen Aussagen der Offenbarungen (nur 2. Auflage).

  14. Welt und Wirkungsprinzip (2nd Aufl.)

    NASA Astrophysics Data System (ADS)

    Landgraf, Werner

    2010-03-01

    Reichweite. Bei Fakten und ihrer Wirkung etwa: Autonomie und Priorität von Selbstwahrnehmung und Eigensystem; etwaige Wahrnehmung durch einen Beobachter und wie sie ihm seinen Kontakt zum Objekt und dessen Darstellbarkeit in seinem Raum wiederspiegelt oder ändert, als nur für ihn relevant; in dessen Dimensionen sichtbare geometrische Bedingungen wegen diskreter Wirkung, oder logische Effekte bei Objekten kleinster Informationsmengen mit unzureichender Lokalisierbarkeit oder ihrer inadäquaten Betrachtung oder Bestimmung dort. Geboten sind genauere Untersuchungen zu Informationsgehalt, Wirkung, deren Reichweite und Gültigkeit bei einzelnen Photonen, mit Emission und durch direkt benachbart hinzukommende Absorption beendetem ereignisartigen Eigensystem, aber für materielle Beobachter unserer Welt und ihre Dimensionen zur vollständigen Lokalisierbarkeit zuwenigen wirksamen Informationen, was dort außer makroskopisch relevanten Projektionen auf Raum und Zeit sowie Lichtartigkeit auch mikroskopisch zwischenliegende Ereignisse wie Wechselwirkung in Medien oder Beugung und Retadierung oder Welleneigenschaften mit Richtungsänderung ganzzahliger Elementar- oder Wellenlängen, mit jeweiliger Kompensation im Bogen; Nichtlokalität; Unschärfen bei Bestimmung komplementärer also auf identischen Information beruhender Größen; und andere Effekte hervorruft. Voran stehen Erfahrungen zur notwendigen Bewirkung von Neuem durch alles Existente als nicht-materielle funktionelle Qualität seiner Individuation und Konkretisierung, und daher Ereignissen und Wirkung als primäre direkt etwas produzierende Naturkraft und Geometrie. Nachgefügt wurde noch eine Gegenüberstellung des Modelles mit kosmogonischen Aussagen der Offenbarungen (nur 2. Auflage).

  15. Physician-assisted suicide, euthanasia and palliative sedation: attitudes and knowledge of medical students.

    PubMed

    Anneser, Johanna; Jox, Ralf J; Thurn, Tamara; Borasio, Gian Domenico

    2016-01-01

    Zielsetzung: Im November 2015 wurde im deutschen Bundestag über eine gesetzliche Neuregelung der „Sterbehilfe“ abgestimmt. Dies betraf insbesondere die rechtliche Bewertung des ärztlich assistierten Suizids. Es wurde eine Änderung des Strafgesetzbuches beschlossen, das die „geschäftsmäßige Förderung der Selbsttötung“ nun unter Strafe stellt. Bereits am 2.7.2015, dem Tag der von größerem medialem Interesse begleiteten ersten Lesung entsprechender Gesetzesentwürfe im Bundestag, befragten wir Medizinstudierende des 7. und 8. Semesters der TU München zu den Themen „ärztlich assistierter Suizid (ÄAS)“, „Tötung auf Verlangen (TAV)“ und „palliative Sedierung (PS)“ auf der Basis einer fiktiven Fallvignette. Methodik: Die Fallvignette schilderte den Fall eines an einem Nasopharynxkarzinom erkrankten Patienten in zwei Varianten (subjektiv unerträgliches physisches vs. seelisches Leiden). Gefragt wurde nach der für die jeweiligen Handlungsoptionen aktuell geltenden Rechtslage sowie nach der Einstellung der Studierenden zur ethischen Vertretbarkeit dieser Maßnahmen.Ergebnisse: 241 von 301 Studierenden (80%) beantworteten den Fragebogen, davon 109 in der Variante 1 (körperliches Leiden) und 132 in der Variante 2 (seelisches Leiden). Die geltende Rechtslage zur PS (erlaubt) und zur TAV (verboten) wurde von der Mehrzahl der Studierenden richtig eingeschätzt (81,2% bzw. 93,7%), während nur eine Minderheit der Studierenden (18,8%) wusste, dass der ÄAS zum damaligen Zeitpunkt keinen strafrechtlich relevanten Tatbestand darstellte. Für – im geschilderten Fall – ethisch vertretbar hielten 83,3 % der Teilnehmer die PS unter gleichzeitiger Beendigung der Ernährung und Flüssigkeitsgabe, 51,2% den ÄAS und 19,2% die TAV. Im Vergleich der Varianten 1 und 2 fand sich ein signifikanter Unterschied lediglich bei der Einschätzung der Rechtmäßigkeit der PS: Bei physischem Leid wurde diese häufiger für erlaubt erachtet (88,1% vs. 75

  16. Neue biosensorische Prinzipien für die Hämoglobin-A1c Bestimmung

    NASA Astrophysics Data System (ADS)

    Stöllner, Daniela

    2002-06-01

    Hämoglobin-A1c (HbA1c) ist ein Hämoglobin (Hb)-Subtypus, der durch nicht-enzymatische Glykierung des N-terminalen Valinrestes der Hämoglobin-beta-Kette entsteht. Das gemessene Verhältnis von HbA1c zum Gesamt-Hämoglobin (5-20 % bei Diabetikern) repräsentiert den Mittelwert der Blutglucosekonzentration über einen zweimonatigen Zeitraum und stellt zur Beurteilung der diabetischen Stoffwechsellage eine Ergänzung zur Akutkontrolle der Glukosekonzentration dar. Ziel der vorliegenden Arbeit war es, einen amperometrischen Biosensor für die Bestimmung des medizinisch relevanten Parameters HbA1c zu entwickeln. Durch Selektion geeigneter Bioerkennungselemente und deren Immobilisierung unter Erhalt der Bindungsfunktion für die Zielmoleküle Hämoglobin bzw. HbA1c wurden spezifische, hochaffine und regenerationsstabile Sensoroberflächen geschaffen. Für die Entwicklung des HbA1c-Biosensors wurden zwei Konzepte - Enzymsensor und Immunosensor - miteinander verglichen. Die enzymatische Umsetzung von HbA1c erfolgte mit der Fructosylamin Oxidase (FAO) aus Pichia pastoris N 1-1 unter Freisetzung von H2O2, welches sowohl optisch über eine Indikatorreaktion als auch elektrochemisch nach Einschluss der FAO in PVA-SbQ und Fixierung des Immobilisats vor einer H2O2-Elektrode nachgewiesen wurde. Die Kalibration des Enzymsensors mit der HbA1c-Modellsubstanz Fructosyl-Valin ergab Nachweisgrenzen, die ausserhalb des physiologisch relevanten HbA1c-Konzentrationsbereich lagen. Aus der Umsetzung von glykierten Peptiden mit einer nicht HbA1c analogen Aminosäurensequenz, z.B. Fructosyl-Valin-Glycin wurde zudem eine geringe HbA1c-Spezifität abgeleitet. Für den Immunosensor wurden zwei heterogene Immunoassay-Formate unter Verwendung von hochaffinen und spezifischen Antikörpern in Kombination mit Glucose Oxidase (GOD) als Markerenzym zum Nachweis von HbA1c untersucht. Beim indirekt-kompetitiven Immunoassay wurde anstelle des kompletten HbA1c-Moleküls das glykierte Pentapeptid

  17. Distributed computations in a dynamic, heterogeneous Grid environment

    NASA Astrophysics Data System (ADS)

    Dramlitsch, Thomas

    2003-06-01

    einige Gebiete zu nennen. Je nach Art der Problemstellung und des Lösungsverfahrens gestalten sich solche "Meta-Berechnungen" mehr oder weniger schwierig. Allgemein kann man sagen, dass solche Berechnungen um so schwerer und auch um so uneffizienter werden, je mehr Kommunikation zwischen den einzelnen Prozessen (oder Prozessoren) herrscht. Dies ist dadurch begründet, dass die Bandbreiten bzw. Latenzzeiten zwischen zwei Prozessoren auf demselben Grossrechner oder Cluster um zwei bis vier Grössenordnungen höher bzw. niedriger liegen als zwischen Prozessoren, welche hunderte von Kilometern entfernt liegen. Dennoch bricht nunmehr eine Zeit an, in der es möglich ist Berechnungen auf solch virtuellen Supercomputern auch mit kommunikationsintensiven Programmen durchzuführen. Eine grosse Klasse von kommunikations- und berechnungsintensiven Programmen ist diejenige, die die Lösung von Differentialgleichungen mithilfe von finiten Differenzen zum Inhalt hat. Gerade diese Klasse von Programmen und deren Betrieb in einem virtuellen Superrechner wird in dieser vorliegenden Dissertation behandelt. Methoden zur effizienteren Durchführung von solch verteilten Berechnungen werden entwickelt, analysiert und implementiert. Der Schwerpunkt liegt darin vorhandene, klassische Parallelisierungsalgorithmen zu analysieren und so zu erweitern, dass sie vorhandene Informationen (z.B. verfügbar durch das Globus Toolkit) über Maschinen und Netzwerke zur effizienteren Parallelisierung nutzen. Soweit wir wissen werden solche Zusatzinformationen kaum in relevanten Programmen genutzt, da der Grossteil aller Parallelisierungsalgorithmen implizit für die Ausführung auf Grossrechnern oder Clustern entwickelt wurde.

  18. Vaccination of children with a live-attenuated, intranasal influenza vaccine - analysis and evaluation through a Health Technology Assessment.

    PubMed

    Andersohn, Frank; Bornemann, Reinhard; Damm, Oliver; Frank, Martin; Mittendorf, Thomas; Theidel, Ulrike

    2014-01-01

    Hintergrund: Die Influenza ist eine weltweit verbreitete Infektionskrankheit der Atemwege, die jährlich in Deutschland zu hoher Morbidität und Mortalität führt. Influenza ist impfpräventabel, zudem wird die Impfung von der Ständigen Impfkommission (STIKO) als Standardimpfung für über Sechzigjährige empfohlen. Bislang kam dafür fast ausschließlich ein per Injektion zu verabreichender trivalenter inaktivierter Impfstoff (TIV) zum Einsatz. Seit 2011 ist zusätzlich ein nasal zu verabreichender lebend-attenuierter inaktivierter Impfstoff (LAIV) zugelassen, der seit 2013 von der STIKO – im Rahmen der Indikationsimpfung – neben TIV für die Impfung der Altersgruppe von zwei bis 17 Jahren empfohlen wird. LAIV soll dabei bevorzugt in der Altersgruppe zwei bis sechs angewendet werden. Ziel dieses Health Technology Assessment (HTA) war die Beantwortung verschiedener Forschungsfragen zur Impfung mit LAIV, insbesondere bei Kindern, aus medizinischer, epidemiologischer und gesundheitsökonomischer sowie aus ethischer, sozialer und juristischer Perspektive.Methode: Die für die Bewertung relevanten Informationen wurden mittels einer systematischen Datenbankrecherche sowie einer ergänzenden Handrecherche ermittelt. Die gefundene Literatur wurde auf Basis vorgegebener Ein- bzw. Ausschlusskriterien von jeweils zwei unabhängigen Gutachtern durchgesehen und inhaltlich ausgewertet. Eingeschlossene Literatur wurde mittels anerkannter Standards bewertet. Die höchste Bewertung (1++) wurde Primärstudien nur dann zugesprochen, wenn diese die strengen Qualitätsanforderungen an eine pivotale Studie im Sinne der European Medicines Agency (EMA)-Guidance Points to consider on applications with 1. meta-analyses; 2. one pivotal study erfüllten. Ergebnisse: Für den medizinischen Teil liegt die Altersverteilung von Studienteilnehmern bei sechs Monaten bis 17 Jahren. Hinsichtlich der Wirksamkeit (Efficacy) ist LAIV bei Kindern von sechs Monaten bis ≤7 Jahren sowohl Placebo