• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 339
  • 129
  • 63
  • 34
  • 33
  • 22
  • 15
  • 8
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 805
  • 90
  • 88
  • 79
  • 61
  • 52
  • 48
  • 48
  • 46
  • 46
  • 45
  • 44
  • 44
  • 42
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
691

Energy Cooperation in the Caucasus: Continuity and Change in Russian-Turkish Relations

Kuhn, Sascha, Mosler, David, Richter, Katharina January 2010 (has links)
This article explores the links between the remarkable change in Russian-Turkish foreign relations in the early 2000s and the geostrategic importance of the Caucasus for global energy security. For much of the 1990s, domestic instability and power distribution distracted both countries’ focus on regional issues. Mutual suspicion dominated the bilateral relations, when Turkey, a longstanding NATO stronghold with close ties to the United States and Europe, set out to gain ground in Russia’s traditional sphere of influence. The resulting strategic division of the Caucasus marked a period of continuity in Russian-Turkish relations and resembled the bipolar bloc formation of Cold War times. By drawing on the distinct accounts of Neo-Realism and Liberal Intergovernmentalism, this analysis provides an understanding of the determining factors that changed Russian-Turkish relations from standstill to intensified cooperation despite that national interests in the region proved to be largely consistent. Russia seeks to maintain its traditional hegemonic position and Turkey strives to become a ‘soft power’ in the region. However, central to the new phase of Russian-Turkish relations is a mutual interest in the Caucasus as a stable transport corridor for Caspian energy resources to European and global markets, and both Ankara and Moscow stand to benefit greatly from reconciling geopolitical competition and cooperation in the region.
692

Automated Text Mining and Ranked List Algorithms for Drug Discovery in Acute Myeloid Leukemia

Tran, Damian January 2019 (has links)
Evidence-based software engineering (EBSE) solutions for drug discovery that are effective, affordable, and accessible all-in-one are lacking. This thesis chronicles the progression and accomplishments of the AiDA (Artificially-intelligent Desktop Assistant) functional artificial intelligence (AI) project for the purposes of drug discovery in the challenging acute myeloid leukemia context (AML). AiDA is a highly automated combined natural language processing (NLP) and spreadsheet feature extraction solution that harbours potential to disrupt the state of current research investigation methods using big data and aggregated literature. The completed work includes a text-to-function (T2F) NLP method for automated text interpretation, a ranked-list algorithm for multi-dataset analysis, and a custom multi-purpose neural network engine presented to the user using an open-source graphics engine. Validation of the deep learning engine using MNIST and CIFAR machine learning benchmark datasets showed performance comparable to state-of-the-art libraries using similar architectures. An n-dimensional word embedding method for the handling of unstructured natural language data was devised to feed convolutional neural network (CNN) models that over 25 random permutations correctly predicted functional responses to up to 86.64% of over 300 validation transcripts. The same CNN NLP infrastructure was then used to automate biomedical context recognition in >20000 literature abstracts with up to 95.7% test accuracy over several permutations. The AiDA platform was used to compile a bidirectional ranked list of potential gene targets for pharmaceuticals by extracting features from leukemia microarray data, followed by mining of the PubMed biomedical citation database to extract recyclable pharmaceutical candidates. Downstream analysis of the candidate therapeutic targets revealed enrichments in AML- and leukemic stem cell (LSC)-related pathways. The applicability of the AiDA algorithms in whole and part to the larger biomedical research field is explored. / Thesis / Master of Science (MSc) / Lead generation is an integral requirement of any research organization in all fields and is typically a time-consuming and therefore expensive task. This is due to the requirement of human intuition to be applied iteratively over a large body of evidence. In this thesis, a new technology called the Artificially-intelligent Desktop Assistant (AiDA) is explored in order to provide a large number of leads from accumulated biomedical information. AiDA was created using a combination of classical statistics, deep learning methods, and modern graphical interface engineering. It aims to simplify the interface between the researcher and an assortment of bioinformatics tasks by organically interpreting written text messages and responding with the appropriate task. AiDA was able to identify several potential targets for new pharmaceuticals in acute myeloid leukemia (AML), a cancer of the blood, by reading whole-genome data. It then discovered appropriate therapeutics by automatically scanning through the accumulated body of biomedical research papers. Analysis of the discovered drug targets shows that together, they are involved in key biological processes that are known by the scientific community to be involved in leukemia and other cancers.
693

Fluid- und Feststofftransport in Rohrsystemen und Pumpstationen

Ismael, Bashar 25 May 2021 (has links)
Die vorliegende Arbeit beschäftigt sich mit der Thematik des hydraulischen Feststofftransports in Druckrohrleitungen zur Bestimmung der hydraulischen Energieverluste des Wasser-Feststoff-Gemisches und der wirtschaftlichen Gemischgeschwindigkeit (der s.g. kritischen Geschwindigkeit) vcrit. Zu diesem Zweck wurde der Transportvorgang in verschiedenen Rohrkonfigurationen (horizontal, schräg und z. T. vertikal) an einem physikalischen Modell im Hubert-Engels-Labor des Instituts für Wasserbau und Technische Hydromechanik der Technischen Universität Dresden untersucht. Dabei kamen drei Sandfraktionen zum Einsatz (0,1 - 0,5 mm; 0,71 - 1,25 mm und 1,4 - 2,2 mm). Die Partikel weisen eine Dichte von ρF=2650 kg/m³ auf. Ziel der Untersuchungen war, mithilfe der Messdaten eine Formel zur Berechnung des Verlustanteils der dispersen Phase an dem gesamten Energieverlust besonders für das heterogene und das quasi-homogene Transportregime in Abhängigkeit von den Einflussgrößen (Dichte, Konzentration, Partikeldurchmesser etc.) abzuleiten. Ein weiterer Schwerpunkt der Arbeit war, die kritische Gemischgeschwindigkeit genauer zu betrachten und einen entsprechenden Rechenansatz aufzustellen. Diese Geschwindigkeit stellt den Übergang von dem Transport mit beweglicher Sohle zum heterogenen Feststofftransport dar. Nach Abschluss der physikalischen Versuche wurde der Feststofftransport mit der Software ANSYS-Fluent numerisch untersucht. Im Fokus der Modellierung stand die Festsetzung der Wandrandbedingung für die disperse Phase, mit Hilfen derer die physikalisch gemessenen Energieverluste erreicht werden konnten. Die Simulationen wurden mit dem Euler-Granular-Modell durchgeführt. Hierbei wird der Feststoff als zweites Kontinuum betrachtet und seine rheologischen Eigenschaften wurden durch die Erweiterung der kinetischen Theorie der Gase auf die disperse Phase (eng. kinetic theory of granular flow KTGF) berechnet. Das angewendete zwei-Fluid-Modell (TFM) eignet sich sehr gut für alle möglichen vorkommenden Feststoffkonzentrationen und liefert gute Übereinstimmung mit den Messergebnissen im Gegensatz zu dem Euler-Lagrange-Modell (DPM), welches lediglich bei niedrigen Feststoffkonzentrationen Anwendung findet.:Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Symbolverzeichnis Indexverzeichnis 1 Einleitung und Zielsetzung 2 Grundlagen des hydraulischen Feststofftransports in Rohrleitungen 2.1 Das Energiegesetz 2.2 Feststofftransport in Rohrleitungen 2.3 Partikeleigenschaften 2.4 Typisierung der Partikelbewegung mit der Strömung 2.5 Einfluss der Turbulenz auf die Partikelbewegung in horizontaler Rohrleitung 2.6 Transportzustände in horizontaler Rohrleitung 2.7 Transportzustände in vertikaler Rohrleitung 2.8 Stopfgrenze 2.9 Kräftebilanz an einem Feststoffpartikel 2.10 Dimensionsanalyse 2.10.1 Auflistung der Einflussgrößen 2.10.2 Anzahl der dimensionslosen π-Parameter 2.10.3 Auswahl der Hauptvariablen 2.10.4 Ermittlung der π-Parameter 2.10.5 Form des funktionellen Zusammenhangs 3 Bemessungsansätze des hydraulischen Transports 3.1 Stand des Wissens 3.1.1 Feststofftransport in horizontaler Rohrleitung 3.1.2 Feststofftransport in geneigter Rohrleitung 3.1.3 Feststofftransport in vertikaler Rohrleitung 3.1.4 Die kritische Gemischgeschwindigkeit in horizontaler Rohrleitung 3.1.5 Die kritische Gemischgeschwindigkeit in geneigter Rohrleitung 3.1.6 Weitere Rechenmodelle 3.2 Erweiterung des Energiegesetzes auf Gemischströmung 3.2.1 In horizontaler Rohrleitung 3.2.2 In geneigter Rohrleitung 3.2.3 In vertikaler Rohrleitung 4 Experimentelle Untersuchungen 4.1 Aufbau der ersten Versuchsanlage 4.2 Messtechnik 4.3 Umbau der Versuchsanlage 4.4 Untersuchungsmaterial 4.5 Experimentelles Verfahren 5 Numerische Simulationen mit ANSYS-Fluent 5.1 Grundlagen der Mehrphasenströmungen 5.2 Auswahl des numerischen Modells 5.3 Das Granular-Euler-Modell 5.3.1 Die Erhaltungsgleichung 5.3.2 Die kinetische Theorie der dispersen Phase 5.4 Modellvalidierung 6 Vorstellung der Untersuchungsergebnisse 6.1 Ergebnisse der experimentellen Untersuchungen in horizontaler Leitung 6.1.1 Experimentelle Untersuchungen zum Energieverlust 6.1.2 Experimentelle Untersuchung zu der kritischen Geschwindigkeit 6.2 Ergebnisse der hydronumerischen Untersuchungen in horizontaler Rohrleitung 6.2.1 Randbedingungen 6.2.2 Numerische Lösung und Konvergenz 6.2.3 Parameteranalyse anhand eigener Versuche 6.2.4 Numerische Untersuchungen zur Wechselwirkung zwischen den hydraulischen Kenngrößen 6.3 Ergebnisse der experimentellen Untersuchungen in vertikaler Leitung 6.4 Ergebnisse der experimentellen Untersuchungen in geneigter Rohrleitung 6.4.1 Experimentelle Untersuchungen zum Energieverlust 6.4.2 Experimentelle Untersuchung zu der kritischen Gemischgeschwindigkeit 6.5 Ergebnisse der numerischen Untersuchungen in geneigter Rohrleitung 7 Fehleranalyse und weitere Betrachtungen 7.1 Degradierung des Feststoffes 7.2 Die Abnutzung der Pumpe 7.3 Abrieb und Durchbruch der Rohrleitungen 7.4 Die Instabilität des Systems bei geringen Geschwindigkeiten 7.5 Messabweichung des Durchflussmessers 7.6 Fehlerquelle bei der Untersuchung der kritischen Gemischgeschwindigkeit 7.7 Fortbewegung der Feststoffe bei Geschwindigkeiten unterhalb vcrit 7.8 Einfluss der Transportkonzentration auf den Arbeitspunkt der Pumpe 8 Zusammenfassung Literaturverzeichnis Anhang / The present work deals with the hydraulic transport characteristics of sand-water mixtures in pipelines to determine hydraulic gradients and the deposition-limit velocity (critical velocity). For this purpose, the transport process in various pipe configurations (horizontal, inclined and vertical) was investigated on a physical model at the Hubert Engels Laboratory of the Institute of Hydraulic Engineering and Technical Hydromechanics of the Technical University of Dresden. Three sand fractions were used (0.1 - 0.5 mm, 0.71 - 1.25 mm and 1.4 - 2.2 mm) with particles density of ρF = 2650 kg/m³. The aim of the investigations was to develop a model for calculating the head loss percent-age of the disperse phase in terms of total energy loss, especially for the heterogeneous and quasi-homogeneous transport regime correlating to the influence quantities (density, concentration, particle diameter, etc.). Another important aspect for this work was to consider the critical velocity and to set up a corresponding calculation approach for this parameter. The deposition-limit velocity represents the transition from sliding Bed transport to heterogeneous transport. In the next step, the solids transport process was investigated numerical with ANSYS-Fluent. The focus of the modeling was the determination of the wall boundary condition for the disperse phase, with help of which the physically measured energy losses could be re-stored. The simulations were performed with the Euler Granular model. Here, the solid is considered to be the second continuum, and its rheological properties were calculated by expanding the kinetic theory of gases to disperse phase (KTGF).:Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Symbolverzeichnis Indexverzeichnis 1 Einleitung und Zielsetzung 2 Grundlagen des hydraulischen Feststofftransports in Rohrleitungen 2.1 Das Energiegesetz 2.2 Feststofftransport in Rohrleitungen 2.3 Partikeleigenschaften 2.4 Typisierung der Partikelbewegung mit der Strömung 2.5 Einfluss der Turbulenz auf die Partikelbewegung in horizontaler Rohrleitung 2.6 Transportzustände in horizontaler Rohrleitung 2.7 Transportzustände in vertikaler Rohrleitung 2.8 Stopfgrenze 2.9 Kräftebilanz an einem Feststoffpartikel 2.10 Dimensionsanalyse 2.10.1 Auflistung der Einflussgrößen 2.10.2 Anzahl der dimensionslosen π-Parameter 2.10.3 Auswahl der Hauptvariablen 2.10.4 Ermittlung der π-Parameter 2.10.5 Form des funktionellen Zusammenhangs 3 Bemessungsansätze des hydraulischen Transports 3.1 Stand des Wissens 3.1.1 Feststofftransport in horizontaler Rohrleitung 3.1.2 Feststofftransport in geneigter Rohrleitung 3.1.3 Feststofftransport in vertikaler Rohrleitung 3.1.4 Die kritische Gemischgeschwindigkeit in horizontaler Rohrleitung 3.1.5 Die kritische Gemischgeschwindigkeit in geneigter Rohrleitung 3.1.6 Weitere Rechenmodelle 3.2 Erweiterung des Energiegesetzes auf Gemischströmung 3.2.1 In horizontaler Rohrleitung 3.2.2 In geneigter Rohrleitung 3.2.3 In vertikaler Rohrleitung 4 Experimentelle Untersuchungen 4.1 Aufbau der ersten Versuchsanlage 4.2 Messtechnik 4.3 Umbau der Versuchsanlage 4.4 Untersuchungsmaterial 4.5 Experimentelles Verfahren 5 Numerische Simulationen mit ANSYS-Fluent 5.1 Grundlagen der Mehrphasenströmungen 5.2 Auswahl des numerischen Modells 5.3 Das Granular-Euler-Modell 5.3.1 Die Erhaltungsgleichung 5.3.2 Die kinetische Theorie der dispersen Phase 5.4 Modellvalidierung 6 Vorstellung der Untersuchungsergebnisse 6.1 Ergebnisse der experimentellen Untersuchungen in horizontaler Leitung 6.1.1 Experimentelle Untersuchungen zum Energieverlust 6.1.2 Experimentelle Untersuchung zu der kritischen Geschwindigkeit 6.2 Ergebnisse der hydronumerischen Untersuchungen in horizontaler Rohrleitung 6.2.1 Randbedingungen 6.2.2 Numerische Lösung und Konvergenz 6.2.3 Parameteranalyse anhand eigener Versuche 6.2.4 Numerische Untersuchungen zur Wechselwirkung zwischen den hydraulischen Kenngrößen 6.3 Ergebnisse der experimentellen Untersuchungen in vertikaler Leitung 6.4 Ergebnisse der experimentellen Untersuchungen in geneigter Rohrleitung 6.4.1 Experimentelle Untersuchungen zum Energieverlust 6.4.2 Experimentelle Untersuchung zu der kritischen Gemischgeschwindigkeit 6.5 Ergebnisse der numerischen Untersuchungen in geneigter Rohrleitung 7 Fehleranalyse und weitere Betrachtungen 7.1 Degradierung des Feststoffes 7.2 Die Abnutzung der Pumpe 7.3 Abrieb und Durchbruch der Rohrleitungen 7.4 Die Instabilität des Systems bei geringen Geschwindigkeiten 7.5 Messabweichung des Durchflussmessers 7.6 Fehlerquelle bei der Untersuchung der kritischen Gemischgeschwindigkeit 7.7 Fortbewegung der Feststoffe bei Geschwindigkeiten unterhalb vcrit 7.8 Einfluss der Transportkonzentration auf den Arbeitspunkt der Pumpe 8 Zusammenfassung Literaturverzeichnis Anhang
694

Identification of common and unique stress responsive genes of Arabidopsis thaliana under different abiotic stress through RNA-Seq meta-analysis

Akter, Shamima 06 February 2018 (has links)
Abiotic stress is a major constraint for crop productivity worldwide. To better understand the common biological mechanisms of abiotic stress responses in plants, we performed meta-analysis of 652 samples of RNA sequencing (RNA-Seq) data from 43 published abiotic stress experiments in Arabidopsis thaliana. These samples were categorized into eight different abiotic stresses including drought, heat, cold, salt, light and wounding. We developed a multi-step computational pipeline, which performs data downloading, preprocessing, read mapping, read counting and differential expression analyses for RNA-Seq data. We found that 5729 and 5062 genes are induced or repressed by only one type of abiotic stresses. There are only 18 and 12 genes that are induced or repressed by all stresses. The commonly induced genes are related to gene expression regulation by stress hormone abscisic acid. The commonly repressed genes are related to reduced growth and chloroplast activities. We compared stress responsive genes between any two types of stresses and found that heat and cold regulate similar set of genes. We also found that high light affects different set of genes than blue light and red light. Interestingly, ABA regulated genes are different from those regulated by other stresses. Finally, we found that membrane related genes are repressed by ABA, heat, cold and wounding but are up regulated by blue light and red light. The results from this work will be used to further characterize the gene regulatory networks underlying stress responsive genes in plants. / Master of Science
695

African-American Male Perceptions on Public Schooling after Discipline: A Contextual Portrait from the Inner City

Smith, Kevin William, Jr. 27 April 2019 (has links) (PDF)
Literature shows that one of the major issues affecting the achievement of inner-city African- American male students in public-schools is the ineffectiveness of disciplinary procedures. These studies have shown a direct positive relationship between student behavioral problems and academic failure. This study was an attempt at answering Noguera’s (2008) call for understanding more fully how African-American males come to perceive schooling, in particular their discipline experiences, and how environmental and cultural forces impact this perception of their behavior and performance in school. This was a qualitative study that heard the stories of inner-city African-American male students who were pushed out of public-schools through disciplinary measures. This study was based on racial components that fit directly into the structure of Critical Race Theory (CRT). The qualitative research method of portraiture was used to answer this study’s research question because it was relative to the problems that African- American male students face in their inner-city schooling experiences. The participants in this study were at least eighteen years old, African American, and pushed out of an inner-city public high school based on disciplinary consequences. Each participant shared environmental, cultural, and schooling experiences through a series of three interviews. The study found that environmental and cultural forces had a negative affect on the ways that these African-American males perceived their experiences in public-schools. The study concluded that these young men found success in private-continuation-schools, and that educators and policy makers should consider implementing the practices of these alternative schools in U.S. public-schools.
696

RAG-based data extraction : Mining information from second-life battery documents

Edström, Jesper January 2024 (has links)
With the constant evolution of Large Language Models (LLMs), methods for minimizing hallucinations are being developed to provide more truthful answers. By using Retrieval-Augmented Generation (RAG), external data can be provided to the model on which its answers should be based. This project aims at using RAG for a data extraction pipeline specified for second-life batteries. By pre-defining the prompts the user may only provide the documents that are wished to be analyzed, this is to ensure that the answers are in the correct format for further data processing. To process different document types, initial labeling takes place before more specific extraction suitable for the document can be applied. Best performance is achieved by grouping questions that allow the model to reason around what the relevant questions are so that no hallucinations occur. Regardless of whether there are two or three document types, the model performs equally well, and it is clear that a pipeline of this type is well suited to today's models. Further improvements can be achieved by utilizing models containing a larger context window and initially using Optical Character Recognition (OCR) to read text from the documents.
697

Wissenschaftskarrieren in der Leibniz-Gemeinschaft und das Einflusspotenzial von egalitärem Elternzeit-Modell, familienorientiertem Arbeitsplatz und flexiblen Frauenquoten als Gleichstellungsmaßnahmen

Backhaus-Nousch, Katja 19 July 2016 (has links) (PDF)
Ein ausgewogenes Geschlechterverhältnis verbessert die Leistungsfähigkeit von Teams, das ökonomische Wachstum von Unternehmen und deren Innovationsfähigkeit (vgl. Europäische Kommission 2011a, S. 4f; vgl. auch Corkery & Taylor 2012, S. 9). Obwohl in vielen Organisationen und Unternehmen diese Fakten mittlerweile bekannt sind, ist das Potenzial eines ausgewogenen Frauen- und Männeranteils in mittleren und hohen Karrierestufen nach wie vor unzureichend erschlossen. So zeigen die Daten des Statistischen Bundesamtes für das Jahr 2014, dass in akademischen und wissenschaftlichen Karrierewegen der Anteil an Frauen in Positionen mit steigendem Qualifikationsniveau und Status kontinuierlich abnimmt, und dies trotz der heute stark angeglichenen Ausbildungsqualifizierung von Frauen und Männern. In den höchsten Ebenen im Wissenschaftsbereich sind nur noch wenige Frauen vertreten (vgl. Statistisches Bundesamt 2014b, S. 3). Differenzen im Karriereverlauf von Frauen und Männern finden sich also bis heute in der Wissenschaft. Doch was sind die Gründe für diesen Scherenverlauf der Karrierewege von Wissenschaftlerinnen und Wissenschaftlern in Deutschland? Die Gründe liegen in einem Zusammenspiel kleinerer Vor- und Nachteile im gesamten Umfeld der Geschlechter, wie Ulmi und Maurer (2005, S. 35) resümieren. Denn grundsätzlich belegen Studienergebnisse, dass Wissenschaftlerinnen und Wissenschaftler unter identischen Rahmenbedingungen gleich produktiv sind (vgl. Andresen, Oppen & Simon 1999, S. 24). Ein einzelner Faktor oder Zeitpunkt kann somit für die im Verlauf auseinanderklaffenden Karrieren von Wissenschaftlerinnen und Wissenschaftlern nicht herangezogen werden. Bisher finden sich in der einschlägigen Literatur nur wenige Studien, die bei der Analyse von Wissenschaftskarrieren das Zusammenwirken von institutionellen Rahmenbedingungen sowie die Subjektseite berücksichtigen, wenngleich dieser Kombination beider Perspektiven eine bedeutende Rolle zukommt (vgl. Andresen et al. 1999, S. 40; vgl. auch Döge & Behnke 2004). Zudem fokussieren vorhandene Untersuchungen weitestgehend auf den Karriereverlauf nach einer kindbedingten Erwerbungsunterbrechung (u. a. Bauer, T. 2000; Krimmer, Stallmann, Behr & Zimmer 2003; Brandt 2012). Die vorliegende Studie analysiert unter Berücksichtigung beider Perspektiven die karrierebeeinflussenden – meritokratischen, individuellen und strukturellen – Einflussfaktoren von Wissenschaftskarrieren am Beispiel der Leibniz-Gemeinschaft als erste nicht-universitäre Wissenschaftsorganisation in Deutschland, die im Jahr 2012 flexible Zielquoten für Frauen einführte (vgl. Leibniz-Gemeinschaft 2013a, S. 1). Gleichzeitig werden Geschlechterunterschiede in Bezug auf die Faktorengruppen bzw. im wissenschaftlichen Karriereverlauf herausgearbeitet. Mit Blick auf die bestehende Unterrepräsentation von Frauen in höheren wissenschaftlichen Führungsebenen sollen des Weiteren die Gründe für den geringen Frauenanteil in höheren Positionen im Wissenschaftsbereich und zudem die Nutzungs- und Akzeptanzmuster von egalitärem Elternzeit-Modell, familienorientiertem Arbeitsplatz und flexiblen Frauenquoten auf der Mikro-, Meso- und Makroebene als Maßnahmen für mehr Geschlechtergleichstellung im Wissenschaftsbereich analysiert werden. Zur Erforschung des Studienthemas werden quantitative und qualitative Erhebungsverfahren kombiniert. Denn erst durch das Zusammenspiel qualitativer und quantitativer Methoden erhält man ein verlässliches Gesamtbild des zu untersuchenden sozialen Gegenstandes (vgl. Diekmann 2009, S. 543). Während die Daten der Online-Befragung unter allen Beschäftigten der Leibniz-Gemeinschaft (Vollerhebung) die Basis für allgemeine Aussagen in Bezug auf Wissenschaftskarrieren in der Leibniz-Gemeinschaft liefern und gleichzeitig mit ihnen die aufgestellten Hypothesen überprüft werden, vertiefen die vier durchgeführten leitfadengestützten Interviews mit Leibniz-Wissenschaftlerinnen und ihren Partnern die quantitativen Daten und unterfüttern sie exemplarisch mit individuellen Aussagen zum Forschungsthema. Bei den meritokratischen Faktoren bestätigen die gewonnenen Daten statistisch signifikant die Annahme, dass eine hohe Publikationsproduktivität der stärkste Karrieremotor für eine Wissenschaftskarriere ist. Dies gilt einerseits für das Erreichen einer höheren Position sowie auch für den erfolgreichen Durchlauf der Qualifizierungsphasen von der Promotion bis hin zur Habilitation und Professur. Aber auch die Bedeutsamkeit von Auslandsaufenthalten und Mitgliedschaften in Fachgesellschaften als karrierefördernde Faktoren konnte bestätigt werden, wenngleich deren Einflussstärke hinter der von Publikationen zurückbleibt. Des Weiteren zeigt die Datenlage, dass die befragten Wissenschaftlerinnen nicht immer die gleichen Karrierechancen im Wissenschaftsbereich wie ihre männlichen Kollegen – trotz gleicher Leistungen und Erfahrungen – haben. So bleibt unter Kontrolle des Alters trotz gleicher Publikationsanzahl und Anzahl an Mitgliedschaften bei der erreichten Position ein signifikanter Unterschied zwischen den Geschlechtern zugunsten der Männer bestehen. Bei den strukturellen Faktoren haben sich die geschlechtsspezifische Fächerwahl (Fächergruppe), die Anzahl familienfreundlicher Unterstützungsmaßnahmen am Arbeitsplatz und die Akzeptanz von Frauenquoten in dieser Studie als Erklärungsvariable für den Scherenverlauf der Wissenschaftskarrieren der Geschlechter nicht bestätigt. Bei den individuellen Faktoren wird die Arbeitgeberorientierung (vgl. Vogt 2010) von Frauen und Männern ausgeschlossen. Ein individueller Faktor, der jedoch messbar einen Erklärungsanteil in dieser Studie einnimmt, ist der Faktor Kind bzw. das Vorhandensein von Kindern. Die Ergebnisse der Online-Befragung zeigen, dass in Bezug auf die Wissenschaftskarriere kinderlose Befragte erfolgreicher als Befragte mit Kind(ern) sind. Zudem gibt es Geschlechterunterschiede: Väter sind gegenüber Müttern hinsichtlich ihrer erreichten Position erfolgreicher. Folglich kann es nicht die Elternschaft per se sein, die eine Wissenschaftskarriere beeinflusst. Studien konnten einen direkt messbaren Einkommensnachteil für Frauen bzw. Karriereknick durch die (längere) Inanspruchnahme einer Elternzeit nachweisen (vgl. Ruhm 1998; vgl. auch Boll 2009; Busch 2013a; Brandt 2012), sodass die Ergebnisse zur Elternzeit als Einflussfaktor auf Wissenschaftskarrieren betrachtet werden müssen. In diesem Zusammenhang werden ebenso die Resultate zum egalitären Elternzeit-Modell als potenzielle Gleichstellungsmaßnahme bedeutsam. Insgesamt geht mit der Familiengründung ein gemeinsamer, aber langer Entscheidungsprozess für das Elternzeit-Modell (Verteilung der Elternzeitmonate zwischen den Partnern) in der Zweierbeziehung einher. Die Stärke der egalitären Einstellung, das Bildungsniveau oder der Karriereerfolg einer Person haben keinen Einfluss auf die Elternzeitdauer. Auch das Einkommen bestätigt sich durch die Daten nicht – im Kontrast zu vorhergehenden Studien (u. a. Hyde, Essex & Horton 1993; O’Brien 2009), die das Einkommen als Haupteinflussfaktor für die Inanspruchnahme der Elternzeit durch Väter belegen. In der vorliegenden Arbeit war den interviewten Männern eher die Unterstützung vom Vorgesetzten bzw. des Kollegenkreises zur Inanspruchnahme einer (längeren) Elternzeit wichtig. Die Unternehmenskultur ist somit eine Voraussetzung für die Wahl des Elternzeit-Modells. Besonders interessant bei den Ergebnissen der Online-Befragung zur Elternzeitdauer ist die über dem deutschen Durchschnitt (6 Monate in der Studie versus 3 Monate deutschlandweit; vgl. Fegert et al. 2011, S. 5) liegende Elternzeitdauer der Männer. Es verdeutlicht, dass auf der Mikroebene bei Vätern in der Leibniz-Gemeinschaft bereits modernere Geschlechterrollenorientierungen vorliegen. Auf der anderen Seite wurde durch die Datenlage bestätigt, dass eine längere Elternzeitdauer negativ mit der Karrierephase der befragten Männer korreliert (ein nachteiliger Karriereeffekt wurde auch in den Interviews mit den Vätern durch ihre persönlichen Erfahrungen bestätigt), während sie einen positiven Einfluss auf die Karrierephase bei Frauen hat. Als Erklärung kommt der Zeitpunkt der Familiengründung und folglich der Elternzeit infrage. Eine längere Elternzeit bei einer bereits fortgeschrittenen Karriere bei Frauen würde einen positiven Zusammenhang aufzeigen, während bei Männern der umgekehrte Fall vorliegen könnte. Es bleibt zu prüfen, ob weitere Untersuchungen die genannten Ergebnisse stützen können und ob sich ein egalitäres Elternzeit-Modell im Alltag durchsetzen kann, wenn Männer Karrierenachteile erfahren oder fürchten. Die tägliche Vereinbarkeit von Familie und Beruf ist für beide Geschlechter nicht einfach, sodass die befragten Frauen und Männer einige familienbedingte Spannungen am Arbeitsplatz verspüren. Ein familienorientierter Arbeitsplatz kann hier als Gleichstellungsmaßnahme auf der Mesoebene dazu beitragen beide Lebensbereiche zu vereinbaren: Die Daten belegen, dass Unterstützungsmaßnahmen zur Vereinbarkeit von Familie und Beruf signifikant die Anzahl an familienbedingten Spannungen am Arbeitsplatz reduzieren. Die Anzahl an Maßnahmen zur Unterstützung der Vereinbarkeit von Familie und Beruf ist dabei zwischen den Leibniz-Einrichtungen unterschiedlich, wobei Einrichtungen mit eher vielen Beschäftigten auch (eher) viele Unterstützungsmaßnahmen aufweisen. Der Großteil der Beschäftigten bei der Leibniz-Gemeinschaft ist über die in 2012 eingeführten flexiblen Frauenquoten uninformiert, welche als dritte Gleichstellungsmaßnahme in der Studie untersucht wurden. Weiterhin lehnen Männer die Einführung von Frauenquoten signifikant stärker ab als Frauen. Auf der anderen Seite wünschen sich stärker egalitär eingestellte Personen eher die Einführung von Frauenquoten als Maßnahme für mehr Chancengleichheit von Frauen und Männern im Wissenschaftsbereich als weniger egalitär eingestellte Personen. Werden Frauenquoten eingeführt, so wünschen sich die Befragten, dass diese ambitioniert, aber realistisch zu erreichen sind und mit einem entsprechenden Monitoring begleitet werden. Insgesamt besteht eine generelle Skepsis gegenüber Frauenquoten, wie in den Interviews und bei der Online-Befragung ersichtlich wird. Zur Erhöhung des Frauenanteils in wissenschaftlichen Führungspositionen wird durch die Daten belegt, dass eine Quotierung nur hilfreich ist, wenn „zugleich Führung und Verantwortung in Job und Familie miteinander vereinbar werden“ (vgl. Boll 2012, S. 650). Mit Blick auf die vorgestellten Studienergebnisse wird deutlich, dass Geschlechtergleichstellung in der Wissenschaft noch nicht erreicht ist. Damit Frauen in der Wissenschaft die gleichen Chancen wie Männer haben, müssen verschiedene Stellschrauben bewegt werden: Auf der Makroebene haben Frauenquoten das Potenzial die weibliche Repräsentanz zu erhöhen, um über paritätisch besetzte Auswahlgremien geschlechtergerechtere Auswahl- und Einstellungsverfahren anzustoßen, denn aufgrund einer weiblichen Unterrepräsentanz in diesen Gremien kann es zu einer Geschlechterverzerrung bei der Nachbesetzung kommen, wie van den Brink (2010) in ihrer Studie in den Niederlanden beweisen konnte. Auf der Mesoebene muss die Geschlechtergleichstellung im Wissenschaftsbereich durch familienpolitische Maßnahmen unterstützt werden. Es sind familienorientierte Arbeitsplätze für eine noch stärkere Vereinbarkeit von Familie und Beruf vonnöten, um einen gesellschaftlichen Verhaltenswandel auf der Makroebene herbeizuführen und um gleichzeitig auf der Mikroebene das innerfamiliäre Engagement beider Partner anzugleichen. Denn Gleichstellung muss auch privat gelebt werden, damit sie sich im Berufsalltag bzw. in unserer Gesellschaft durchsetzen kann.
698

An application of cooperative game theory

Cobanli, Onur 12 January 2015 (has links)
Die Dissertation besteht aus drei unabhängigen Essays zur Anwendung der kooperativen Spieltheorie auf den internationalen Erdgashandel. Das internationale Erdgasnetz wird von einem stilisierten quantitativen Modell dargestellt, welches aus den wichtigsten Produzenten, Verbrauchern, Pipelines und LNG-Terminals besteht. Die Koalitionsfunktion berücksichtigt wesentliche Merkmale des internationalen Gashandels und schildert die Abhängigkeiten zwischen den Akteuren. Das Spiel wird mit dem Shapley-Wert und dem Nukleolus gelöst, welche alternative Indizes für die Darstellung der Machtstruktur sind. Kapitel 1 versucht die Interessen der Spieler in drei Pipeline-Projekte, d.h. Nord Stream, South Stream und Nabucco, zu rationalisieren. Das Kapitel ordnet die Investitionen in die neuen Pipelines ihren Auswirkungen auf die Verhandlungsmacht der Akteure zu und zieht dabei Rückschlüsse auf die Aussagekraft der Lösungskonzepte. Der Shapley-Wert rechtfertigt die jüngsten Investitionen in die Pipelines als rationale Versuche, die Machtstruktur zu verändern. Im Gegensatz zum Shapley-Wert kann der Nukleolus die empirischen Beobachtungen nicht nachbilden. Kapitel 2 studiert Pipeline-Projekte im zentralasiatischen Raum. Die Ergebnisse erklären die Unterstützung der zentralasiatischen Länder für eine nach China verlaufende Pipeline statt einem nach Europa führenden Projekt, und zeigen, dass die Konkurrenz zwischen China und Europa für das zentralasiatische Erdgas vernachlässigbar ist. Kapitel 3 untersucht die bedeutendsten Entwicklungen in Angebot und Nachfrage im globalen LNG-Markt sowie deren Einfluss auf die Machtstruktur im eurasischen Erdgashandel. Die Entwicklungen kommen den europäischen Verbrauchern deutlich zugute, aber scheitern dabei, die Macht der etablierten Anbieter um Europa, beispielsweise Russlands, einzudämmen. / The dissertation contains three independent essays on the application of cooperative game theory on the international natural gas trade. The international natural gas network is represented by a stylized disaggregated quantitative model consisting of its major producers, customers, trunk-pipelines and LNG terminals. The value function considers essential characteristics of the international gas trade and characterizes the interdependencies between the major actors. The game is solved with the Shapley value and the nucleolus as alternative indexes for capturing the power of different players. Chapter 1 aims to rationalize players'' interest in the three pipeline projects, i.e., Nord Stream, South Stream, and Nabucco. The chapter relates the investments into the new pipelines to their impact on the power structure and thereby makes conclusions about the explanatory power of the solution concepts. While the Shapley value can explain the recent investments in the new pipelines as a rational attempt to alter the power structure in the network, the nucleolus, in contrast, fails to replicate the empirical evidence. Chapter 2 studies pipeline options of the Central Asian countries aimed at diversifying their transit routes and export markets. The results explain the Central Asian countries'' endorsement for an eastbound pipeline to China rather than a Europe-bound option, and show negligible demand competition between China and Europe for Central Asian supplies. Chapter 3 investigates major supply and demand developments in the global LNG market as well as their impact on the power structure in the Eurasian natural gas trade. The developments benefit European consumers significantly, but barely curtail the power of the established suppliers in close proximity to Europe, such as Russia.
699

La Mer caspienne et le droit international / The Caspian sea and the international law

Guliyev, Khagani 08 February 2013 (has links)
La mer Caspienne qui est devenue l’objet du droit international depuis le XVIIIe siècle n’a jamais connu un statut juridique précis. Cet espace dont la nature aquatique fait l’objet de divergence était dominé par l’URSS jusqu’en 1991. Cependant, à la suite de la disparition de l’URSS, la mer Caspienne - désormais entourée de cinq États riverains (Azerbaïdjan, Iran,Kazakhstan, Russie et Turkménistan) – a fait sa réapparition sur la scène internationale, surtout en raison de ses riches ressources naturelles. C’est précisément dans ces conditions que la question de la situation juridique de la mer Caspienne au regard du droit international s’est posée à la fin du XXe siècle. Il convient donc de former un régime juridique de la mer Caspienne adéquat et durable à long terme et de trouver des solutions pour le règlement desdifférends juridiques entre les États caspiens. / The Caspian Sea which has become the object of international law since the eighteenth century has never had a clear legal status. This space of which the aquatic nature is not defined was dominated by the Soviet Union until 1991. However, following the collapse of the USSR, the Caspian Sea - now surrounded by five littoral States (Azerbaijan, Iran, Kazakhstan, Russia and Turkmenistan) - has re-emerged on the international scene, especially because of its rich natural resources. It is precisely in these circumstances that the question of legal status of the Caspian Sea under international law arose in the late twentieth century. Therefore, it is necessary to form an adequate and sustainable long-term legal regime of theCaspian Sea and to find solutions for the settlement of legal disputes between the Caspian States.
700

Génération dynamique de code pour l'optimisation énergétique / Online Auto-Tuning for Performance and Energy through Micro-Architecture Dependent Code Generation

Endo, Fernando Akira 18 September 2015 (has links)
Dans les systèmes informatiques, la consommation énergétique est devenue le facteur le plus limitant de la croissance de performance observée pendant les décennies précédentes. Conséquemment, les paradigmes d'architectures d'ordinateur et de développement logiciel doivent changer si nous voulons éviter une stagnation de la performance durant les décennies à venir.Dans ce nouveau scénario, des nouveaux designs architecturaux et micro-architecturaux peuvent offrir des possibilités d'améliorer l'efficacité énergétique des ordinateurs, grâce à la spécialisation matérielle, comme par exemple les configurations de cœurs hétérogènes, des nouvelles unités de calcul et des accélérateurs. D'autre part, avec cette nouvelle tendance, le développement logiciel devra faire face au manque de portabilité de la performance entre les matériels toujours en évolution et à l'écart croissant entre la performance exploitée par les programmeurs et la performance maximale exploitable du matériel. Pour traiter ce problème, la contribution de cette thèse est une méthodologie et la preuve de concept d'un cadriciel d'auto-tuning à la volée pour les systèmes embarqués. Le cadriciel proposé peut à la fois adapter du code à une micro-architecture inconnue avant la compilation et explorer des possibilités d'auto-tuning qui dépendent des données d'entrée d'un programme.Dans le but d'étudier la capacité de l'approche proposée à adapter du code à des différentes configurations micro-architecturales, j'ai développé un cadriciel de simulation de processeurs hétérogènes ARM avec exécution dans l'ordre ou dans le désordre, basé sur les simulateurs gem5 et McPAT. Les expérimentations de validation ont démontré en moyenne des erreurs absolues temporels autour de 7 % comparé aux ARM Cortex-A8 et A9, et une estimation relative d'énergie et de performance à 6 % près pour le benchmark Dhrystone 2.1 comparée à des CPUs Cortex-A7 et A15 (big.LITTLE). Les résultats de validation temporelle montrent que gem5 est beaucoup plus précis que les simulateurs similaires existants, dont les erreurs moyennes sont supérieures à 15 %.Un composant important du cadriciel d'auto-tuning à la volée proposé est un outil de génération dynamique de code, appelé deGoal. Il définit un langage dédié dynamique et bas-niveau pour les noyaux de calcul. Pendant cette thèse, j'ai porté deGoal au jeu d'instructions ARM Thumb-2 et créé des nouvelles fonctionnalités pour l'auto-tuning à la volée. Une validation préliminaire dans des processeurs ARM ont montré que deGoal peut en moyenne générer du code machine avec une qualité équivalente ou supérieure comparé aux programmes de référence écrits en C, et même par rapport à du code vectorisé à la main.La méthodologie et la preuve de concept de l'auto-tuning à la volée dans des processeurs embarqués ont été développées autour de deux applications basées sur noyau de calcul, extraits de la suite de benchmark PARSEC 3.0 et de sa version vectorisée à la main PARVEC.Dans l'application favorable, des accélérations de 1.26 et de 1.38 ont été observées sur des cœurs réels et simulés, respectivement, jusqu'à 1.79 et 2.53 (toutes les surcharges dynamiques incluses).J'ai aussi montré par la simulation que l'auto-tuning à la volée d'instructions SIMD aux cœurs d'exécution dans l'ordre peut surpasser le code de référence vectorisé exécuté par des cœurs d'exécution dans le désordre similaires, avec une accélération moyenne de 1.03 et une amélioration de l'efficacité énergétique de 39 %.L'application défavorable a été choisie pour montrer que l'approche proposée a une surcharge négligeable lorsque des versions de noyau plus performantes ne peuvent pas être trouvées.En faisant tourner les deux applications sur les processeurs réels, la performance de l'auto-tuning à la volée est en moyenne seulement 6 % en dessous de la performance obtenue par la meilleure implémentation de noyau trouvée statiquement. / In computing systems, energy consumption is limiting the performance growth experienced in the last decades. Consequently, computer architecture and software development paradigms will have to change if we want to avoid a performance stagnation in the next decades.In this new scenario, new architectural and micro-architectural designs can offer the possibility to increase the energy efficiency of hardware, thanks to hardware specialization, such as heterogeneous configurations of cores, new computing units and accelerators. On the other hand, with this new trend, software development should cope with the lack of performance portability to ever changing hardware and with the increasing gap between the performance that programmers can extract and the maximum achievable performance of the hardware. To address this issue, this thesis contributes by proposing a methodology and proof of concept of a run-time auto-tuning framework for embedded systems. The proposed framework can both adapt code to a micro-architecture unknown prior compilation and explore auto-tuning possibilities that are input-dependent.In order to study the capability of the proposed approach to adapt code to different micro-architectural configurations, I developed a simulation framework of heterogeneous in-order and out-of-order ARM cores. Validation experiments demonstrated average absolute timing errors around 7 % when compared to real ARM Cortex-A8 and A9, and relative energy/performance estimations within 6 % for the Dhrystone 2.1 benchmark when compared to Cortex-A7 and A15 (big.LITTLE) CPUs.An important component of the run-time auto-tuning framework is a run-time code generation tool, called deGoal. It defines a low-level dynamic DSL for computing kernels. During this thesis, I ported deGoal to the ARM Thumb-2 ISA and added new features for run-time auto-tuning. A preliminary validation in ARM processors showed that deGoal can in average generate equivalent or higher quality machine code compared to programs written in C, including manually vectorized codes.The methodology and proof of concept of run-time auto-tuning in embedded processors were developed around two kernel-based applications, extracted from the PARSEC 3.0 suite and its hand vectorized version PARVEC. In the favorable application, average speedups of 1.26 and 1.38 were obtained in real and simulated cores, respectively, going up to 1.79 and 2.53 (all run-time overheads included). I also demonstrated through simulations that run-time auto-tuning of SIMD instructions to in-order cores can outperform the reference vectorized code run in similar out-of-order cores, with an average speedup of 1.03 and energy efficiency improvement of 39 %. The unfavorable application was chosen to show that the proposed approach has negligible overheads when better kernel versions can not be found. When both applications run in real hardware, the run-time auto-tuning performance is in average only 6 % way from the performance obtained by the best statically found kernel implementations.

Page generated in 0.0452 seconds