• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 64
  • 29
  • 2
  • 2
  • 1
  • Tagged with
  • 179
  • 112
  • 88
  • 51
  • 51
  • 51
  • 46
  • 30
  • 24
  • 17
  • 15
  • 12
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

HBEGF-TNF induce a complex outer retinal pathology with photoreceptor cell extrusion in human organoids

Völkner, Manuela, Wagner, Felix, Steinheuer, Lisa Maria, Carido, Madalena, Kurth, Thomas, Yazbeck, Ali, Schor, Jana, Wieneke, Stephanie, Ebner, Lynn J. A., Runzer, Claudia Del Toro, Taborsky, David, Zoschke, Katja, Vogt, Marlen, Canzler, Sebastian, Hermann, Andreas, Khattak, Shahryar, Hackermüller, Jörg, Karl, Mike O. 01 March 2024 (has links)
Human organoids could facilitate research of complex and currently incurable neuropathologies, such as age-related macular degeneration (AMD) which causes blindness. Here, we establish a human retinal organoid system reproducing several parameters of the human retina, including some within the macula, to model a complex combination of photoreceptor and glial pathologies. We show that combined application of TNF and HBEGF, factors associated with neuropathologies, is sufficient to induce photoreceptor degeneration, glial pathologies, dyslamination, and scar formation: These develop simultaneously and progressively as one complex phenotype. Histologic, transcriptome, live-imaging, and mechanistic studies reveal a previously unknown pathomechanism: Photoreceptor neurodegeneration via cell extrusion. This could be relevant for aging, AMD, and some inherited diseases. Pharmacological inhibitors of the mechanosensor PIEZO1, MAPK, and actomyosin each avert pathogenesis; a PIEZO1 activator induces photoreceptor extrusion. Our model offers mechanistic insights, hypotheses for neuropathologies, and it could be used to develop therapies to prevent vision loss or to regenerate the retina in patients suffering from AMD and other diseases.
122

Divergent natural selection alters male sperm competition success in Drosophila melanogaster

Dobler, Ralph, Charette, Marc, Kaplan, Katrin, Turnell, Biz R., Reinhardt, Klaus 20 March 2024 (has links)
Sexually selected traits may also be subject to non-sexual selection. If optimal trait values depend on environmental conditions, then “narrow sense” (i.e., non-sexual) natural selection can lead to local adaptation, with fitness in a certain environment being highest among individuals selected under that environment. Such adaptation can, in turn, drive ecological speciation via sexual selection. To date, most research on the effect of narrow-sense natural selection on sexually selected traits has focused on precopulatory measures like mating success. However, postcopulatory traits, such as sperm function, can also be under non-sexual selection, and have the potential to contribute to population divergence between different environments. Here, we investigate the effects of narrow-sense natural selection on male postcopulatory success in Drosophila melanogaster. We chose two extreme environments, low oxygen (10%, hypoxic) or high CO₂ (5%, hypercapnic) to detect small effects. We measured the sperm defensive (P1) and offensive (P2) capabilities of selected and control males in the corresponding selection environment and under control conditions. Overall, selection under hypoxia decreased both P1 and P2, while selection under hypercapnia had no effect. Surprisingly, P1 for both selected and control males was higher under both ambient hypoxia and ambient hypercapnia, compared to control conditions, while P2 was lower under hypoxia. We found limited evidence for local adaptation: the positive environmental effect of hypoxia on P1 was greater in hypoxia-selected males than in controls. We discuss the implications of our findings for the evolution of postcopulatory traits in response to non-sexual and sexual selection.
123

Endlosfaserverstärkte Verbundstrukturen für fortschrittliche Skelettbauweise im Automobilbau

Maier, Andreas 04 November 2022 (has links)
Die im Forschungsprojekt MAI Skelett erarbeitete Skelettbauweise konnte das Potential endlos, kohlenstofffaserverstärkter Thermoplastprofile aufzeigen. Um das gesamte wirtschaftliche Potential dieser Hybridbauweise nutzten zu können, bedarf es der weitergehenden Analyse des parallelen Einsatzes unterschiedlicher Verstärkungsfasern. In dieser Arbeit wird das Verhalten von Kohlenstofffaser-, Glasfaser- und deren Hybridprofilen mit einem Querschnitt von exemplarisch 10 mm x 10 mm unter den Hauptbelastungsarten betrachtet. Hierfür werden die Profile mechanisch charakterisiert und die Übertragbarkeit der Eigenschaften auf reale Bauteile am Beispiel des Windlaufs einer Fahrzeugkarosserie simulativ und experimentell überprüft. Zudem wird eine Materialauswahl, unter Nutzung von Optimierungsalgorithmen, in den Auslegungsworkflow der Skelettbauweise integriert. Diese werden zur Minimierung der Materialkosten bei Einhaltung der mechanischen Randbedingungen genutzt.:1 Einleitung und Motivation 2 Stand der Technik und Wissenschaft 3 Zielsetzung und Vorgehensweise 4 Betrachtete Materialien 5 Charakterisierung endlosfaserverstärkter Thermoplastprofile 6 Bauteilauswahl und -optimierung 7 Experimentelle Validierung der Optimierung am Beispiel des Windlaufs 8 Zusammenfassung und Ausblick / The so called „Skeleton Design“ was developed within the research project MAI Skelett. It showed the potential of continuous fiber reinforced thermoplastic materials. In order to exploit the total economic potential of this hybrid design, the parallel usage of different reinforcement fibers must be investigated. In this thesis the mechanical behavior of carbon, glass and hybrid fiber reinforced profiles with a cross-section of exemplary 10 mm x 10 mm under the main loading conditions are examined. These mechanical properties are investigated regarding their potential to be transferred to real parts using experimental testing and simulation. In order to identify suitable parts within the automotive body in white structure a valuation method is developed for objective selection of expedient parts using the load exposure and function of the single part within the whole body in white structure. Furthermore, a material selection method is integrated into the design process of parts in „Skeleton Design“. Therefore, optimization algorithms are used in order to minimize the material costs under mechanical boundary conditions.:1 Einleitung und Motivation 2 Stand der Technik und Wissenschaft 3 Zielsetzung und Vorgehensweise 4 Betrachtete Materialien 5 Charakterisierung endlosfaserverstärkter Thermoplastprofile 6 Bauteilauswahl und -optimierung 7 Experimentelle Validierung der Optimierung am Beispiel des Windlaufs 8 Zusammenfassung und Ausblick
124

Systematische Bauwerksanalyse mittels ZfP-Verfahren mit anschließenden Belastungsversuchen im Alten Polizeipräsidium in Frankfurt a. M.

Fischer, Markus, Hahn, Gunter, Löhr, Martin, Peseke, Horst 08 November 2023 (has links)
Das 1911–1914 errichtete Neue Königliche Polizeipräsidium am Hohenzollernplatz wurde 1944 teilweise zerstört, wiederaufgebaut und über die fast 110-jährige Lebensdauer immer wieder verändert. Im Zuge der geplanten Revitalisierung des heutigen Kulturdenkmals sind unter anderem Eingriffe in die bestehende Tragkonstruktion vorgesehen, welche zu Änderungen der statischen Systeme sowie des Lastabtrags und der Lastweitergabe führen. In diesem Beitrag werden die Aspekte der systematischen Strukturanalyse am Objekt für eine experimentelle Tragwerksbeurteilung erläutert. Durch Voruntersuchungen mithilfe verschiedener Prüfverfahren wurden Deckentypen, deren Spannrichtungen, Aufbauten und deren Verteilung innerhalb des Gebäudes festgestellt. Anschließend wurden, unter Betrachtung der Schnittgrößenänderung aus den geplanten Eingriffen in die bestehende Deckensysteme, experimentelle Tragsicherheitsbewertungen durchgeführt.
125

Search for eV-scale sterile neutrinos with IceCube DeepCore

Trettin, Alexander 18 January 2024 (has links)
Neutrinooszillationen sind das einzige Phänomen jenseits des Standardmodells, das experimentell mit hoher statistischer Signifikanz bestätigt wurde. Diese Arbeit präsentiert eine Messung der atmosphärischen Neutrinooszillationen unter Verwendung von acht Jahren an Daten, die zwischen 2011 und 2019 vom IceCube DeepCore-Detektor aufgenommen wurden. Die Ereignisauswahl wurde im Vergleich zu früheren DeepCore-Messungen verbessert, wobei ein besonderes Augenmerk auf ihre Robustheit gegenüber systematischen Unsicherheiten in den Detektoreigenschaften gelegt wurde. Die Oszillationsparameter werden über eine Maximum-Likelihood-Fit an gebinnte Daten in der gemessenen Energie und Zenitwinkel geschätzt, wobei die Erwartungswerte aus gewichteten simulierten Ereignissen abgeleitet werdem. Diese Arbeit diskutiert den Simulations- und Datenauswahlprozess sowie die statistischen Methoden, die verwendet werden, um einen genauen Erwartungswert unter variablen Detektoreigenschaften und anderen systematischen Unsicherheiten zu liefern. Die Messung wird zunächst unter Verwendung des Standardmodells der Drei-Flavor-Oszillation durchgeführt, wobei das atmosphärische Massensplitting und der Mischwinkel auf $\Delta m^2_{32} = 2.42_{-0.75}^{+0.77} \times10^{-3};\mathrm{eV}^2$ und $\sin^2\theta_{23} = 0.507_{-0.053}^{+0.050}$ geschätzt werden. Das Drei-Flavor-Modell wird dann um einen zusätzlichen Masseneigenzustand erweitert, der einem sterilen Neutrino mit Massensplitting $\Delta m^2_{41} = 1;\mathrm{eV}^2$ entspricht und mit den aktiven $\nu_\mu$- und $\nu_\tau$-Flavorzuständen mischen kann. Es wird kein signifikantes Signal eines sterilen Neutrinos beobachtet, und die Mischungsamplituden zwischen den sterilen und aktiven Zuständen werden auf $|U_{\mu 4}|^2 < 0.0534$ und $|U_{\tau 4}|^2 < 0.0574$ bei 90\% C.L. begrenzt. Diese Grenzwerte sind um den Faktor zwei bis drei strenger als das vorherige DeepCore-Ergebnis, und die Einschränkung von $|U_{\tau 4}|^2$ ist die stärkste der Welt. / Neutrino oscillations are the only phenomenon beyond the Standard Model that has been confirmed experimentally to a very high statistical significance. This work presents a measurement of atmospheric neutrino oscillations using eight years of data taken by the IceCube DeepCore detector between 2011 and 2019. The event selection has been improved over that used in previous DeepCore measurements with a particular emphasis on its robustness with respect to systematic uncertainties in the detector properties. The oscillation parameters are estimated via a maximum likelihood fit to binned data in the observed energy and zenith angle, where the expectation is derived from weighted simulated events. This work discusses the simulation and data selection process, as well as the statistical methods employed to give an accurate expectation value under variable detector properties and other systematic uncertainties. The measurement is first performed first under the standard three-flavor oscillation model, where the atmospheric mass splitting and mixing angle are estimated to be $\Delta m^2_{32} = 2.42_{-0.75}^{+0.77} \times10^{-3}\;\mathrm{eV}^2$ and $\sin^2\theta_{23} = 0.507_{-0.053}^{+0.050}$, respectively. The three-flavor model is then extended by an additional mass eigenstate corresponding to a sterile neutrino with mass splitting $\Delta m^2_{41} = 1\;\mathrm{eV}^2$ that can mix with the active $\nu_\mu$ and $\nu_\tau$ flavor states. No significant signal of a sterile neutrino is observed and the mixing amplitudes between the sterile and active states are constrained to $|U_{\mu 4}|^2 < 0.0534$ and $|U_{\tau 4}|^2 < 0.0574$ at 90\% C.L. These limits are more stringent than the previous DeepCore result by a factor between two and three and the constraint on $|U_{\tau 4}|^2$ is the strongest in the world.
126

Experimental Analysis and Improved Modelling of Disperse Two-Phase Flows in Complex Geometries

Taş, Sibel 28 February 2023 (has links)
Gas-liquid two-phase flows are encountered in different industrial applications such as, chemical reactors, wastewater treatment, oil and gas exploration and nuclear reactors. In nuclear reactors, boiling two-phase flows occur under both normal and accident conditions. For the design and safety operation of nuclear reactors, Computational Fluid Dynamics (CFD) based on the Euler−Euler framework has become a popular tool. However, accurate CFD prediction for a fuel assembly geometry is still a challenge. The reason is that the accuracy of two-phase flow simulations is highly dependent on adequate modelling of phase interactions including interfacial forces (i.e. drag, lift, wall lubrication, turbulent dispersion and virtual mass), bubble-induced turbulence (BIT) and bubble breakup/coalescence. Through the Euler−Euler framework, modelling of these phase interactions is provided by different approaches. These approaches include closure equations, most of which have been determined empirically. These closures are important for the accurate prediction of mean flow profiles, including void fraction and phase velocity distributions. A variety of closure models has been proposed by different researchers. However, it is difficult to differentiate them and make an appropriate choice for a particular problem without knowing their predictive properties in detail. While an extensive number of models have been developed and have meanwhile been well validated for simple pipe and column geometries, there is yet limited analysis and qualification for more complex three-dimensional flow domains. One reason for this is the lack of suitable experimental validation data. In addition, it is important to mention that most of the available models were generally obtained considering laminar or low turbulence conditions. Therefore, it is necessary to further investigate the modelling capabilities for two-phase flows with flow complexity/high turbulence as they occur in nuclear reactors. For this purpose, additional validations are required in the CFD modelling of two-phase flows. However, studies on the capabilities of two-phase flow models directly for rod bundles are very complicated and time-consuming. Hence, a capability analysis of the models for the three main phenomena, i.e. breakup/coalescence, drag and turbulence, was first carried out for the case of a semi-obstructed pipe under adiabatic flow conditions. The results were validated using the experimental data obtained by Neumann-Kipping (2022) on the void fraction, mean bubble diameter, bubble size distribution, liquid velocity and gas velocity for two different turbulence conditions. Subsequently, experiments were conducted in a 3 x 3 rod bundle with a spacer and vanes using X-ray computed tomography (CT), which provides high quality void data without disturbing the flow. The effects of different mass and heat fluxes on the void fraction and its distribution downstream of the spacer were analyzed. In addition, the effects of different vane angles on the distribution of the void fraction were discussed. Furthermore, an experimental database was obtained in a rod bundle with a spacer under different flow conditions to validate the numerical modelling. Finally, the improved CFD model obtained from the semi-obstructed pipe geometry was applied to the 3 x 3 rod bundle geometry under two different turbulence conditions. The numerical results were compared with the X-ray CT data on the void fraction. / Gas-Flüssig-Zweiphasenströmungen kommen in verschiedenen industriellen Anwendungen wie Blasensäulen, Rührkesseln und Kernreaktoren vor. In Kernreaktoren treten siedende Zweiphasenströmungen sowohl unter Normal- als auch unter Störfallbedingungen auf. Für die Auslegung und den sicheren Betrieb von Kernreaktoren ist die numerische Strömungsmechanik (engl. Computational Fluid Dynamics, CFD) auf der Grundlage des Euler−Euler-Konzepts zu einem wichtigen Instrument geworden. Eine genaue CFD-Vorhersage für eine Brennelementgeometrie ist jedoch nach wie vor eine Herausforderung. Der Grund dafür ist, dass die Genauigkeit von Zweiphasenströmungssimulationen in hohem Maße von einer genauen Modellierung der Phasenwechselwirkungen abhängt, einschließlich der Grenzflächenkräfte (d. h. Widerstand, Lift, Wand, turbulente Dispersion und virtuelle Masse), der blaseninduzierten Turbulenz (BIT) und des Aufbrechens/Koaleszierens von Blasen. Durch den Euler−Euler-Rahmen wird die Modellierung dieser Phasenwechselwirkungen durch verschiedene Ansätze ermöglicht. Zu diesen Ansätzen gehören Schließungsgleichungen, von denen die meisten empirisch ermittelt wurden. Diese Schließungsgleichungen sind wichtig für die genaue Vorhersage von mittleren Strömungsprofilen, einschließlich Gasgehalt und Phasengeschwindigkeitsverteilungen. Es gibt eine Vielzahl von Schließungsmodellen, die von verschiedenen Forschern innerhalb ihrer experimentellen Bereiche vorgeschlagen wurden. Es ist jedoch schwierig, sie zu unterscheiden und eine geeignete Wahl für ein bestimmtes Problem zu treffen, ohne ihre Vorhersageeigenschaften im Detail zu kennen. Während für einfache Rohr- und Säulengeometrien eine große Anzahl von Modellen entwickelt und inzwischen gut validiert wurde, gibt es für komplexere dreidimensionale Strömungsgebiete noch wenig Analyse und Qualifizierung. Ein Grund dafür ist der Mangel an geeigneten experimentellen Validierungsdaten. Darüber hinaus ist es wichtig zu erwähnen, dass die meisten der verfügbaren Modelle im Allgemeinen unter laminaren oder geringen Turbulenzbedingungen erstellt wurden. Daher ist es notwendig, die Modellierungsmöglichkeiten für Zweiphasenströmungen mit komplexer Strömung/hoher Turbulenz, wie sie in Kernreaktoren auftreten, weiter zu untersuchen. Zu diesem Zweck sind zusätzliche Validierungen bei der CFD-Modellierung von Zweiphasenströmungen erforderlich. Untersuchungen zur Leistungsfähigkeit von Zweiphasenströmungsmodellen direkt für Stabbündel sind jedoch sehr kompliziert und zeitaufwändig. Daher wurde zunächst eine Fähigkeitsanalyse der Modelle für die drei Hauptphänomene, d. h. Aufbrechen/Koaleszenz, Widerstand und Turbulenz, für den Fall eines halbgeschlossenen Rohrs unter adiabatischen Strömungsbedingungen durchgeführt. Die Ergebnisse wurden anhand der von Neumann-Kipping (2022) gewonnenen experimentellen Daten über den Gasgehalt, den mittleren Blasendurchmesser, die Blasengrößenverteilung, die Flüssigkeitsgeschwindigkeit und die Gasgeschwindigkeit für zwei verschiedene Turbulenzbedingungen validiert. Anschließend wurden Experimente in einem 3 x 3-Stabbündel mit einem Abstandshalter und Fahnen unter Verwendung der Röntgen-Computertomographie (CT) durchgeführt, die qualitativ hochwertige Gasgehaltdaten liefert, ohne die Strömung zu stören. Die Auswirkungen unterschiedlicher Massen- und Wärmeströme auf den Gasgehalt und seine Verteilung stromabwärts des Abstandshalters wurden analysiert. Außerdem wurden die Auswirkungen verschiedener Fahnenwinkel auf die Verteilung des Gasgehaltes diskutiert. Darüber hinaus wurde eine experimentelle Datenbasis in einem Stabbündel mit einem Abstandshalter unter verschiedenen Strömungsbedingungen gewonnen, um die numerische Modellierung zu validieren. Schließlich wurde das verbesserte CFD-Modell, das aus der halbgeschlossenen Rohrgeometrie gewonnen wurde, auf die 3 x 3 Stabbündelgeometrie bei zwei verschiedenen Turbulenzbedingungen angewendet. Die numerischen Ergebnisse wurden mit den Röntgen-CT-Daten für den Gasgehalt verglichen.
127

Zur Bestimmung der Messunsicherheit bei der experimentellen Spannungsanalyse mittels Metallfoliendehnungsmessstreifen

Otto, Patrick 20 December 2022 (has links)
Die vorliegende Dissertation befasst sich mit der Bestimmung der Messunsicherheit bei der experimentellen Spannungsanalyse mittels Metallfoliendehnungsmessstreifen. Trotz langjähriger Verfügbarkeit von Dehnungsmessstreifen und den Kenntnissen über deren Wirkungsmechanismen, inklusive der damit verbundenen Abweichungen, existieren nur wenige Betrachtungen hinsichtlich der Messunsicherheit. Vor allem die große Anzahl möglicher Einflüsse und die daraus resultierenden systematischen Abweichungen, in Kombination mit einer fehlenden Möglichkeit zur Kalibrierung, stellen eine Herausforderung und meist einen hohen Aufwand dar. Diese komplexe Ausgangssituation wird anhand theoretischer und praktischer Untersuchungen analysiert und bewertet. Dabei wird das Ziel verfolgt, eine möglichst große Menge von Messaufgaben abzudecken, ohne zugleich eine übermäßig große Messunsicherheit hinnehmen zu müssen. Nach einer umfassenden Darstellung verschiedener Abweichungen werden zunächst die Einflüsse systematisiert. Darauf aufbauend werden Randbedingungen für häufig auftretende Messaufgaben abgeleitet und als Standardszenario zusammengefasst. Im anschließenden Abschnitt werden alle Einflüsse, die im Rahmen der Arbeit nicht empirisch untersucht werden können, mit Hilfe der Randbedingungen theoretisch betrachtet. Einen wesentlichen Anteil an der resultierenden Messunsicherheit besitzen dabei die Ermüdungserscheinungen und die Rückwirkung. Relevant, jedoch von untergeordneter Bedeutung, sind die Hysterese, das Kriechen und die Querempfindlichkeit. Im empirischen Teil wird ein modifizierter Versuchsstand zur Bestimmung des k-Faktors dargestellt, mit dem zeitgleich bis zu 36 Dehnungsmessstreifen untersucht werden können. Einen Schwerpunkt dabei bildet die Mechanik des verwendeten breiten Biegebalkens. Die Auswertung zeigt, dass die Richtungsabweichung der 72 untersuchten Dehnungsmessstreifen weniger als 1° beträgt. Die Messunsicherheit bezüglich des Nullpunktes bei der Dehnungsmessung resultiert vor allem aus der temperaturbedingten Scheindehnung. Deren Korrektur mit dem Polynom laut Datenblatt ist aufgrund der Unsicherheit der thermischen Ausdehnungskoeffizienten im Temperaturbereich von 0-30 °C von geringer Wirkung. Bei Langzeitmessungen ab etwa 30-50 Tagen ist trotz Abdeckung mit Polyurethan-Lack zudem die feuchtigkeitsspezifische Nullpunktdrift von Bedeutung. Die Empfindlichkeit der Dehnungsmessung wird durch die losspezifische Streuung des k-Faktors dominiert und ist nicht zeitabhängig. Abschließend werden alle untersuchten Einflüsse zusammengefasst und verglichen. Dadurch wird offensichtlich, dass durch gezielte Einschränkung der zulässigen Lastwechselzahl und der mechanischen Eigenschaften des Messobjektes im Standardszenario die Messunsicherheit um 23 % reduzierbar ist. Zusätzlich wird die Anpassung der Randbedingungen an eine Langzeitmessung mit erweitertem Temperaturbereich demonstriert.:1 Einleitung 1.1 Motivation und Zielstellung 1.1.1 Motivation 1.1.2 Zielstellung und Abgrenzung der Arbeit 1.2 Verfahrensweise und Aufbau der Arbeit 2 Grundlagen 2.1 Abschätzung der Messunsicherheit 2.1.1 Systematik der Messabweichungen 2.1.2 Grundlagen der Messunsicherheit 2.1.3 Messunsicherheit nach GUM und GUM S1 2.1.4 Messaufgabenspezifische Messunsicherheit 2.2 Metallfolien-DMS 2.2.1 Messprinzip 2.2.2 Ursachen für Messabweichungen 2.2.3 Maßnahmen zur Reduzierung von Abweichungen 2.3 Statistische Methoden 2.3.1 Design of Experiments (DoE) 2.3.2 Statistische Methoden zur Versuchsauswertung 3 Entwurf eines Standardszenarios 3.1 Definition des Standardszenarios 3.2 Randbedingungen für das Standardszenario 3.2.1 Mensch 3.2.2 Messmittel 3.2.3 Versuchsdurchführung 3.2.4 Messobjekt 3.2.5 Umgebungsbedingungen 3.3 Ursachen und Effekte im Standardszenario 3.3.1 Applikation 3.3.2 Messmittel 3.3.3 Versuch 3.3.4 Umgebung 3.4 Angewandte Methoden zur Reduzierung von Abweichungen 3.4.1 Kompensationsverfahren 3.4.2 Korrektion von Abweichungen 4 Theoretische Betrachtung der Messunsicherheiten 4.1 Vorgehensweise bei der Abschätzung der Messunsicherheit 4.2 Messmittel 4.2.1 Messverstärker 4.2.2 Rauschen 4.3 Versuch 4.3.1 Querdehnungsempfindlichkeit 4.3.2 Ermüdungsverhalten 4.3.3 Hysterese 4.3.4 Kriechen 4.3.5 Rückwirkung 4.3.6 Linearität 4.4 Umgebungseinflüsse 4.4.1 Thermospannung 4.4.2 Thermische Drift 5 Empirische Untersuchung zur Messunsicherheit 5.1 Versuchsplanung 5.1.1 Versuchsbeschreibung 5.1.2 Versuchsmaterial und Personal 5.1.3 Versuchsplan 5.1.4 Versuchsablauf 5.2 Versuchsaufbau zur Bestimmung des k-Faktors 5.2.1 Theoretische Grundlagen zum Versuch 5.2.2 Probenmechanik des breiten Biegebalkens 5.2.3 Praktische Umsetzung der 4-Punkt-Biegung 5.3 Langzeitversuch 5.3.1 Versuchsaufbau und Datenerfassung 5.3.2 Umgebungsbedingungen 5.4 Auswertung der Versuche 5.4.1 Richtungsabweichung 5.4.2 Grundwiderstand 5.4.3 Nullpunkt 5.4.4 k-Faktor 6 Messunsicherheit für das Standardszenario und Zusammenfassung 6.1 Zusammenfassung des Standardszenarios 6.1.1 Messunsicherheit Standardszenario 6.1.2 Anpassung des Standardszenarios 6.2 Zusammenfassung und Ausblick 6.2.1 Zusammenfassung 6.2.2 Ausblick Literaturverzeichnis Anhang A Nichtlinearität der Wheatstoneschen Messbrücke B Tabellen zum Standardszenario C Herleitungen zur theoretischen Abschätzung D Bestimmung der Materialkennwerte E Daten der einzelnen Messstellen des Versuchs F Ergänzungen zum Versuch G Ergänzungen zur Auswertung des Versuchs / This thesis deals with the determination of the measurement uncertainty in experimental stressanalysis using metal foil strain gauges. Despite the availability of strain gauges for many years and the knowledge of their mechanisms of action, including the associated errors, only a few considerations exist with regard to the measurement uncertainty. Particulary the large number of possible influences and the resulting systematic errors, in combination with a lack of possibility for calibration, represent a challenge and usually a high expense. This complex initial situation is analysed and evaluated on the basis of theoretical and practical investigations. The aim is to cover as many measurement tasks as possible without having to accept an excessively high measurement uncertainty at the same time. After a comprehensive presentation of various errors, the influences are first systematized. Based on this, boundary conditions for frequently occurring measurement tasks are derived and summarized as a standard scenario. In the following section, all influences that cannot be investigated empirically within the scope of the work are considered theoretically with the help of the boundary conditions. The fatigue damage and the reinforcement effect have a significant share in the resulting measurement uncertainty. Relevant, but of secondary importance, are hysteresis, creep and transverse sensitivity. In the empirical part, a modified test rig for determining the k-factor is presented, with which up to 36 strain gauges can be measured simultaneously. One focus is on the mechanics of the wide bending beam used. The evaluation shows that the error due to misalignment of the 72 examined strain gauges is less than 1°. The measurement uncertainty with regard to the zero-point in the strain measurement results primarily from the thermal output of the strain gauge. Its correction with the polynomial according to the data sheet is of little effect due to the uncertainty of the thermal expansion coefficients in the temperature range of 0-30 °C. In the case of long-term measurements from about 30-50 days, the moisture-specific zero-point drift is also significant despite covering in polyurethane lacquer. The sensitivity of the strain measurement is dominated by the batch-specific scatter of the k-factor and is not time-dependent. Finally, all examined influences are summarised and compared. This illustrates that the measurement uncertainty can be reduced by 23 % in the standard scenario by specifically limiting the permissible number of load cycles and mechanical properties of the test object. In addition, the adaptation of the boundary conditions to a long-term measurement with extended temperature range is demonstrated.:1 Einleitung 1.1 Motivation und Zielstellung 1.1.1 Motivation 1.1.2 Zielstellung und Abgrenzung der Arbeit 1.2 Verfahrensweise und Aufbau der Arbeit 2 Grundlagen 2.1 Abschätzung der Messunsicherheit 2.1.1 Systematik der Messabweichungen 2.1.2 Grundlagen der Messunsicherheit 2.1.3 Messunsicherheit nach GUM und GUM S1 2.1.4 Messaufgabenspezifische Messunsicherheit 2.2 Metallfolien-DMS 2.2.1 Messprinzip 2.2.2 Ursachen für Messabweichungen 2.2.3 Maßnahmen zur Reduzierung von Abweichungen 2.3 Statistische Methoden 2.3.1 Design of Experiments (DoE) 2.3.2 Statistische Methoden zur Versuchsauswertung 3 Entwurf eines Standardszenarios 3.1 Definition des Standardszenarios 3.2 Randbedingungen für das Standardszenario 3.2.1 Mensch 3.2.2 Messmittel 3.2.3 Versuchsdurchführung 3.2.4 Messobjekt 3.2.5 Umgebungsbedingungen 3.3 Ursachen und Effekte im Standardszenario 3.3.1 Applikation 3.3.2 Messmittel 3.3.3 Versuch 3.3.4 Umgebung 3.4 Angewandte Methoden zur Reduzierung von Abweichungen 3.4.1 Kompensationsverfahren 3.4.2 Korrektion von Abweichungen 4 Theoretische Betrachtung der Messunsicherheiten 4.1 Vorgehensweise bei der Abschätzung der Messunsicherheit 4.2 Messmittel 4.2.1 Messverstärker 4.2.2 Rauschen 4.3 Versuch 4.3.1 Querdehnungsempfindlichkeit 4.3.2 Ermüdungsverhalten 4.3.3 Hysterese 4.3.4 Kriechen 4.3.5 Rückwirkung 4.3.6 Linearität 4.4 Umgebungseinflüsse 4.4.1 Thermospannung 4.4.2 Thermische Drift 5 Empirische Untersuchung zur Messunsicherheit 5.1 Versuchsplanung 5.1.1 Versuchsbeschreibung 5.1.2 Versuchsmaterial und Personal 5.1.3 Versuchsplan 5.1.4 Versuchsablauf 5.2 Versuchsaufbau zur Bestimmung des k-Faktors 5.2.1 Theoretische Grundlagen zum Versuch 5.2.2 Probenmechanik des breiten Biegebalkens 5.2.3 Praktische Umsetzung der 4-Punkt-Biegung 5.3 Langzeitversuch 5.3.1 Versuchsaufbau und Datenerfassung 5.3.2 Umgebungsbedingungen 5.4 Auswertung der Versuche 5.4.1 Richtungsabweichung 5.4.2 Grundwiderstand 5.4.3 Nullpunkt 5.4.4 k-Faktor 6 Messunsicherheit für das Standardszenario und Zusammenfassung 6.1 Zusammenfassung des Standardszenarios 6.1.1 Messunsicherheit Standardszenario 6.1.2 Anpassung des Standardszenarios 6.2 Zusammenfassung und Ausblick 6.2.1 Zusammenfassung 6.2.2 Ausblick Literaturverzeichnis Anhang A Nichtlinearität der Wheatstoneschen Messbrücke B Tabellen zum Standardszenario C Herleitungen zur theoretischen Abschätzung D Bestimmung der Materialkennwerte E Daten der einzelnen Messstellen des Versuchs F Ergänzungen zum Versuch G Ergänzungen zur Auswertung des Versuchs
128

Make Larger Vector Register Sizes New Challenges?: Lessons Learned from the Area of Vectorized Lightweight Compression Algorithms

Habich, Dirk, Damme, Patrick, Ungethüm, Annett, Lehner, Wolfgang 15 September 2022 (has links)
The exploitation of data as well as hardware properties is a core aspect for efficient data management. This holds in particular for the field of in-memory data processing. Aside from increasing main memory capacities, in-memory data processing also benefits from novel processing concepts based on lightweight compressed data. To speed up compression as well as decompression, an active research field deals with the specialization of these algorithms to hardware features such as vectorization using SIMD instructions. Most of the vectorized implementations have been proposed for 128 bit vector registers. However, hardware vendors still increase the vector register sizes, whereby a straightforward transformation to these wider vector sizes is possible in most-cases. Thus, we systematically investigated the impact of different SIMD instruction set extensions with wider vector sizes on the behavior of straightforward transformed implementations. In this paper, we will describe our evaluation methodology and present selective results of our exhaustive evaluation. In particular, we will highlight some challenges and present first approaches to tackle them.
129

Narrative persuasion, signaling motives, and entitlement / Behavioral economic essays on communication

Fries, Tilman 21 March 2024 (has links)
Kapitel 1: Narrative persuasion (mit Kai Barron) Anhand eines Experiments untersuchen wir die Verwendung von Narrativen in einem Kontext in dem Sender:innen möglicherweise andere Anreize haben als Empfänger:innen. Unsere Ergebnisse zeigen, dass Sender:innen eigennützige Narrative konstruieren und sie auf objektive Informationen zuschneiden. Desweiteren finden wir, dass Sender:innen in der Lage sind, die Erwartungen von Empfänger:innen zu verändern. Drittens ermitteln wir, dass Empfänger:innen Narrative überzeugend finden, die gut zu den objektiven Informationen passen. Schließlich stellen wir fest, dass es schwierig ist, gegen narratives Überreden zu schützen. Kapitel 2: Signaling motives in lying games Dieses Kapitel untersucht ein Lügenspiel, in dem Agent:innen ihren moralischen Typ signalisieren. In der theoretischen Analyse zeigt sich ein Signalisierungsmotiv, bei dem es den Agent:innen missfällt, der Lüge verdächtigt zu werden, und bei dem einige Lügen stärker stigmatisiert werden als andere. Die Gleichgewichtsvorhersage des Modells kann experimentelle Daten aus früheren Studien erklären. Ich verdeutliche die Beziehung des untersuchten Modells zu Modellen in denen Agent:innen eine Abneigung haben, des Lügens verdächtigt zu werden und biete Anwendungen auf Narrative, Lernen und das Offenlegen von Lügen. Kapitel 3: Because I don't deserve it: Entitlement and lying (mit Daniel Parra) Wir untersuchen die Auswirkungen von Anspruchsdenken auf die Bereitschaft zu lügen. In einem Laborexperiment erhalten Teilnehmer:innen entweder ein hohes oder niedriges Einkommen. Das Einkommen wird entweder leistungsabhängig oder unabhängig gezahlt. Die Ergebnisse zeigen folgendes: Unter Teilnehmer:innen die ein leistungsabhängiges Einkommen erhalten haben, lügen diejenigen, die weniger Geld verdient haben, weniger als diejenigen, die mehr verdient haben. Wir finden keine Unterschiede bei denjenigen die lügen können, um leistungsunabhängiges Einkommen zu behalten. / Chapter 1: Narrative persuasion (with Kai Barron) Using an experiment, we examine the use of narratives as a persuasive tool in a context where senders may hold incentives that differ from those of receivers. Our results reveal several insights about the underlying mechanisms that govern narrative persuasion. First, we show that advisors construct self-interested narratives and make them persuasive by tailoring them to fit the objective information. Second, we demonstrate that advisors can shift investors' beliefs about the future performance of a company. Third, we identify the types of narratives that investors find convincing. Finally, we find that narrative persuasion is difficult to protect against. Chapter 2: Signaling motives in lying games This chapter studies the implications of agents signaling their moral type in a lying game. In the theoretical analysis, a signaling motive emerges where agents dislike being suspected of lying and where some lies are more stigmatized than others. The equilibrium prediction of the model can explain experimental data from previous studies, on partial lying, where individuals lie to gain a non-payoff-maximizing amount. I discuss the relationship with theoretical models of lying that conceptualize the image concern as an aversion to being suspected of lying and provide applications to narratives, learning, and the disclosure of lies. Chapter 3: Because I don't deserve it: Entitlement and lying (with Daniel Parra) We study the effect of entitlement on the willingness to lie. In a laboratory experiment, participants receive either a high or low endowment. In one treatment, the allocation depends on participants' performance, and in the other, it depends on random draw. Our study shows that entitlement influences lying in an intuitive direction: when performance determines income, those who earn less money lie less than those who earn more. We do not find differences in lying when participants lie to keep windfall endowments.
130

Strategische Interaktion realer Agenten: ganzheitliche Konzeptualisierung und Softwarekomponenten einer interdisziplinären Forschungsinfrastruktur

Tagiew, Rustam 11 February 2011 (has links)
Zum Verständnis menschlichen sozialen, administrativen und wirtschaftlichen Verhaltens, das als Spiel bzw. strategische Interaktion aufgefasst werden kann, reichen die rein analytischen Methoden nicht aus. Es ist nötig, Daten menschlichen strategischen Verhaltens zu sammeln. Basierend auf Daten lässt sich solches Verhalten modellieren, simulieren bzw. vorhersagen. Der theoretische Teil der Zielsetzung wird über praxisorientierte Konzeptualisierung strategischer Interaktion realer Agenten - Menschen und Maschinen - und gegenseitige Integration der Konzepte aus Spieltheorie und Multiagentensysteme erreicht, die über die bisherigen Ansätze hinausgehen. Der praktische Teil besteht darin, ein allgemein verwendbares System zu entwerfen, das strategische Interaktionen zwischen realen Agenten mit maximalen wissenschaftlichen Nutzen durchführen kann. Die tatsächliche Implementation ist eines der Ergebnisse der Arbeit. Ähnliche vorhandene Systeme sind GDL-Server (für Maschinen) [Genesereth u.a., 2005] und z-Tree (für Menschen) [Fischbacher, 2007]. Die Arbeit ist in drei Bereiche unterteilt - (1) Entwicklung von Sprachen für die Beschreibung eines Spiels, (2) ein auf diesen Sprachen basierendes Softwaresystem und (3) eine Offline-Analyse der u.a. mit dem System bereits gesammelten Daten als Beitrag zur Möglichkeiten der Verhaltensbeschreibung. Die Innovation dieser Arbeit besteht nicht nur darin ,einzelne Bereiche mit einander zu kombinieren, sondern auch Fortschritte auf jedem Bereich für sich allein zu erreichen. Im Bereich der Spielbeschreibungssprachen, werden zwei Sprachen - PNSI und SIDL - vorgeschlagen, die beide Spiele bei imperfekter Information in diskreter Zeit definieren können. Dies ist ein Fortschritt gegenüber der bisherigen Sprachen wie Gala und GDL. Speziell die auf Petrinetzen basierende Sprache PNSI kann gleichermaßen für Gameserver und für spieltheoretische Algorithmen von z.B. GAMBIT verwendet werden. Das entwickelte System FRAMASI basiert auf JADE [Bellifemine u.a., 2001] und ist den bisherigen Client-Server-Lösungen durch Vorteile der Multiagentensysteme voraus. Mit dem entstandenen System wurde bereits ein Experiment entsprechend den Standards der experimentellen Spieltheorie durchgeführt und somit die Praxistauglichkeit nachgewiesen. Das Experiment hatte als Ziel, Daten zur menschlichen Unvorhersagbarkeit und zur Vorhersagefähigkeit anderer zu liefen. Dafür wurden Varianten von \"Knobeln\" verwendet. Die Daten dieses Experiments sowie eines Experiments einer externen Arbeitsgruppe mit ähnlicher Motivation wurden mit Hilfe von Datamining analysiert. Dabei wurden die in der Literatur berichteten Gesetzmäßigkeiten des Verhaltens nachgewiesen und weitere Gesetzmäßigkeiten entdeckt.:Einführung Grundlagen Verwandte Arbeiten Sprachen für Spielbeschreibung Implementation der Spielinfrastruktur Beschreibung Strategischen Verhaltens Resümee Ergebnisse Ausblick / To understand human social, administrative and economic behavior, which can be considered as a game or strategic interaction, the purely analytical methods do not suffice. It is necessary to gather data of human strategic behavior. Based on data, one can model, simulate and predict such behavior. The theoretical part of the objective is achieved using a practice oriented conceptualization of the real agents\' - humans and machines - strategic interaction and mutual integration of the concepts from game theory and multi-agent systems, which go beyond the related work. The practical part is the design of an universally usable system that can perform the strategic interactions between real agents with maximum scientific benefit. The current implementation is one of the results of the work. Similar existing systems are GDL-server (for machines) [Genesereth et al., 2005] and z-Tree (for humans) [Fischbacher, 2007]. The work is divided in three fields - (1) development of languages for the description of a game, (2) a software system based on these languages and (3) an offline analysis of the data already gathered among other things using the system as a contribution to behavior definition facilities. The innovation of this work does not consist only in combining of the several fields to each other, but also in achieving of improvements in every field on its own. In the field of game definition languages, two languages are proposed - PNSI and SIDL, which both can define games of imperfect information in discrete time. It is an improvement comparing with hitherto languages as Gala and GDL. Especially, the Petri net based language PNSI can likewise be used for game servers and game theoretic algorithms like GAMBIT. The developed system FRAMASI is based on JADE [Bellifemine et al., 2001] and is ahead of the hitherto client-server solutions through the advantages of the multi-agent systems. Using the originated system, an experiment has been conducted according to the standards from the experimental game theory, and thus demonstrated the practicability. The experiment had the objective to provide data on the human unpredictability and the ability to predict others. Therefore, variants of Roshambo were used. The data from this experiment and from an experiment of an external workgroup with a similar motivation were analyzed using data mining. As results, the regularities of the behavior reported in literature have been demonstrated and further regularities have been discovered.:Einführung Grundlagen Verwandte Arbeiten Sprachen für Spielbeschreibung Implementation der Spielinfrastruktur Beschreibung Strategischen Verhaltens Resümee Ergebnisse Ausblick

Page generated in 0.1378 seconds