• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 802
  • 474
  • 212
  • 148
  • 88
  • 77
  • 70
  • 23
  • 16
  • 15
  • 13
  • 13
  • 13
  • 13
  • 13
  • Tagged with
  • 2243
  • 2243
  • 969
  • 659
  • 645
  • 442
  • 432
  • 409
  • 357
  • 335
  • 329
  • 328
  • 323
  • 317
  • 317
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
741

Synthesis and Characterization of New Aryl Phosphine Oxide and Ketone Containing Poly(arylene Sulfide Sulfone)s

Liu, Yongning 14 October 1998 (has links)
High molecular weight poly(phenylene sulfide sulfone) (PPSS) homo- and statistical copolymers have been reproducably synthesized using a known, but complex procedure utilizing 4,4'-dichlorodiphenyl sulfone (DCDPS), sodium hydrosulfide, sodium hydroxide, sodium acetate, and deionized water, in NMP at elevated reaction temperatures and pressure. The effect of these variations, e.g., reaction temperatures and times, molar ratios of H2O-to-NaSH, NMP-to-H2O, etc. were investigated. Optimized conditions were defined, which produced Tg as high as 222°C, very high refractive index (1.70), and tough/solvent resistant films could be prepared by melt fabrication. A two-stage decomposition mechanism in air was demonstrated by dynamic thermal gravimetric analysis. The melt stability of PPSS was improved by incorporating thermally stable endgroups, such as diphenyl sulfone, 4-chlorophenylphenyl sulfone, and t-butylphenoxide. The chemical structures of the endgroups were confirmed by 13C and 1H NMR spectra. Compared with mercaptide endcapped PPSS, the new systems showed higher initial degradation temperatures (2% and 5% weight loss), higher char yield at 650°C in air and a more stable melt viscosity at 300°C. A greatly simplified synthesis of both homo and copolymers has been successfully developed using the new A-A or A-B type thiol-functional monomers, such as bis-(4-mercaptophenyl) sulfone, 4-chloro-4'-mercaptodiphenyl sulfone and 4-chloro-4'-mercapto benzophenone, instead of sodium hydrosulfide. A series of high molecular weight triphenyl phosphine oxide and/or diphenyl ketone containing PPSS copolymers were subsequently synthesized from the bis-(4-mercaptophenyl) sulfone by reaction with 4,4'-dichlorodiphenyl sulfone, bis-(4-fluorophenyl) phenyl phosphine oxide, and 4,4'-difluorobenzophenone in DMAc in the presence of K2CO3 at 160°C. The new phosphine oxide containing PPSS copolymers were completely amorphous, showed improved solubility in common organic solvents and exhibited very high char yields in air at 750°C. Surface (XPS) analysis results suggested that the phosphorus moieties in the polymer backbone can form phosphate-like layers on the polymer surface which protects the inner materials from further decomposition in air at high temperatures. The diphenyl ketone containing PPSS copolymers showed very high char yields at 750°C in a nitrogen atmosphere, compared to sulfide sulfone homopolymer and phosphine oxide containing copolymers, possibly because of higher bond energies. Semi-crystalline poly(phenylene sulfide ketone) homopolymers and sulfone containing copolymers with sulfone/ketone mole ratio (S : K) < 25 : 75 were synthesized by a novel base catalyzed self-polycondensation of 4-chloro-4'-mercaptodiphenyl sulfone and/or 4-chloro-4'-mercapto benzophenone in N-cyclohexyl-2-pyrrolidinone (CHP) at 290°C. Amorphous copolymers with S : K ratios > 25 : 75 were prepared in DMAc at 160°C. These materials exhibited an increase in glass transition temperature with increasing sulfone content. TGA and micro cone calorimetry analyses showed that the semi-crystalline materials with high ketone content had much higher char yields and significantly lower heat release rate and total heat release, compared to the poly(phenylene sulfide sulfone) and poly(pheylene sulfide) controls. / Ph. D.
742

Design, Implementation, and Evaluation of a Sport-Focused Mental Health Service Delivery Model Within a Canadian Centre for Mental Health and Sport

Van Slingerland, Krista 06 October 2021 (has links)
The overall aim of this Participatory Action Research (PAR; Chevalier & Buckles, 2013; Lewin, 1946) project was to design, implement, and evaluate a specialized sport-focused mental health service delivery model for competitive and high-performance athletes, integrated within a broader Canadian Centre for Mental Health and Sport (CCMHS). A transformative mixed methods research design (Cresswell, 2014) guided by the PAR approach was employed across three phases during which (a) a sport-specific mental health service delivery model for competitive and high-performance athletes was collaboratively designed by stakeholders (Design Phase [Study 1]), (b) the model was pilot-tested within the CCMHS (Implementation Phase [Study 2]), and (c) the model was evaluated to understand whether practitioners and service-users perceived the care delivered / received within the model to be acceptable and appropriate (Evaluation Phase [Study 3]). Design Phase (Study 1). The purpose of study 1 was to (a) perform an environmental scan of the Canadian mental health care and sport contexts, and (b) design a sport-focused mental health service delivery model for competitive and high-performance athletes within a broader CCMHS. To meet these objectives, 20 stakeholders from the sport and mental health sectors explored (a) the availability and effectiveness of mental health care for competitive and high-performance Canadian athletes, and (b) the strengths, weaknesses, opportunities and threats associated with creating a CCMHS, via two iterations of stakeholder-led focus groups (Rio-Roberts, 2011). The resulting data informed a subsequent Group Concept Mapping (GCM; Burke et al., 2005; Kane & Trochim, 2007; Rosas & Kane, 2012) activity undertaken by stakeholders, which produced an actionable framework (i.e., concept map) organized into six clusters that visually represented the elements (e.g., services, personnel, organizational structures) that stakeholders deemed important to include in the sport-focused mental health care model (e.g., bilingual services, a triage system, sport-specialized practitioners). In addition, the results revealed that misconceptions about the competitive and high-performance population’s mental health and experience of mental illness were widespread and required clarification before significant advances could be made. This led the group to develop six principles designed to establish a common language and understanding upon which to build effective models of mental health care, improved programming, and strategic education for Canada’s competitive and high-performance athletes, coaches, and organizations (Article 1). The framework that emerged from the GCM activity served to guide the remainder of the project, and supported actions (e.g., develop eligibility criteria to access services, hire a team of mental health practitioners with sport competencies [i.e., CCMHS Care Team]) to build the CCMHS and test the model during the Implementation Phase (Article 2). Implementation Phase (Study 2). The purpose of study 2 was to pilot test the mental health service delivery model designed during the first phase of the research project. To do so, an illustrative case study (Keegan et al., 2017; Stake, 1995, 2005) was carried out to demonstrate how (i.e., intake, referral, and service delivery processes) the CCMHS Care Team provided mental health care to a high-performance athlete, and what outcomes resulted from this process. Data to inform the case study was gathered through a review of the service-user’s clinical documents (e.g., intake summary, session notes), and qualitative interviews (n = 2) with the athlete’s Collaborative Care Team lead and the CCMHS Care Coordinator. Document analysis (Bowen, 2009) was used to organize the details of the case found within clinical documents under the categories of the case study framework (i.e., intake and referral process, service-user description, integrated care plan, and outcomes), while a conventional descriptive content analysis (Hsieh & Shannon, 2005) served to extract salient data from the interviews to further build out the case study. Results revealed that sport significantly influenced the onset and experience of mental illness for the athlete service-user. The lead practitioner’s sport-specific knowledge played a significant role in the diagnosis, treatment and recovery of this athlete given the nature of the athlete’s concerns and high athletic identity. Findings support the notion that specialized mental health care models and teams are necessary to address sport-related factors that can pose unique threats to the diagnosis and treatment of mental illness in athletes (Article 3). Implementation Phase (Study 3). The purpose of study 3 was to evaluate the acceptability and appropriateness of the mental health service delivery model designed during Phase 1 and implemented during Phase 2. Qualitative data from three sources (CCMHS practitioners, CCMHS service-users, and CCMHS stakeholders) were collected and analyzed using a multi-step, multi-method process, including16 one-on-one semi-structured interviews with CCMHS practitioners (n = 10) and service-users (n = 6), and a meeting with CCMHS stakeholders (captured via meeting minutes). In addition, 47 documents (e.g., clinical, procedural) created during the implementation phase of the project by CCMHS team members (i.e., practitioners, stakeholders, members of the board of directors) were used to triangulate the other data (Carter, Bryant-Lukosius, DiCenso, Blythe, and Neville, 2014). The Framework Method (Gale et al., 2013; Ritchie and Spencer, 1994) was used to analyze, synthesize, integrate, and interpret the dataset. The deductive data analysis approach taken was guided by the seven components of acceptability developed by Sekhon and colleagues (2017), and the Canadian Medical Association’s definition of appropriate care. Findings showed that the care provided and received within the CCMHS service delivery model was perceived to be acceptable and appropriate, and each component of the model uniquely contributed to practitioner and service-user experiences. For example, the collaborative interdisciplinary approach contributed to the ethicality of the model, promoted the professional development of team members, and enabled Pan-Canadian service provision. The sport-centered nature of care was perceived to enhance the ethicality of services delivered, effectiveness of care, and affective experience of service-users. Implications for further research and practice were discussed in light of areas of the model that emerged as needing improvement (e.g., prohibitive cost of care, practitioner burden from collaborative processes and procedures). Overall, the findings of the research project demonstrate that collaborative approaches to inquiry and practice can be successfully applied in sport to guide stakeholders in developing and testing novel models to improve the health outcomes of sport participants. The research also shows that an interdisciplinary team of practitioners can successfully deliver sport-focused mental health care that is acceptable and appropriate to service-users. Lastly, the project provides data on the first known empirical project to design, implement and evaluate a specialized mental health service delivery model applied nationwide in person and virtually with competitive and high-performance athletes experiencing mental health challenges and symptoms of mental illness.
743

Popcorn Linux: enabling efficient inter-core communication in a Linux-based multikernel operating system

Shelton, Benjamin H. 31 May 2013 (has links)
As manufacturers introduce new machines with more cores, more NUMA-like architectures, and more tightly integrated heterogeneous processors, the traditional abstraction of a monolithic OS running on a SMP system is encountering new challenges.  One proposed path forward is the multikernel operating system.  Previous efforts have shown promising results both in scalability and in support for heterogeneity.  However, one effort\'s source code is not freely available (FOS), and the other effort is not self-hosting and does not support a majority of existing applications (Barrelfish). In this thesis, we present Popcorn, a Linux-based multikernel operating system.  While Popcorn was a group effort, the boot layer code and the memory partitioning code are the author\'s work, and we present them in detail here.  To our knowledge, we are the first to support multiple instances of the Linux kernel on a 64-bit x86 machine and to support more than 4 kernels running simultaneously. We demonstrate that existing subsystems within Linux can be leveraged to meet the design goals of a multikernel OS.  Taking this approach, we developed a fast inter-kernel network driver and messaging layer.  We demonstrate that the network driver can share a 1 Gbit/s link without degraded performance and that in combination with guest kernels, it meets or exceeds the performance of SMP Linux with an event-based web server.  We evaluate the messaging layer with microbenchmarks and conclude that it performs well given the limitations of current x86-64 hardware.  Finally, we use the messaging layer to provide live process migration between cores. / Master of Science
744

Study on Propulsive Characteristics of Magnetic Sail and Magneto Plasma Sail by Plasma Particle Simulations / 粒子シミュレーションによる磁気セイル・磁気プラズマセイルの推力特性に関する研究

Ashida, Yasumasa 23 January 2014 (has links)
京都大学 / 0048 / 新制・課程博士 / 博士(工学) / 甲第17984号 / 工博第3813号 / 新制||工||1584(附属図書館) / 80828 / 京都大学大学院工学研究科電気工学専攻 / (主査)教授 山川 宏, 教授 松尾 哲司, 准教授 中村 武恒 / 学位規則第4条第1項該当 / Doctor of Philosophy (Engineering) / Kyoto University / DFAM
745

Simulation Study on Enhancements of Energetic Heavy Ions in the Magnetosphere / 計算機シミュレーションによる磁気圏高エネルギー重イオン急増現象の解明

Nakayama, Yohei 23 January 2017 (has links)
京都大学 / 0048 / 新制・課程博士 / 博士(工学) / 甲第20089号 / 工博第4256号 / 新制||工||1659(附属図書館) / 33205 / 京都大学大学院工学研究科電気工学専攻 / (主査)教授 大村 善治, 教授 松尾 哲司, 准教授 小嶋 浩嗣 / 学位規則第4条第1項該当 / Doctor of Philosophy (Engineering) / Kyoto University / DFAM
746

Designing and Building Efficient HPC Cloud with Modern Networking Technologies on Heterogeneous HPC Clusters

Zhang, Jie, Zhang January 2018 (has links)
No description available.
747

Architecture-aware Algorithm Design of Sparse Tensor/Matrix Primitives for GPUs

Nisa, Israt 02 October 2019 (has links)
No description available.
748

Designing Fast, Resilient and Heterogeneity-Aware Key-Value Storage on Modern HPC Clusters

Shankar, Dipti 30 September 2019 (has links)
No description available.
749

Ein HPC-tauglicher Spektralelemente-Löser auf der Grundlage von statischer Kondensation und Mehrgittermethoden

Haupt, Lars 19 June 2019 (has links)
Arbeitstitel: Erweiterte mathematische Methoden zur Simulation von turbulenten Strömungsvorgängen auf parallelen Rechnern:Inhaltsverzeichnis 1 Einleitung 3 2 Numerische Simulation physikalischer Prozesse 6 2.1 Königsdisziplin - Turbulente Strömungssimulation 6 2.2 Vom mathematischen Modell zur numerischen Lösung 9 2.2.1 Räumliche und zeitliche Diskretisierung 9 2.2.2 Allgemeine Reduktion auf Poisson- und Helmholtz-Gleichungen 11 2.3 Anforderungen an effiziente Lösungsverfahren 12 3 Basiskomponenten des entwickelten Verfahrens 16 3.1 Spektralelemente-Methode 16 3.1.1 Grundlagen 17 3.1.2 Gewählte Ansatzfunktionen und Stützstellen 20 3.1.3 Struktur des linearen Operators 24 3.2 Statische Kondensation 25 3.3 Geometrisches Mehrgitterverfahren 26 4 Das Spektralelemente basierte Mehrgitterverfahren auf kondensierten Gittern 31 4.1 Stand der Forschung 31 4.2 Mehrgitterverfahren auf kondensierten Gittern 32 4.2.1 Konzeption wirkungsvoller Glätter 34 4.3 Nachweis optimaler Eigenschaften 41 4.3.1 Lineare Komplexität 41 4.3.2 Ausgezeichnete Konvergenzgeschwindigkeit 43 4.3.3 Robustheit gegenüber Gitterverfeinerung 46 5 Konzeption des parallelen Mehrgitterlösers 49 5.1 Parallelrechner und Leistungsbewertungskriterien 49 5.2 Stand der Forschung 52 5.3 Grundlegende Struktur und Parallelisierung 54 5.3.1 Analyse des Speicherbedarfs 54 5.3.2 Zwei- und dreidimensionale Zerlegung 58 5.3.3 Parallelisierung und Kommunikation 62 6 Ergebnisse 65 6.1 Implementierung des Lösers 65 6.2 Hardwarespezifikation des Testsystems 66 6.3 Bewertung der Implementierung 68 6.3.1 Sequentieller Anwendungsfall 68 6.3.2 Nachweis der Skalierbarkeit im parallelen Anwendungsfall 76 6.3.3 Vergleich mit etablierten Lösungsansätzen bzw. Lösern 87 7 Zusammenfassung und Ausblick 89 Abbildungsverzeichnis 92 Tabellenverzeichnis 94 Abkürzungsverzeichnis 95 Symbolverzeichnis 96 Literaturverzeichnis 98 A Weiterführende Messergebnisse 106 A.1 Relative Mehrkosten der parallelen Implementierung 106 A.2 Sequentielle Lösungszeiten ohne Nachglättung im 2D-Fall 107 A.3 Sequentielle Lösungszeiten ohne Nachglättung im 3D-Fall 108 / Die rechnergestützte Simulation physikalischer Prozesse ist ein fester Bestandteil im Alltag von Wissenschaftlern aus den unterschiedlichsten Wissensbereichen. Unabhängig davon, ob das Ziel die Vorhersage des Wetters von morgen, die Konzentrationsbestimmung von Fluidteilchen in Mischprozessen oder die Erschaffung von Werkstoffen mit optimalen Materialeigenschaften ist, ohne den Einsatz von leistungsfähigen Rechnern ist dieses Ziel nicht zu erreichen. Aus dieser inhärenten Kopplung lässt sich eine grundlegende Aussage bzgl. der Laufzeit durchzuführender Simulationen ableiten. Schnellere Rechentechnik reduziert automatisch die Laufzeit einer bereits bestehenden Simulation und somit auch die Wartezeit auf die potentiell zu erwartenden Erkenntnisse. Zeitgleich ist die so erreichte Reduktion der Berechnungszeit auch ein Maß für die mögliche Erhöhung des Detailgrades einer bestehenden Simulation und somit auch ein Indikator für den zusätzlich zu erwartenden Erkenntnisgewinn. Ein Blick auf die seit 1993 herausgegebene Top500-Liste der schnellsten Supercomputer zeigt ein annähernd gleichbleibend exponentielles Wachstum der Rechenleistung. Dieser durch eine Interpretation von „Moores-Law“ beschriebene Sachverhalt wird laut aktuellen Prognosen auch in den nächsten Jahren bestehen bleiben. Für die im Bereich der Simulation tätigen Wissenschaftler gleicht dies einem Versprechen, dass ohne deren Zutun auch in Zukunft mit stetig kürzeren Simulationszeiten zu rechnen ist. Immer vorausgesetzt, es können genug finanzielle Mittel für die neue Hardware akquiriert werden. Doch dieser Schein trügt. Eine genauere Analyse der Entwicklung der Rechentechnik der letzten Jahre zeigt zwei maßgebliche Veränderungen. Zum einen stagniert die maximale Taktrate einer einzelnen CPU seit Erreichen der 4 GHz Grenze im Jahr 2004 und zum anderen wird, insbesondere seit der Einführung der ersten Dual Core CPU’s 2005, gesteigerte Rechenleistung fast gänzlich durch die Verwendung einer Vielzahl von Rechenkernen erreicht. Das aktuell mit mehr als zehn Millionen Rechenkernen an Position 1 der Top500-Liste geführte System TaihuLight (deu. Licht der Göttlichkeit) verdeutlicht die Dimensionen dieser Entwicklung. Die für dieses System in Aussicht gestellte maximale Rechenleistung von circa 125 Billiarden gleitkommaoperationen pro Sekunde, kann dabei nur von einer perfekt parallelisierten Simulationsrechnung erreicht werden. „Amdahls-Law“ zeigt jedoch, dass dieser perfekte Zustand, aufgrund von unvermeidlichen sequentiellen Abschnitten in den einzelnen im Programm verwendeten Algorithmen, nicht zu erreichen ist. Die genaue Abweichung vom vollparallelisierten Idealzustand wird dabei durch die sogenannte parallele Effizienz quantifiziert. Deren Wert muss hierbei per Definition zwischen Null und Eins liegen. Dem Paradigma „eine hohe parallele Effizienz ergibt eine hohe Rechenleistung und dies führt zur kürzestmöglichen Simulationslaufzeit“ folgend, wurden in den letzten Jahren die unterschiedlichsten Simulationsprogramme auf eben diese Effizienz getrimmt. In den meisten Fällen wurden hierfür Codes verwendet, die auf eine sehr lange Historie zurückgreifen, so dass alte bestehende Strukturen und Algorithmen unabhängig von deren wirklicher Eignung parallelisiert wurden. Diese Entwicklung führt jedoch mehr und mehr dazu, dass die Entwickler den Blick für die Vielseitigkeit der Faktoren, die zu einer akzeptablen Simulationslaufzeit führen, verlieren. Werden zum Beispiel Methoden niederer Ordnung, wie dies etwa bei den Standard Finite-Differenzen-Verfahren der Fall ist, zur Diskretisierung des Simulationsgebietes eingesetzt, steigt die Zahl der für kleine Lösungsfehler benötigten Gitterpunkte so schnell an, dass jedweder Arbeitsspeicher vor Erreichen der benötigten Genauigkeit aufgebraucht ist. Im Gegensatz dazu sind Methoden höherer Ordnung, wie dies etwa bei den Standard Finite-Elemente-Verfahren der Fall ist, aufgrund ihrer suboptimalen numerischen Komplexität kaum besser geeignet. Ein ähnliches Bild ergibt sich bei den Algorithmen, mit denen die Gleichungssysteme in den einzelnen Simulationsschritten gelöst werden. Stellvertretend sei hier das Jacobi-Verfahren genannt, welches sich zwar durch eine parallele Effizienz nahe Eins auszeichnet, jedoch zum einen eine nicht optimale quadratische numerische Komplexität und zum anderen eine von der Auflösung des Simulationsgitters abhängige maximale Iterationszahl besitzt. Sofern die Anwender der etablierten Simulationsprogramme keine Kosten für den Zugang zu Hochleistungsrechnern zu erwarten haben und diese Rechner immer wieder massiv ausgebaut werden, stellen die genannten Einschränkungen fürs Erste nur bedingt ein Problem dar. Denn, eine Simulation die nach Hinzunahme einer bestimmten Zahl von Rechenkernen um annähernd diesen Faktor beschleunigt wird ist etwas Ausgezeichnetes. Werden den Anwendern jedoch, wie bereits von immer mehr Universitätsrechenzentren diskutiert und in der Industrie bereits gängige Praxis, die Kosten für den Energieverbrauch in Rechnung gestellt, ergibt sich ein gänzlich anderes Bild. Ein Bild, in dem der Effizienz, die die angewandten Methoden bzw. die eingesetzten Algorithmen erreichen, die größte Bedeutung zufällt. Die Effizienz einer Methode wird hierbei ungenauerweise oft nur anhand deren Implementierung als Algorithmus bestimmt. Jedoch kann eine effizient implementierte Methode mit numerisch ungünstigen Eigenschaften einer nicht effizient implementierten Methode mit numerisch optimalen Eigenschaften deutlich unterlegen sein. Demnach ist es offensichtlich, dass nur für eine effizient implementierte Methode mit optimalen numerischen Eigenschaften die kürzestmögliche Simulationslaufzeit erreicht werden kann. Der Fokus der vorliegenden Arbeit liegt deshalb zu allererst auf dem Nachweis der optimalen numerisch/mathematischen Eigenschaften der entwickelten Methode. Diese Eigenschaften sind: lineare numerische Komplexität, Robustheit des Verfahrens gegenüber Gitterverfeinerungen im Simulationsgebiet und eine bisher unerreichte Konvergenzrate. Abschließend wird zusätzlich die Eignung der Methoden bzgl. deren Verwendung auf aktuellen Hochleistungsrechnern unter Verwendung von Zehntausenden von Rechenkernen belegt und auch deren effiziente Implementierung bzw. Umsetzung dargelegt. Ziel dieser Arbeit ist die Entwicklung effizienter mathematischer Methoden zur numerischen Simulation von physikalischen Prozessen und deren hochskalierende Implementierung auf Hochleistungsrechnern. Unter allen denkbaren Aufgabenstellungen zählen hierbei insbesondere diejenigen zu den herausforderndsten, die der Strömungsmechanik zugeordnet sind. Besonders die direkte numerische Simulation (DNS), welche zur Analyse von turbulenten Strömungsphänomenen eingesetzt wird, stellt hierbei höchste Ansprüche an die eingesetzten numerischen Verfahren. Die Entwicklung und Umsetzung der im Rahmen dieser Arbeit vorgestellten Methoden ist deshalb auf die Anwendung im Rahmen der turbulenten Strömungssimulation ausgerichtet. Diese Fokussierung dient jedoch allein dem Beleg der Leistungsfähigkeit und stellt keine prinzipielle Einschränkung der Methode dar.:Inhaltsverzeichnis 1 Einleitung 3 2 Numerische Simulation physikalischer Prozesse 6 2.1 Königsdisziplin - Turbulente Strömungssimulation 6 2.2 Vom mathematischen Modell zur numerischen Lösung 9 2.2.1 Räumliche und zeitliche Diskretisierung 9 2.2.2 Allgemeine Reduktion auf Poisson- und Helmholtz-Gleichungen 11 2.3 Anforderungen an effiziente Lösungsverfahren 12 3 Basiskomponenten des entwickelten Verfahrens 16 3.1 Spektralelemente-Methode 16 3.1.1 Grundlagen 17 3.1.2 Gewählte Ansatzfunktionen und Stützstellen 20 3.1.3 Struktur des linearen Operators 24 3.2 Statische Kondensation 25 3.3 Geometrisches Mehrgitterverfahren 26 4 Das Spektralelemente basierte Mehrgitterverfahren auf kondensierten Gittern 31 4.1 Stand der Forschung 31 4.2 Mehrgitterverfahren auf kondensierten Gittern 32 4.2.1 Konzeption wirkungsvoller Glätter 34 4.3 Nachweis optimaler Eigenschaften 41 4.3.1 Lineare Komplexität 41 4.3.2 Ausgezeichnete Konvergenzgeschwindigkeit 43 4.3.3 Robustheit gegenüber Gitterverfeinerung 46 5 Konzeption des parallelen Mehrgitterlösers 49 5.1 Parallelrechner und Leistungsbewertungskriterien 49 5.2 Stand der Forschung 52 5.3 Grundlegende Struktur und Parallelisierung 54 5.3.1 Analyse des Speicherbedarfs 54 5.3.2 Zwei- und dreidimensionale Zerlegung 58 5.3.3 Parallelisierung und Kommunikation 62 6 Ergebnisse 65 6.1 Implementierung des Lösers 65 6.2 Hardwarespezifikation des Testsystems 66 6.3 Bewertung der Implementierung 68 6.3.1 Sequentieller Anwendungsfall 68 6.3.2 Nachweis der Skalierbarkeit im parallelen Anwendungsfall 76 6.3.3 Vergleich mit etablierten Lösungsansätzen bzw. Lösern 87 7 Zusammenfassung und Ausblick 89 Abbildungsverzeichnis 92 Tabellenverzeichnis 94 Abkürzungsverzeichnis 95 Symbolverzeichnis 96 Literaturverzeichnis 98 A Weiterführende Messergebnisse 106 A.1 Relative Mehrkosten der parallelen Implementierung 106 A.2 Sequentielle Lösungszeiten ohne Nachglättung im 2D-Fall 107 A.3 Sequentielle Lösungszeiten ohne Nachglättung im 3D-Fall 108
750

TRUST IN HIGH-PERFORMANCE TEAMS: HOW DO U.S. SPECIAL OPERATIONS TEAMS BUILD AND MAINTAIN TRUST?

Libutti, Christian, 0000-0003-1590-5753 January 2021 (has links)
Trust is an important asset in every profession, especially in those professions that are inherently dangerous. The majority of the scholarly research in the literature of trust and team's streams conceptualize trust as an antecedent of effective teams, where trust is necessary for teams to achieve their desired outcome. However, there has been little research that relates trust to high-performing teams, and no published research in academic journals describing how these high-performing teams build and maintain trust. Trust is essential to military teams and especially the elite Special Operation Forces teams. While reviewing the literature, a gap was found as it relates to the exploration of building and maintaining trust within high-performance teams. The research questions were as follows: How do you build trust and how do you maintain trust, within high-performance teams? This study systematically reviewed the empirical literature on the relationship between team performance and trust, specifically amongst high-performing teams. A grounded theory methodology was appropriate for this research because twenty-six special operation forces members were interviewed using semi-structured open-ended guided questions. The population consisted of special operation forces members with a minimum of eight years of experience and who had experience serving in combat. Data analysis followed the Percy, Kostere, and Kostere (2015) formulated step-by-step procedure for inductive analysis. The findings revealed five themes related to building trust: (a) proficiency (b) attitude, (c) humility, (d) values, and (e) motivation. There was also the reveal of four themes related to maintaining trust: (a) to suffer together is to grow together, (b) the willingness to experience failure, (c) self-discipline, and (d) resilience. To verify these themes, a set of follow-up questions were asked to see if the inverse themes would prevent trust, these were the themes that developed: (a) lack of self-discipline, (b) unreliability, (c) lack of motivation, and (d) arrogance. The operators shared what culture they felt their teams provided in order to facilitate trust, and these were the themes: (a) transparency, (b) communication, and (c) respect. All participants disclosed that they trusted their teammates and that they were willing to make the ultimate sacrifice for their team, the mission and this country. / Business Administration/Strategic Management

Page generated in 0.1023 seconds