151 |
Trigger and reconstruction farms in the HERA-B experiment and algorithms for a Third Level TriggerSchwanke, Ullrich 30 October 2000 (has links)
Das HERA-$B$-Experiment am Deutschen Elektronen-Synchrotron (DESY) in Hamburg dient der Untersuchung der Physik von Teilchen, die $b$-Quarks enthalten. Der Schwerpunkt des Ex\-pe\-ri\-mentes liegt auf der Messung der CP-Verletzung im System der neutralen $B$-Mesonen. Es wird erwartet, dass die pr\"azise Bestimmung der CP-Asymmetrie im Zerfallskanal $B^0(\bar{B}^0)\to J/\psi K_S^0$ gro{\ss}en Einfluss auf die Weiterentwicklung des Standardmodells der Elementarteilchenphysik und g\"angiger kosmologischer Theorien haben wird. Das HERA-$B$-Experiment nutzt den Protonenstrahl des HERA-Ringes, um in Kollisionen mit einem feststehenden Target paarweise $B$-Hadronen zu erzeugen. Die Wechselwirkungen werden in einem Vorw\"artsspektrometer mit etwa 600.000 Auslesekan\"alen nachgewiesen. Aufgrund der relativ niedrigen Schwerpunktsenergie von 41.6\,GeV sind Ereignisse mit $b$-Quarks im Vergleich zu Wechselwirkungen mit leichteren Quarks um etwa sechs Gr\"o{\ss}enordnungen unterdr\"uckt. Die Selektion von Signalereignissen stellt daher eine besondere Herausforderung dar. Sie wird von einem vierstufigen Datennahme- und Triggerystem \"ubernommen, das die Ereignisrate von 10\,MHz auf etwa 20\,Hz reduziert. Neben speziell entwickelter Elektronik werden im Triggersystem mehrere hundert handels\"ubliche PCs eingesetzt. Die Computer sind in zwei so genannten PC-Farmen mit jeweils mehr als 200 Prozessoren angeordnet, die die Rechenkapazit\"at f\"ur Triggerentscheidungen und die prompte Analyse der Ereignisdaten zur Verf\"ugung stellen. Auf der einen Farm laufen schnelle Triggerprogramme mit einer Rechenzeit von etwa 1--100\,ms pro Ereignis ab. Die andere Farm rekonstruiert die Ereignisse online, bevor die Daten auf Band dauerhaft archiviert werden. Die pro Ereignis aufgewandte Rechenzeit liegt dabei im Bereich einiger Sekunden. Die vorliegende Arbeit behandelt zwei Themenkreise. Einerseits wird die technische Umsetzung der Trigger- und der Rekonstruktionsfarm beschrieben. Besonderes Augenmerk liegt dabei auf den Software-Systemen, die den Farmen erforderliche Kalibrationsdaten verf\"ugbar machen und die zentrale \"Uberwachung der Ergebnisse der ablaufenden Programme gestatten. Der Hauptteil der Arbeit besch\"aftigt sich mit Algorithmen f\"ur eine dritte Triggerstufe, die zus\"atzlich zu existierenden Programmen auf der Triggerfarm zum Einsatz kommen sollen. Der Zerfall $B^0(\bar{B}^0)\to J/\psi X$ hat eine sehr klare Signatur, wenn das $J/\psi$ in ein $e^+e^-$- oder $\mu^+\mu^-$-Paar zerf\"allt. Im Triggersystem wird nach einem Paar entgegengesetzt geladener Leptonen des gleichen Typs gesucht, deren invariante Masse der des $J/\psi$ entspricht und deren Spuren von einem gemeinsamen Vertex in der N\"ahe des Targets ausgehen. Es wird davon ausgegangen, dass die Ausnutzung aller kinematischen Zwangsbedingungen ausreicht, um diesen Zerfallskanal klar von Untergrundereignissen zu trennen. Die dritte Triggerstufe soll dagegen auf Signalprozesse mit weniger kinematischen Beschr\"ankungen angewandt werden. Solche Ereignisse entstehen zum Beispiel dann, wenn zwei in der Proton-Target-Kollision erzeugte $B$-Mesonen semileptonisch zerfallen. Das Triggersystem selektiert lediglich die beiden Leptonen, die aber hier nicht von einem gemeinsamen Vertex kommen. Die dritte Triggerstufe soll f\"ur derartige Zerfallstopologien innerhalb von 100\,ms pro Ereignis weitere Kriterien zur Unterscheidung von Signal- und Untergrundprozessen aus den Daten extrahieren. In der Arbeit wird anhand von Monte-Carlo-Studien untersucht, inwieweit die Daten des Silizium-Vertexdetektors des Experimentes zur Entscheidungsfindung einer dritten Triggerstufe beitragen k\"onnen. Dabei wird die Rekonstruktion von Spuren aus der Zerfallskaskade der $B$-Hadronen zus\"atzlich zu den von der vorhergehenden Triggerstufe selektierten Lep\-ton\-en an\-ge\-strebt. Mithilfe einer schnellen Mustererkennung f\"ur den Vertexdetektor wird gezeigt, dass das Auffinden aller Spuren und die Anwendung von Triggeralgorithmen innerhalb des vorgegebenen Zeitfensters von 100\,ms m\"oglich sind. Die Bestimmung der Spurparameter nahe der Targetregion macht von der Methode des Kalman-Filters Gebrauch, um der Vielfachstreuung im Detektormaterial Rechnung zu tragen. Dabei tritt das Problem auf, dass weder der Impuls der gefundenen Spuren bekannt ist, noch die Materialverteilung im Vertexdetektor aus Zeitgr\"unden in aller Strenge ber\"ucksichtigt werden kann. Durch geeignete N\"aherungen gelingt es, eine ausreichende Genauigkeit f\"ur die Spurparameter zu erreichen. Die aufgefundenen Teilchen bilden den Ausgangspunkt f\"ur Triggeralgorithmen. Hierbei wird untersucht, welche Methoden am besten geeignet sind, um Signal- und Unter\-grund\-ereignisse voneinander zu trennen. Es erweist sich, dass das Auffinden von Spuren mit gro{\ss}em Impaktparameter aussichtsreichere Ans\"atze als eine Suche nach Sekund\"arvertices bietet. / The HERA-$B$ experiment at Deutsches Elektronen-Synchrotron (DESY) Hamburg aims at investigating the physics of particles containing $b$ quarks. The experiment focusses on measuring CP violation in the system of neutral $B$ mesons. It is expected that the precise determination of the CP asymmetry in the channel $B^0(\bar{B}^0)\to J/\psi K_S^0$ will have an impact on the further development of the Standard Model of Elementary Particle Physics and cosmological theories. The HERA-$B$ experiment uses the proton beam of the HERA storage ring in fixed-target mode. $B$ hadrons are produced in pairs when protons from the beam halo interact with target nuclei. The interactions are recorded by a forward-spectrometer with roughly 600.000 readout channels. At the HERA-$B$ centre-of-mass energy of 42.6\,GeV, the $b\bar{b}$ cross section is only a tiny fraction of the total inelastic cross section. Only one in about 10$^6$ events contains $b$ quarks, which turns the selection of signal events into a particular challenge. The selection is accomplished by a four-stage data acquisition and trigger system reducing the event rate from 10\,MHz to about 20\,Hz. Besides custom-made electronics, several hundreds of PCs are used in the trigger system. The computers are arranged in two so-called PC farms with more than 200 processors each. The PC farms provide the computing capacity for trigger decisions and the prompt analysis of event data. One farm executes fast trigger programs with a computing time of 1--100\,ms per event. The other farm performs online reconstruction of the events before data are archived on tape. The computing time per event is in the range of several seconds. This thesis covers two topics. In the beginning, the technical implementation of the trigger and the reconstruction farm are described. In doing so, emphasis is put on the software systems which make calibration data available to the farms and which provide a centralised view on the results of the executing processes. The principal part of this thesis deals with algorithms for a Third Level Trigger. This trigger is to come into operation on the trigger farm together with existing programs. Processes of the type $B^0(\bar{B}^0)\to J/\psi X$ have a very clean signature when the $J/\psi$ decays to a $e^+e^-$ or $\mu^+\mu^-$ pair. The trigger system attempts to identify two unlike-sign leptons of the same flavour whose invariant mass matches the $J/\psi$. In later steps, the tracks are required to originate from a common vertex close to the target. It is assumed that these kinematic constraints are sufficient to pick out events of this type among the copious background processes. In contrast, the Third Level Trigger is to be applied to signal processes with fewer kinematic constraints. Such events occur for example when two $B$ mesons, which were created in a proton-target collision, decay semileptonically. The trigger system selects merely the two leptons which do not originate from a common vertex in this case. The Third Level Trigger has 100\,ms at its disposal to extract further criteria from the data which can serve to distinguish between signal and background events. This thesis investigates with the aid of Monte-Carlo simulations how the data of the experiment's silicon vertex detector can contribute to the decisions of a Third Level Trigger. The trigger aims at reconstructing tracks from the decay cascade of $B$ mesons in addition to the leptons selected by the preceding trigger levels. A fast pattern recognition for the vertex detector demonstrates that the reconstruction of all tracks and the application of trigger algorithms are possible within the given time slot of 100\,ms. The determination of track parameters in the target region exploits the Kalman-filter method to account for the multiple scattering of particles in the detector material. The application of this method is, however, made difficult by two facts. First, the momentum of the reconstructed tracks is not known. And, second, the material distribution in the detector cannot be taken into consideration in detail due to timing limitations. Adequate approximations for the momentum and the material traversed by a particle help to accomplish a sufficient accuracy of the track parameters. The reconstructed tracks constitute the starting point of several trigger algorithms, whose suitability to select signal events is investigated. Our studies indicate that the reconstruction of tracks with large impact parameters is a more promising approach than a search for secondary vertices.
|
152 |
PC韌體產業產品多角化之研究-以A公司為例 / A Study on Product Diversification of PC firmware Industries-Corporation A張經緯, Chang, Ching Wei Unknown Date (has links)
自1970年代第一部個人電腦(PC, Personal Computer)的出現,以開放的架構開啟了一連串資訊革命,改變了人們學習與工作的方式。隨後在1980年代起,整體PC產業上中下游的產業鏈也為台灣帶來了經濟上高速的成長。
這樣的高速成長在2000年後逐漸有了微妙的變化,以台灣與中國大陸為主的硬體代工供應鏈,為硬體的低價提供了穩固的後勤保障,PC硬體的品牌形象隨著PC的應用轉以網際網路內容與雲端應用而逐漸式微。在2000年中期,隨著網際網路產業的興盛更進一步加速行動化應用技術的成熟。如此的變化讓許多網際網路應用的服務提供者得以挑戰傳統PC軟體與硬體的龍頭如微軟、英特爾、惠普、戴爾與IBM的領導地位。
過去近三十年間,以PC產業為主的電子資訊產業佔據了所謂高科技與創新的舞台之際,在近年來也不斷試圖以各式創新,如硬體本身的多樣化、時尚化,與多角化措施,如轉投資雲端服務、行動裝置或多品牌策略等,試圖在新的競賽中搶佔新的席位。但在無法脫離原本業所帶來的利益與包袱之下,常有運用原有人力、資金、管理團隊與思維來啟動新事業的情形,造成轉型的困境。
筆者有幸服務於曾參與PC產業榮景的領導廠商之一,也同樣見證其與近十年主要的多角化歷程,希望藉由本研究將其多角化的動機、作法與未能成功的原因以個案方式呈現,輔以相關學理與從業經驗分析,期能為類似業者在進行多角化措施提供貼近實務的參考範例。
本研究的問題有三點:為身處高門檻高獲利的寡占廠商的分析其(1)多角化動機(2)多角化作法與(3)可能失敗的原因
透過收集整理公開資料與曾參與多角化產品行銷的人員訪談,本研究得到以
下結論(1) 企業多角化策略制定應考慮管理團隊專長 (2) 多角化產品開發應以獨立組織或合資方式進行 (3) 公司多角化策略應注意代理人問題 (4) 公司多角化策略應參考其本業的競爭優勢建立條件。 / The PC has changed the way we work and learn dramatically since it was introduced in 1970. Meantime, the information technologies have been through a continuous revolution base on the open hardware and software architecture of PC as well. Taiwan also benefits from the booming PC industry, as a key partner of PC supply chain, and has created a huge economic growth since 1980s.
The landscape of PC industry has shifted gradually in early 2000s resulted from particular changes. The PC supply chain from Taiwan provides cost-effective hardware to make low-cost notebook happened and in addition to that, the internet and cloud application are altering the focus on brand image of PC hardware vendors to internet-based services providers, plus the booming internet industry has facilitated the readiness of mobile application from mid-2000s. All those changes allow the internet-based services providers to challenge the leadership of the giants from PC industry, such as Microsoft, Intel, HP, Dell and IBM.
For last three decades, PC industry played the crucial role of high-tech innovation and it never stop to keep the leading positon via innovation to various and trendy ID design, diversification with cloud services, mobile devices as well as multi-brand strategies in recent years. However it is not easy to start up a new business with the benefit and limitation from original business thus the enterprise transformation would fail most likely.
It’s been a pleasure for me to work for couple leading companies in PC era and witnessed part of the effort to diversification in “A company”. I expect to bring similar vendors a practical case study on the motivation, strategies and potential causes of failure of its diversification with recommendations generated from diversification theory and personal experience in field.
There are three goals to this study: to analyze and find the (1) motivation of diversification (2) diversification strategy and (3) potential causes of failure, for a high profit company with high-entry barrier in oligopoly market.
This study has reached the conclusions via collected and analyzed the public data and interviewed with key persons involved in diversification process of “A company”: (1) Diversification Strategy shall be incorporated with the expertise of leadership team (2) Production diversification shall be managed by an independent organization or a joint venture. (3) Diversification Strategy shall be observant to agency problem (4) Diversification Strategy shall be referred to and leveraged the elements of competition advantages in original business.
|
153 |
Transmission radio haut débit multiservices sur fibres optiques. Application à l'optimisation de la capacité multi-utilisateurs en emprises de transportLoum, Dafa Seynabou 23 February 2012 (has links) (PDF)
De nos jours, les liaisons par fibres optiques monomode ou multimodes équipent de plus en plus de bâtiments, de lieux et sites de transports publics (gares, aéroports, autoroutes, ports ou plateformes multimodales). Ceci est dû au débit important qu'offre la fibre optique et à son atténuation très faible sur de longues distances. Afin de gérer au mieux la transmission au sein de la fibre optique, les performances de divers codes à une dimension 1D OOC et PC et deux dimensions 2D-MWOOC sur les récepteurs conventionnels ont été étudiées. Cependant, les performances obtenues restent limitées lorsque le nombre d'utilisateurs croit significativement. En ne tenant pas compte du bruit causé par les composants du système, la dégradation des performances est principalement due aux interférences d'accès multiples (IAM). De ce fait, nous proposons dans le cadre de cette thèse d'optimiser les performances du récepteur PIC en ajoutant un facteur de compensation qui permet de réduire au mieux les interférences d'accès multiples. Ceci est étudié avec les codes optiques à deux dimensions 2D-PC/PC que nous générons. Des expérimentations sur un banc d'essai optique en laboratoire sont effectuées pour illustrer la mise en oeuvre de multiservices. Une validation de certains résultats théoriques est également menée sur un simulateur dédié.
|
154 |
Structuration des mélanges ABS/PC en vue du recyclage des DEEE. / Structuration of ABS/PC morphology blends for recycling of WEEE.Alkhuder, Aboubaker 18 December 2014 (has links)
La présence de matières plastiques dans les DEEE (déchets des équipements électriques et électroniques) a augmenté de 25% ces cinq dernières années. Avec la mise en place de nouvelles réglementations imposant des objectifs de recyclage élevés et l’augmentation des cours du pétrole, le recyclage des matières plastiques devient plus que jamais d’actualité. Dans ce contexte, tout en travaillant avec des polymères vierges, l’objectif de ce travail est de trouver une voie de valorisation des DEEE par le mélange de polymères. Le travail s’est focalisé sur l’amélioration des propriétés mécaniques des mélanges ABS/PC (70%/30% en masse) en structurant la morphologie de mélanges sous formes allongées (fibres et/ou lamelles). Pour ce faire, des outils spécifiques novateurs (éléments multiplicateurs de couches, filière de coextrusion fibrillaire) sont développés et utilisés. La démarche consiste à structurer d’abord des joncs, qui sont ensuite granulés, puis injectés lors d’une deuxième étape pour fabriquer des éprouvettes. Lorsque des morphologies allongées sont obtenues, des améliorations notables de propriétés (au choc en particulier) sont observées. Le travail termine par l’étude de l’effet sur la structuration et les propriétés finales d’un compatibilisant, l’ABS greffé anhydride maléique, synthétisé par extrusion réactive et rajouté au mélange ABS/PC. / Plastics in WEEE (Waste of Electric and Electronic Equipments) have increased up to 25% in the last five years. As new regulations are setting up increased recycling objectives and the oil prize is also increasing, plastic recycling is more than never an issue. In this context, while still working on virgin polymers, this work objective is to find a way to valorize the WEEE by the use of polymer blends. This work is focused on the upgrading of mechanical properties of ABS/PC (70%/30% wt%) blends by structuring the morphology of the blends creating elongated shapes (fibers and/or lamellas). To do so, innovative specific tools have been developed and used such as layer-multiplying mixing elements or fibrillar coextrusion dye. The first step of the procedure is to create structured strands of polymers which are then pelletized. Then these pellets are injected in a second step to create specimens. When elongated morphologies are obtained, significant improvements are observed in properties, especially for impact behavior. Finally, this work studies the effect of a compatibilizer on the structuration and the final properties of the blends. The compatibilizer, maleic anhydride grafted ABS, was synthesized through reactive extrusion and added in ABS/PC blends.
|
155 |
Bio-statistical approaches to evaluate the link between specific nutrients and methylation patterns in a breast cancer case-control study nested within the European Prospective Investigation into Cancer and Nutrition (EPIC) study / Approches bio-statistiques pour évaluer le lien entre nutriments et profils de méthylation du cancer du sein dans l’étude prospective Européenne sur le Cancer et la Nutrition (EPIC)Perrier, Flavie 13 September 2018 (has links)
De par les centaines de milliers de données qui les caractérisent, les bases de données épigénétiques représentent actuellement un défi majeur. L’objectif principal de cette thèse est d’évaluer la performance d’outils statistiques développés pour les données de grande dimension, en explorant l’association entre facteurs alimentaires reliés au cancer du sein (CS) et méthylation de l’ADN dans la cohorte EPIC.Afin d’étudier les caractéristiques des données de méthylation, l’identification des sources systématiques de variabilité des mesures de méthylation a été effectuée par la méthode de la PC-PR2. Ainsi la performance de trois techniques de normalisation, très répandues pour corriger la part de variabilité non désirée, a été évaluée en quantifiant l’entendu de variabilité attribuée aux facteurs de laboratoire avant et après chaque méthode de correction.Une fois la méthode de normalisation la plus appropriée identifiée, la relation entre le folate, l’alcool et la méthylation de l’ADN a été analysée par le biais de trois approches : une analyse individuelle des sites CpG, une analyse de DMR et la régression fused lasso. Les deux dernières méthodes visent à identifier des régions spécifiques de l’épigénome grâce aux corrélations possibles entre les sites proches. La méthylation globale a aussi été utilisée pour étudier la relation entre méthylation et risque de CS.Grâce à une évaluation exhaustive d’outils statistiques révélant la complexité des données de méthylation de l’ADN, cette thèse offre un aperçu instructif de connaissances pour les études épigénétiques, avec une possibilité d’application de méthodologie similaire aux analyses d’autres types de données -omiques / Epigenetics data are challenging sets characterized by hundreds of thousands of features. The main objective of this thesis was to evaluate the performance of some of the existing statistical methods to handle sets of large dimension data, exploring the association between dietary factors related to breast cancer (BC) and DNA methylation within the EPIC study.In order to investigate the characteristics of epigenetics data, the identification of random and systematic sources of variability of methylation measurements was attempted, via the principal component partial R-square (PC-PR2) method. Using this technique, the performance of three popular normalization techniques to correct for unwanted sources of variability was evaluated by quantifying epigenetics variability attributed to laboratory factors before and after the application of each correction method.Once a suitable normalization procedure was identified, the association between alcohol intake, dietary folate and methylation levels was examined by means of three approaches: an analysis of individual CpG sites, of differentially methylated regions (DMRs) and using fused lasso regression. The last two methods aim at the identification of specific regions of the epigenome using the potential correlation between neighboring CpG sites. Global methylation levels were used to investigate the relationship between methylation and BC risk.By performing an exhaustive evaluation of the statistical tools used to disclose complexity of DNA methylation data, this thesis provides informative insights for studies focusing on epigenetics, with promising potentials to apply similar methodology to the analysis of other -omics data
|
156 |
Structuration des mélanges ABS/PC en vue du recyclage des DEEE. / Structuration of ABS/PC morphology blends for recycling of WEEE.Alkhuder, Aboubaker 18 December 2014 (has links)
La présence de matières plastiques dans les DEEE (déchets des équipements électriques et électroniques) a augmenté de 25% ces cinq dernières années. Avec la mise en place de nouvelles réglementations imposant des objectifs de recyclage élevés et l’augmentation des cours du pétrole, le recyclage des matières plastiques devient plus que jamais d’actualité. Dans ce contexte, tout en travaillant avec des polymères vierges, l’objectif de ce travail est de trouver une voie de valorisation des DEEE par le mélange de polymères. Le travail s’est focalisé sur l’amélioration des propriétés mécaniques des mélanges ABS/PC (70%/30% en masse) en structurant la morphologie de mélanges sous formes allongées (fibres et/ou lamelles). Pour ce faire, des outils spécifiques novateurs (éléments multiplicateurs de couches, filière de coextrusion fibrillaire) sont développés et utilisés. La démarche consiste à structurer d’abord des joncs, qui sont ensuite granulés, puis injectés lors d’une deuxième étape pour fabriquer des éprouvettes. Lorsque des morphologies allongées sont obtenues, des améliorations notables de propriétés (au choc en particulier) sont observées. Le travail termine par l’étude de l’effet sur la structuration et les propriétés finales d’un compatibilisant, l’ABS greffé anhydride maléique, synthétisé par extrusion réactive et rajouté au mélange ABS/PC. / Plastics in WEEE (Waste of Electric and Electronic Equipments) have increased up to 25% in the last five years. As new regulations are setting up increased recycling objectives and the oil prize is also increasing, plastic recycling is more than never an issue. In this context, while still working on virgin polymers, this work objective is to find a way to valorize the WEEE by the use of polymer blends. This work is focused on the upgrading of mechanical properties of ABS/PC (70%/30% wt%) blends by structuring the morphology of the blends creating elongated shapes (fibers and/or lamellas). To do so, innovative specific tools have been developed and used such as layer-multiplying mixing elements or fibrillar coextrusion dye. The first step of the procedure is to create structured strands of polymers which are then pelletized. Then these pellets are injected in a second step to create specimens. When elongated morphologies are obtained, significant improvements are observed in properties, especially for impact behavior. Finally, this work studies the effect of a compatibilizer on the structuration and the final properties of the blends. The compatibilizer, maleic anhydride grafted ABS, was synthesized through reactive extrusion and added in ABS/PC blends.
|
157 |
Développement d’un dispositif expérimental original et d’un modèle prédictif pour l’étude thermodynamique des composés soufrés / Development of an original experimental apparatus and a predictive model for the thermodynamic study of sulfur compoundsZhang, Fan 17 November 2015 (has links)
Les composés soufrés sont répandus dans divers secteurs industriels comme la chimie. La conception et/ou l'optimisation des procédés impliquant ces composés nécessite de connaître leurs propriétés thermodynamiques (corps purs et mélanges). Etant donnée la complexité des mélanges et pour des raisons économiques, des modèles thermodynamiques « prédictifs » sont souvent privilégiés. Le développement et la validation de ces modèles nécessitent des données expérimentales. Notre étude bibliographique ciblant les sulfures (R-S-R'), les 1-mercaptans (R-SH) et leurs éventuels solvants (les n-alcanes et les 1-alcools) nous a permis de mettre en évidence un manque de données concernant ces composés. De plus nous avons également observé un manque de techniques expérimentales adaptés, et de ce fait le besoin de développer un nouveau dispositif expérimental.Au cours de cette thèse, nous avons conçu un dispositif expérimental innovant permettant la mesure des équilibres liquide-vapeur à des pressions comprises entre 0,1 et 10 bar. Ce dispositif est basé sur la méthode « statique-analytique ». Nous avons mis en place deux adaptations spécifiques aux échantillonneurs capillaires ROLSITM pour permettre l'échantillonnage à ces pressions. De nouvelles données des mélanges binaires et ternaires d'intérêt ont été ainsi mesurées.Le modèle thermodynamique prédictif choisi est PC-SAFT couplé avec une méthode de Contribution de Groupes (GC-PC-SAFT). Un terme polaire a été introduit. Le travail s'est focalisé sur l'étude de deux familles représentatives de composés soufrés : les sulfures et les 1-mercaptans. Le modèle GC-PC-SAFT a montré sa capacité de bien corréler et prédire les propriétés thermodynamiques des corps purs. L'ajustement des paramètres s'est appuyé sur les données de la littérature et celles obtenues par le nouvel équipement. Les diagrammes de phases des mélanges binaires (sulfure + n-alcane, sulfure + 1-alcool, 1-mercaptan + n-alcane et 1-mercaptan + 1-alcool) et ternaires (1-mercaptan + n-alcane + 1-alcool) ont été prédits. / Sulfur compounds are widespread in various industrial fields. Design and/or optimization of the processes involving these compounds require accurate knowledge of thermodynamic properties of the concerned mixtures. Considering the complexity of industrial mixtures and for economical reasons, one may look to thermodynamic models with predictive features. To develop and validate these models, a minimum number of experimental data are required. Our literature review on sulfides (R-S-R'), 1-thiols (R-SH) and their possible solvents (n-alkanes and 1-alkanols) has shown a lack of data and of adapted experimental method. This observation leads to the need of developing a new experimental apparatus.In this work, we designed an innovative experimental apparatus for vapor-liquid-equilibrium measurements in the pressure range of [0.1 – 10] bar. The new apparatus is based on the “static-analytic” method. The key improvements are the two adaptations made for ROLSITM capillary samplers to achieve phase sampling in this pressure range. After validating the newly developed apparatus, new data of binary and ternary mixtures of interest were measured in order to develop a new predictive thermodynamic model focusing on sulfur compounds.The proposed predictive model is the PC-SAFT equation of state combined with a group contribution method (GC-PC-SAFT). We incorporated a polar term into PC-SAFT and investigated two representative families of sulfur compounds: sulfides and 1-thiols. The GC-PC-SAFT model proved reliable in correlating and predicting thermodynamic properties of pure compounds. Model parameters were fitted to the data found in the literature, as well as to those obtained through the new apparatus. Phase diagrams of some binary (sulfide + n-alkane, sulfide + 1-alkanol, 1-thiol + n-alkane and 1-thiol + 1-alkanol) and ternary (1-mercaptan + n-alkane + 1-alcool) mixtures were predicted.
|
158 |
Hur påverkar effekten av styrkan och dragfrekvensen vid ett 1000 m roddmaskinstest?Arastoo-Pour, Danial January 2017 (has links)
Rodd är en sport som kräver hög kondition då de flesta av kroppens stora muskler används och kroppens alla tre energisystem är inblandade. Därmed har kroppen ett stort behov av energi vid rodd. Roddmaskin är en utrustning som används av roddare under vintersäsongen för att utveckla prestationen och göra fysiologiska tester. Syftet med projektet var att undersöka hur takt (drag per minut) och styrka (1RM marklyft) påverkade, sluttiden (s) vid 1000 m rodd på roddergometrar. Studien utfördes på 9 manliga deltagare över 18 år och sambanden studerades med linjär regressionsanalys. Hypotesen var att lägre takt leder till högre kraft i draget och högre takt leder till lägre kraft. Resultaten visade inget samband mellan takt, högre vikt i marklyft och sluttid där en lägre takt och högre medeleffekt gav en lägre sluttid, p och r2 värdet för sambandet mellan tid och takt var 0.109 för r2och p=0.385, p= 0.210 och r2 värdet 0.214 för sambandet mellan tid och marklyft, för sambandet mellan tid och medeleffekt var r2 värdet 0.75 och p = 0.0025, vilket tyder på ett starkt samband. Det är troligen större fördel om man drar med större kraft på roddmaskin än om man skulle ro på vatten och resultaten är därför inte direkt överförbara till rodd på vatten. Vidare antyder resultaten att det kan vara en fördel om roddarna tränar mer styrka då mer styrka leder till kraftigare drag, vilket i sin tur leder till en lägre tid. / Rowing is a sport dependent on high endurance capacity, where most of the large muscles in the body are used, the three energy systems are involved and the body is in need of a large amount of energy. Concept 2 rowing ergometers is a sport of itself but is performed mostly during the winter season for outdoor rowers to see the performance and do physiological tests. The purpose of this project was to see if there is any correlation between stroke rate, average power, 1RM deadlift and finishing time on 1000 m rowing machine performance, for 9 adult male rowers. The correlation was studied with linear regression analysis. The hypothesis was that lower rate leads to higher mean power in each stroke and higher stroke rate leads to lower power in each stroke. The results showed no correlation between stroke rate, heavier weight lifted in deadlift and finishing time. Where a lower stroke rate and higher mean effect lead to a lower finishing time, p and r2 value for the correlation between time and stroke rate was 0.109 for r2 and p=0.385, p=0.210 and r2 value 0.214 for the correlation between time and deadlift, for the correlation between time and mean effect, the r2 value was 0.75 and p=0.0025, which indicate a strong correlation. It is more benefit if one row with higher force on the rowing machine than rowing on the water. Further, the results show that it is an advantage if the rowers train more strength, because more power leads to a more powerful stroke and lower time.
|
159 |
Technologie zachycování a skladování uhlíku v energetice / Carbon Capture and Storage Technology in Energy IndustryŠulcová, Anna January 2009 (has links)
Given the growing worldwide interest in fossil fuels on one hand and mitigation of climate change on the other hand, it is necessary to research into new technologies as Carbon Capture and Storage. This technology became a matter of interest as an option to diminish greenhouse gas emissions of power plants. It is essential to find out about the costs of Carbon Capture and Storage and expected future costs of power plants with CCS. Impact of this techology is not only in the sphere of capital and operational costs, but it also influences power plant efficiency and fuel consumption in negative way. Analysis of reductions in the costs of this technology as a result of learning-by-doing is observed on Experience Curves. This study observes influence of CCS on costs of mainly PC, IGCC and NGCC type of power plant. CCS technology has positive impact not only on environment, but it is possible to assess Enhanced Oil, Methane or Gas Recovery, which can partly offset costs of this technology.
|
160 |
Application de l'équation PC-SAFT à la capture du dioxyde de carbone et à la désulfuration des essences / Application of PC-SAFT equation of state in the carbon dioxide capture and the gasoline desulfurizationChen, Yushu 26 September 2013 (has links)
Le remplacement des solvants organiques classiques par une nouvelle génération de solvants moins toxiques, moins inflammables et moins polluants est un défi majeur pour l'industrie chimique. Les liquides ioniques, sels liquides qui satisfont ces critères, sont envisagés comme alternatives. Le but de ce travail est d'évaluer le comportement des liquides ioniques en présence de gaz à effet de serre (CO2, N2O et CH4) ou de composés organiques. Dans un premier temps, une étude théorique présente les performances du modèle thermodynamique PC-SAFT sur la représentation des équilibres liquide-vapeur de systèmes constitués de dioxyde de carbone et de liquide ionique. Ensuite, l'étude de la solubilité du méthane, du dioxyde de carbone et du protoxyde d'azote dans divers liquides ioniques a été effectuée sous basse ou haute pression. Ce travail propose un modèle basé sur le concept de contribution de groupes afin de prédire la constante d'Henry du CO2 dans les liquides ioniques. Enfin, une étude sur les équilibres liquide-vapeur des systèmes binaires rencontrés dans la désulfuration des essences a été effectuée. Les données expérimentales ont permis d'évaluer les performances de l'équation PC-SAFT à représenter les équilibres entre phases de systèmes {composés soufrés / aromatiques + liquide ionique} / The replacement of conventional organic solvents by a new generation of solvents less toxic, less flammable and less polluting is a major challenge for the chemical industry. Ionic liquids have been widely promoted as interesting substitutes for traditional solvents. The purpose of this work is to evaluate the behavior of ionic liquids in the presence of greenhouse gases (CO2, CH4 and N2O) or organic compounds. Firstly, a theoretical study presents the performance of the thermodynamic model PC-SAFT in the representation of vapor-liquid equilibrium of systems containing ionic liquids and carbon dioxide. Then, the solubility study of methane, carbon dioxide and nitrous oxide in various ionic liquids was performed at high or low pressure. The group contribution concept is proposed in this study in order to predict the Henry's law constant of carbon dioxide in ionic liquids. Finally, a study on the vapor-liquid equilibrium of binary systems encountered in gasoline desulfurization was carried out. Experimental data were used to evaluate the performance of PC-SAFT equation of state to represent phase equilibrium of systems {sulfur / aromatic compounds + ionic liquid}
|
Page generated in 0.0241 seconds