• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 14
  • 7
  • 1
  • Tagged with
  • 59
  • 35
  • 26
  • 23
  • 14
  • 13
  • 12
  • 9
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Le double visage des inventions biotechnologiques, une source potentielle de risques majeurs

Laporte, Sylvie 19 October 2011 (has links) (PDF)
Les inventions biotechnologiques ont un double visage, une face bienveillante et une face terrifiante, chacune source potentielle de risques majeurs. Comment les contrôler et les réguler ? La recrudescence des catastrophes majeures (crises sanitaires) liées à l'usage de produits biotechnologiques, d'une part, puis l'échec à l'adoption d'un protocole de vérification à la Convention d'interdiction des armes biologiques suivi de l'émergence de nombreuses publications à risques dans le domaine des biotechnologies, d'autre part, démontrent l'omniprésence et la transversalité de cette problématique. Par leur essence duale, les biotechnologies appellent des solutions globales. La voie d'une gestion cohérente semble s'ouvrir au travers d'un corps de règle prenant tous ces paramètres en considération, les risques majeurs. L'avantage de cette législation, si elle admet une modification préalable de la nomenclature des risques majeurs en y intégrant les risques liés aux conflits, reposera sur sa globalité et sur la responsabilisation de tous. Face à une menace biotechnologique qui est perçue comme dominante dans les années à venir, l'émerge d'un ordre public mondial favorable à un accroissement de la responsabilité des Etats à l'égard de la sécurité humaine serait souhaitable. Le but de toute institution étatique étant de garantir à ses ressortissants leur sécurité et leur sûreté quelles que soient les circonstances, cet ordre public pourrait trouver ses bases au sein des réglementations relatives aux droits de l'homme et au droit de l'environnement ; réglementations déjà émancipées de la distinction entre situations de paix, de crises ou de conflits
52

Étude des pertes atypiques dans les machines synchrones à aimants à hautes performances pour applications aéronautiques / Study of atypical losses in high performance permanent-magnet synchronous machines for aircraft applications

Boubaker, Nadhem 21 July 2016 (has links)
La thèse porte sur la caractérisation expérimentale des pertes singulières dans les matériaux magnétiques au sein d’actionneurs électromécaniques conçus pour le développement du programme « avion plus électrique », où la maîtrise des pertes d’énergie est un enjeu absolument majeur. Ce programme, de portée mondiale, vise, entre autre, à remplacer, dans l’avion, les actionneurs hydrauliques par des actionneurs électromécaniques, quand c’est possible.Par pertes singulières on entend toutes les pertes liées aux contraintes magnéto-mécano-thermiques liées d’une part à la mise en œuvre (découpe, assemblage contraint, isolation, traitement thermique...) des matériaux et d’autre part aux conditions réelles de fonctionnement (champ tournant, haute fréquence, saturations locales...) au sein des machines électriques (HV/HF), et qui sont très difficiles à estimer précisément de façon analytique ou via les dispositifs conventionnels de tests. Ces sollicitations influencent les caractéristiques de tôles qui peuvent s’éloigner significativement des données du fabricant (donc fausser le calcul des performances).Au début de cette thèse on s’est focalisé sur le montage d’un banc d’essai évolutif équipé de moyens de mesure directe du couple et d’une machine d’entraînement (8 ktr/min ; 42 kW) tarée par nos soins. Sur cette dernière une longue campagne d’essais a été menée pour isoler les différentes composantes de pertes, dont, par exemple, les pertes mécaniques (par frottement dans les roulements + aérodynamiques) qui ont été quantifiées via un rotor neutre. Les pertes dans les aimants sont indissociables des pertes fer, donc, elles ont été estimées par le biais d’une modélisation par éléments finis tridimensionnelle. Les pertes dans la frette de maintien sont nulles du fait qu’elle est isolante (thermo-rétractable). Le bobinage utilisé dans ce moteur est très particulier, à barres massives (remplissage de cuivre dans l’encoche jusqu’à 90%), développé dans notre laboratoire IES. Les pertes atypiques au sein de ce bobinage spécial ont été profondément abordées dans ces travaux (effet de refoulement de courants, pertes aux extrémités de la machine...).Dans la dernière partie de cette thèse, nous avons exploré le fonctionnement des machines synchrones à aimants à haute fréquence afin d’accroître la densité de puissance de nos moteurs (pour franchir la barre de 2.5 kW/kg). Pour ce faire, après une étude détaillée, nous avons proposé en premier lieu un prototype avec des matériaux standard (stator FeCo Vacodur49 0.2mm, rotor FeSi, aimants NdFeB nuance N35EH, bobinage à barres cuivre) fonctionnant à 1666 Hz, tournant à 5000 tr/min, avec une densité de puissance de 4.5 kW/kg et un rendement de 94%. En second lieu, nous avons proposé un deuxième prototype de rendement plus faible (93%) mais qui a une densité de puissance proche de 6 kW/kg avec un rotor sans fer et un bobinage en Aluminium.Avant le montage final de ce prototype modulaire, nous avons effectué des mesures de pertes magnétiques, en conditions réelles de fonctionnement d’un moteur électrique, sur une multitude de tôles FeSi et FeCo (Vacodur49, NO20, M270-35A) avec la variation de différents procédés de fabrication: isolation (vernis thermo-collant « back-lack », vernis C5), découpe (laser, électroérosion) et traitement thermique. Pareillement, toutes les pertes mises en jeu ont été séparées (mécaniques, par courants induits dans les viroles...) pour pouvoir remonter aux pertes magnétiques et, donc, enfin, quantifier empiriquement le coefficient de majoration de pertes fer. / The main aim of this thesis was to study and experimentally assess the additional iron losses in the stator (electrical lamination steel) of high performance permanent magnet synchronous machines (PMSM) designed for aircraft applications, in relation with the “more-electric-aircraft” project. This international program consists of gradually introducing electrical systems to replace onboard hydraulic and pneumatic systems, for example to power the landing gear wheels (Electric Green Taxiing System)…The extra iron losses are caused by manufacturing processes (cutting, sticking, insulation, stacking, pressing, shrink-fitting, thermal treatment …) and the real conditions of use of electrical motor (namely: rotational flux, saturation, high frequency…). Indeed, the mechanical and thermal stresses during the manufacturing steps can deteriorate the magnetic properties of the material and significantly increase the iron losses. These aspects are difficult to accurately evaluate by analytical models or standard measurements (Epstein frame…) and require experimental assessment to precisely calculate the motor efficiency.First of all, we started by developing a test bench equipped with drive motor: PMSM 8000 RPM ; 42 kW. For accurate assessment, the losses in this machine are separated on the test bench, for example, the mechanical losses (bearings loss & windage loss) have been measured at different speed with a non-magnetic rotor. Rotor magnets eddy-current losses cannot be isolated from iron losses, for this reason they have been calculated using a 3D finite element model. To limit rotor loss we then used a non-conductive retaining sleeve (heat shrink sleeve). In the winding, we used bar-wound conductors, which is an original winding technology developed in our laboratory, and whose advantage among others is the unusual copper fill factor that reaches almost 90%.Subsequently, we explored the high frequency machines (>1 kHz) in order to increase the power-to-weight ratio (cross the threshold of 2.5 kW/kg). We proposed, the following to the analytical and finite element study, a first conventional prototype with a power-to-weight ratio equal to 4.5 kW/kg with: FeCo stator (Vacodur49 0.2 mm), FeSi rotor and NdFeB magnets (N35EH), operated at 1666 Hz, 5000 RPM and 94% efficiency at full load. A second motor had been also proposed with both rotor and winding in aluminum, in this case the power-to-weight ratio reaches around 6 kW with, however, less efficiency (93%).Finally, this HF motor was tested, at no load, on the aforementioned test bench. The experiments were carried out on a multitude of FeCo and FeSi stator core samples coming from different manufacturing processes (insulation: bonding varnish and C-5 varnish; cutting: laser and EDM “Electrical Discharge Machining”; thermal treatment) in real operating conditions of a high frequency PM machine in order to experimentally obtain the famous “additional coefficient” of iron losses (Kadd).
53

Aide à la décision médicale et télémédecine dans le suivi de l’insuffisance cardiaque / Medical decision support and telemedecine in the monitoring of heart failure

Duarte, Kevin 10 December 2018 (has links)
Cette thèse s’inscrit dans le cadre du projet "Prendre votre cœur en mains" visant à développer un dispositif médical d’aide à la prescription médicamenteuse pour les insuffisants cardiaques. Dans une première partie, une étude a été menée afin de mettre en évidence la valeur pronostique d’une estimation du volume plasmatique ou de ses variations pour la prédiction des événements cardiovasculaires majeurs à court terme. Deux règles de classification ont été utilisées, la régression logistique et l’analyse discriminante linéaire, chacune précédée d’une phase de sélection pas à pas des variables. Trois indices permettant de mesurer l’amélioration de la capacité de discrimination par ajout du biomarqueur d’intérêt ont été utilisés. Dans une seconde partie, afin d’identifier les patients à risque de décéder ou d’être hospitalisé pour progression de l’insuffisance cardiaque à court terme, un score d’événement a été construit par une méthode d’ensemble, en utilisant deux règles de classification, la régression logistique et l’analyse discriminante linéaire de données mixtes, des échantillons bootstrap et en sélectionnant aléatoirement les prédicteurs. Nous définissons une mesure du risque d’événement par un odds-ratio et une mesure de l’importance des variables et des groupes de variables. Nous montrons une propriété de l’analyse discriminante linéaire de données mixtes. Cette méthode peut être mise en œuvre dans le cadre de l’apprentissage en ligne, en utilisant des algorithmes de gradient stochastique pour mettre à jour en ligne les prédicteurs. Nous traitons le problème de la régression linéaire multidimensionnelle séquentielle, en particulier dans le cas d’un flux de données, en utilisant un processus d’approximation stochastique. Pour éviter le phénomène d’explosion numérique et réduire le temps de calcul pour prendre en compte un maximum de données entrantes, nous proposons d’utiliser un processus avec des données standardisées en ligne au lieu des données brutes et d’utiliser plusieurs observations à chaque étape ou toutes les observations jusqu’à l’étape courante sans avoir à les stocker. Nous définissons trois processus et en étudions la convergence presque sûre, un avec un pas variable, un processus moyennisé avec un pas constant, un processus avec un pas constant ou variable et l’utilisation de toutes les observations jusqu’à l’étape courante. Ces processus sont comparés à des processus classiques sur 11 jeux de données. Le troisième processus à pas constant est celui qui donne généralement les meilleurs résultats / This thesis is part of the "Handle your heart" project aimed at developing a drug prescription assistance device for heart failure patients. In a first part, a study was conducted to highlight the prognostic value of an estimation of plasma volume or its variations for predicting major short-term cardiovascular events. Two classification rules were used, logistic regression and linear discriminant analysis, each preceded by a stepwise variable selection. Three indices to measure the improvement in discrimination ability by adding the biomarker of interest were used. In a second part, in order to identify patients at short-term risk of dying or being hospitalized for progression of heart failure, a short-term event risk score was constructed by an ensemble method, two classification rules, logistic regression and linear discriminant analysis of mixed data, bootstrap samples, and by randomly selecting predictors. We define an event risk measure by an odds-ratio and a measure of the importance of variables and groups of variables using standardized coefficients. We show a property of linear discriminant analysis of mixed data. This methodology for constructing a risk score can be implemented as part of online learning, using stochastic gradient algorithms to update online the predictors. We address the problem of sequential multidimensional linear regression, particularly in the case of a data stream, using a stochastic approximation process. To avoid the phenomenon of numerical explosion which can be encountered and to reduce the computing time in order to take into account a maximum of arriving data, we propose to use a process with online standardized data instead of raw data and to use of several observations per step or all observations until the current step. We define three processes and study their almost sure convergence, one with a variable step-size, an averaged process with a constant step-size, a process with a constant or variable step-size and the use of all observations until the current step without storing them. These processes are compared to classical processes on 11 datasets. The third defined process with constant step-size typically yields the best results
54

Le double visage des inventions biotechnologiques, une source potentielle de risques majeurs / The double face of biotechnological inventions, a potential source of major risks

Laporte, Sylvie 19 October 2011 (has links)
Les inventions biotechnologiques ont un double visage, une face bienveillante et une face terrifiante, chacune source potentielle de risques majeurs. Comment les contrôler et les réguler ? La recrudescence des catastrophes majeures (crises sanitaires) liées à l’usage de produits biotechnologiques, d’une part, puis l’échec à l’adoption d’un protocole de vérification à la Convention d’interdiction des armes biologiques suivi de l’émergence de nombreuses publications à risques dans le domaine des biotechnologies, d’autre part, démontrent l’omniprésence et la transversalité de cette problématique. Par leur essence duale, les biotechnologies appellent des solutions globales. La voie d’une gestion cohérente semble s’ouvrir au travers d’un corps de règle prenant tous ces paramètres en considération, les risques majeurs. L’avantage de cette législation, si elle admet une modification préalable de la nomenclature des risques majeurs en y intégrant les risques liés aux conflits, reposera sur sa globalité et sur la responsabilisation de tous. Face à une menace biotechnologique qui est perçue comme dominante dans les années à venir, l’émerge d’un ordre public mondial favorable à un accroissement de la responsabilité des Etats à l’égard de la sécurité humaine serait souhaitable. Le but de toute institution étatique étant de garantir à ses ressortissants leur sécurité et leur sûreté quelles que soient les circonstances, cet ordre public pourrait trouver ses bases au sein des réglementations relatives aux droits de l’homme et au droit de l’environnement ; réglementations déjà émancipées de la distinction entre situations de paix, de crises ou de conflits / The biotechnological inventions have a double face, a kindly face and a terrifying face, each potential source of major risks. How to control them and to regulate them? The outbreak of the major disasters (sanitary crisis) bound to biotechnological products, on one hand, the failure to the adoption of a Protocol to the Biological Weapon Convention, followed by the emergence of numerous publications at risks in the field of biotechnology, on the other hand, demonstrate the omnipresence and the transverse character of this problem. By their duality, biotechnologies need global solutions. The way of a coherent management seems to open through a body of rule considering all these parameters, the major risks. The advantage of this legislation, if it admits a preliminary modification of the list of the major risks by integrating the risks connected to the conflicts, will be based on its global aspect and everyone’s responsibility. In front of biotechnological threat, which is perceived as dominant in the years to come, an emergent world law and order favourable to an increase of the responsibility of States towards the human safety would be desirable. The purpose of any state institution is the guarantee of Nationals safety, whatever circumstances are, this law and order could find its bases within the regulations relative to human rights and to environmental law; these regulations are already indifferent to the distinction between situations of peace, crisis or conflicts
55

Formation, évolution et environnement des binaires X de grande masse

Coleiro, Alexis 25 September 2013 (has links) (PDF)
Les binaires X de grande masse (HMXBs pour High-Mass X-ray Binaries en anglais), constituées d'un objet compact (étoile à neutrons ou trou noir) orbitant autour d'une étoile massive, ont un intérêt fondamental dans l'étude des processus d'accrétion/éjection autour d'un objet compact. Par ailleurs, des études observationnelles récentes prouvent qu'une majorité d'étoiles massives vivent en couple et connaissent des transferts de matière au cours de leur vie. De ce fait, comprendre l'évolution des HMXBs ainsi que leur interaction avec l'environnement proche permet de mieux cerner l'évolution des couples stellaires les plus massifs, possibles progéniteurs de sursauts gamma et émetteurs d'ondes gravitationnelles lors de leur coalescence. Plus largement, la connaissance de l'évolution des étoiles binaires massives en interaction est cruciale pour caractériser correctement les galaxies lointaines. Comment ces sources évoluent-elles ? Où sont-elles situées dans la Galaxie ? Quelles sont leurs propriétés principales ? Quelle est l'influence de leur environnement proche ? Quel est leur impact sur le milieu interstellaire? Cette thèse vise à apporter des éléments de réponse à ces questions, en adoptant deux approches complémentaires : d'une part une étude statistique de la population Galactique de binaires X de grande masse et d'autre part une étude multi-longueurs d'onde de sources prises individuellement.
56

Imagerie à haute résolution des amas R136 et NGC3603 dévoilent la nature de leurs populations stellaires / A sharpened close-up of R136 and NGC3603 : unshrouding the nature of their stellar population

Khorrami, Zeinab 22 June 2016 (has links)
Cette thèse a pour objectif de comprendre les différents aspects de l'évolution des amas d’étoiles massives NGC3603 et R136 qui possèdent les étoiles les plus massives connues de l'univers local. L'analyse photométrique des noyaux de R136 et NGC3603 utilisant l’imagerie infrarouge de l’instrument SPHERE sur VLT et son système d’optique adaptative extrême de SPHERE, m’a permis de détecter pour la 1ière fois un grand nombre d’étoiles de faibles masse et luminosité au coeur de ces amas et pour la plupart au voisinage des étoiles les plus lumineuses et massives. La comparaison des données de SPHERE de NGC3603 à celles du HST montre l’absence de ségrégation de masse dans le noyau de cet amas. De plus la pente de la fonction de masse de cette région est la même que celle de la région suivante et similaire aux valeurs de la MF correspondant aux régions extérieures de l’amas connues jusqu’ici. L’amas R136 est partiellement résolu par SPHERE/IRDIS dans l’IR. La majorité de ses étoiles massives ont des compagnons visuels. En prenant compte des mesures spectroscopiques et photométriques et leurs erreurs sur l'extinction et l'âge des membres de l’amas, j’ai estimé une gamme de masse pour chaque étoile identifiée. La MF a été calculée pour différents âges ainsi que les erreurs sur les masses stellaires. J’ai simulé des séries d'images de R136 grâce au code Nbody6, et les ai comparées aux observations du HST/WFPC2. Ces simulations permettent de vérifier l'effet de la binarité initiale des étoiles de l’amas, la ségrégation de masse et l'évolution des étoiles sur l'évolution dynamique propre à R136. / This thesis aims at studying 2 massive clusters NGC3603 and R136, and the mechanisms that govern their physics, These clusters host the most massive stars known in the local universe so far and are important clues to understand the formation and fate of very massive star clusters. The manuscript outlines the photometric analysis of the core of R136 and NGC3603 on the basis of HST data in the visible and the VLT high dynamic imaging that I obtained in the infrared thanks to the SPHERE focal instrument operated since 2015 and its extreme Adaptive Optics, In an extensive photometric study of these data I discovered a significantly larger number of faint low-mass stars in the core of both these clusters compared to previous works. These stars are often detected in the vicinity of known massive bright objects. By comparing HST and SPHERE measures, NGC3603 does not show any signature of mass segregation in its core since the MF slope of the very core and the next radial bin are similarly flat and agree well with the MF found in previous works of the outer regions. On the other hand R136 is partially resolved using the SPHERE/IRDIS mode with most of the massive stars having visual companions. Considering the spectroscopic and photometric errors on the extinction and the age of cluster members, I estimate a mass range for each detected star. The MF is plotted at different ages with given errors on stellar masses. Finally I demonstrate that we need more resolution to go further on studying R136 which is 7-8 times further than NGC3603.
57

Systèmes d’intelligence artificielle et santé : les enjeux d’une innovation responsable.

Voarino, Nathalie 09 1900 (has links)
L’avènement de l’utilisation de systèmes d’intelligence artificielle (IA) en santé s’inscrit dans le cadre d’une nouvelle médecine « haute définition » qui se veut prédictive, préventive et personnalisée en tirant partie d’une quantité inédite de données aujourd’hui disponibles. Au cœur de l’innovation numérique en santé, le développement de systèmes d’IA est à la base d’un système de santé interconnecté et auto-apprenant qui permettrait, entre autres, de redéfinir la classification des maladies, de générer de nouvelles connaissances médicales, ou de prédire les trajectoires de santé des individus en vue d’une meilleure prévention. Différentes applications en santé de la recherche en IA sont envisagées, allant de l’aide à la décision médicale par des systèmes experts à la médecine de précision (ex. ciblage pharmacologique), en passant par la prévention individualisée grâce à des trajectoires de santé élaborées sur la base de marqueurs biologiques. Des préoccupations éthiques pressantes relatives à l’impact de l’IA sur nos sociétés émergent avec le recours grandissant aux algorithmes pour analyser un nombre croissant de données relatives à la santé (souvent personnelles, sinon sensibles) ainsi que la réduction de la supervision humaine de nombreux processus automatisés. Les limites de l’analyse des données massives, la nécessité de partage et l’opacité des décisions algorithmiques sont à la source de différentes préoccupations éthiques relatives à la protection de la vie privée et de l’intimité, au consentement libre et éclairé, à la justice sociale, à la déshumanisation des soins et du patient, ou encore à la sécurité. Pour répondre à ces enjeux, de nombreuses initiatives se sont penchées sur la définition et l’application de principes directeurs en vue d’une gouvernance éthique de l’IA. L’opérationnalisation de ces principes s’accompagne cependant de différentes difficultés de l’éthique appliquée, tant relatives à la portée (universelle ou plurielle) desdits principes qu’à la façon de les mettre en pratique (des méthodes inductives ou déductives). S’il semble que ces difficultés trouvent des réponses dans la démarche éthique (soit une approche sensible aux contextes d’application), cette manière de faire se heurte à différents défis. L’analyse des craintes et des attentes citoyennes qui émanent des discussions ayant eu lieu lors de la coconstruction de la Déclaration de Montréal relativement au développement responsable de l’IA permet d’en dessiner les contours. Cette analyse a permis de mettre en évidence trois principaux défis relatifs à l’exercice de la responsabilité qui pourrait nuire à la mise en place d’une gouvernance éthique de l’IA en santé : l’incapacitation des professionnels de santé et des patients, le problème des mains multiples et l’agentivité artificielle. Ces défis demandent de se pencher sur la création de systèmes d’IA capacitants et de préserver l’agentivité humaine afin de favoriser le développement d’une responsabilité (pragmatique) partagée entre les différentes parties prenantes du développement des systèmes d’IA en santé. Répondre à ces différents défis est essentiel afin d’adapter les mécanismes de gouvernance existants et de permettre le développement d’une innovation numérique en santé responsable, qui doit garder l’humain au centre de ses développements. / The use of artificial intelligence (AI) systems in health is part of the advent of a new "high definition" medicine that is predictive, preventive and personalized, benefiting from the unprecedented amount of data that is today available. At the heart of digital health innovation, the development of AI systems promises to lead to an interconnected and self-learning healthcare system. AI systems could thus help to redefine the classification of diseases, generate new medical knowledge, or predict the health trajectories of individuals for prevention purposes. Today, various applications in healthcare are being considered, ranging from assistance to medical decision-making through expert systems to precision medicine (e.g. pharmacological targeting), as well as individualized prevention through health trajectories developed on the basis of biological markers. However, urgent ethical concerns emerge with the increasing use of algorithms to analyze a growing number of data related to health (often personal and sensitive) as well as the reduction of human intervention in many automated processes. From the limitations of big data analysis, the need for data sharing and the algorithmic decision ‘opacity’ stems various ethical concerns relating to the protection of privacy and intimacy, free and informed consent, social justice, dehumanization of care and patients, and/or security. To address these challenges, many initiatives have focused on defining and applying principles for an ethical governance of AI. However, the operationalization of these principles faces various difficulties inherent to applied ethics, which originate either from the scope (universal or plural) of these principles or the way these principles are put into practice (inductive or deductive methods). These issues can be addressed with context-specific or bottom-up approaches of applied ethics. However, people who embrace these approaches still face several challenges. From an analysis of citizens' fears and expectations emerging from the discussions that took place during the coconstruction of the Montreal Declaration for a Responsible Development of AI, it is possible to get a sense of what these difficulties look like. From this analysis, three main challenges emerge: the incapacitation of health professionals and patients, the many hands problem, and artificial agency. These challenges call for AI systems that empower people and that allow to maintain human agency, in order to foster the development of (pragmatic) shared responsibility among the various stakeholders involved in the development of healthcare AI systems. Meeting these challenges is essential in order to adapt existing governance mechanisms and enable the development of a responsible digital innovation in healthcare and research that allows human beings to remain at the center of its development.
58

Structure des ions lourds et nucléosynthèse dans les étoiles massives : la réaction 12C + 12C / Heavy-ion structure and nucleosynthesis in massive stars : the 12C + 12C reaction

Fruet, Guillaume 21 September 2018 (has links)
La réaction de fusion 12C+ 12C marque un tournant dans l’évolution des étoiles massives. La section efficace présente des résonances jusqu’aux énergies d’intérêt astrophysique, généralement associées à une structure moléculaire dans le 24Mg. Au cours de cette thèse, la section efficace de fusion 12C+ 12C a été mesurée depuis la barrière de Coulomb jusqu’aux énergies d’intérêt astrophysique. La mesure en coïncidence des particules chargées et des γ a été employée. Un dispositif expérimental, STELLA, a été développé et construit au cours de cette thèse. Il comprend une chambre à réaction, des détecteurs annulaires au silicium, un mécanisme de cibles tournantes, un système de pompage pour vide poussé, un système d’acquisition digital, et une structure pour supporter 36 détecteurs LaBr3. STELLA a été installée auprès de l’accélérateur Andromède (Orsay, France) et une série d’expériences fructueuses ont permis d’obtenir des résultats cohérents au cœur de la fenêtre de Gamow pour la phase de combustion du carbone dans les étoiles massives. / The 12C+ 12C fusion reaction plays a key role in the late evolution of massive stars. Its cross section exhibits strong resonances down to the astrophysical region of interest, often associated with a molecular configuration of the 24Mg nucleus. In this thesis, the 12C+ 12C fusion cross section has been measured from the Coulomb barrier down to the astrophysical region of interest. The charged particle-gamma coincidence technique has been used. A new experimental setup, STELLA, has been developed and built during this thesis. It is composed of a reaction chamber, a set of annular silicon strip detectors, a rotating target mechanism, an ultra high vacuum system, a digital time-stamped data acquistion system, and a structure that fits 36 LaBr3 detectors. STELLA has been installed at the Andromède facility (Orsay, France). Successfull experiments have been carried out to extract fusion cross sections down to the Gamow window for the carbon burning phase of massive stars.
59

Étapes préliminaires à l’élaboration de systèmes d’aide au diagnostic automatisé de l’hypoxémie aigüe pédiatrique

Sauthier, Michaël Sébastien 08 1900 (has links)
L’insuffisance respiratoire hypoxémique aigüe (IRHA) est une des causes les plus fréquentes d’admission aux soins intensifs pédiatriques. Elle est liée à plusieurs mécanismes dont le plus grave est l’œdème pulmonaire lésionnel conduisant au syndrome de détresse respiratoire aigüe (SDRA) pédiatrique qui représente 5-10 % des patients admis aux soins intensifs. Actuellement, les recommandations internationales de prise en charge de l’IRHA et du SDRA sont sous-appliquées du fait d’un défaut de diagnostic ou d’un diagnostic tardif. Ceci est probablement en partie responsable d’une ventilation mécanique prolongée dans le SDRA pédiatrique. Afin d’améliorer les critères d’évaluation de l’IRHA chez les enfants et éventuellement leur devenir, les 3 objectifs de cette thèse sont d’améliorer le diagnostic précoce d’IRHA chez l’enfant, informatiser un score de gravité de défaillance d’organes (score PELOD-2) utilisable comme critère de jugement principal en recherche en remplacement de la mortalité qui est faible dans cette population et prédire la ventilation prolongée chez la population la plus fragile, les nouveau-nés. Pour réaliser ces objectifs, nous avons : 1) optimisé une base de données haute résolution temporelle unique au monde, 2) validé un indice continu d’oxygénation utilisable en temps réel et robuste à toutes les valeurs de saturations pulsées en oxygène, 3) validé une version informatisée du score PELOD-2 utilisable comme critère de jugement principal en recherche, 4) développé un modèle prédictif d’IRHA persistante dû à l’influenza et 5) proposé une définition de la ventilation prolongée en pédiatrie applicable quel que soit l’âge et le terme de l’enfant et 6) étudié le devenir des nouveau-nés ayant une ventilation prolongée et proposé un modèle prédictif du sous-groupe le plus grave. Les méthodes utilisées à travers ces différentes études ont associé la science des données massives pour le regroupement, la synchronisation et la normalisation des données continues. Nous avons également utilisé les statistiques descriptives, la régression linéaire et logistique, les forêts aléatoires et leurs dérivés, l’apprentissage profond et l’optimisation empirique d’équations mathématiques pour développer et valider des modèles prédictifs. L’interprétation des modèles et l’importance de chaque variable ont été quantifiées soit par l’analyse de leurs coefficients (statistiques conventionnelles) soit par permutation ou masquage des variables dans le cas de modèles d’apprentissage automatique. En conclusion, l’ensemble de ce travail, soit la reconnaissance et la pronostication automatique de l’IRHA chez l’enfant vont me permettre de développer, de valider et d’implanter un système d’aide à la décision en temps réel pour l’IRHA en pédiatrie. / Acute hypoxemic respiratory failure (AHRF) is one of the most frequent causes of admission to pediatric intensive care units. It is related to several mechanisms, the most serious of which is lesional pulmonary edema leading to pediatric acute respiratory distress syndrome (ARDS), which accounts for 5–10% of patients admitted to intensive care. Currently, international guidelines for the management of ARDS are under-implemented due to failure to diagnose or late diagnosis. This is probably partly responsible for prolonged mechanical ventilation in pediatric ARDS. In order to improve the criteria for assessing AHRF in children and possibly their outcome, we aimed to improve the early diagnosis of ARDS in children, to automate an organ failure severity score (PELOD-2 score) that can be used as a primary endpoint in research to replace mortality, which is low in this population, and to predict prolonged ventilation in the most fragile population, neonates. To achieve these objectives, we have: 1) optimized a unique high temporal resolution database, 2) validated a continuous oxygenation index usable in real time and robust to all values of pulsed oxygen saturation, 3) validated a computerized version of the PELOD-2 score usable as a primary outcome in research, 4) developed a predictive model of persistent AHRF due to influenza and 5) proposed a definition of prolonged ventilation in pediatrics applicable regardless of the age and term of the child and 6) studied the outcome of newborns with prolonged ventilation and proposed a predictive model of the most severe subgroup. The methods used across these different studies combined big data science for clustering, synchronization, and normalization of continuous data. We also used descriptive statistics, linear and logistic regression, random forests and their derivatives, deep learning, and empirical optimization of mathematical equations to develop and validate predictive models. The interpretation of the models and the importance of each variable were quantified either by analyzing their coefficients (conventional statistics) or by permuting or masking the variables in the case of machine learning models. In conclusion, all this work, i.e. the recognition and automatic prognosis of AHRF in children will allow me to develop, validate and implement a real-time decision support system for AHRF in pediatrics.

Page generated in 0.0395 seconds