• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 14
  • 7
  • 1
  • Tagged with
  • 59
  • 35
  • 26
  • 23
  • 14
  • 13
  • 12
  • 9
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Nuage hypermassif, chocs et efficacité de formation stellaire / Hypermassive cloud, shock and stellar formation efficiency

Louvet, Fabien 22 September 2014 (has links)
Les étoiles massives, de type O ou B, sont d'une importance capitale pour le budget énergétique des galaxies et l'enrichissement du milieu interstellaire. Néanmoins, leur formation, contrairement à celle des étoiles de type solaire reste sujet à débats, sinon une énigme. Les toutes premières étapes de la formation des étoiles massives ainsi que la formation de leur nuage parent sont des thèmes qui stimulent une grande activité sur les plans théorique et observationnel depuis une décennie. Il semble maintenant acquis que les étoiles massives naissent dans des cœurs denses massifs, qui se forment au travers de processus dynamiques, tels que les flots de gaz collisionnels. Au cours de ma thèse, j'ai mené une étude approfondie de la formation des cœurs denses et des étoiles massives au sein de la structure hypermassive W43-MM1, localisée à 6~kpc du soleil. Dans un premier temps, j'ai montré une corrélation directe entre l'efficacité à former des étoiles et la densité volumique des nuages moléculaires, en décalage avec un certain nombre d'études précédentes. En effet, la distribution spatiale et de masse des cœurs denses massifs en formation au sein de W43-MM1 suggère que ce filament hypermassif est en phase de flambée de formation d'étoiles, flambée d'autant plus grande que l'on se rapproche de son cœur. J'ai comparé ces résultats observationnels aux modèles numériques et analytiques d'efficacité de formation stellaire les plus récents. Cette confrontation permet non seulement d'apporter de nouvelles contraintes sur la formation des filaments hypermassifs, mais suggère aussi que la compréhension de la formation d'étoiles dans les nuages hypermassifs nécessite une description fine de la structure de ces objets exceptionnels. En second lieu, ayant montré que la formation des étoiles massives est fortement dépendante des propriétés des filaments qui les forment, je me suis naturellement intéressé aux processus de formation de ces filaments, grâce à une étude de leur dynamique globale. Plus précisément, j'ai utilisé un traceur de chocs (la molécule de SiO) pour discerner les chocs dûs aux processus locaux de formation des étoiles (jets et flots bipolaires), des chocs dûs aux processus permettant la formation du nuage. J'ai ainsi pu, via une étude sans précédent alliant observations et modélisation de chocs dans une région formant de nombreuses étoiles, montrer l'existence de chocs à basse vitesse, première signature directe de la formation du nuage moléculaire dans lequel les étoiles massives se forment. Ces résultats constituent une étape importante reliant, via des processus dynamiques, la formation des nuages moléculaires à la formation des étoiles massives. / O and B types stars are of paramount importance in the energy budget of galaxies and play a crucial role enriching the interstellar medium. However, their formation, unlike that of solar-type stars, is still subject to debate, if not an enigma. The earliest stages of massive star formation and the formation of their parent cloud are still crucial astrophysical questions that drew a lot of attention in the community, both from the theoretical and observational perspective, during the last decade. It has been proposed that massive stars are born in massive dense cores that form through very dynamic processes, such as converging flows of gas. During my PhD, I conducted a thorough study of the formation of dense cores and massive stars in the W43-MM1 supermassive structure, located at ~ 6 kpc from the sun. At first, I showed a direct correlation between the star formation efficiency and the volume gas density of molecular clouds, in contrast with scenarii suggested by previous studies. Indeed, the spatial distribution and mass function of the massive dense cores currently forming in W43-MM1 suggests that this supermassive filament is undergoing a star formation burst, increasing as one approaches its center. I compared these observational results with the most recent numerical and analytical models of star formation. This comparison not only provides new constraints on the formation of supermassive filaments, but also suggests that understanding star formation in high density, extreme ridges requires a detailed portrait of the structure of these exceptional objects. Second, having shown that the formation of massive stars depends strongly on the properties of the ridges where they form, I studied the formation processes of these filaments, thanks of the characterization of their global dynamics. Specifically, I used a tracer of shocks (SiO molecule) to disentangle the feedback of local star formation processes (bipolar jets and outflows) from shocks tracing the pristine formation processes of the W43-MM1 cloud. I was able, via an unprecedented study combining observations and modeling of shocks in a starbust region, to show the existence of widespread low velocity shocks, that are the first direct signature of the formation of the massive molecular cloud from which massive stars form.These results are an important step connecting, via dynamical processes, the formation of molecular clouds to the formation of massive stars.
22

Etude des déformations différées des bétons en compression et en traction, du jeune au long terme : application aux enceintes de confinement / Study of delayed strains for concrete in compression and in tension from early age to long term

Hilaire, Adrien 28 November 2014 (has links)
Ce travail a pour but d'apporter des éléments de connaissance sur le comportement des enceintes de confinement des centrales nucléaires françaises. L'aptitude au confinement de ce type de structures est garantie par la faible perméabilité du béton. En cas d'accident, le béton est protégé de la fissuration par la compression biaxiale assurée par les câbles de précontrainte orthoradiaux et verticaux. Dès lors, il s'agit de vérifier deux points principaux : premièrement, le niveau de précontrainte doit rester suffisamment élevé pour équilibrer les contraintes de traction induites lors d'un accident, deuxièmement, la fissuration du matériau qui apparaît hors situation accidentelle doit être limitée. La réalisation de ces objectifs passe par la connaissance du comportement du béton depuis sa fabrication jusqu'à la fin de la durée d'exploitation du réacteur. L'étude du matériau est séparé en deux grandes périodes : la phase du jeune âge caractérisée par de forts couplages chemo-thermo-mécaniques et la phase du long terme où le matériau subit des sollicitations hydro-mécaniques. Une modélisation couplant l'hydratation, les transferts thermiques et hydriques et la mécanique est développée : elle est apte à décrire les principaux mécanismes en jeu. Ce modèle est implanté dans le logiciel CAST3M : le nombre limité de paramètres permet de faciliter le processus d'identification. En parallèle à ce travail de modélisation, plusieurs essais expérimentaux ont été réalisés : certains sont destinés à la détermination de paramètres spécifiques (par exemple, le coefficient de Poisson du fluage propre), d'autres ont pour but d'évaluer la pertinence des mécanismes physiques retenus dans la modélisation (notamment sur les couplages séchage-retrait-fluage). Par la diversité des phénomènes abordés, cette étude s'articule autour de plusieurs axes. La première partie traite des phénomènes thermo-chimiques du béton au jeune âge et du séchage des matériaux cimentaires : problèmes qui ont en commun leur nature diffuse. Une attention particulière est portée sur l'identification des principaux paramètres d'influence de ces deux phénomènes. La deuxième partie concerne l'étude des déformations différées du béton. Contrairement à la décomposition conventionnelle de ces déformations, fluage et retrait sont corrélés et induisent un endommagement du matériau. La modélisation proposée, qui se place dans le cadre de la mécanique des milieux poreux non saturés, permet de considérer une partie des interactions entre ces déformations. La dernière partie se concentre sur l'étude du comportement différé de structures. Les résultats mettent en lumière l'importance de certains verrous technologiques dans la prédiction du comportement à long terme d'une enceinte de confinement. / This work aims to study the behaviour of the containment buildings in a nuclear power plant. The gas-proofing of these structures is based on the low conductivity of concrete (the hydraulic conductivity is around 10-11 m/s for a standard concrete). However, if cracks appear, this material property increases and the containment may not be longer guaranteed. In accidental situations, the concrete is protected from cracking by the bi-axial prestressing of the internal safety enclosure. The ageing of the structure may have two main consequences : firstly, the prestress has to remain sufficiently high to counterbalance the tensile stress caused by an accident, secondly, cracking induced by non-accidental loads has to be limited. These aims cannot be satisfied if the behaviour of the concrete is not understood from its manufacturing to the end of the operating life of the nuclear reactor.\\ The lifespan of the structure is broken down into two distinguished periods : on one hand, strong chemo-thermo-mechanical couplings characterise the early age phase, on the other hand, the material is under hydro-mechanical stress during the long term phase. In the proposed modelling, hydration, thermal and hydric transfers are coupled with the mechanical behaviour of the concrete- the main mechanisms are considered. The model is implemented in the software \textit{CAST3M} : the limited number of parameters facilitate the identification process. In tandem with this work, several experimental tests are realised. Parameters are identified from their results, moreover, some of the experimental observations confirmed the physical mechanisms considered in the model. \\ Because of the complexity of the different phenomenon, this document is built around the following principles. The first part deals with the chemo-thermal couplings at early age and the drying process of concrete at long term : the nature of these two problems is diffusive. This part is focused on the identification of the main parameters of these two phenomenons. The second part is about the delayed strains in concrete. Unlike the conventional decomposition of these strains, creep and shrinkage are correlated and influence the damage evolution. Mechanics of unsaturated porous media is used to consider the couplings between these strains. The last part is focused on the delayed behaviour of structures. Results highlight the importance of some technological barriers in order to predict accurately the long-term behaviour of a containment building.
23

Accès sémantique aux données massives et hétérogènes en santé / Semantic access to massive and heterogeneous health data

Lelong, Romain 17 June 2019 (has links)
Les données cliniques sont produites par différents professionnels de santé, dans divers lieux et sous diverses formes dans le cadre de la pratique de la médecine. Elles présentent par conséquent une hétérogénéité à la fois au niveau de leur nature et de leur structure mais également une volumétrie particulièrement importante et qualifiable de massive. Le travail réalisé dans le cadre de cette thèse s’attache à proposer une méthode de recherche d’information efficace au sein de ce type de données complexes et massives. L’accès aux données cliniques se heurte en premier lieu à la nécessité de modéliser l’informationclinique. Ceci peut notamment être réalisé au sein du dossier patient informatisé ou, dans une plus large mesure, au sein d’entrepôts de données. Je propose dans ce mémoire unepreuve de concept d’un moteur de recherche permettant d’accéder à l’information contenue au sein de l’entrepôt de données de santé sémantique du Centre Hospitalier Universitaire de Rouen. Grâce à un modèle de données générique, cet entrepôt adopte une vision de l’information assimilable à un graphe de données rendant possible la modélisation de cette information tout en préservant sa complexité conceptuelle. Afin de fournir des fonctionnalités de recherche adaptées à cette représentation générique, un langage de requêtes permettant l’accès à l’information clinique par le biais des diverses entités qui la composent a été développé et implémenté dans le cadre de cette thèse. En second lieu, la massivité des données cliniques constitue un défi technique majeur entravant la mise en oeuvre d’une recherche d’information efficace. L’implémentation initiale de la preuve de concept sur un système de gestion de base de données relationnel a permis d’objectiver les limites de ces derniers en terme de performances. Une migration vers un système NoSQL orienté clé-valeur a été réalisée. Bien qu’offrant de bonnes performances d’accès atomique aux données, cette migration a également nécessité des développements annexes et la définition d’une architecture matérielle et applicative propice à la mise en oeuvre des fonctionnalités de recherche et d’accès aux données. Enfin, l’apport de ce travail dans le contexte plus général de l’entrepôt de données de santé sémantique du CHU de Rouen a été évalué. La preuve de concept proposée dans ce travail a ainsi été exploitée pour accéder aux descriptions sémantiques afin de répondre à des critères d’inclusion et d’exclusion de patients dans des études cliniques. Dans cette évaluation, une réponse totale ou partielle a pu être apportée à 72,97% des critères. De plus, la généricité de l’outil a également permis de l’exploiter dans d’autres contextes tels que la recherche d’information documentaire et bibliographique en santé. / Clinical data are produced as part of the practice of medicine by different health professionals, in several places and in various formats. They therefore present an heterogeneity both in terms of their nature and structure and are furthermore of a particularly large volume, which make them considered as Big Data. The work carried out in this thesis aims at proposing an effective information retrieval method within the context of this type of complex and massive data. First, the access to clinical data constrained by the need to model clinical information. This can be done within Electronic Health Records and, in a larger extent, within data Warehouses. In this thesis, I proposed a proof of concept of a search engine allowing the access to the information contained in the Semantic Health Data Warehouse of the Rouen University Hospital. A generic data model allows this data warehouse to view information as a graph of data, thus enabling to model the information while preserving its conceptual complexity. In order to provide search functionalities adapted to this generic representation of data, a query language allowing access to clinical information through the various entities of which it is composed has been developed and implemented as a part of this thesis’s work. Second, the massiveness of clinical data is also a major technical challenge that hinders the implementation of an efficient information retrieval. The initial implementation of the proof of concept highlighted the limits of a relational database management systems when used in the context of clinical data. A migration to a NoSQL key-value store has been then completed. Although offering good atomic data access performance, this migration nevertheless required additional developments and the design of a suitable hardware and applicative architecture toprovide advanced search functionalities. Finally, the contribution of this work within the general context of the Semantic Health Data Warehouse of the Rouen University Hospital was evaluated. The proof of concept proposed in this work was used to access semantic descriptions of information in order to meet the criteria for including and excluding patients in clinical studies. In this evaluation, a total or partial response is given to 72.97% of the criteria. In addition, the genericity of the tool has also made it possible to use it in other contexts such as documentary and bibliographic information retrieval in health.
24

Modélisation spatiale multi-sources de la teneur en carbone organique du sol d'une petite région agricole francilienne / Multi-source spatial modelling of the soil organic carbon content in Western Paris croplands

Zaouche, Mounia 15 March 2019 (has links)
Cette thèse porte sur l’estimation spatiale de la teneur superficielle en carbone organiquedu sol ou teneur en SOC (pour ’Soil Organic Carbon content’), à l’échelle d’une petite région agricolefrancilienne. La variabilité de la teneur en SOC a été identifiée comme étant l’une des principales sourcesd’incertitude de la prédiction des stocks de SOC, dont l’accroissement favorise la fertilité des sols etl’atténuation des émissions de gaz à effet de serre. Nous utilisons des données provenant de sourceshétérogènes décrites selon différentes résolutions spatiales (prélèvements de sol, carte pédologique, imagessatellitaires multispectrales, etc) dans le but de produire d’une part une information spatiale exhaustive,et d’autre part des estimations précises de la teneur en SOC sur la région d’étude ainsi qu’une uneévaluation des incertitudes associées. Plusieurs modèles originaux, dont certains tiennent compte duchangement du support, sont construits et plusieurs approches et méthodes de prédiction sont considérées.Parmi elles, on retrouve des méthodes bayésiennes récentes et performantes permettant non seulementd’inférer des modèles sophistiqués intégrant conjointement des données de résolution spatiale différentemais aussi de traiter des données en grande dimension. Afin d’optimiser la qualité de la prédictiondes modélisations multi-sources, nous proposons également une approche efficace et rapide permettantd’accroître l’influence d’un type de données importantes mais sous-représentées dans l’ensemble de toutesles données initialement intégrées. / In this thesis, we are interested in the spatial estimation of the topsoil organic carbon(SOC) content over a small agricultural area located West of Paris. The variability of the SOC contenthas been identified as one of the main sources of prediction uncertainty of SOC stocks, whose increasepromotes soil fertility and mitigates greenhouse gas emissions. We use data issued from heterogeneoussources defined at different spatial resolutions (soil samples, soil map, multispectral satellite images, etc)with the aim of providing on the one hand an exhaustive spatial information, and on the other accurateestimates of the SOC content in the study region and an assessment of the related uncertainties. Severaloriginal models, some of which incorporate the change of support, are built and several approaches andprediction methods are considered. These include recent and powerful Bayesian methods enabling notonly the inference of sophisticated models integrating jointly data of different spatial resolutions butalso the exploitation of large data sets. In order to optimize the quality of prediction of the multi-sourcedata modellings, we also propose an efficient and fast approach : it allows to increase the influence of animportant but under-represented type of data, in the set of all initially integrated data.
25

Calcul précis de l'équation d'état des gaz leptoniques : quelques implications pour la formation et la destruction des étoiles à neutrons

Chatri, Hayat 03 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l’Université de Montréal / Les étoiles massives (M≥8M.) deviennent des supernovae de type II à la fin de leur vie. Ce phénomène explosif est caractérisé par l'effondrement du cœur de Fer (56Fe) qui, sous l'influence de sa propre gravité se détache des couches externes qui l'enveloppent. La théorie prédit que le cœur de l'étoile survit à cette explosion sous la forme d'une étoile à neutrons. Cette dernière pourrait subir une collision avec une autre étoiles à neutrons. Comme résultat d'une telle collision, il y aura une expulsion de la matière neutronique. Pour décrire ces deux processus d'effondrement et de décompression, on doit posséder une bonne équation d'état. Or, dans la plupart des études sur la matière nucléaire dans les étoiles massives en implosion, les intégrales se trouvant dans les quantités fondamentales telles que la pression, l'énérgie et l'entropie des électrons ont été représentés par des expressions approchées de Chandrasekhar. Cependant, ces approximations ne sont plus valables à certaines conditions (basse densité et haute température), et il nous est impossible de savoir ce qui se passe dans le milieu stellaire dans de telles conditions; et même dans le cas où ces approximations sont valables, plusieurs questions se posent toujours sur le degré d'erreur dû à ces approximations qui peuvent être, parfois, trompeuses. Dans notre étude on a pris en considération l'effet de création de paires qu'aura lieu dans le milieu stellaire à des basses densités et hautes températures; l'inclusion de ce détail constitue un élément nouveau de cette étude. Le but de ce mémoire consiste à mener un calcul exact pour toutes les quantités physiques de l'équation d'état en évaluant numériquement ces intégrales, et aussi à voir quelles contributions elles peuvent apporter lors de leurs insertion dans des programmes déjà développés au Département de Physique de l'Université de Montréal, mais qui utilisent seulement des approximations. La bonne précision de nos calculs d'intégrales et les différentes méthodes utilisées pour vérifier leurs valeurs numériques nous a permis de faire des corrections importantes à toutes les quantités physiques de l'équation et, surtout, à l'entropie et l'énergie libre de Helmholtz. Ce calcul nous a permis aussi de déterminer les domaines de validité des expressions approchés de Chandrasekhar, souvent utilisées par les astrophysiciens, et celles de la limite "bulle chaude".
26

Anticoagulants oraux, réutilisation de données hospitalières informatisées dans une démarche de soutien à la qualité des soins / Oral anticoagulants, data reuse of electronic health records in a supportive approach to quality of care

Ferret, Laurie 12 June 2015 (has links)
Introduction :Les anticoagulants oraux soulèvent des problématiques majeures en termes de risque hémorragique et de bon usage. L’informatisation du dossier médical offre la possibilité d’accéder à de grandes bases de données que l’on peut exploiter de manière automatisée. L’objectif de ce travail est de montrer comment la réutilisation de données peut permettre d’étudier des problématiques liées aux anticoagulants et accompagner une démarche d’assurance de la qualité des soins. MéthodesCe travail a été réalisé sur les données informatisées (97 355 séjours) d’un centre hospitalier général. Pour chaque séjour nous disposons des données diagnostiques, biologiques, médicamenteuses, administratives et des courriers de sortie. Ce travail est organisé autour de 3 axes :Axe I. L’objectif est d’évaluer la qualité de la détection des facteurs pouvant majorer l’effet anticoagulant des antivitamines K (AVK), à l’aide de règles développées au cours de du projet européen PSIP (convention de subvention n° 216130). Une revue des cas sur une année a permis de calculer la valeur prédictive positive et la sensibilité des règles. Axe II. Nous avons réalisé une étude de cohorte historique sur les données de 2007 à 2012 pour déterminer les éléments majeurs impliqués dans l’élévation du risque hémorragique sous AVK dans la réalité clinique. Les cas étaient les séjours présentant une élévation de l’INR au-delà de 5, les témoins n’en présentaient pas. Axe III. Nous avons mis la réutilisation de données au service de l’étude de la qualité des prescriptions. D’une part nous avons évalué le suivi des recommandations de traitement du risque thromboembolique dans la fibrillation atriale (FA) chez la personne âgée, d’autre part nous avons étudié les modalités de prescription des anticoagulants oraux directs (AOD).Résultats : Axe I : La valeur prédictive positive des règles de détection des facteurs favorisant l’élévation de l’INR sous AVK est de 22,4%, leur sensibilité est de 84,6%. Les règles les plus contributives sont les règles de détection d’un syndrome infectieux et de l’administration d’amiodarone. Axe II : Les facteurs majeurs d’élévation du risque hémorragique sous AVK mis en évidence par l’étude de cohorte sont le syndrome infectieux, le cancer, l’hyprotidémie et l’insuffisance hépatique. Axe III : Le taux de suivi des recommandations dans la fibrillation atriale chez le sujet âgé est de 47.8%. Seuls 45% des patients reçoivent des anticoagulants oraux, 22,9% ne reçoivent aucun traitement antithrombotique et 32,1% reçoivent des antiagrégants plaquettaires. Les AOD sont quant à eux prescrits à des posologies inadaptées chez 15 à 31,4% des patients, respectivement pour le dabigatran et le rivaroxaban. Ces erreurs sont principalement des sous-dosages en AOD dans la FA de la personne âgée (82.6%). Discussion : L’informatisation des dossiers médicaux a permis la constitution de grandes bases de données médico-administratives, qui peuvent être utilisées à des fins variées comme nous le montrons dans ce travail. Dans le premier axe nous avons montré que des systèmes d’aide à la décision à base de règles permettent de caractériser les facteurs impliqués dans les surdosages en AVK avec une bonne sensibilité mais avec une faible valeur prédictive positive. Le second axe a montré que l’on pouvait utiliser ces données à des fins exploratoires pour identifier les facteurs liés à l’élévation de l’INR chez les patients recevant des AVK en pratique réelle. Le troisième axe montre que les systèmes à base de règles peuvent aussi être utilisés pour identifier des prescriptions inappropriées à des fins d’amélioration de la qualité des soins. Dans le domaine de l’anticoagulation ce travail ouvre des perspectives innovantes en vue de l’amélioration de la qualité des soins. / Introduction :Oral anticoagulants raise major issues in terms of bleeding risk and appropriate use. The computerization of medical records offers the ability to access large databases that can be explored automatically. The objective of this work is to show how routinely collected data can be reused to study issues related to anticoagulants in a supportive approach to quality of care.MethodsThis work was carried out on the electronic data (97,355 records) of a community hospital. For each inpatient stay we have diagnostic, biological, drug and administrative data, and the discharge letters. This work is organized around three axes:Axis I. The objective is to evaluate the accuracy of the detection of factors that may increase the anticoagulant effect of vitamin K antagonists (VKA), using rules developed in the PSIP european project (grant agreement N° 216130). A case review on one year enabled the calculation of the positive predictive value and sensitivity of the rules. Axis II. We conducted a cohort study on data from 2007 to 2012 to determine the major elements involved in raising the risk of bleeding related to VKA in clinical reality. Cases were the stays with an elevation of the INR beyond 5, the controls did not have.Axis III. We made data reuse serve a study of the quality of the prescriptions. On the one hand we assessed treatment of the thromboembolic risk recommendations in atrial fibrillation (AF) in the elderly, on the other hand we investigated the prescription of direct oral anticoagulants.Results : Axis I : The positive predictive value of the rules intended to detect the factors favoring the elevation of INR in case of treatment with VKA is 22.4%, the sensitivity is 84.6%. The main contributive rules are the ones intended to detect an infectious syndrome and amiodarone.Axis II : The major factor increasing the INR with VKA treatment highlighted by the cohort study are infectious syndrome, cancer, hepatic insufficiency and hypoprotidemia. The recommendations compliance rate in atrial fibrillation in the elderly is 47.8%. Only 45% of patients receive oral anticoagulants, 22.9% do not receive antithrombotic treatment at all and 32.1% received platelet aggregation inhibitors. Direct oral anticoagulants are prescribed at inadequate dosages in 15 to 31.4% of patients, respectively for dabigatran and rivaroxaban. These errors are mainly underdosages in the elderly with atrial fibrillation (82.6%).Discussion : The computerization of medical records has led to the creation of large medical databases, which can be used for various purposes as we show in this work. In the first work axis we have shown that rule-based decision support systems detect the contributing factors for VKA overdose with a good sensitivity but a low positive predictive value. The second line shows that we could use the data for exploratory purposes to identify factors associated with increased INR in patients receiving VKA in “real life practice”. The third line shows that the rule-based systems can also be used to identify inappropriate prescribing for the purpose of improving the quality of care. In the field of anticoagulation this work opens up innovative perspectives for improving the quality of care.
27

Étude de la cinématique et de la population stellaire du Centre Galactique

Paumard, Thibaut 19 September 2003 (has links) (PDF)
Le parsec central de la Galaxie a été observé à l'aide de spectro-imagerie BEAR haute résolution spectrale (jusqu'à 21 km/s) et moyenne résolution spatiale (0,5"), dans les raies Bracket gamma (2,16 micron) et He I à 2,06 microns, et d'imagerie haute résolution. Ces données ont servi à étudier la population d'étoiles jeunes et massives, la structure et la dynamique des flots de gaz ionisé de Sgr A Ouest. Les résultats obtenus, notamment la séparation des étoiles en un groupe de 6 LBV d'une part (le complexe IRS 16) et plus de 20 Wolf-Rayet d'autre part, ainsi que la résolution de IRS 13E en un amas d'au moins 6 étoiles massives, soutiennent l'idée d'une formation des étoiles jeunes en un amas massif à distance du Centre Galactique. La vision très détaillée de Sgr A Ouest et le modèle cinématique proposé du Bras Nord soutiennent l'idée que ce gaz ionisé est constitué par les fronts d'ionisation de plus vastes nuages neutres étirés par les forces de marée, provenant du Disque circumnucléaire.
28

Réplications distribuées pour la définition des interactions de jeux massivement multi-joueurs

Bosser, Anne-Gwenn 18 November 2005 (has links) (PDF)
Les Jeux Massivement Multi-Joueurs sont des applications distribuées sur Internet dans lesquels on retrouve des problématiques de persistance, de sécurité, de temps-réel, de passage à l'échelle, et d'utilisation critique des ressources des machines et du réseau.<br />Nous proposons un cadre pour la réalisation de telles applications afin de favoriser la réalisation de game-play innovants en permettant une mise au point très fine des interactions.<br />Nous décrivons les techniques actuelles et démontrons comment chaque solution pour la réalisation d'une interaction donnée est fortement liée à la description fonctionnelle de cette interaction dans le cadre du game-play considéré.<br />Notre proposition consiste en un outil de prototypage basé sur un framework doté d'une sémantique simple pour faciliter le développement, mais permettant de gérer très finement les ressources bas-niveau afin de ne pas manquer de généricité. L'outil est destiné à être utilisé dans un cadre réaliste de méthodologie de développement basée sur le raffinement successif de prototypes permettant de valider au plus tôt les choix techniques.<br />Nous présentons le framework que nous avons développé, qui définit un modèle très fin de réplication des données représentant le monde virtuel le long de l'application distribuée. La sémantique utilisée repose sur un modèle d'exécution coopératif et reproductible, dont nous donnons la formalisation des principaux traits sous une forme opérationnelle. Nous décrivons l'organisation du code produit, ainsi que la manière dont le framework s'inscrit dans notre proposition finale et détaillons un exemple complet pour illustrer son utilisation.
29

Etalonnages de l'instrument EPIC<br /> du satellite XMM-Newton<br />Observations d'Amas de Galaxies<br /> en rayons-X

Marty, Philippe 09 September 2003 (has links) (PDF)
Le satellite XMM-Newton est la seconde grande mission du plan Horizon 2000 de l'Agence Spatiale Européenne, et a pour but d'ouvrir plus largement la fenêtre des rayons-X afin d'explorer la population de sources de hautes énergies tant de la Galaxie que du ciel profond.<br /><br />Dans la première partie, je dresse un portrait de l'astronomie contemporaine dans les hautes énergies, puis je résume le contexte, notamment celui de l'observation des grandes structures et des Amas de Galaxies, ayant mené au développement d'un observatoire spatial tel qu'XMM-Newton. Une description de ses télescopes, aussi détaillée que nécessaire compte-tenu des études présentées par la suite, est faite dans la seconde partie.<br /><br />Je décris dans la troisième partie comment se sont déroulées les campagnes d'étalonnage au sol des instruments EPIC sur le banc de test synchrotron d'Orsay, ainsi que ma contribution à l'analyse des données subséquentes.<br /><br />Dans une quatrième partie, je confronte des résultats d'étalonnage à des données de vol, fais le bilan des méthodes d'analyse de ces données et présente une application de ces méthodes à l'observation d'Amas de Galaxies.<br /><br />Je conclus enfin quant aux perspectives en matière d'observations de sources étendues avec XMM-Newton ainsi qu'en matière d'instrumentation pour les hautes énergies en général et de techniques de traitement de données massives dont les Observatoires Virtuels pourront être demandeurs.
30

Recherche et caractérisation de planètes géantes autour d'étoiles massives et/ou jeunes de la Séquence Principale : modélisation de l'activité d'étoiles de type solaire et impact sur la détection de planètes de masse terrestre / Searching for and characterizing giant planets around massive and/or young Main-Sequence stars : modeling the activity of Sun-like stars and its impact on Earth-like planet detectability

Borgniet, Simon 23 November 2015 (has links)
La recherche des exoplanètes traverse aujourd'hui une période décisive. D'un côté, notre connaissance des planètes géantes gazeuses s'est considérablement développée, et l'objectif de la recherche est maintenant de caractériser leurs propriétés physiques et de mieux comprendre leurs mécanismes de formation et d'évolution. D'un autre côté, la précision et la stabilité des instruments ont atteint un niveau qui rend techniquement possible la détection de planètes telluriques situées dans la zone habitable de leur étoile. Cependant, les perturbations du signal dues à l'étoile elle-même constituent un obstacle important à cette avancée. Mon travail de thèse se situe à la rencontre de ces problématiques. Il a consisté d'une part en l'analyse de deux relevés de vitesses radiales visant des étoiles relativement exotiques pour la recherche d'exoplanètes: les étoiles naines de type AF massives. Ce travail a donné lieu à la première caractérisation de la population de planètes géantes autour de ces étoiles et a montré que les mécanismes de migration planétaire étaient au moins partiellement inhibés autour de ces étoiles par rapport aux étoiles de type FGKM. Dans un second temps, j'ai conduit les observations et l'analyse des premiers résultats de deux grands relevés de vitesses radiales débutés pendant ma thèse et visant à détecter des planètes géantes en orbite autour d'étoiles jeunes et proches. Ces étoiles jeunes sont les seules sources pour lesquelles une exploration complète des planètes géantes à toutes les séparations devient possible, par combinaison des techniques de vitesses radiales et de l'imagerie. Cette combinaison permettra de tester de manière unique les modèles de formation et d'évolution planétaire. Les résultats provisoires de ces relevés indiquent une absence de planètes géantes à très courte séparation (Jupiters chauds) autour de nos cibles. Un autre résultat intéressant est la découverte d'une binaire spectroscopique eccentrique au centre d'un système planétaire imagé à grande séparation. Pour compléter cette approche observationnelle et mieux évaluer la détectabilité des exoplanètes semblables à la Terre, j'ai étalonné et caractérisé un modèle entièrement paramétré de l'activité d'une étoile semblable au Soleil et de son impact sur les vitesses radiales. Je l'ai dans un premier temps étalonné en comparant ses résultats à ceux obtenus à partir d'observations des zones actives du Soleil, puis je l'ai utilisé pour caractériser l'impact de l'inclinaison de l'étoile sur le signal induit par l'activité. Ce modèle paramétré ouvre de très nombreuses possibilités, étant en effet potentiellement adaptable à des types d'étoiles et d'activité différents. Il permettrait ainsi de caractériser les perturbations en vitesses radiales attendues pour chaque cas testé, et donc à la fois de déterminer quelles étoiles et quels types d'activité sont les plus favorables pour la détection de planètes de masse terrestre dans la zone habitable. En explorant ces trois problématiques en apparence très diverses mais complémentaires, j'y ai retrouvé un motif commun, celui de l'importance des étoiles elles-mêmes et de la physique stellaire pour la recherche d'exoplanètes. / The search for exoplanets has reached a decisive moment. On the one hand, our knowledge of giant gaseous planets has significantly developed, and the aim of the research is now to characterize their physical properties and to better understand the formation and evolution processes. On the other hand, the instrumental precision and stability have reached a level that makes it technically possible to detect telluric planets in the habitable zone of their host star. However, the signal alterations induced by the star itself definitely challenge this breakthrough. My PhD stands at the crossroads of these problems. It consisted first in the analysis of two radial velocity surveys dedicated to stars somewhat exotic to exoplanet searches: the massive AF dwarf stars. This work has led to the first characterization of the giant planet population found around these stars and has showed that the planetary migration mechanisms were at least partially inhibited around these stars compared to FGKM stars. I then made the observations and the first analysis of two radial velocity surveys dedicated to the search for giant planets around young, nearby stars. Young stars are the only sources for which a full exploration of the giant planets at all separations can be reached, through the combination of radial velocities techniques and direct imaging. Such a combination will allow to test uniquely the planetary formation and evolution processes. The first results of these surveys show an absence of giant planets at very short separations (Hot Jupiters) around our targets. Another interesting result is the detection of an eccentric spectroscopic binary at the center of a planetary system imaged at a wide separation. To complete this observational approach and better estimate the detectability of Earth-like planets, I calibrated and characterized a fully parameterized model of the activity pattern of a Sun-like star and its impact on the radial velocities. I first calibrated it by comparing it to the results obtained with observations of the solar active structures, and then characterized the impact of stellar inclination on the activity-induced signal. Such a fully parameterized model is potentially adaptable to different types of stars and of activity and would thus allow to characterize the expected radial velocity jitter for each tested case, and then allow both to determine which types of stars and of activity patterns are the most favorable for detecting Earth-like planets in the habitable zone. While investigating these three seemingly different but complementary topics, I found that they shared a basic feature, namely the importance of the stars themselves and of stellar physics in exoplanet searches.

Page generated in 0.0513 seconds