• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1250
  • 436
  • 125
  • 10
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1823
  • 854
  • 456
  • 310
  • 282
  • 216
  • 203
  • 193
  • 182
  • 166
  • 164
  • 144
  • 142
  • 141
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
711

Applications des ultrasons focalisés de haute intensité au traitement du glaucome / High intensity focused ultrasound for the treatment of glaucoma

Aptel, Florent 08 December 2011 (has links)
Le glaucome est une pathologie fréquente principalement due à une élévation de la pression intraoculaire. La pression intraoculaire est le fruit d’un équilibre entre la production du liquide qui remplit la portion antérieure de l’œil - l’humeur aqueuse - et son élimination. Les traitements du glaucome peuvent donc agir selon deux mécanismes : la réduction de la production d’humeur aqueuse par la destruction partielle ou l’inhibition pharmacologique du corps ciliaire, structure responsable de la production de l’humeur aqueuse, ou la facilitation de l’évacuation de l’humeur aqueuse en dehors de l’oeil. De nombreuses méthodes physiques peuvent être utilisées pour détruire le corps ciliaire : lasers, cryothérapie, micro-ondes, etc. Néanmoins, toutes ces méthodes ont deux inconvénients majeurs qui limitent leur utilisation : elles sont peu sélectives de l’organe à traiter, entraînant souvent des dommages des structures adjacentes, et elles présentent une relation effet-dose très inconstante, empêchant de prévoir avec précision l’effet du traitement. L’objectif de ce travail de thèse est le développement d’un dispositif ultrasonore de coagulation du corps ciliaire circulaire, comprenant 6 transducteurs piézoélectriques en forme de segments de cylindre, et générant 6 lésions segmentaires s’inscrivant dans un anneau de diamètre similaire à celui formé par le corps ciliaire. Les expérimentations animales ont montré une nécrose de coagulation sélective des zones du corps ciliaire traitées par le dispositif. Le premier essai clinique a montré que cette méthode était bien tolérée et permettait une réduction importante, prédictible et maintenue dans le temps de la pression intraoculaire / Glaucoma is a common disease mainly due to an increase of the pressure inside the eye. Intraocular pressure is the result of a balance between the production of liquid that fills the anterior part of eye - aqueous humor - and its elimination. All treatments for glaucoma aim to reduce the intraocular pressure and can therefore have two mechanisms of action: reducing aqueous humor production by the partial destruction or medical inhibition of the ciliary body - anatomical structure responsible for the production of aqueous humor - or facilitating the evacuation of aqueous humor out of the eye. Several physical methods can be used to destroy the ciliary body: laser, cryotherapy, microwave, etc. However, all these methods have two major drawbacks limiting their use: they are non-selective of the organ to be treated, often resulting in damage to the adjacent structures, and they have an unpredictable dose-effect relationship, preventing to accurately predict the treatment effect. The objective of this thesis is the development of a circular ultrasonic device incorporating six transducers producing high-intensity focused ultrasound for a selective coagulation of the ciliary body. A circular device with 6 piezoelectric transducers having a geometry of a segment of a cylinder was used to generate six segmental lesions entering in a ring of diameter similar to that formed by the ciliary body. Animal experiments have shown a selective coagulation necrosis of the treated ciliary body. The first clinical trial in humans showed that this method was well tolerated and allowed a significant, predictable and sustained reduction of the intraocular pressure
712

Modulation pharmacologique et génétique de la fonctionnalité des particules HDL : Conséquences sur le risque cardiovasculaire et le développement de l'athérosclérose / Pharmacological and genetic modulation of HDL functionality : consequences on cardiovascular risk and atherosclerosis progression

El Khoury, Petra 15 December 2014 (has links)
Les résultats des études cliniques récentes évaluant l'impact de l'augmentation du HDL-C sur la survenue des maladies cardiovasculaires n'ont pas permis de démontrer une efficacité significative de cette stratégie thérapeutique ciblée sur le HDL-C. L'évaluation de la fonctionnalité des particules HDL dans sa capacité à assurer le retour du cholestérol des tissus périphériques au foie s'avère plus importante que la simple mesure du HDL-C. L'objectif de mes travaux de recherche a été d'évaluer la fonctionnalité des particules HDL en fonction du contexte métabolique, inflammatoire et génétique de chaque individu. Mes travaux de recherche ont démontré que la niacine réduit l'athérogénicité des lipoprotéines durant la période postprandiale modulant par conséquent la fonctionnalité des particules HDL dans la voie du transport inverse de cholestérol. J'ai également montré que certaines pathologies infectieuses associées à des taux bas de HDL-C, entrainent une baisse de la capacité des particules HDL à stimuler l'efflux de cholestérol à travers le macrophage humain. En revanche, j'ai montré que des variations génétiques entrainant des taux élevés de HDL-C ne sont pas associées à une dysfonction des particules HDL dans la voie du transport inverse de cholestérol. Mes travaux soulignent l'importance de considérer que la fonctionnalité des particules HDL est modulée in vivo par des contraintes métaboliques inflammatoires et génétiques d'où il est nécessaire que les thérapies en cours de développement visant à augmenter la fonction des HDL soient résistantes aux modifications métaboliques et inflammatoires afin d'assurer une athéroprotection efficace. / HDL cholesterol as a therapeutic target has been the focus over the past 20 years mainly because its plasma concentrations are inversely correlated with the risk of coronary events. However, recent clinical trials involved the addition of niacin or CETP inhibitors to a statin in patients with CHD who had well controlled LDL-C levels have failed to show evidence of a significant reduction in cardiovascular events. Studies on the capacity of HDL to promote reverse cholesterol transport pathway have suggested that this is a better predictor of prevalent atherosclerotic disease than HDL-C itself. The main purpose of my project was to evaluate the impact of metabolic context, inflammation and genetics on modulation of HDL functionality. I have shown that extended release niacin/laropiprant treatment reduces atherogenic postprandial lipoproteins in patients with metabolic disorders stabilized by statins, having consequences on reverse cholesterol transport pathway and HDL functionality. Moreover, I have shown that infectious diseases such as HIV, induce an alteration in the capacity of HDL particles to stimulate cholesterol efflux from human macrophages. I have also shown that mutations causing high levels of HDL-C, are characterized by the presence of functional HDL in their capacity to stimulate reverse cholesterol pathway. However such patients are not systematically protected against cardiovascular disease highlighting the complex relationship between cholesterol efflux and the prediction of cardiovascular events. Those results point out the relevance of developing therapeutic approaches targeting HDL function and reverse cholesterol transport pathway.
713

Improving memory consumption and performance scalability of HPC applications with multi-threaded network communications / Amélioration de la consommation mémoire et de l'extensibilité des performances des applications HPC par le multi-threading des communications réseaux

Didelot, Sylvain 12 June 2014 (has links)
La tendance en HPC est à l'accroissement du nombre de coeurs par noeud de calcul pour une quantité totale de mémoire par noeud constante. A large échelle, l'un des principaux défis pour les applications parallèles est de garder une faible consommation mémoire. Cette thèse présente une couche de communication multi-threadée sur Infiniband, laquelle fournie de bonnes performances et une faible consommation mémoire. Nous ciblons les applications scientifiques parallélisées grâce à la bibliothèque MPI ou bien combinées avec un modèle de programmation en mémoire partagée. En partant du constat que le nombre de connexions réseau et de buffers de communication est critique pour la mise à l'échelle des bibliothèques MPI, la première contribution propose trois approches afin de contrôler leur utilisation. Nous présentons une topologie virtuelle extensible et entièrement connectée pour réseaux rapides orientés connexion. Dans un contexte agrégeant plusieurs cartes permettant d'ajuster dynamiquement la configuration des buffers réseau utilisant la technologie RDMA. La seconde contribution propose une optimisation qui renforce le potentiel d'asynchronisme des applications MPI, laquelle montre une accélération de deux des communications. La troisième contribution évalue les performances de plusieurs bibliothèques MPI exécutant une application de modélisation sismique en contexte hybride. Les expériences sur des noeuds de calcul jusqu'à 128 coeurs montrent une économie de 17 % sur la mémoire. De plus, notre couche de communication multi-threadée réduit le temps d'exécution dans le cas où plusieurs threads OpenMP participent simultanément aux communications MPI. / A recent trend in high performance computing shows a rising number of cores per compute node, while the total amount of memory per compute node remains constant. To scale parallel applications on such large machines, one of the major challenges is to keep a low memory consumption. This thesis develops a multi-threaded communication layer over Infiniband which provides both good performance of communications and a low memory consumption. We target scientific applications parallelized using the MPI standard in pure mode or combined with a shared memory programming model. Starting with the observation that network endpoints and communication buffers are critical for the scalability of MPI runtimes, the first contribution proposes three approaches to control their usage. We introduce a scalable and fully-connected virtual topology for connection-oriented high-speed networks. In the context of multirail configurations, we then detail a runtime technique which reduces the number of network connections. We finally present a protocol for dynamically resizing network buffers over the RDMA technology. The second contribution proposes a runtime optimization to enforce the overlap potential of MPI communications, showing a 2x improvement factor on communications. The third contribution evaluates the performance of several MPI runtimes running a seismic modeling application in a hybrid context. On large compute nodes up to 128 cores, the introduction of OpenMP in the MPI application saves up to 17 % of memory. Moreover, we show a performance improvement with our multi-threaded communication layer where the OpenMP threads concurrently participate to the MPI communications
714

Placement d'applications parallèles en fonction de l'affinité et de la topologie / Placement of parallel applications according to the topology and the affinity

Tessier, Francois 26 January 2015 (has links)
La simulation numérique est un des piliers des Sciences et de l’industrie. La simulationmétéorologique, la cosmologie ou encore la modélisation du coeur humain sont autantde domaines dont les besoins en puissance de calcul sont sans cesse croissants. Dès lors,comment passer ces applications à l’échelle ? La parallélisation et les supercalculateurs massivementparallèles sont les seuls moyens d’y parvenir. Néanmoins, il y a un prix à payercompte tenu des topologies matérielles de plus en plus complexes, tant en terme de réseauque de hiérarchie mémoire. La question de la localité des données devient ainsi centrale :comment réduire la distance entre une entité logicielle et les données auxquelles elle doitaccéder ? Le placement d’applications est un des leviers permettant de traiter ce problème.Dans cette thèse, nous présentons l’algorithme de placement TreeMatch et ses applicationsdans le cadre du placement statique, c’est-à-dire au lancement de l’application, et duplacement dynamique. Pour cette seconde approche, nous proposons la prise en comptede la localité des données dans le cadre d’un algorithme d’équilibrage de charge. Les différentesapproches abordées sont validées par des expériences réalisées tant sur des codesd’évaluation de performances que sur des applications réelles. / Computer simulation is one of the pillars of Sciences and industry. Climate simulation,cosmology, or heart modeling are all areas in which computing power needs are constantlygrowing. Thus, how to scale these applications ? Parallelization and massively parallel supercomputersare the only ways to do achieve. Nevertheless, there is a price to pay consideringthe hardware topologies incessantly complex, both in terms of network and memoryhierarchy. The issue of data locality becomes central : how to reduce the distance betweena processing entity and data to which it needs to access ? Application placement is one ofthe levers to address this problem. In this thesis, we present the TreeMatch algorithmand its application for static mapping, that is to say at the lauchtime of the application,and the dynamic placement. For this second approach, we propose the awareness of datalocality within a load balancing algorithm. The different approaches discussed are validatedby experiments both on benchmarking codes and on real applications.
715

Geology, tectonics and post-2001 eruptive activity interpreted from high-spatial resolution satellite imagery : the case study of Merapi and Seremu volcanoes, Indonesia / Géologie, tectonique et activité éruptive post-2001 interprétées à partir de l'imagerie satellite haute résolution : l'étude des volcans Merapi et Seremu, Indonésie

Solikhin, Akhmad 16 March 2015 (has links)
L’intérêt de la télédétection appliquée aux volcans actifs et potentiellement dangereux a été démontré depuis longtemps dans la mesure où cette technique a participé à l’amélioration de la compréhension des processus éruptifs et des aléas volcaniques, amélioration qui permet une réduction des risques volcaniques. Nous avons entrepris plusieurs études volcanologiques reposant sur l’usage d’images de moyenne et haute résolution spatiale, qu’elles soient optiques (IKONOS, Pléiades, GeoEye, Quickbird and SPOT5), radar (ALOS-PALSAR) ou bien thermiques (ASTER et MODIS «hot spot»). Associées à l’analyse de MNTs et de photographies aériennes acquises par un drone, ces études ont consisté à appliquer des techniques de télédétection sur le Semeru et le Merapi, deux des volcans composites les plus actifs et les plus densément peuplés de l’ile de Java en Indonésie. Cette recherche fondée sur la télédétection a permis de mettre en évidence des structures géologiques et tectoniques, d’identifier, de classer et de cartographier des dépôts éruptifs sur les deux volcans et a servi à améliorer l’évaluation des risques à la suite des grandes éruptions de 2002-2003 au Semeru et de 2010 au Merapi. Nous avons également initié une étude afin de comprendre les interactions entre l’activité éruptive et le contexte sismo-tectonique régional en utilisant l’analyse des données MODIS avec la méthode MODVOLC. Nous avons remis à jour la carte géologique du volcan Semeru en y associant des données issues de l’interprétation d’images HSR récentes, des photographies aériennes, l’analyse de MNTs et des observations de terrain, notamment dans le réseau hydrograhique qui convoie des lahars. Nous avons décrit l’histoire éruptive postérieure à 2001 au Semeru en incluant la grande éruption à l’origine des écoulements pyroclastiques (EPs) en 2002-2003 et les éruptions effusives de 2012-2014, qui constituent un phénomène rarement observé sur ce volcan. Le Semeru a produit un volume de 2.5 ± 0.5 106m3 de coulées de lave provenant du cratère sommital entre 2010 et 2014, ce qui peut annoncer, pour la première fois depuis 1967 ou 1941, une modification profonde du style éruptif de ce volcan. Au moment de terminer cette thèse, le dome-coulée situé dans le cratère Jonggring-Seloko continue à croître et les coulées de lave dépassent 2 km de longueur dans la cicatrice majeure en pente raide sur le flanc SE ; leurs fronts pourraient s’effondrer et produire des EPs dont le volume moyen pourrait excéder les valeurs de 3 à 6.5 million de m3 mesurées sur la période 1967-2007. Les écoulements futurs pourront déborder des parois de la cicatrice vers l’aval et se propager vers les vallées des flancs est et sud-ouest. L’épisode éruptif du 26 octobre au 23 novembre 2010 s’est avéré l’événement majeur de l’activité du Merapi depuis 1872. Notre interprétation des images HSR démontre qu’à l’issue des éruptions explosives, le sommet du Merapi a perdu un volume de 10 x 106m3 et la gorge de Gendol orientée SSE a été élargie jusqu’à mesurer 1.3 x 0.3 x 0.2 km. Le nouveau cratère élargi et profond inclut le dome post-2010, qui a été fracturé en 2013, tandis que ses parois verticales instables peuvent être fragilisées par les explosions mineures de 2013 et 2014. Nous avons identifié et cartographié les dépôts pyroclastiques et de lahar de 2010 en appliquant plusieurs méthodes de classification aux images optiques HSR et aux données polarisées de Radar à Synthèse d’Ouverture (RSO). Les résultats démontrent la capacité de l’imagerie satellitaire HSR à capturer l’extension et les impacts de dépôts immédiatement après une grande éruption et avant tout remaniement. Cette technique met en exergue l’utilité de l’imagerie haute résolution et des données radar pour les volcans en activité persistante dont l’accès est souvent rendu impossible. (...) / Remote sensing has long been recognized as a tool for analysis at active and hazardous volcanoes because it can augment our understanding of the processes that underlie volcanic activity so as enable us to apply this understanding to volcanic risk reduction. This thesis presents a volcanological study using High-Spatial Resolution optical images (IKONOS, Pléiades, GeoEye, Quickbird and SPOT5 satellites), radar data (ALOS-PALSAR sensor) and thermal (ASTER satellite and MODIS hot spot) images. In association with DEMs and low-altitude aerial photographs, remote sensing techniques have been applied for tracing the evolution of activity at Semeru and Merapi, two of the most active and densely populated volcanoes in Java, Indonesia. This remotely sensing-based study has unraveled structures, geological features and erupted deposits of both volcanoes and has improved the existing hazard assessment after their most recent eruptions. The thesis also presents the first advance towards deciphering possible interactions between regional tectonic earthquakes and renewed stages of eruptive activity of Merapi and Semeru volcanoes based on the analysis of volcanic hotspots detected by the MODVOLC technique. The geological map of Semeru is updated, including additional data derived from the interpretation of the most recent satellite images, aerial photographs, DEM analysis and fieldwork. The post-2001 eruptive activity at Semeru, including the large PDC-forming eruption in 2002-2003 and uncommon lava flow eruptions in 2010-2014 are investigated. The fact that Semeru has produced several lava flows from the central summit vent between 2010 and 2014 may herald a profound change in eruption style for the first time since at least 1967. At the time of writing, a dome-fed coulée in the Jonggring-Seloko crater continues to grow and lava flows are extending to distances of >2 km down Semeru's SE-scar; their fronts may collapse and produce large-volume pyroclastic density currents (PDCs), perhaps exceeding the average (1967-2007) volume range of 3 to 6.5 million m3. Future dome-collapse PDCs may travel farther down the main SE scar and can spill over its lowermost rims towards the southwest and eastward radiating drainage network. The 26 October-23 November 2010 eruption was the Merapi’s largest event since 1872 (it attained VEI=4). The interpretation of HSR images shows that due to the explosive eruptions, the summit area lost about 10 x 106m3 and the SSE-trending Gendol Breach enlarged to reach 1.3 x 0.3 x 0.2 km in size. The new, enlarged and deep summit crater including the 2010 lava dome is extremely unstable having been weakened by the post-2010 explosive events. This instability is a result of the steep Gendol Breach below the mouth of the crater and the steep and unstable crater walls. The 2010 Merapi pyroclastic and lahar deposits have been identified by applying several classification methods to HSR optical images and dual-polarization synthetic aperture radar (SAR) data. The results show the ability of remotely sensed data to capture the extent and impacts of pristine deposits shortly after emplacement and before any reworking, and highlight the purpose of using high-spatial resolution imagery and SAR data on persistently active volcanoes where access for field survey is often impossible. The 2010 tephra and PDC deposits covered ca. 26 km2 in two catchments of Gendol and Opak Rivers on Merapi’s south flank, i.e. 60-75% of the total PDC deposit area and a total bulk volume of 45 x 106m3. The tephra-fall deposit covered an area of ca. 1300 km2 with a volume range of 18-21 x 106m3. Volumes of these deposits were estimated using the areas determined from remote sensing data and deposit thickness measured in the field. (...) / Penginderaan jauh telah lama dikenal sebagai suatu alat untuk analisis di gunungapi aktif dan berbahaya karena dapat meningkatkan pemahaman kita tentang proses yang mendasari aktivitas gunung berapi sehingga memungkinkan kita untuk menerapkan pemahaman ini dalam pengurangan risiko erupsi gunungapi. Disertasi ini menyajikan studi vulkanologi menggunakan citra satelit optik resolusi tinggi (IKONOS, Pléiades, GeoEye, Quickbird dan SPOT5), data radar (ALOS-PALSAR sensor) dan citra termal (satelit ASTER dan hotspot MODIS). Dalam kaitannya dengan DEM dan foto udara, teknik penginderaan jauh telah diterapkan untuk melihat evolusi aktivitas di Semeru dan Merapi, dua gunung berapi yang paling aktif dengan kepadatan penduduk yang tinggi terletak di Pulau Jawa, Indonesia. Studi berbasis penginderaan jauh ini telah mengkaji struktur, fitur geologi dan material erupsi dari kedua gunungapi tersebut dan telah mempertajam penilaian bahaya yang ada setelah erupsi terkini. Disertasi ini juga menyajikan kemajuan awal dalam menafsirkan kemungkinan interaksi antara gempa tektonik regional dan aktivitas gunungapi Merapi dan Semeru berdasarkan analisis hotspot vulkanik yang terdeteksi oleh MODVOLC. Peta geologi Semeru telah diperbaharui dengan memasukkan data tambahan yang berasal dari interpretasi citra satelit terbaru, foto udara, analisis DEM dan data lapangan. Aktivitas erupsi pasca-2001 di Semeru, termasuk erupsi dengan aliran pirokastik (Pyroclastic Density Current/PDC) besar pada tahun 2002-2003 dan erupsi tidak biasa dengan aliran lava pada 2010-2014, telah dikaji. Fakta bahwa Semeru telah menghasilkan beberapa aliran lava dari kawah di puncak antara tahun 2010 dan 2014, mengindikasikan perubahan besar dalam gaya erupsi untuk pertama kalinya setidaknya sejak 1967. Pada saat penulisan disertasi ini, sebuah kubah lava (Coulée) di kawah Jonggring- Seloko terus tumbuj dan aliran lava yang memanjang hingga jarak >2 km arah tenggara Semeru; ujung lava kemungkinan dapat runtuh dan menghasilkan aliran piroklastik yang mungkin melebihi volume rata-rata (tahun 1967 hingga 2007) dalam kisaran 3-6.5 juta m3. Aliran piroklastik yang akan datang mungkin mengalir sepanjang gawir utama ke arah tenggara dan dapat menyebar melampaui lereng paling bawah ke arah barat daya dan ke arah timur menyebar ke jaringan drainase. Erupsi yang terjadi pada 26 Oktober-23 November 2010 adalah erupsi terbesar Merapi (mencapai VEI 4) sejak 1872. Interpretasi citra resolusi tinggi menunjukkan bahwa daerah puncak kehilangan batuannya sekitar 10 juta m3 akibat erupsi eksplosif. Erupsi juga memperbesar “Gendol Breach” dengan orientasi tenggara menjadi berukuran 1.3x0.3x0.2 km. Kawah puncak yang baru, diperbesar dan dalam, termasuk juga kubah lava tahun 2010 sangat tidak stabil dan telah diperlemah oleh beberapa erupsi eksplosif pasca-2010. Ketidakstabilan ini diakibatkan oleh curamnya Gendol Breach di bawah mulut kawah dan kondisi dinding kawah yang curam dan tidak stabil. Deposit piroklastik dan lahar diidentifikasi dengan menerapkan beberapa metode klasifikasi terhadap citra optik resolusi tinggi dan data dual-polarisasi Synthetic Aperture Radar (SAR). Hasilnya menunjukkan kemampuan data penginderaan jauh untuk merekam jangkauan dan dampak dari deposit murni sesaat setelah pengendapan dan sebelum proses erosi, serta menyoroti tujuan penggunaan citra resolusi tinggi dan data SAR di gunungapi sangat aktif dengan akses untuk survei lapangan sering kali tidak memungkinkan. Endapan tephra dan PDC menutupi area sekitar 26 km2 di dua DAS, Kali Gendol dan Opak, di sisi selatan Merapi, atau 60-75% dari total luas endapan PDC, dan total volume 45 juta m3. Deposit tephra jatuh menutupi area seluas sekitar 1.300 km2 dengan volume 18-21 juta m3. Volume endapan vulkanik ini diestimasi menggunakan informasi luas yang ditentukan dari data penginderaan jauh dan ketebalan yang diukur di lapangan. (...)
716

Mécanismes de dégradation de revêtements base CrN élaborés par arc-PVD : Intérêt d'une nano-architecture

Schmitt, Thomas 13 December 2010 (has links)
Les enjeux environnementaux liés à l'utilisation des fluides de coupe lors des étapes d'usinage, nécessitent le développementde nouveaux matériaux résistant à une utilisation en lubrification réduite, voire à sec. Le domaine des revêtements en couchesminces et plus particulièrement des dépôts physiques en phase vapeur (PVD) permet de synthétiser des surfaces adaptées à cetype d'utilisation sévère. Le nitrure de titane (TiN), largement utilisé dans l'industrie, montre toute l'efficacité de cesrevêtements. Ses performances sont cependant limitées à des températures modérées. Au contraire, le caractère réfractairemarqué du nitrure de chrome (CrN) en fait un candidat de choix pour des applications à hautes températures. Les propriétésmécaniques de ces nitrures sont certes moindres, mais le développement récent de microstructures nanométriques laisseaugurer des performances intéressantes que nous nous proposons d'étudier. L'objectif de ce travail est de déterminer l'influenced'une microstructure contrôlée à l'échelle nanométrique sur la durabilité de films minces base CrN, synthétisés par évaporationpar arc cathodique. Les différentes microstructures sont obtenues par modification chimique (addition d'aluminium et desilicium) ou par alternance des couches.L'ajout d'aluminium à CrN aboutit à la formation d'une solution solide et améliore les propriétés mécaniques du revêtement.La résistance à l'oxydation est augmentée par la présence de liaisons fortes Al-N, qui permettent de limiter le départ d'azote etainsi de retarder le phénomène d'oxydation. De plus, la démixtion de la phase initiale CrAlN en deux phases distinctes, CrN etAlN, tend à isoler les grains de CrN et ainsi à améliorer leur stabilité thermique. La même transformation est observée aprèsles essais de frottement et semble à l'origine des performances accrues du dépôt vis-à-vis de l'usure. L'addition de silicium setraduit par la synthèse d'un revêtement nanocomposite pour une teneur minimale d'environ 2 % at. Cette structure est forméede grains nanométriques enrobés dans une matrice amorphe. Le changement de structure s'accompagne d'une meilleurerésistance à l'oxydation, en raison des propriétés de barrière diffusionnelle de la matrice qui protège les nano-grains de CrN.En revanche, une fraction volumique trop importante de la phase amorphe apparaît préjudiciable au comportementtribologique. Le revêtement présente dans ce cas un comportement fragile, favorisant la formation et la propagation defissures. L'emploi de ces mêmes films (CrN et CrSiN) en architecture nanostratifiée inhibe néanmoins ce comportement. Desessais de micro-traction montrent que l'alternance des couches permet de limiter la formation de fissures, si bien quel'architecture multicouche semble prometteuse dans le cas de sollicitations sévères. De même, la stratification de CrN etCrAlN donne des revêtements extrêmement durables, malgré des propriétés mécaniques intermédiaires régies par une loi desmélanges.L’originalité de ce travail réside dans la détermination des mécanismes de dégradation des différentes microstructures, d’unepart en établissant le lien entre microstructure et propriétés d’usage, et d’autre part en considérant ces dégradation selon uneapproche in situ locale. / Environmental issues related to the use of metalworking fluids during machining steps require the development of newresistant materials operating in “Near Dry Machining” or in “Dry Machining” conditions. The field of thin coatings and moreparticularly Physical Vapor Deposition (PVD) enable the synthesis of resistant materials. Titanium nitride (TiN) is widely usedin industry and is an example of the efficiency of coatings. However, the poor oxidation resistance of this coating limits itsuse. On the contrary, chromium nitride (CrN) is an excellent candidate for applications at high temperatures despite its lowermechanical properties. The recent development of nanostructured coatings can overcome such inconvenience. The objectiveof this work is to study the influence of a controlled nanoscale microstructure on the durability of CrN thin films synthesizedby cathodic arc evaporation. The different microstructures are obtained by silicon or aluminum addition, or by alternatinglayers (multilayer structure).Adding aluminium to CrN leads to the formation of a solid solution and improves the mechanical properties of the coating.Resistance to oxidation is increased by the strong Al-N bonds, which limit nitrogen release, and thus delay the oxidation. Inaddition, the phase separation of CrAlN into CrN and AlN isolates the CrN grains from the surrounding atmosphere andincreases their thermal stability. The same phenomenon is detected after friction tests and seems to account for the improvedwear resistance. Silicon addition results in the formation of a nanocomposite coating for a minimum content of about 2 at.%.This structure is composed of nanometric grains embedded in an amorphous matrix. The structure change is followed by asignificant increase in the oxidation resistance, due to the diffusional barrier properties of the matrix, protecting thereby theCrN nano-grains. In contrast, a too large fraction of amorphous phase appears detrimental to the tribological behavior. Thecoating becomes brittle and is prone to cracks emergence. The use of these individual layers in a multilayer coating can avoidthis last consequence. Thanks to a micro-tensile machine, the alternating architecture was found to limit the cracks formation.Layered film seems thus to be very promising in the case of severe working conditions. Similarly, stratification between CrNand CrAlN allows the synthesis of highly sustainable coatings despite the mechanical properties governed by a law ofmixtures.The originality of this work lies in determining the degradation mechanisms of the different microstructures by establishingthe link between microstructure and wear properties on the one hand, and by in situ observation of damages on the other hand.
717

Stabilité de la sélection de variables sur des données haute dimension : une application à l'expression génique / Feature selection stability on high dimensional data : an application to gene expression data

Dernoncourt, David 15 October 2014 (has links)
Les technologies dites « haut débit » permettent de mesurer de très grandes quantités de variables à l'échelle de chaque individu : séquence ADN, expressions des gènes, profil lipidique… L'extraction de connaissances à partir de ces données peut se faire par exemple par des méthodes de classification. Ces données contenant un très grand nombre de variables, mesurées sur quelques centaines de patients, la sélection de variables est une étape préalable indispensable pour réduire le risque de surapprentissage, diminuer les temps de calcul, et améliorer l'interprétabilité des modèles. Lorsque le nombre d’observations est faible, la sélection tend à être instable, et on observe souvent que sur deux jeux de données différents mais traitant d’un même problème, les variables sélectionnées ne se recoupent presque pas. Pourtant, obtenir une sélection stable semble crucial si l'on veut avoir confiance dans la pertinence effective des variables sélectionnées à des fins d'extraction de connaissances. Dans ce travail, nous avons d'abord cherché à déterminer quels sont les facteurs qui influencent le plus la stabilité de la sélection. Puis nous avons proposé une approche, spécifique aux données puces à ADN, faisant appel aux annotations fonctionnelles pour assister les méthodes de sélection habituelles, en enrichissant les données avec des connaissances a priori. Nous avons ensuite travaillé sur deux aspects des méthodes d'ensemble : le choix de la méthode d'agrégation et les ensembles hybrides. Dans un dernier chapitre, nous appliquons les méthodes étudiées à un problème de prédiction de la reprise de poids suite à un régime, à partir de données puces, chez des patients obèses. / High throughput technologies allow us to measure very high amounts of variables in patients: DNA sequence, gene expression, lipid profile… Knowledge discovery can be performed on such data using, for instance, classification methods. However, those data contain a very high number of variables, which are measured, in the best cases, on a few hundreds of patients. This makes feature selection a necessary first step so as to reduce the risk of overfitting, reduce computation time, and improve model interpretability. When the amount of observations is low, feature selection tends to be unstable. It is common to observe that two selections obtained from two different datasets dealing with the same problem barely overlap. Yet, it seems important to obtain a stable selection if we want to be confident that the selected variables are really relevant, in an objective of knowledge discovery. In this work, we first tried to determine which factors have the most influence on feature selection stability. We then proposed a feature selection method, specific to microarray data, using functional annotations from Gene Ontology in order to assist usual feature selection methods, with the addition of a priori knowledge to the data. We then worked on two aspects of ensemble methods: the choice of the aggregation method, and hybrid ensemble methods. In the final chapter, we applied the methods studied in the thesis to a dataset from our lab, dealing with the prediction of weight regain after a diet, from microarray data, in obese patients.
718

L'apport des données de contacts détaillées à la modélisation épidémiologique : application au cas des infections nosocomiales à Staphylococcus aureus / How epidemiological modeling can benefit from high-resolution contact data : the case of Staphylococcus aureus nosocomial infections

Obadia, Thomas 15 July 2015 (has links)
La modélisation mathématique en épidémiologie utilise traditionnellement l’hypothèse de mélange homogène des individus dans la population. Si certains modèles structurés permettent de tenir compte de l’hétérogénéité apparente (spatiale, temporelle), ils permettent rarement de la caractériser à l’échelle d’un individu. Dans cette thèse, nous présentons les résultats de l’analyse conjointe des contacts interindividuels et du portage individuel de Staphylococcus aureus. Ces données, collectées dans l’hôpital de soins de suite de Berck-sur-Mer pendant 6 mois, permettent de mettre en évidence l’intérêt de l’étude des structures de contacts pour établir des nouvelles mesures de contrôle dans la lutte contre les infections nosocomiales, et plus généralement pour apporter un nouveau substrat informatif aux modèles épidémiologiques.Après avoir rappelé dans une première partie les différents modèles usuels utilisés en épidémiologie et les hypothèses qu’ils imposent, nous présentons l’étude I-Bird qui vise à identifier, par l’utilisation des nouvelles technologies de l’information, de nouvelles méthodes pour limiter la dissémination de bactéries nosocomiales.Dans une première étude, nous démontrons que l’utilisation de capteurs électroniques de proximité fournit un proxy valable pour la collecte des interactions interindividuelles pouvant mener à transmission de S. aureus entre patients et personnels soignants dans un établissement de soins de suite et de réadaptation. Nous exploitons ensuite ces données de façon à fournir une évaluation quantitative du risque individuel d’acquisition de S. aureus, dans l’optique de réduire la dissémination de bactéries multirésistantes. / Mathematical modeling in epidemiology often assumes that individuals mix at random within a population. Age-structured models allow for more realistic contact rates, depending on the age of individuals, yet such models can’t characterize the heterogeneity at the individual level.In this thesis, we present the results of a prospective, longitudinal study conducted during 6 months in a long-term care facility located in Berck-sur-Mer, France. We show that high-resolution contact structures can be used to design new intervention strategies in order to reduce the spread of nosocomial bacteria and inform models with more realistic contact patterns.After first recalling the usual modeling frameworks used in epidemiology and their underlying hypothesis, we detail the data collected as part of the I-Bird study. This study focuses on understanding how Staphylococcus aureus spreads between individuals in a healthcare setting.In a first study, we provide empirical results that validate the use of electronic records as a good proxy for close-proximity interactions that can lead to the dissemination of S. aureus. We then set out to identify contact-related risk factors for S. aureus colonization, in an effort to detect situation of increased risk. Such situations could help enforce new intervention strategies that rely on the observed contact network, to efficiently reduce the burden of S. aureus, ultimately helping to reduce the spread of multidrug-resistant bacteria.
719

Statistical modeling, level-set and ensemble learning for automatic segmentation of 3D high-frequency ultrasound data : towards expedited quantitative ultrasound in lymph nodes from cancer patients / Modélisation statistique, méthodes d'ensemble de niveaux et apprentissage automatique pour la segmentation de données ultrasonores 3D haute fréquence : vers une analyse rapide par ultrasons quantitatifs des ganglions lymphatiques de patients atteints d'un cancer

Bui Minh, Thanh 02 June 2016 (has links)
Afin d'accélérer et automatiser l'analyse par ultrasons quantitatifs de ganglions lymphatiques de patients atteints d'un cancer, plusieurs segmentations automatiques des trois milieux rencontrés (le parenchyme du ganglion, la graisse périnodale et le sérum physiologique) sont étudiées. Une analyse statistique du signal d'enveloppe a permis d'identifier la distribution gamma comme le meilleur compromis en termes de qualité de la modélisation, simplicité du modèle et rapidité de l'estimation des paramètres. Deux nouvelles méthodes de segmentation basées sur l'approche par ensemble de niveaux et la distribution gamma sont décrites. Des statistiques locales du signal d'enveloppe permettent de tenir compte des inhomogénéités du signal dues à l'atténuation et la focalisation des ultrasons. La méthode appelée LRGDF modélise les statistiques du speckle dans des régions dont la taille est contrôlable par une fonction lisse à support compact. La seconde, appelée STS-LS, considère des coupes transverses, perpendiculaires au faisceau, pour gagner en efficacité. Une troisième méthode basée sur la classification par forêt aléatoire a été conçue pour initialiser et accélérer les deux précédentes. Ces méthodes automatiques sont comparées à une segmentation manuelle effectuée par un expert. Elles fournissent des résultats satisfaisants aussi bien sur des données simulées que sur des données acquises sur des ganglions lymphatiques de patients atteints d'un cancer colorectal ou du sein. Les paramètres ultrasonores quantitatifs estimés après segmentation automatique ou après segmentation manuelle par un expert sont comparables. / This work investigates approaches to obtain automatic segmentation of three media (i.e., lymph node parenchyma, perinodal fat and normal saline) in lymph node (LN) envelope data to expedite quantitative ultrasound (QUS) in dissected LNs from cancer patients. A statistical modeling study identified a two-parameter gamma distribution as the best model for data from the three media based on its high fitting accuracy, its analytically less-complex probability density function (PDF), and closed-form expressions for its parameter estimation. Two novel level-set segmentation methods that made use of localized statistics of envelope data to handle data inhomogeneities caused by attenuation and focusing effects were developed. The first, local region-based gamma distribution fitting (LRGDF), employed the gamma PDFs to model speckle statistics of envelope data in local regions at a controllable scale using a smooth function with a compact support. The second, statistical transverse-slice-based level-set (STS-LS), used gamma PDFs to locally model speckle statistics in consecutive transverse slices. A novel method was then designed and evaluated to automatically initialize the LRGDF and STS-LS methods using random forest classification with new proposed features. Methods developed in this research provided accurate, automatic and efficient segmentation results on simulated envelope data and data acquired for LNs from colorectal- and breast-cancer patients as compared with manual expert segmentation. Results also demonstrated that accurate QUS estimates are maintained when automatic segmentation is applied to evaluate excised LN data.
720

Etude de l'intérêt de la montée en tension du bus DC pour minimiser les pertes dans l'onduleur d'un véhicule électrique / Study of the interest of the rise in the DC link voltage to minimize losses in the inverter of an electric vehicle

Oustad, Dounia 02 February 2018 (has links)
L'autonomie est, à l'heure actuelle, un des points les plus bloquants des véhicules électriques. Une optimisation du rendement de la chaîne de conversion est donc un objectif primordial. La thèse s'inscrit donc dans un contexte d'efficacité énergétique et d'intégration en électronique de puissance. Il s'agira d'améliorer les rendements de conversion et la puissance massique à la fois par le choix de technologies adaptées et par la conception de structures de conversion optimisées. Dans un premier temps, nous présentons l’impact de l’évolution de la tension de batterie HT sur le choix des technologies de composants de puissance. Différentes architectures de conversion sont également présentées et l’accent est mis sur un convertisseur en particulier : L’onduleur. Puis, nous comparons les relevés expérimentaux à ceux qui peuvent sont fournis par des fabricants pour certains composants et dans certaines conditions de fonctionnement. Ces essais permettent également d’enrichir les données des fabricants. Enfin, nous comparerons l’impact de la montée en tension des batteries HT sur les performances de différentes structures d’onduleurs (2 et 3 niveaux), pour différentes technologies de composants semi-conducteurs de puissance et pour différents points de fonctionnement de la machine associée. / Currently, autonomy of electric vehicles is one of the most blocking points for developing such mean of transport. An optimization of the efficiency of the power train is thus a primordial objective. The thesis is part of a context of energy efficiency and integration in power electronics. This will improve conversion efficiencies and mass power both by the choice of appropriate technologies and design optimized conversion structures. First, we present the impact of the evolution of the HT battery voltage on the choice of power component technologies. Different conversion architectures are also presented and the focus is on a particular converter: The inverter. Then, we compare the experimental records to those that can be supplied by manufacturers for certain components and under certain operating conditions. These tests also make it possible to enrich the data of the manufacturers. Finally, we will compare the impact of the voltage rise of the HT batteries on the performances of various inverter structures (2 and 3 levels), for different technologies of semiconductor power components and for different operating points of the machine associated.

Page generated in 0.0323 seconds