• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 8
  • 2
  • Tagged with
  • 27
  • 27
  • 10
  • 7
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Impact des biocarburants sur le système d’oxydation catalytique des véhicules diesel / Impact of biofuels on the catalytic oxidation system of diesel vehicles

Anguita, Paola 08 October 2018 (has links)
Les normes plus restrictives visent à réduire les émissions de polluants, en particulier le CO2, favorisant l'usage des biocarburants. Cependant, le biodiesel contient des éléments inorganiques (Na, K, Ca et P) qui réduisent la durabilité des systèmes de post-traitement. Dans ce travail sont évalués les performances des catalyseurs d'oxydation diesel (DOCs, catalyseur de référence PtPd/CeZrO2/La-Al2O3). Les résultats de caractérisation ont montré l’influence de ces impuretés sur les propriétés physico-chimiques et catalytiques. Bien que la structure cristalline du catalyseur de référence ne change pas après l'incorporation des impuretés, la surface spécifique diminue. La capacité redox a diminué lorsque les impuretés Na, K et Ca sont présents du à leur faible électronégativité, ce qui augmente l'interaction avec l'oxygène. Cette interaction semble être responsable de l’augmentation de la vitesse de réaction de C3H6. Les résultats NO-TPD ont montré que la forte basicité ces impuretés entraînait une plus forte adsorption du NO. Par DRIFT il a été aussi montré que l’adsorption des intermédiaires du NO, associée au champ électrostatique créé par ces cations, empêche l'oxydation de NO. L'adsorption de CO a été favorisée, améliorant la conversion du CO. La formation de phosphate de cérium observée pourrait stabiliser l'état d'oxydation de Ce3+ (vérifié par XPS), en diminuant l'oxydation de NO due au blocage des sites catalytiques. Néanmoins, les co-oxydations de CO et de C3H6 ont été améliorées en évitant l'auto-empoisonnement. Après vieillissement hydrothermal, l'effet des impuretés a été masqué par le frittage de Pt/Pd, ce qui diminue les performances catalytiques / The more restrictive regulations to reduce pollutants emissions, especially CO2, promote the use of biofuels. However, biodiesel contains inorganic elements (Na, K, Ca and P) that reduce the durability of the after-treatment catalysts. This work aims to evaluate the performance of Diesel Oxidation Catalysts (DOCs, PtPd/CeZrO2/La-Al2O3 reference catalyst). The characterization results have shown that the above-mentioned impurities affect the physico-chemical, redox, surface and catalytic properties. Although the catalyst crystalline structure of reference catalyst did not change after impurities incorporation, the specific surface area decreased. The redox ability was also decreased when Na, K and Ca impurities are present due to their low electronegativity, which increased the oxygen interaction. This high interaction seems to be responsible of the enhanced C3H6 reaction rate. NO-TPD results evidenced that the high basicity of Na, K and Ca impurities resulted in an increase of NO adsorption strength. Accordingly, DRIFT results showed the presence of NO intermediates adsorption associated to the electrostatic field created by these cations, hindering NO oxidation. CO adsorption was also promoted, enhancing CO reaction rate. The formation of cerium phosphate was also observed, which could stabilize the Ce3+ oxidation state (checked by XPS), decreasing NO oxidation due to the blockage of catalytic sites. Nevertheless, CO and C3H6 co-oxidations were enhanced by avoiding self-poisoning. After catalyst hydrothermal aging, the effect of impurities was masked by the sintering of Pt/Pd active sites, which decreases the DOC catalytic performances
22

Méthodes d'analyse par éléments finis des contraintes aux interfaces dans les structures sandwich

Vincent, Manet 17 July 1998 (has links) (PDF)
Le but de ce travail est de développer des outils par éléments finis permettant de calculer des structures sandwich sans ajouter aucune autre hypothèse que celle, très générale, de l'élasticité linéaire. Deux voies ont été suivies dans ce travail. Tout d'abord, nous exposons comment développer des éléments finis hybrides, dans lesquels les contraintes aux interfaces entre les différentes couches sont obtenues par l'intermédiaire de multiplicateurs de Lagrange. Des éléments 2D et 3D, basés sur le principe du travail virtuel et sur la fonctionnelle de Pian et Tong sont développés et validés. Ensuite, après avoir examiné les possibilités offertes par le code de calcul Ansys 5.3, nous proposons une méthode de post-traitement, basée sur la fonctionnelle de Reissner, permettant de recouvrer les contraintes d'interfaces à partir des déplacements nodaux obtenus à partir des éléments en déplacements. Finalement ces deux approches sont confrontées entre elles, tant sur le plan de la qualité des résultats numériques que sur la facilité d'utilisation, de programmation et d'implémentation dans des codes de calculs existants.
23

Imagerie cardiaque par résonance magnétique à la phase aigüe de l'infarctus du myocarde : de la physiopathologie à l'évaluation des nouvelles thérapeutiques de reperfusion / Cardiac Magnetic Resonance Imaging at the Acute Phase of Myocardial Infarction : from Physiopathology to New Reperfusion Treatments Assessment

Mewton, Nathan 22 December 2009 (has links)
La première partie de cette thèse porte sur l'étude du no-reflow ou obstruction microvasculaire en IRM cardiaque. Dans une première étude, nous avons mesuré l'incidence du no-reflow dans une population de 25 patients pris en charge pour infarctus du myocarde sans sus-décalage du segment ST. Nous avons trouvé que 32% de ces patients présentaient un no-reflow et que la présence de no-reflow était associée à une taille d'infarctus significativement plus importante ainsi qu'une élévation plus importante des enzymes cardiaques. Dans une deuxième étude nous avons comparé la performance diagnostique du myocardial blush grade (MBG) pour le diagnostic du no-reflow avec l'IRM cardiaque sur les séquences de rehaussement tardif post-gadolinium. Cette étude a été réalisée dans une population de 39 patients pris en charge pour un premier épisode de STEMI. Nous avons trouvé que le MBG sous-estimait la présence de no-reflow à la phase aiguë de l'infarctus après reperfusion optimale en comparaison avec l'IRM. La deuxième partie de cette thèse concerne la quantification de l'infarctus du myocarde en IRM cardiaque de rehaussement tardif post-gadolinium. Nous avons comparé une technique d'évaluation semi-quantitative visuelle rapide avec la planimétrie manuelle classique sur une population de 103 patients pris en charge pour syndrome coronarien aigu. La taille de l'infarctus était évaluée par ces deux méthodes en IRM cardiaque réalisée 4 jours après admission. Nous avons trouvé une excellente corrélation et un bon niveau de concordance entre les deux méthodes d'évaluation de la taille d'infarctus, avec des temps de posttraitements beaucoup plus courts pour l'analyse visuelle rapide. Enfin, la troisième partie de cette thèse aborde le sujet de l'utilisation de l'IRM cardiaque comme outil de mesure dans les essais thérapeutiques sur la reperfusion myocardique. Nous avons utilisé l'IRM cardiaque pour évaluer l'efficacité de l'utilisation de la cyclosporine A à la phase aigüe de l'infarctus reperfusé et son effet sur remodelage ventriculaire à 6 mois. Dans cette étude 28 patients ont été étudiés en IRM cardiaque 5 jours et 6 mois après un infarctus du myocarde. Nous avons trouvé une persistance de la réduction significative de 23% de taille de l'infarctus à 6 mois dans le groupe traité par cyclosporine par rapport au groupe contrôle. Il n'y avait pas d'effet négatif de la cyclosporine A sur le processus de remodelage ventriculaire gauche / We assessed the presence and extent of microvascular obstruction (MVO) and its relationship with infarct size and left ventricular (LV) functional parameters after acute non-ST elevated myocardial infarction (NSTEMI). 25 patients with first acute NSTEMI underwent a complete cardio magnetic resonance (CMR) study 72 hours after admission. MO was detected in 32% of patients and was significantly associated with a larger infarct size. There were no significant difference between both groups for the LV functional parameters but patients with MO showed a higher troponin-I and CK release. We studied the relation between Myocardial Blush Grade (MBG) and gadolinium-enhanced CMR for the assessment of MVO in 39 patients with acute ST elevated myocardial infarction (STEMI) treated by primary PCI. No statistical relation was found between MBG and MVO extent at CMR (p=0.63). MBG underestimates MVO after an optimal revascularization in AMI compared to CMR.We compared the performance and post-processing time of a global visual scoring method to standard quantitative planimetry and we compared both methods to the peak values of myocardial biomarkers. 103 patients admitted with reperfused AMI to our intensive care unit had a complete CMR study 4±2 days after admission. There was an excellent correlation between quantitative planimetry and visual global scoring for the hyperenhancement extent’s measurement (r=0.94; y=1.093x+0.87; SEE=1.2; P<0.001) and there was also a good concordance between the two approaches with significantly shorter mean post-processing time for the visual scoring method. There was also significant levels of correlation between the enzymatic peak values and the visual global scoring method. The visual global scoring method allows a rapid and accurate assessment of the myocardial global delayed enhancement. This study examined the effect of a single dose of cyclosporine A used at the time of reperfusion, on LV remodeling and function by cardiac magnetic resonance (CMR) in the early days and 6 months after AMI.28 patients of the original cyclosporine A study had an acute (day 5) and a follow-up (6 months) CMR study. There was a persistent 23% reduction of the absolute infarct size at 6 months without any dementrial effect in the cyclosporine A group compared with the control group of patients. Cyclosporine A used at the moment of AMI reperfusion persistently reduces infarct size and does not have a detrimental effect on LV remodeling
24

Déconvolution aveugle parcimonieuse en imagerie échographique avec un algorithme CLEAN adaptatif

Chira, Liviu Teodor 17 October 2013 (has links) (PDF)
L'imagerie médicale ultrasonore est une modalité en perpétuelle évolution et notamment en post-traitement où il s'agit d'améliorer la résolution et le contraste des images. Ces améliorations devraient alors aider le médecin à mieux distinguer les tissus examinés améliorant ainsi le diagnostic médical. Il existe déjà une large palette de techniques "hardware" et "software". Dans ce travail nous nous sommes focalisés sur la mise en oeuvre de techniques dites de "déconvolution aveugle", ces techniques temporelles utilisant l'enveloppe du signal comme information de base. Elles sont capables de reconstruire des images parcimonieuses, c'est-à-dire des images de diffuseurs dépourvues de bruit spéculaire. Les principales étapes de ce type de méthodes consistent en i) l'estimation aveugle de la fonction d'étalement du point (PSF), ii) l'estimation des diffuseurs en supposant l'environnement exploré parcimonieux et iii) la reconstruction d'images par reconvolution avec une PSF "idéale". La méthode proposée a été comparée avec des techniques faisant référence dans le domaine de l'imagerie médicale en utilisant des signaux synthétiques, des séquences ultrasonores réelles (1D) et images ultrasonores (2D) ayant des statistiques différentes. La méthode, qui offre un temps d'exécution très réduit par rapport aux techniques concurrentes, est adaptée pour les images présentant une quantité réduite ou moyenne des diffuseurs.
25

Fouille de connaissances en diagnostic mammographique par ontologie et règles d'association / Ontologies and association rules knowledge mining, case study : Mammographic domain

Idoudi, Rihab 24 January 2017 (has links)
Face à la complexité significative du domaine mammographique ainsi que l'évolution massive de ses données, le besoin de contextualiser les connaissances au sein d'une modélisation formelle et exhaustive devient de plus en plus impératif pour les experts. C'est dans ce cadre que s'inscrivent nos travaux de recherche qui s'intéressent à unifier différentes sources de connaissances liées au domaine au sein d'une modélisation ontologique cible. D'une part, plusieurs modélisations ontologiques mammographiques ont été proposées dans la littérature, où chaque ressource présente une perspective distincte du domaine d'intérêt. D'autre part, l'implémentation des systèmes d'acquisition des mammographies rend disponible un grand volume d'informations issues des faits passés, dont la réutilisation devient un enjeu majeur. Toutefois, ces fragments de connaissances, présentant de différentes évidences utiles à la compréhension de domaine, ne sont pas interopérables et nécessitent des méthodologies de gestion de connaissances afin de les unifier. C'est dans ce cadre que se situe notre travail de thèse qui s'intéresse à l'enrichissement d'une ontologie de domaine existante à travers l'extraction et la gestion de nouvelles connaissances (concepts et relations) provenant de deux courants scientifiques à savoir: des ressources ontologiques et des bases de données comportant des expériences passées. Notre approche présente un processus de couplage entre l'enrichissement conceptuel et l'enrichissement relationnel d'une ontologie mammographique existante. Le premier volet comporte trois étapes. La première étape dite de pré-alignement d'ontologies consiste à construire pour chaque ontologie en entrée une hiérarchie des clusters conceptuels flous. Le but étant de réduire l'étape d'alignement de deux ontologies entières en un alignement de deux groupements de concepts de tailles réduits. La deuxième étape consiste à aligner les deux structures des clusters relatives aux ontologies cible et source. Les alignements validés permettent d'enrichir l'ontologie de référence par de nouveaux concepts permettant d'augmenter le niveau de granularité de la base de connaissances. Le deuxième processus s'intéresse à l'enrichissement relationnel de l'ontologie mammographique cible par des relations déduites de la base de données de domaine. Cette dernière comporte des données textuelles des mammographies recueillies dans les services de radiologies. Ce volet comporte ces étapes : i) Le prétraitement des données textuelles ii) l'application de techniques relatives à la fouille de données (ou extraction de connaissances) afin d'extraire des expériences de nouvelles associations sous la forme de règles, iii) Le post-traitement des règles générées. Cette dernière consiste à filtrer et classer les règles afin de faciliter leur interprétation et validation par l'expert vi) L'enrichissement de l'ontologie par de nouvelles associations entre les concepts. Cette approche a été mise en 'uvre et validée sur des ontologies mammographiques réelles et des données des patients fournies par les hôpitaux Taher Sfar et Ben Arous. / Facing the significant complexity of the mammography area and the massive changes in its data, the need to contextualize knowledge in a formal and comprehensive modeling is becoming increasingly urgent for experts. It is within this framework that our thesis work focuses on unifying different sources of knowledge related to the domain within a target ontological modeling. On the one hand, there is, nowadays, several mammographic ontological modeling, where each resource has a distinct perspective area of interest. On the other hand, the implementation of mammography acquisition systems makes available a large volume of information providing a decisive competitive knowledge. However, these fragments of knowledge are not interoperable and they require knowledge management methodologies for being comprehensive. In this context, we are interested on the enrichment of an existing domain ontology through the extraction and the management of new knowledge (concepts and relations) derived from two scientific currents: ontological resources and databases holding with past experiences. Our approach integrates two knowledge mining levels: The first module is the conceptual target mammographic ontology enrichment with new concepts extracting from source ontologies. This step includes three main stages: First, the stage of pre-alignment. The latter consists on building for each input ontology a hierarchy of fuzzy conceptual clusters. The goal is to reduce the alignment task from two full ontologies to two reduced conceptual clusters. The second stage consists on aligning the two hierarchical structures of both source and target ontologies. Thirdly, the validated alignments are used to enrich the reference ontology with new concepts in order to increase the granularity of the knowledge base. The second level of management is interested in the target mammographic ontology relational enrichment by novel relations deducted from domain database. The latter includes medical records of mammograms collected from radiology services. This section includes four main steps: i) the preprocessing of textual data ii) the application of techniques for data mining (or knowledge extraction) to extract new associations from past experience in the form of rules, iii) the post-processing of the generated rules. The latter is to filter and classify the rules in order to facilitate their interpretation and validation by expert, vi) The enrichment of the ontology by new associations between concepts. This approach has been implemented and validated on real mammographic ontologies and patient data provided by Taher Sfar and Ben Arous hospitals. The research work presented in this manuscript relates to knowledge using and merging from heterogeneous sources in order to improve the knowledge management process.
26

Medium-range probabilistic river streamflow predictions

Roulin, Emmannuel 30 June 2014 (has links)
River streamflow forecasting is traditionally based on real-time measurements of rainfall over catchments and discharge at the outlet and upstream. These data are processed in mathematical models of varying complexity and allow to obtain accurate predictions for short times. In order to extend the forecast horizon to a few days - to be able to issue early warning - it is necessary to take into account the weather forecasts. However, the latter display the property of sensitivity to initial conditions, and for appropriate risk management, forecasts should therefore be considered in probabilistic terms. Currently, ensemble predictions are made using a numerical weather prediction model with perturbed initial conditions and allow to assess uncertainty. <p><p>The research began by analyzing the meteorological predictions at the medium-range (up to 10-15 days) and their use in hydrological forecasting. Precipitation from the ensemble prediction system of the European Centre for Medium-Range Weather Forecasts (ECMWF) were used. A semi-distributed hydrological model was used to transform these precipitation forecasts into ensemble streamflow predictions. The performance of these forecasts was analyzed in probabilistic terms. A simple decision model also allowed to compare the relative economic value of hydrological ensemble predictions and some deterministic alternatives. <p><p>Numerical weather prediction models are imperfect. The ensemble forecasts are therefore affected by errors implying the presence of biases and the unreliability of probabilities derived from the ensembles. By comparing the results of these predictions to the corresponding observed data, a statistical model for the correction of forecasts, known as post-processing, has been adapted and shown to improve the performance of probabilistic forecasts of precipitation. This approach is based on retrospective forecasts made by the ECMWF for the past twenty years, providing a sufficient statistical sample. <p><p>Besides the errors related to meteorological forcing, hydrological forecasts also display errors related to initial conditions and to modeling errors (errors in the structure of the hydrological model and in the parameter values). The last stage of the research was therefore to investigate, using simple models, the impact of these different sources of error on the quality of hydrological predictions and to explore the possibility of using hydrological reforecasts for post-processing, themselves based on retrospective precipitation forecasts. <p>/<p>La prévision des débits des rivières se fait traditionnellement sur la base de mesures en temps réel des précipitations sur les bassins-versant et des débits à l'exutoire et en amont. Ces données sont traitées dans des modèles mathématiques de complexité variée et permettent d'obtenir des prévisions précises pour des temps courts. Pour prolonger l'horizon de prévision à quelques jours – afin d'être en mesure d'émettre des alertes précoces – il est nécessaire de prendre en compte les prévisions météorologiques. Cependant celles-ci présentent par nature une dynamique sensible aux erreurs sur les conditions initiales et, par conséquent, pour une gestion appropriée des risques, il faut considérer les prévisions en termes probabilistes. Actuellement, les prévisions d'ensemble sont effectuées à l'aide d'un modèle numérique de prévision du temps avec des conditions initiales perturbées et permettent d'évaluer l'incertitude.<p><p>La recherche a commencé par l'analyse des prévisions météorologiques à moyen-terme (10-15 jours) et leur utilisation pour des prévisions hydrologiques. Les précipitations issues du système de prévisions d'ensemble du Centre Européen pour les Prévisions Météorologiques à Moyen-Terme ont été utilisées. Un modèle hydrologique semi-distribué a permis de traduire ces prévisions de précipitations en prévisions d'ensemble de débits. Les performances de ces prévisions ont été analysées en termes probabilistes. Un modèle de décision simple a également permis de comparer la valeur économique relative des prévisions hydrologiques d'ensemble et d'alternatives déterministes.<p><p>Les modèles numériques de prévision du temps sont imparfaits. Les prévisions d'ensemble sont donc entachées d'erreurs impliquant la présence de biais et un manque de fiabilité des probabilités déduites des ensembles. En comparant les résultats de ces prévisions aux données observées correspondantes, un modèle statistique pour la correction des prévisions, connue sous le nom de post-processing, a été adapté et a permis d'améliorer les performances des prévisions probabilistes des précipitations. Cette approche se base sur des prévisions rétrospectives effectuées par le Centre Européen sur les vingt dernières années, fournissant un échantillon statistique suffisant.<p><p>A côté des erreurs liées au forçage météorologique, les prévisions hydrologiques sont également entachées d'erreurs liées aux conditions initiales et aux erreurs de modélisation (structure du modèle hydrologique et valeur des paramètres). La dernière étape de la recherche a donc consisté à étudier, à l'aide de modèles simples, l'impact de ces différentes sources d'erreur sur la qualité des prévisions hydrologiques et à explorer la possibilité d'utiliser des prévisions hydrologiques rétrospectives pour le post-processing, elles-même basées sur les prévisions rétrospectives des précipitations. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
27

Effet des antirétroviraux sur la pathogénèse du VIH : une étude par modélisation mathématique intégrant la cinétique du virus, de l’immunité, du médicament, et le comportement d’adhésion avec leurs variabilités interindividuelles

Sanche, Steven 08 1900 (has links)
No description available.

Page generated in 0.0747 seconds