• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1250
  • 436
  • 125
  • 10
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1823
  • 854
  • 456
  • 310
  • 282
  • 216
  • 203
  • 193
  • 182
  • 166
  • 164
  • 144
  • 142
  • 141
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
821

Accélérateurs logiciels et matériels pour l'algèbre linéaire creuse sur les corps finis / Hardware and Software Accelerators for Sparse Linear Algebra over Finite Fields

Jeljeli, Hamza 16 July 2015 (has links)
Les primitives de la cryptographie à clé publique reposent sur la difficulté supposée de résoudre certains problèmes mathématiques. Dans ce travail, on s'intéresse à la cryptanalyse du problème du logarithme discret dans les sous-groupes multiplicatifs des corps finis. Les algorithmes de calcul d'index, utilisés dans ce contexte, nécessitent de résoudre de grands systèmes linéaires creux définis sur des corps finis de grande caractéristique. Cette algèbre linéaire représente dans beaucoup de cas le goulot d'étranglement qui empêche de cibler des tailles de corps plus grandes. L'objectif de cette thèse est d'explorer les éléments qui permettent d'accélérer cette algèbre linéaire sur des architectures pensées pour le calcul parallèle. On est amené à exploiter le parallélisme qui intervient dans différents niveaux algorithmiques et arithmétiques et à adapter les algorithmes classiques aux caractéristiques des architectures utilisées et aux spécificités du problème. Dans la première partie du manuscrit, on présente un rappel sur le contexte du logarithme discret et des architectures logicielles et matérielles utilisées. La seconde partie du manuscrit est consacrée à l'accélération de l'algèbre linéaire. Ce travail a donné lieu à deux implémentations de résolution de systèmes linéaires basées sur l'algorithme de Wiedemann par blocs : une implémentation adaptée à un cluster de GPU NVIDIA et une implémentation adaptée à un cluster de CPU multi-cœurs. Ces implémentations ont contribué à la réalisation de records de calcul de logarithme discret dans les corps binaires GF(2^{619}) et GF(2^{809} et dans le corps premier GF(p_{180}) / The security of public-key cryptographic primitives relies on the computational difficulty of solving some mathematical problems. In this work, we are interested in the cryptanalysis of the discrete logarithm problem over the multiplicative subgroups of finite fields. The index calculus algorithms, which are used in this context, require solving large sparse systems of linear equations over finite fields. This linear algebra represents a serious limiting factor when targeting larger fields. The object of this thesis is to explore all the elements that accelerate this linear algebra over parallel architectures. We need to exploit the different levels of parallelism provided by these computations and to adapt the state-of-the-art algorithms to the characteristics of the considered architectures and to the specificities of the problem. In the first part of the manuscript, we present an overview of the discrete logarithm context and an overview of the considered software and hardware architectures. The second part deals with accelerating the linear algebra. We developed two implementations of linear system solvers based on the block Wiedemann algorithm: an NVIDIA-GPU-based implementation and an implementation adapted to a cluster of multi-core CPU. These implementations contributed to solving the discrete logarithm problem in binary fields GF(2^{619}) et GF(2^{809}) and in the prime field GF(p_{180})
822

Valorisation des coproduits issus des industries d’agrumes : extraction des molécules bioactives par des technologies innovantes / Valorization of byproducts from citrus industries : extraction of bioactive molecules using innovative technologies

El Kantar, Sally 25 October 2018 (has links)
Ce travail de doctorat consiste à valoriser les coproduits issus des industries d’agrumes par des technologies innovantes. Le pressage des agrumes produit des millions de tonnes de déchets par an dans le monde. Ces déchets (peaux, pulpes et pépins) sont généralement dédiés à l’alimentation animale ou bien éliminés par compostage ou incinération. Cependant leur contenu en molécules bioactives conduit à plusieurs voies de valorisation. Vu que les peaux constituent à peu près la moitié de la masse des déchets d’agrumes, les études ont été faites sur la valorisation des peaux de différents types d’agrumes. Les méthodes conventionnelles généralement utilisées pour l’extraction des molécules d’intérêt (extraction solide-liquide, hydrodistillation) présentent plusieurs désavantages tels que l’utilisation des solvants coûteux et toxiques, les longues durées d’extraction et la consommation élevée en énergie. Pour cette raison plusieurs technologies innovantes non thermiques telles que les Champs Electriques Pulsés (CEP), les Décharges Électriques de Haute Tension (DEHT) et les ultrasons (US) et thermiques comme les microondes (MO) et les infrarouges (IR) ont été testées dans ce travail de thèse, pour la valorisation des coproduits d’agrumes. Les agrumes entiers (oranges, pomelos, citrons) sont traités par les CEP à une intensité de 3 kV/cm et l’extraction du jus d’agrumes et des polyphénols a été réalisée par pressage. L’étude de la perméabilisation cellulaire induite par les CEP a été réalisée par plusieurs méthodes et a montré que les degrés d’endommagement diffèrent selon le type d’agrumes traités. L’électroporation des cellules, induite par les CEP a permis d’augmenter les rendements en jus après pressage et d’améliorer le passage des polyphénols des peaux d’agrumes dans le jus. Ce qui explique la possibilité d’obtention d’un jus riche en polyphénols en traitant les agrumes par les CEP avant leur pressage. Parmi les solvants testés pour l’extraction des polyphénols à partir des peaux d’agrumes, l’eau est le moins efficace. L’ajout de 20% de glycérol dans l’eau a modifié la polarité du milieu et a amélioré l’extraction des polyphénols. L’utilisation d’un mélange enzymatique a favorisé la libération des polyphénols piégés dans les polysaccharides. Les solvants eutectiques profonds préparés, ont été aussi efficaces que les mélanges hydro éthanoliques. Pour améliorer d’avantages l’extraction dans les différents solvants verts ou dans le mélange enzymatique, les peaux d’agrumes ont été prétraitées par les DEHT dans l’eau. L’effet mécanique des DEHT, capable de fragmenter les peaux a permis d’améliorer l’extraction des polyphénols 6 dans les différents solvants. L’intensification de l’extraction des polyphénols a été aussi réalisée par les IR et les US. L’extraction des polyphénols par les IR a été optimisée en ayant recours à la méthodologie de surface de réponse. Le chauffage par les IR n’a pas altéré les polyphénols extraits qui ont gardé des activités antifongiques et anti-mycotoxinogènes importantes. Le prétraitement des peaux d’agrumes par les IR sans solvant a fragilisé les structures cellulaires, ce qui a permis d’augmenter la diffusion des polyphénols durant le traitement avec les US. / This work consists of the valorization of citrus by-products with innovative technologies. Citrus pressing produces millions of tons of waste per year worldwide. This waste (peels, pulps and seeds) is generally dedicated to animal feed or eliminated by composting or incineration. However its content in bioactive molecules leads to several ways of valorization. Since peels present about half of the citrus waste mass, studies have been focused on the valorization of citrus peels by the extraction of bioactive compounds. Conventional methods generally used for the extraction of bioactive compounds (solid-liquid extraction, hydrodistillation) have several disadvantages such as the use of expensive and toxic solvents, long extraction times and high energy consumption. For this reason, several innovative non-thermal technologies such as Pulsed Electric Fields (PEF), High Voltage Electrical Discharges (HVED) and Ultrasounds (US) and thermal treatments such as microwaves (MO) and infrared (IR) have been tested for the valorization of citrus by-products. Whole citrus fruits (oranges, pomelos, lemons) were PEF treated at an intensity of 3 kV/cm, then citrus juice and polyphenols were extracted by pressing. The study of the PEF-induced cell permeabilization was conducted by several methods and showed that the degree of damage varied according to the type of the treated fruit. The electroporation of the cells induced by the PEF, allowed an increase the juice yields after pressing and improved the liberation of the polyphenols from the citrus peels into the juice. This explains the possibility of obtaining a juice rich in polyphenols by treating the whole fruits with PEF before pressing. Among the solvents tested for the extraction of polyphenols from citrus peels, water is the least effective. The addition of 20% glycerol to water changed the polarity of the medium and improved the extraction of the polyphenols. The use of an enzyme mixture enhanced the release of the polyphenols related to the polysaccharides. Deep eutectic solvents have been as effective as hydroethanolic mixtures. To improve the yields and the kinetics of extractions in the different green solvents and in the enzyme mixture, citrus peels were pretreated with HVED in water. The mechanical effect of HVED, based on the fragmentation of the peels has improved the extraction of polyphenols in the various solvents. The intensification of polyphenols extraction was also conducted by IR and US. The extraction of polyphenols by IR was optimized using the surface response methodology. IR heating did not alter the extracted polyphenols which have significant antifungal and anti-mycotoxinogenic activities. The pretreatment of citrus peels with IR weakened the cell structures, increasing thus the diffusion of polyphenols during US treatment.
823

Traitements numériques pour l’amélioration de la stabilité des détecteurs spectrométriques à fort flux pour l'imagerie X / FPGA-based algorithms for the stability improvement of high-flux X-ray spectrometric imaging detectors.

De cesare, Cinzia 17 October 2018 (has links)
L'apparition des détecteurs à comptage de photons X à base de CdTe avec des capacités de discrimination de l'énergie des photons ouvre de nouvelles perspectives pour l'imagerie radiographique. Les applications médicales et en contrôle de bagages X sont caractérisées par un flux de photons X très élevé, et exigent par conséquent une mise en forme très rapide du photo-courant mesuré pour limiter les empilements. Cependant, si cette mise en forme est plus courte que le temps de transit des électrons dans le semi-conducteur, la charge mesurée devient inférieure à la charge déposée : c’est le déficit balistique. Par ailleurs, la variation dans le temps du profil du champ électrique dans le volume du détecteur entraîne une augmentation du temps de transit des électrons. En conséquence, la charge mesurée diminue dans le temps, faussant la mesure de l’énergie des photons X. L’objectif de ce travail est de caractériser cette instabilité et de développer une méthode de correction de son effet sur les spectres en énergie. Nous avons proposé un algorithme de correction basé sur l'utilisation de deux Lignes à Retard (LAR). Une LAR rapide (50ns ?) permet de mesurer les spectres X à très fort flux sans compromis sur le taux de comptage. Une LAR lente (200ns ?) est utilisée pour mesurer intégralement la charge déposée sans déficit balistique. Un facteur de correction est évalué et utilisé pour stabiliser la mesure de l’énergie des X avec la LAR rapide. Une étape importante de cet algorithme consiste à trier les impulsions traitées pour rejeter celles qui peuvent dégrader la mesure de ce facteur de correction, notamment les empilements. La méthode proposée a été implémentée dans un FPGA pour fonctionner en temps réel et a été testée avec un détecteur CdTe de 3mm d'épaisseur avec 4×4 pixels au pas de 800 microns, capable de mesurer des spectres X dans la gamme d'énergie 20-160 keV avec 256 canaux d'énergie. La méthode développée a été initialement testée à faible taux de comptage avec des sources gamma Co-57 et Am-241, puis à fort taux de comptage jusqu'à ~2 Mc/s avec un tube à rayons X. Cet algorithme innovant a montré sa capacité de fournir une réponse stable du détecteur dans le temps sans affecter la résolution d'énergie (7 % à 122 keV) et le temps mort (~70 ns). / The emergence of CdTe Photon Counting Detectors (PCD) with energy discrimination capabilities, opens up new perspectives in X-ray imaging. Medical and security applications are characterized by very high X-ray fluxes and consequently require a very fast shaper in order to limit dead time losses due to pile-up. However, if the shaper is faster than the collection of the charges in the semiconductor, there is a loss of charge called ballistic deficit. Moreover, variations of the electric field profile in the detector over time cause a change in the collection time of the charges. As a result, the conversion gain of the detector will be affected by these variations. The instability of the response is visible over time as a channel shift of the spectra, resulting in a false information of the photon energy. The aim of this work is to characterize this instability in order to understand the mechanisms behind them and to develop a method to correct its effect. We proposed a correction algorithm based on the use of two Single Delay Line (SDL) shaping amplifiers. A fast SDL is used to measure the X-ray spectra at high count rates with limited count rate losses. A slow SDL is used to measure the full collected charge in order estimate a correction factor for the compensation of the ballistic deficit fluctuations of the fast SDL. An important step is to sort the processed pulses in order to reject pile-up and other undesirable effects that may degrade the measurement of the correction factor. The proposed method was implemented in an FPGA in order to correct the ballistic deficit in real-time and to give a stable response of the detector at very high fluxes. The method was tested with a 4x4 pixels detector (CdTe) of 3 mm thickness and 800 micron pitch, which is able to measure transmitted X-ray spectra in the energy range of 20-160 kV on 256 energy bins. The developed method was initially tested at low count rate with a Co-57 and an Am-241 gamma-ray sources, then at high count rates up to ~2 Mc/s with an X-ray source. With the characterization and the validation of this innovative algorithm we prove its ability in providing a stable response of the detector over time without affecting the energy resolution (~7% at 122 keV) and the dead time (~70 ns).
824

Oxydation thermique du chrome pur en atmosphère contrôlée : propriétés semiconductrices et structurales de la chromine / Pure chromium thermal oxidation in controlled atmosphere : chromia semiconducting and structural properties

Parsa, Yohan 08 November 2018 (has links)
La durabilité chimique des alliages métalliques résulte notamment de la nature des défauts ponctuels assurant le transport au travers du film d’oxydation formé en surface. L'élaboration de couches d'oxyde modèles par oxydation thermique en pression contrôlée et ALD (Atomic Layer Deposition) et l'étude de leurs propriétés semi conductrices (conditionnées par la nature des défauts ponctuels) devrait permettre une meilleure compréhension des mécanismes de formation de ces couches d'oxyde. / The chemical durability of the metal alloy results in particular from the nature of point defects providing transport through the oxidation film formed on the surface. Models oxide layers, grown by thermal oxidation and Alomic Layer Deposition, will be studied by photoelectrochemistry. This will provide us information about the semiconductive properties of the oxide, determined by the point defect in the oxide layer, and should allow us a better understanding of the formation mechanism of these oxide.
825

Four essays in financial econometrics / Quatre Essais sur l’Econométrie Financière

Banulescu, Denisa-Georgiana 05 November 2014 (has links)
Cette thèse se concentre sur des mesures du risque financier et la modélisation de la volatilité. L’objectifgénéral est : (i) de proposer de nouvelles techniques pour mesurer à la fois le risque systémique et lerisque à haute fréquence, et (ii) d’appliquer et d’améliorer les outils économétriques de modélisation etde prévision de la volatilité. Ce travail comporte quatre chapitres (papiers de recherche).La première partie de la thèse traite des questions liées à la modélisation et la prévision des mesuresdu risque à haute fréquence et du risque systémique. Plus précisément, le deuxième chapitre proposeune nouvelle mesure du risque systémique utilisée pour identifier les institutions financières d’importancesystémique (SIFIs). Basée sur une approche spécifique, cette mesure originale permet de décomposer lerisque global du système financier tout en tenant compte des caractéristiques de l’entreprise. Le troisièmechapitre propose des mesures du risque de marché intra-journalier dans le contexte particulier des donnéesà haute fréquence irrégulièrement espacées dans le temps (tick-by-tick).La deuxième partie de la thèse est consacrée aux méthodes d’estimation et de prévision de la volatilitéincluant directement des données à haute fréquence ou des mesures réalisées de volatilité. Ainsi, dans lequatrième chapitre, nous cherchons à déterminer, dans le contexte des modèles de mélange des fréquencesd’échantillonnage (MIDAS), si des regresseurs à haute fréquence améliorent les prévisions de la volatilitéà basse fréquence. Une question liée est de savoir s’il existe une fréquence d’échantillonnage optimaleen termes de prévision, et non de mesure de la volatilité. Le cinquième chapitre propose une versionrobuste aux jumps du modèle Realized GARCH. L’application porte sur la crise / This thesis focuses on financial risk measures and volatility modeling. The broad goal of this dissertationis: (i) to propose new techniques to measure both systemic risk and high-frequency risk, and (ii) toapply and improve advanced econometric tools to model and forecast time-varying volatility. This workhas been concretized in four chapters (articles).The first part addresses issues related to econometric modeling and forecasting procedures on bothsystemic risk and high-frequency risk measures. More precisely, Chapter 2 proposes a new systemic riskmeasure used to identify systemically important financial institutions (SIFIs). Based on a componentapproach, this original measure allows to decompose the risk of the aggregate financial system whileaccounting for the firm characteristics. Chapter 3 studies the importance and certifies the validity ofintraday High Frequency Risk (HFR) measures for market risk in the special context of irregularly spacedhigh-frequency data.The second part of this thesis tackles the need to improve the estimation/prediction of volatility bydirectly including high-frequency data or realized measures of volatility. Therefore, in Chapter 4 weexamine whether high-frequency data improve the volatility forecasts accuracy, and if so, whether thereexists an optimal sampling frequency in terms of prediction. Chapter 5 studies the financial volatilityduring the global financial crisis. To this aim, we use the largest volatility shocks, as provided by therobust version of the Realized GARCH model, to identify and analyze the events having induced theseshocks during the crisis.
826

Spectroscopie Infrarouge et Raman à très haute résolution de la molécule d’éthylène. / Infrared and Raman spectroscopy at very high resolution of the ethylene molecule

Alkadrou, Abdulsamee 08 December 2016 (has links)
La spectroscopie est un outil puissant et non-destructif permettant, d’après les spectres, de remonter à des grandeurs physiques importantes telles que la concentration, la température, la pression, … du gaz en question.Les travaux présentés dans ce manuscrit sont consacrés à l’analyse des spectres infrarouges et Raman à très haute résolution de l’éthylène pour des applications atmosphériques et planétologiques.Cette thèse a été effectuée au sein du Groupe de Spectrométrie Moléculaire et Atmosphérique (GSMA) de l’Université de Reims Champagne- Ardenne. En collaboration avec l’équipe (SMPCA) au sein du laboratoire Interdisciplinaire Carnot de Bourgogne (ICB) à Dijon, l’équipe (CQP) au sien du service de Chimie Quantique et Photophysique à Bruxelles, l’Instituto de Estructura de la Materia (CSIC) à Madrid et les membres de la ligne AILES du centre de rayonnement synchrotron SOLEIL à Saint-Aubin.Cette thèse est structurée en 4 chapitres. Le premier chapitre est consacré sur les généralités de la molécule étudiée. Le second chapitre présente l’aspect théorique de la spectroscopie. Le troisième chapitre portant sur l’explication du modèle théorique qui nous avons utilisé pour effectuer l’analyse et le traitement des spectres. Dans le quatrième chapitre, nous présentons les résultats de l’analyse du spectre de la molécule de l’éthylène en différentes régions spectral.Ces résultats alimenteront des bases de données internationales telles que HITRAN (L. Rothmann) et GEISA (M. Rotger et le CNES) mais aussi peuvent servir de données modèle pour la start-up AEROVIA initiée par G. Durry, directeur de notre laboratoire. Avec ces données, nous alimenterons également la base de données européenne VAMDC. / The spectroscopy is a powerful analytical technique capable of providing Important Information physical quantities such as concentration, temperature, pressure, ... and other questions about gas.The work presented in this manuscript is devoted to analysis of high resolution infrared and Raman spectroscopy of the ethylene for atmospheric, astrophysical and planetological applications.The work described in this thesis was performed within the "Groupe de Spectrométrie Moléculaire et Atmosphérique" (GSMA) in the university of Reims Champagne-Ardenne in Reims. In national collaboration with the team (SMPCA) In collaboration in the laboratory "Interdisciplinaire Carnot de Bourgogne" (ICB) in Dijon, the team (CQP) in the service de "chimie quantique et photophysique" in Brussels. l’Instituto de Estructura de la Materia (CSIC) in Madrid and the members of the line AILES of the Synchrotron SOLEIL in Saint-Aubin.The thesis is structured into 4 main chapters. The first chapter deals with the generality of molecule studied. The second chapter represents the theoretical aspects of the spectroscopy. The third chapter dealing with the explanation of the theoretical model that we used for the analysis and processing of spectra. In the fourth chapter, we present the results of the analysis of the spectrum of the molecule of ethylene in different spectral regions.These results will feed the international databases such as HITRAN (L. Rothmann) and GEISA (Mr. Rotger and CNES), and it can also serve as a data for modeling the start-up AEROVIA initiated by G. Durry, the director of the laboratory. with these data, we can also feed the European database VAMDC.
827

Approche multi-proxys de la réponse des plages sableuses ouvertes aux événements de tempêtes, en incluant les phases de récupération / Study of open sandy beaches responses to storms including recovery periods.

Biausque, Mélanie 06 December 2018 (has links)
Cette thèse présente une étude de la dynamique des plages sableuses ouvertes dominées par la houle, au travers d’une base de données originale, couvrant une période de 29 mois, et composée de 150 levés DGPS couvrant 750m de linéaire côtier, donnant accès à la morphodynamique du site de Biscarrosse à différentes échelles de temps. Dans un premier temps, l’analyse du jeu de données à l’échelle des événements (tempêtes et successions de tempêtes appelées clusters) nous a permis de montrer que la réponse des plages sableuses aux clusters ne résulte pas de la somme des impacts induits par chaque tempête d’un cluster. Ainsi, l’effet cumulé des clusters, rapporté sur d'autres sites dans la littérature, n’est ici pas vérifié. L'impact de l’enchainement des tempêtes a également été étudié et il en résulte que lors d’un cluster, un changement des conditions hydrodynamique, à savoir, une augmentation des hauteurs de vagues et/ou du niveau d’eau, est nécessaire pour que la tempête suivante ait un impact érosif significatif sur le système. Dans un second temps, nous avons étudié la dynamique saisonnière du système plage/dune, que ce soit la saison hivernale ou estivale, dans le but de mettre en relief les principaux processus impliqués à cette échelle. Nos travaux montrent que la réponse hivernale de la plage ne dépend pas uniquement des conditions énergétiques et du profil pré-hivernal de la plage, mais également du séquençage des événements, comme lors d'un cluster. Mes travaux confirment également la nécessité de prendre en compte de nombreux paramètres dans l’étude de la dynamique hivernale des littoraux sableux : les conditions hydrodynamiques, le séquençage des évènements érosifs mais également reconstructifs, en particulier le ré-engraissement post-évènement, les transports sédimentaires cross-shore et longshore, ainsi que la position de la barre interne et des courants d’arrachements. La saison estivale est, quant-à-elle, marquée par la reconstruction de berme. Elle semble être liée à la fois aux conditions hydrodynamiques et aux caractéristiques des barres sableuses. L’étude de deux étés et deux hivers successifs a ainsi permis d’identifier les interactions entre les saisons et l’impact de la saison hivernale sur l’estivale, et l’influence de la dynamique événementielle sur la dynamique saisonnière. Elle a aussi permis de mettre en relief l’impact de l’urbanisme et des stratégies d’aménagement dans la réponse du système, à différentes échelles de temps. / This thesis presents a study of an open sandy beach wave-dominated, based on an original dataset, covering 29 months and composed by 150 DGPS surveys recorded along 750m of sandy shore, giving an access to the morphodynamic of Biscarrosse beach at different timescales. In a first time, event scale analysis showed that sandy beach response to clusters is not the result of the sum of the impact generated by each storm of a cluster on the system. Thus, the cumulated effect of clusters, described in the literature is not verified here. The storm sequencing has also been studied: during a cluster, changes in hydrodynamics conditions (rising of the water level and/or wave height) are necessary to provoke a significant erosion of the system by the second storm. In a second time, we studied the seasonal scale dynamic of the beach/dune system (winter and summer seasons) with the purpose to highlight dominant processes involved at this timescale. Beach response to winter seasons not only depends on hydrodynamic conditions and previous beach profile, but also on erosion/recovery event sequencing, post-storm recovery, cross-shore and longshore sediment transport, the barline characteristics and RIP current positions. Summer seasons are here defined by the berm reconstruction. Recovery periods are both linked to hydrodynamic conditions and barline characteristics (e.g. position and shape).The study of successive winters and summers allowed us to identify interactions between seasons, and the influence of short-scale dynamics on the seasonal one. It also emphasizes the impact of urbanism and coastal management strategies on the system’s response, at different timescales.
828

Development of novel ultrasound techniques for imaging and elastography : from simulation to real-time implementation / Sviluppo di tecniche originali ad ultrasuoni per applicazioni di imaging ed elastografia : dalla simulazione all'implementazione in tempo reale / Développement de nouvelles techniques ultrasonores pour des applications d’imagerie ou d’élastographie : de la simulation à l'implémentation temps-réel

Ramalli, Alessandro 02 April 2012 (has links)
Les techniques ultrasonores offrent de nombreux avantages, à la fois par leur utilisation facile et la sécurité du patient. De plus, la recherche, visant à étendre les possibles champs d’applications, est particulièrement active. Cependant, l’accès à des équipements adaptés et supportant des logiciels est conditio sine qua non pour l’expérimentation de nouvelles techniques. Ce projet de thèse traite des problématiques de traitement du signal et d'image dans un contexte d'imagerie médicale et vise à répondre à deux objectifs scientifiques: le premier consiste à contribuer au développement d'une puissante plateforme de recherche (ULA-OP) alors que le second a pour objectif d'introduire et de valider, grâce à cette plateforme, des méthodes de traitement non-standard qui ne pourraient pas être évaluées avec des équipements médicaux commerciaux. ULA-OP, un équipement recherche qui donne accès aux développeurs à une grande liberté de contrôle et de configuration l’ensemble des parties actives du système, de la transmission aux traitements des signaux échographiques. Il offre aussi la possibilité d’accéder aux signaux bruts à n’importe quel niveau de la chaîne de réception. Durant cette thèse, les capacités du système ont été améliorées en implémentant des outils logiciels comme des simulateurs de champ acoustique (propagation linéaire et non-linéaire), et en développant des programmes de génération de signaux post-échographique. L’ULA-OP a été crucial pour développer et tester différentes techniques non-standard telles qu’un schéma adaptatif de formation de voie et une méthode d’imagerie Doppler couleur/vecteur, qui seront détaillés dans le manuscrit. En particulier, une nouvelle méthode a été développée pour des applications d’élastographie quasi-statique. Cette méthode, basée sur un algorithme d’estimation du mouvement dans le domaine fréquentiel et combinée à une méthode d’imagerie haute fréquence, a permis d’améliorer la qualité des élastogrammes obtenus. Cette nouvelle méthode a d’abord été testée in-vitro par des traitements hors ligne des signaux reçus et pour ensuite être implémentée en temps réel sur le ULA-OP. Les résultats obtenus montrent que cette technique est performante et que les élastogrammes présentent une qualité supérieure comparée à ceux obtenues avec les méthodes connues de la littérature / Ultrasound techniques offer many advantages, in terms of both ease of realization and patients’ safety. The research aimed at expanding the fields of application, is nowadays particularly active. The availability of suitable hardware and supporting software tools is condicio sine qua non for the experimentation of new techniques. This Ph.D project addresses signal/image processing issues in medical ultrasound and seeks to achieve two major scientific goals: the first is to contribute to the development of a powerful ultrasound research platform (ULA¬OP), while the second is introducing and validating, through this platform, non-standard methods which could not be tested with commercial equipment. ULA-OP is a research system, which gives developers great freedom in terms of management and control of every section, from signal transmission to echo-signal processing; it also offers the possibility to access raw data at any point in the receive chain. During the thesis, the capabilities of the system were improved by creating advanced software tools, such as acoustic field simulators (for linear and nonlinear propagation), and by developing echo-signals post-elaboration programs. ULA-OP was crucial to develop and test various non-standard techniques such as an adaptive beamforming scheme and a color/vector Doppler imaging method, which will be detailed in this thesis. In particular, a novel technique was developed for quasi-static elastography applications. This technique, based on a frequency domain displacement estimation algorithm, combined with a high-frame-rate averaging method, aims at improving the quality of the elastograms. The new method was first tested in-vitro by offline processing the received signals, and then it was implemented in real-time on ULA-OP. The results show that this technique is effective and that the obtained elastograms present higher quality compared with those obtained with standard algorithms
829

Implementation of high voltage Silicon Carbide rectifiers and switches / Conception et réalisation de composants unipolaires en Carbure de Silicium

Berthou, Maxime 18 January 2012 (has links)
Nous présentons dans ce document, notre étude de la conception et la réalisation de VMOS et de diodes Schottky et JBS en carbure de silicium. Ce travail nous a permis d'optimiser et de fabriquer des diodes utilisant une barrière Schottky en Tungsten de différentes tenues en tension entre 1,2kV et 9kV. De plus, notre étude du VMOS nous a permis d'identifier la totalité des problèmes auxquels nous faisons face. Ainsi, nous avons pu améliorer ces composants tout en essayant de nouveaux designs tels que le VIEMOS et l'intégration monolithique de capteurs de temperature et de courant. / In this document, we present ou study about the conception and realization of VMOS and Schottky and JBS Diodes on Silicon Carbide. This work allowed us optimize and fabricate diodes using Tungsten as Schottky barrier on both Schottky and JBS diodes of different blocking capability between 1.2kV and 9kV. Moreover, our study of the VMOS, by considering the overall fabrication process, has permitted to identify the totality of the problems we are facing. Thusly we could ameliorate the devices and try new designs as the VIEMOS or the monolithic integration of temperature and current sensors.
830

Mise en oeuvre de nouveaux matériaux d’assemblage dans les modules multipuces de puissance (MCM) / Use of new bonding materials for multi chip module (MCM)

Hascoët, Stanislas 19 November 2013 (has links)
L’introduction des composants grand gap dans le domaine de l’électronique de puissance requiert une optimisation de son environnement (packaging). En effet, les températures auxquelles peuvent être utilisés ce type de composants sont bien souvent plus grandes que celles supportables par le reste du module. De nouvelles techniques d’assemblage sont à l’étude et notamment certaines à base de frittage d’argent. Ces procédés présentent l’avantage de réaliser l’assemblage à une température modérée (similaire à celle d’une brasure), mais toutefois inférieure à celle de fusion de l’argent. La température de fusion du joint d’attache reste celle du matériau massif (plus de 900°C pour l’argent). Cette technique permet donc de réaliser des attaches pouvant fonctionner à très haute température. Ce travail de thèse a porté sur la mise en oeuvre d’une attache de puce par frittage d’argent. Après une étude des paramètres du procédé permettant d’obtenir la meilleure tenue mécanique (cisaillement), nous avons mis en évidence l’effet prépondérant de la finition des pièces à joindre. Lorsque la finition du substrat est de l’argent, aucun problème d’interface n’est observé et les assemblages sont fiables à t0 et en vieillissement. Généralement, la finition standard pour l’électronique de puissance est constituée d’une couche de nickel et d’or. Pour cette finition, le mécanisme semble différent selon l’épaisseur d’or présente sur le substrat ainsi que l’atmosphère utilisée pour le traitement thermique ou encore la charge appliquée. Globalement, plus l’épaisseur d’or est importante, moindre est l’accroche. Ce comportement semble fortement lié à la diffusion extrêmement rapide de l’argent en surface de l’or (et dans l’or). Cette diffusion a pour conséquence la formation d’une couche de solution solide or-argent. Cette couche a pour source de matière les grains d’argent qui permettent l’adhérence du joint d’argent fritté sur le substrat. Lorsque le volume d’or disponible pour la formation de cette couche est grand, la croissance de celle-ci est favorisée (en termes de surface et d’épaisseur). Cette croissance engendre une consommation des « piliers » d’argent et donc un affaiblissement de l’attache. L’application de pression semble augmenter fortement la concentration de piliers et améliore les résultats, tandis que sous azote, la diffusion de l’argent en surface de l’or semble inhibée, permettant l’obtention de bons résultats (à t0 et après cyclage). Ces résultats ont été mis en pratique pour la réalisation de plusieurs prototypes, dont l’un a été testé électriquement et ce de façon fonctionnelle à plus de 300°C. / Use of wide band gap chip in the power electronic industry requires an optimization of the close environment (packaging). Indeed, the can often sustain lower temperature than the die, especially the solder that are used to bond the parts of the module. Consequently, new bonding methods are investigated to enhance the performance of the packages. Silver sintering bonding technique is one the most promising. This method allow to bond parts at moderate temperature and the formed joint to operate at very high temperature (until the melting point of silver). This work is focused on the development of this bonding technique in the case of bonding a dies on a substrate. A study of the influence of the different parameters on the strength of the formed bond has been done. It revealed a major influence of the finishes of the bonded parts. Bonding on silver finished substrate results in good mechanical strength of the bond even after ageing. Furthermore, no interface issues are observed. However, the most used finish for power electronic is not silver but nickel-gold. Regarding this type of finish, the bond quality depends on the gold thickness, sintering profile and also sintering atmosphere. A solid solution of silver and gold seems to develop on the surface of the substrate, decreasing the section of the silver grains in contact with the substrate. Thus the mechanical strength of the assembly is decreased. This effect should be limited by the gold available for the Au-Ag solid solution growth. When sintering under nitrogen, the diffusion of silver on the gold surface is much lower than under air. Good results have been obtained with these configurations and even after ageing. Adding pressure during the thermal treatment seems also to minimize the phenomenon, probably by increasing the number of silver grains in contact with the substrate surface and so reducing the free surface for Au-Ag layer formation. Those results have been used to build prototypes, one of whom has been electrically tested with success at temperatures up to 300°C.

Page generated in 0.0542 seconds